- criar ou usar certas armas de destruição em massa para causar destruição em massa,
- causar ferimentos em massa ou pelo menos US$ 500 milhões em danos ao conduzir um ataque cibernético a infraestruturas críticas ou operar com supervisão humana limitada e resultar em morte, lesões corporais ou danos materiais de uma forma que seria criminosa se cometida por uma pessoa.
- e outros riscos semelhantes.
Também exigia que os engenheiros usassem interruptores de interrupção ou “recursos de desligamento” no caso de interrupções críticas na infraestrutura. O projeto de lei também estipula que os modelos cobertos implementam políticas de segurança cibernética e proteção sob rigorosas obrigações de testes, auditoria, relatórios e auditoria.
Alguns especialistas em IA dizem que estas e outras disposições do projeto de lei são excessivas. David Brauchler, chefe de IA e aprendizado de máquina na América do Norte do NCC Group, disse ao CSO que este projeto de lei “fala sobre o perigo apresentado pela cultura do medo, onde as pessoas têm medo de que esses tipos desacelerem e comecem a trabalhar fora de maneiras que não são criados pelo comportamento No espaço onde trabalhamos em conjunto com esses sistemas, não vimos que isso estivesse próximo de um risco sistêmico imediato ou iminente.”
O fardo dos acidentes graves era demasiado pesado para os grandes intervenientes
Além disso, os graves encargos com lesões decorrentes do projeto de lei podem ter sido pesados demais até mesmo para os jogadores de elite. “A definição de dano crítico é tão ampla que os desenvolvedores terão que dar garantias e dar garantias que cubram um grande número de áreas que podem ser vulneráveis e dar garantias que são muito difíceis de fazer se você divulgar esse modelo publicamente e abertamente”, Benjamin . Brooks, membro do Centro Berkman Klein para Internet e Sociedade da Universidade de Harvard e ex-chefe de políticas públicas da Stability AI, disse ao CSO.