Início Tecnologia Relatório em co-autoria por FEI-FEI Li enfatiza a necessidade de os regulamentos...

Relatório em co-autoria por FEI-FEI Li enfatiza a necessidade de os regulamentos de IA considerarem riscos futuros

18
0

Um novo relatório é co-autor de autoridade do pioneiro da inteligência artificial, Fei-Fei Li, exorta os legisladores a antecipar riscos futuros que ainda não foram concebidos ao elaborar regulamentos para governar como a tecnologia deve ser usada.

O Relatório de 41 páginas Pelo conjunto conjunto do grupo de trabalho de política da Califórnia na Frontier AI, ocorre depois que o governador da Califórnia, Gavin Newsom, abriu a conta original de segurança da AI do estado, SB 1047. veto que legislação divisória No ano passado, dizendo que os legisladores precisam de uma avaliação mais extensa do risco de IA antes de tentar elaborar uma melhor legislação.

Li (foto) foi co-autor do relatório ao lado da Carnegie Endowment for International Peace Prescher Mariano-Florentino Cuéllar e da Universidade da Califórnia no Dean Jennifer Tour Chayes da Berkeley College. Nele, eles enfatizam a necessidade de regulamentos que garantiriam mais transparência para os chamados “modelos de fronteira” sendo construídos por empresas como OpenAI, Google LLC e PBC antropal.

Eles também pedem aos legisladores que considerem forçar os desenvolvedores de IA a divulgar informações publicamente, como seus métodos de aquisição de dados, medidas de segurança e resultados dos testes de segurança. Além disso, o relatório enfatizou a necessidade de padrões mais rigorosos em relação às avaliações de terceiros das políticas corporativas e de segurança da IA. Também deve haver proteções implementadas para os denunciantes nas empresas de IA, recomenda.

O relatório foi revisado por inúmeras partes interessadas da indústria de IA antes de ser publicado, incluindo o advogado de segurança da IA ​​Yoshua Bengio e o co-fundador da Databricks Inc., Ion Stoica, que argumentou contra a conta original do SB 1047.

Uma seção do relatório observa que atualmente existe um “nível inconclusivo de evidência” em relação ao potencial da IA ​​a ser usado em ataques cibernéticos e a criação de armas biológicas. Os autores escreveram que quaisquer políticas de IA devem, portanto, não apenas abordar os riscos existentes, mas também quaisquer riscos futuros que possam surgir se salvaguardas suficientes não forem implementadas.

Eles usam uma analogia para enfatizar esse ponto, observando que ninguém precisa ver uma arma nuclear explodindo para prever o grande dano que causaria. “Se aqueles que especulam sobre os riscos mais extremos estão certos – e não temos certeza se forem -, as apostas e os custos de inação na IA da Frontier neste momento atual são extremamente altos”, afirma o relatório.

Dado esse medo do desconhecido, os co-autores dizem que o governo deve implementar uma estratégia dupla em torno da transparência da IA, focada no conceito de “confiança, mas verifique”. Como parte disso, os desenvolvedores de IA e seus funcionários devem ter uma maneira legal de relatar novos desenvolvimentos que possam representar um risco de segurança sem ameaça de ação legal.

É importante observar que o relatório atual ainda é apenas uma versão provisória e que o relatório concluído não será publicado até junho. O relatório não endossa nenhuma legislação específica, mas as preocupações de segurança de que seus destaques foram bem recebidas por especialistas.

Por exemplo, o pesquisador da IA, Dean Ball, na Universidade George Mason, que criticou notavelmente a conta do SB 1047 e ficou feliz em vê -la vetada, postou em X que é um “passo promissor” para a indústria. Ao mesmo tempo, o senador estadual da Califórnia, Scott Weiner, que introduziu o projeto de lei do SB 1047, observou que o relatório continua as “conversas urgentes em torno da governança da IA”, que foram originalmente criadas em sua legislação abortada.

Foto: Steve Jurvetson/Flickr

Seu voto de apoio é importante para nós e nos ajuda a manter o conteúdo livre.

Um clique abaixo suporta nossa missão de fornecer conteúdo gratuito, profundo e relevante.

Junte -se à nossa comunidade no YouTube

Junte -se à comunidade que inclui mais de 15.000 especialistas em #Cubealumni, incluindo o CEO da Amazon.com, Andy Jassy, ​​o fundador e CEO da Dell Technologies, Michael Dell, o CEO da Intel Pat Gelsinger e muito mais luminárias e especialistas.

“O TheCube é um parceiro importante da indústria. Vocês realmente fazem parte de nossos eventos e realmente apreciamos que você venha e eu sei que as pessoas apreciam o conteúdo que você cria também” – Andy Jassy

OBRIGADO

fonte