Em “2001: uma odisseia espacial”, o Hal 9000 foi construído para ser infalível. Em vez disso, tornou -se perigosamente desalinhado com seus operadores humanos: priorizou sua sobrevivência sobre a segurança dos humanos.
Embora os sistemas de inteligência artificial de hoje não sejam sencientes, as preocupações subjacentes à rebelião fictícia de Hal – desalinhamento da AI, perda de controle e conseqüências não intencionais – estão no centro das discussões de governança de IA de hoje.
Os executivos líderes de empresas orientadas pela IA reconhecem o imenso potencial da IA, mas também estão fazendo perguntas difíceis: que riscos devemos planejar? Estamos preparados para consequências não intencionais? Só porque podemos fazer algo com a IA, isso significa que devemos?
Recentemente, um de nossos clientes me pediram para fazer uma apresentação sobre os riscos existenciais da IA. Por todas as contagens, esse cliente tem sido líder na adoção da IA em sua empresa e um forte defensor da governança da IA desde o início de sua jornada. Muitas figuras proeminentes, incluindo Elon Musk, Geoffrey Hinton, Yuval Noah Harari, Nick Bostrom, Stuart Russell e até o executivo -chefe do Openai, Sam Altman, exaltaram o potencial da IA, por um lado, para avisar as terríveis conseqüências não intencionais.
Para navegar nesse cenário, os diretores de informação precisam de uma compreensão pragmática dos riscos existenciais da IA, das visões concorrentes para seu desenvolvimento e as forças geopolíticas que moldam sua trajetória.
Definindo o risco de IA existencial
Embora grande parte da conversa de risco de IA se concentre em preconceitos, privacidade e interrupção econômica, os riscos existenciais estão em uma categoria diferente – cenários em que a IA ameaça a sobrevivência humana ou altera drasticamente a civilização. Esses riscos não são apenas sobre IA superando a inteligência humana; Eles resultam de sistemas otimizando para objetivos que não se alinham aos valores humanos, operando em escalas além do nosso controle.
O espectro de risco
Riscos de curto prazo: Falhas sistêmicas em aplicações críticas de IA (por exemplo, segurança cibernética, finanças e militares) causando interrupções globais em cascata.
Riscos de médio prazo: O surgimento da inteligência geral artificial com poder de tomada de decisão que desafia a governança humana.
Riscos de longo prazo: Superintelligência artificial, ou ASI, superando o controle humano, potencialmente tomando decisões irreversíveis para a civilização.
Embora a ASI permaneça teórica, os CIOs de hoje já estão lutando com os modelos de IA que são imprevisíveis, opacos e capazes de aprender autodirigido, levantando questões sobre governança e responsabilidade.
A corrida para a Superintelligência
A evolução da IA é frequentemente enquadrada em três etapas:
AI estreita: Sistemas específicos de tarefas (por exemplo, chatbots e algoritmos autônomos) que, embora poderosos, são propensos a consequências não intencionais (por exemplo, algoritmos de contratação tendenciosos e robôs desinformantes).
Inteligência Geral Artificial: AI capaz de raciocinar em vários domínios em nível humano. Alguns especialistas acreditam que poderíamos alcançar a AGI nas próximas décadas.
Superintelligência Artificial: AI que excede em muito a inteligência humana. A preocupação central? Uma otimização do ASI para o objetivo errado pode ser catastrófico.
O desafio crítico não é apenas inteligência, é controle. Depois que a IA pode se auto-melhorar a uma taxa exponencial, os mecanismos tradicionais de supervisão podem se tornar obsoletos.
Abordagens concorrentes para o desenvolvimento da IA
A trajetória da IA não é apenas uma questão tecnológica, é um campo de batalha de ideologias concorrentes:
AI monolítica: Uma IA única e abrangente treinou em vastos conjuntos de dados para resolver desafios amplos-semelhante a supercomputadores centralizados, como o pensamento profundo do “Guia do Malfiário da Galáxia”.
Inteligência de enxame: Uma abordagem descentralizada, onde muitos agentes de IA menores trabalham juntos, semelhantes às colônias de formigas ou
Mind Flayer em “Stranger Things”, permitindo uma tomada de decisão adaptativa e resiliente.
Essas opções técnicas estão entrelaçadas com agendas geopolíticas e corporativas.
Divisão geopolítica e ideológica da IA
O futuro da IA não está apenas sendo moldado em laboratórios de pesquisa, está ocorrendo em salas de reuniões e escritórios do governo em todo o mundo. As principais facções incluem:
Aceleração, ou e/acc: Os defensores de impulsionar o desenvolvimento da IA o mais rápido possível, acreditar que a inovação resolverá problemas emergentes.
Altruístas eficazes: Focado na segurança da IA e na defesa de regulamentos rígidos para mitigar ameaças existenciais.
Advogados de ética da IA: Originalmente focado em viés, transparência e justiça, mas agora expandindo seu escopo para riscos de longo prazo.
Especialistas em governança da IA: Pressionando por guardrails regulatórios, desde a Lei da AI da UE até os padrões internacionais de segurança da IA.
Os CIOs devem avaliar onde suas organizações se enquadram nesse espectro e se preparam para uma paisagem regulatória em evolução.
Por que os CIOs devem agir agora
O desenvolvimento da IA não está desacelerando. Trigger eventos como crises econômicas, conflitos geopolíticos ou mudanças regulatórias podem acelerar a adoção de maneiras pelas quais as empresas não estão prontas. A pandemia forçou as indústrias a adotar a automação durante a noite. Uma futura interrupção orientada à IA pode ser ainda mais imprevisível.
O que os CIOs podem fazer hoje?
* Invista em IA transparente e explicável: Os modelos de caixa preta aumentam a exposição ao risco. Os sistemas transparentes aumentam a confiança e a conformidade.
* Implementar governança da IA: Avalie proativamente as implantações de IA quanto a riscos e conseqüências não intencionais continuamente. Não apenas a governança da IA pode proteger as organizações dos riscos, mas também pode ajudá -los a acelerar as implantações de IA e eliminar barreiras à inovação.
* Advogado por regulamentação inteligente: A regulação excessiva pode sufocar a inovação, mas a governança responsável é essencial para a sustentabilidade a longo prazo.
* Estabeleça um “interruptor de mata” da AI: Garanta que existem mecanismos para interromper as ações da IA antes de escalarem além do controle humano.
Pensamentos finais: uma abordagem pragmática ao risco de IA
Os riscos existenciais da IA não são inevitáveis nem puramente hipotéticos. Embora “2001: uma odisséia no espaço” tenha apresentado um conto de advertência, a governança da IA do mundo real está em nossas mãos. As decisões tomadas hoje determinarão se a IA permanece um aliado poderoso ou se torna uma força que lutamos para conter.
A trajetória de Ai ainda não é escrita. Vamos garantir que moldemos com responsabilidade.
Adriano Koshiyama é co-fundador e co-CEO da IA holística, criadora da plataforma de governança da IA que visa capacitar as empresas a adotar e escalar a IA com confiança. Antes de fundar a IA holística, Adriano trabalhou em pesquisa de IA na Goldman Sachs e estava no Alan Turing Institute. Ele é um membro ativo do grupo de riscos e responsabilidade da IA na OCDE AI/GPAI e pesquisador honorário em ciência da computação no University College London, onde possui um doutorado. em ciência da computação. Ele escreveu este artigo para Siliconangle.
Imagem: Siliconangle/Ideogram
Seu voto de apoio é importante para nós e nos ajuda a manter o conteúdo livre.
Um clique abaixo suporta nossa missão de fornecer conteúdo gratuito, profundo e relevante.
Junte -se à nossa comunidade no YouTube
Junte -se à comunidade que inclui mais de 15.000 especialistas em #Cubealumni, incluindo o CEO da Amazon.com, Andy Jassy, o fundador e CEO da Dell Technologies, Michael Dell, o CEO da Intel Pat Gelsinger e muito mais luminárias e especialistas.
OBRIGADO