Usar a inteligência artificial para substituir parte da força de trabalho do governo pode ser uma maneira de o Departamento de Eficiência do Governo (DOGE) compensar a força de trabalho perdida, assumindo o novo plano que seu Hatching funciona. Também pode ser a mais recente controvérsia relacionada a Doge na curta história do departamento. Isso porque ainda estamos nos primeiros dias da IA, e os chatbots não podem substituir completamente os seres humanos por nenhum grau de confiabilidade.
Ainda assim, o Doge implantará um programa GSAI (ou GSA Chat) para 1.500 trabalhadores federais, com planos de disponibilizá -lo para mais de 10.000 funcionários da GSA – o que é responsável por toda a força de trabalho da agência. A GSA é a Administração de Serviços Gerais, uma filial do governo dos EUA que gerencia contratos e serviços no valor de mais de US $ 100 bilhões.
O desenvolvimento da GSAI começou no ano passado, sob o governo Biden como um programa de teste com o GuardRails específicos em vigor. O governo Trump já revogou a ordem executiva de Biden sobre segurança de IA e acelerou agressivamente o desenvolvimento e a implantação da GSAI.
A palavra dos planos de Doge com Gsai saiu, com O Atlântico Tendo conversado com os funcionários atuais e antigos da GSA com acesso ao programa. O Atlântico Também obteve acesso a documentos internos, gravações e o código GSAI, disponível no GitHub.
Gsai começou sob o governo Biden. Uma pequena equipe de tecnologia da GSA, conhecida como 10X, projetou a IA como um teste para esses programas. O programa era conhecido como “10x AI Sandbox” na época e não deveria ser um chatbot como o ChatGPT. Em vez disso, deveria ser um ambiente econômico para os funcionários federais testarem a IA e seu uso para seu trabalho específico.
Depois que o governo Trump assumiu, o projeto de IA decolou com Doge, tornando -se o atual GSAI Chatbot. Os aliados da Doge pressionaram para acelerar seu desenvolvimento, assim como o departamento começou a demitir funcionários ou incentivar demissões.
O relatório observa que o GSAI se parece muito com o ChatGPT. Ele possui uma caixa rápida na qual os usuários emitem comandos e o chatbot responde. A IA pode redigir e -mails, escrever código e “muito mais!” Isso está de acordo com um e -mail interno do diretor de AI da GSA, Zach Whitman.
A GSAI suporta modelos de meta e antropia, mas não é tão avançado quanto alguns programas de IA comerciais. Por exemplo, você não pode enviar documentos para o chatbot agora, mas as versões futuras podem apoiá -lo.
O Atlântico Notas O GSAI pode ser usado para tarefas mais complexas no futuro:
O programa poderia ser usado para planejar projetos governamentais em larga escala, informar reduções em vigor ou consultar repositórios centralizados de dados federais, disse-me o trabalhador da GSA.
O relatório também observa as observações de Thomas Shedd feitas em uma reunião recente nos Serviços de Transformação de Tecnologia (TTS), a divisão de TI da GSA. Um ex -engenheiro da Tesla, Shedd agora é o diretor do TTS. Ele disse que a agência está empurrando uma “estratégia da IA-primeira”, onde tecnologia e automação podem compensar a força de trabalho humana terminada por Doge.
Shedd disse que “agentes de codificação” podem ser empregados em todo o governo, e a IA poderia “executar análises sobre contratos”. O software pode ser usado para “automatizar” a “função financeira” da GSA. Tudo isso parece viável, pois estamos chegando a um lugar onde existem agentes de codificação, pelo menos das empresas de IA que implantam produtos comerciais. Mas também é uma ilusão no momento, considerando que o GSAI não pode ser tão avançado quanto o ChatGPT, o Claude e outras AIs comerciais que receberam recursos agênticos.
O relatório menciona outra reunião em que Shedd disse que o próprio TTS pode se tornar “pelo menos 50 % menor” dentro de semanas. O TTS também abriga a equipe que construiu Gsai. Isso pode ser um problema para o desenvolvimento dessa ferramenta interna de IA.
O Atlântico Também aponta o desejo do governo Trump de expulsar o software rapidamente, sem primeiro determinar se seria adequado para o trabalho governamental. O plano inicial para essa IA foi testar os produtos de IA para o trabalho governamental, em vez de confiar neles para todas as tarefas.
Um ex -funcionário da GSA alertou sobre alguns dos riscos óbvios com a GSAI com o qual Doge não parece se preocupar:
“Eles querem selecionar dados do contrato na IA para analisá -los quanto a fraudes em potencial, o que é um ótimo objetivo. E também, se pudéssemos fazer isso, já estaríamos fazendo isso. ” O uso da IA cria “um risco muito alto de sinalizar falsos positivos”, disse o funcionário, “e não vejo nada sendo considerado para servir como um cheque contra isso”.
O relatório observa que uma página de ajuda para os primeiros usuários da GSAI fornece avisos sobre alucinações de IA, “respostas tendenciosas ou estereótipos perpetuados” e “questões de privacidade”. Ele também diz aos usuários para não incluir informações pessoais ou informações não classificadas sensíveis em bate -papos com a IA. Não está claro, no entanto, se alguém está aplicando a segurança da IA.
Dado que levou anos para programas como ChatGPT, Claude, Gemini e DeepSeek para chegar onde estão hoje, incluindo apoio precoce ao comportamento agêntico, onde a IA pode fazer navegação e codificação por conta própria em resposta a um rápido, é improvável que o GSAI possa exibir sofisticação semelhante. É um chatbot de meses avançado durante os tempos tumultuados. Vai levar tempo e dedicação para torná -lo tão poderoso quanto o chatgpt.
Enquanto isso, você pode e deve verificar O Atlântico Relatório completo Neste link.