As grandes desenvolvedoras do ramo de IA, como OpenAI e Anthropic, estão se aproximando das forças armadas dos Estados Unidos e outras empresas de segurança na tentativa de vender seus softwares de IA. A adesão do setor militar parece estar funcionando, já que até o Pentágono aderiu à tecnologia.

Em entrevista ao TechCrunch, a diretora digital e de IA do Pentágono, Dra. Radha Plumb, revelou que as ferramentas não estão sendo usadas como armas, mas que representam uma “vantagem significativa” na hora de identificar, rastrear a avaliar ameaças. No entanto, a aplicação é contraditória por parte das empresas do setor.

inteligencia artificial
Pentágono não revelou qual modelo de IA está usando (Imagem: Anggalih Prasetya/Shutterstock)

Pentágono está usando IA

Segundo Plumb, o Pentágono (sede do Departamento de Defesa dos EUA) está “aumentando as maneiras pelas quais podemos acelerar a execução da ‘cadeia de destruição’ para que nossos comandantes possam responder no momento certo para proteger nossas forças”.

A cadeia de destruição à qual a diretora se refere é o processo militar de identificar, rastrear e planejar a eliminação de ameaças. Esse processo envolve uma diversidade e técnicas, sensores, plataformas e armas. É aí que a IA entra: a tecnologia está ajudando nas fases de planejamento e estratégia dessa cadeia.

Mas há uma contradição: até pouco tempo, as desenvolvedoras não permitiam que seus modelos de IA fossem usados para fins militares. Isso mudou no ano passado, quando OpenAI, Anthropic e Meta mudaram suas políticas de uso para viabilizar a aplicação das ferramentas por parte das agências de inteligência e defesa dos EUA. No geral, o que se manteve é que as IAs não podem prejudicar humanos, o que, novamente, pode ser contraditório no caso das forças armadas.

Como o relacionamento do Pentágono com as empresas do setor é relativamente recente, o entendimento desses limites está em curso. O Departamento de Defesa tampouco revelou qual modelo de IA está usando.

US Militaries 1Milhao Internet
Outras empresas do setor de inteligência e defesa dos Estados Unidos já firmaram parcerias com desenvolvedoras de IA (Crédito: Christopher Lyzcen/Shutterstock)

Desenvolvedoras estão se aproximando das forças armadas e setor de defesa

Não é só o Pentágono que aderiu à IA na defesa:

  • A Meta fechou parceira com a Lockheed Martin (empresa aeroespacial de segurança) e com a Booz Allen (empresa de consultoria de defesa e missões de segurança) para uso dos modelos Llama AI em novembro do ano passado;
  • Também em novembro, a Anthropic fechou parceria como a Palantir (companhia de softwares especializada em serviços para o governo estadunidense). A Cohere, empresa de IA focada em usos empresarias, fez o mesmo;
  • Já em dezembro, a OpenAI se uniu à empresa de tecnologias de defesa Anduril.
Logo da Anthropic
Anthropic proíbe aplicação da IA para prejudicar vidas humanas, mas CEO defende uso militar com responsabilidade (Imagem: Tada Images/Shutterstock)

O que esperar da união entre Pentágono e IA?

Conforme as agências de inteligência e defesa se tornam adeptas à IA, é provável que as desenvolvedoras flexibilizem suas políticas de uso para permitir aplicações militares. A própria adesão por parte do Pentágono deixa isso claro, já que a ‘cadeia de destruição’ violaria políticas de usos de vários modelos de linguagem famosos.


A Anthropic, por exemplo, proíbe o uso das suas ferramentas para produzir ou modificar “sistemas projetados para causar danos ou perda de vidas humanas”. No entanto, em entrevista ao Financial Times, o CEO da desenvolvedora, Dario Amodei, defendeu que a IA pode, sim, ser usada para “fazer qualquer coisa que quisermos — até e incluindo armas do dia do juízo final”. Para ele, a questão é “buscar o meio termo” e “fazer as coisas de forma responsável”.

Leia mais:

As outras empresas (OpenAI, Meta e Cohere) não responderam aos pedidos de comentários do TechCrunch.

Quando questionada se o Pentágono estava usando armas totalmente autônomas, Plumb negou e disse que, por questões de ética e confiabilidade, a Defesa dos EUA sempre terá humanos em decisões relacionadas ao uso de força armada. Para ela, a ideia de que tecnologias independentes capazes de tomar decisões de ‘vida ou morte’ sem auxílio humano é algo da ‘ficção científica’.