Google Assina Contrato Classificado de IA com Pentágono e Enfrenta Reação Interna
-
Maicon Ramos
- 3 minutos de leitura
Navegue por tópicos
Google firmou compromisso com o Pentágono para uso de IA militar em meio a protestos internos.
- Mais de 600 funcionários protestaram contra o acordo.
- Contrato permite uso irrestrito dos modelos de IA em redes classificadas.
- Empresa removeu restrições anteriores contra uso militar e vigilância.
- Debate ético sobre IA militar é reacendido no setor de tecnologia.
Google assina acordo classificado com o Departamento de Defesa dos EUA
A Google firmou um contrato classificado com o Pentágono para fornecer seus modelos de inteligência artificial para uso em redes governamentais restritas, levantando questões éticas e provocando reações internas significativas. O acordo foi oficialmente fechado em 28 de abril de 2026, menos de 24 horas após uma carta aberta de mais de 600 funcionários que expressaram oposição ao negócio.
Termos do contrato e implicações
O contrato concede ao Departamento de Defesa dos EUA (DoD) direitos amplos para usar os modelos de IA do Google para “qualquer propósito governamental lícito” em redes classificadas, sem que a empresa possa exercer veto ou controle legal sobre as decisões operacionais do governo. A remoção da cláusula da empresa contra uso de armas na sua política de IA em 2025 facilitou esta flexibilização.
Contexto e reação dos funcionários
Mais de 600 funcionários do Google protestaram formalmente contra o contrato, enviando uma carta ao CEO Sundar Pichai em 27 de abril de 2026, solicitando a rejeição do acordo. Esses protestos refletem preocupações sobre possível uso da IA para vigilância em massa ou sistemas de armamento autônomos sem supervisão humana.
Comparação com outros acordos no mercado de IA militar
- Google: Contrato assinado com termos sem veto e uso flexível para “qualquer propósito lícito”.
- Anthropic: Rejeitou termos similares por salvaguardas contra vigilância e armas autônomas; rotulada como “risco à cadeia de suprimentos” pelo Pentágono.
- OpenAI: Assinou acordo mantendo discrição total sobre a segurança da IA.
- xAI: Também fechou acordo, sem relatos públicos de tensões internas.
Críticas e desafios éticos
Especialistas e funcionários discutem que a cláusula de “uso lícito” não previne juridicamente abusos como vigilância doméstica ou armas letais autônomas. A decisão da Google marca um afastamento dos compromissos éticos anunciados anteriormente, gerando risco de impacto negativo na reputação e possível perda de talento alinhado a princípios de IA responsável.
O acordo sinaliza uma mudança na indústria de tecnologia, onde o potencial bilionário dos contratos de defesa pode se sobrepor aos esforços por governança ética da inteligência artificial.








