* Advogado, pós-graduado em Direito Digital e pesquisador do Legal Grounds Institute.
A guerra sempre foi uma arena onde a tecnologia e a inovação desempenharam papéis significativos. A condição crítica dos conflitos bélicos impulsiona investimentos e criatividade, acelerando avanços tecnológicos. Seja nos primórdios dos conflitos humanos, na corrida armamentista da Guerra Fria ou nas estratégias de combate nas guerras modernas, a tecnologia tem papel relevante como diferencial entre as partes do conflito. Com a prevalência da inteligência artificial (IA) em nosso cotidiano, e seu crescente escopo de atuação, surge a questão de como ela pode ser aplicada em conflitos armados.
Ao relacionar a inteligência artificial com a guerra, a primeira reflexão nos leva naturalmente às “killer machines” – robôs autônomos capazes de substituir soldados e veículos tripulados no campo de batalha, atuando sem intervenção humana direta e relevante. Os dilemas éticos e legais desse tipo de aplicação são altamente complexos, e, na verdade, vêm sendo levantados há mais de 15 anos por alguns especialistas; em 2017, especialistas inclusive endereçaram à Organização das Nações Unidas um pedido para banir armas autônomas letais internacionalmente, em razão de questões como a delegação de decisões letais para a tecnologia.
No entanto, a aplicação da IA na guerra não se limita apenas a esse cenário de automatização do conflito. Apesar de haver aplicações da IA em mísseis com a tecnologia embarcada ou em sistemas antiaéreos, a IA desempenha um papel fundamental em questões do conflito fora do enfrentamento bélico. Essas aplicações incluem questões logísticas do conflito como o planejamento de suprimentos, definição de rotas, antecipação de estratégias e cenários, processamento de comunicações relacionadas ao conflito, análise de imagens capturadas por satélite para detecção de atividade bélica, análise de imagens de câmeras e até mesmo o monitoramento e análise de informações publicamente disponíveis na internet. Todas essas atividades, embora não diretamente bélicas, têm um potencial significativo de aplicação da IA, e podem fornecer vantagens estratégicas para os envolvidos no conflito.
Por exemplo, o uso de IA em análises de inteligência geoespacial permite a combinação de várias fontes de imagem, como imagens de satélite, circuitos de câmera e postagens em mídias sociais, para fornecer uma compreensão mais precisa da localização de alvos bélicos, movimentação de tropas e outros aspectos críticos do campo de batalha.
Assim, a IA tem se tornado uma peça central em conflitos armados, especialmente nas áreas não diretamente relacionadas ao combate. Sua capacidade de processar grandes volumes de dados e fornecer insights valiosos a torna um elemento estratégico. No entanto, o uso generalizado de tecnologias digitais na guerra também estende o conflito para o ciberespaço. O cyberwarfare, um front já existente em conflitos armados, pode ganhar maiores proporções conforme a expansão no uso das tecnologias digitais aumenta também sua capacidade de influenciar os resultados do conflito.
Nesse cenário, um dos maiores perigos associados ao uso da IA é a confiança excessiva gerada em relação ao sistema, um fenômeno conhecido como "technology bias." O excesso de confiança nas respostas e decisões da IA pode aumentar as taxas de erro humano ao tornar os usuários da tecnologia dependentes do sistema e sobrelevar sua confiança dos atores envolvidos no conflito.
Independentemente da aplicação realizada, é fundamental manter um debate contínuo sobre o uso da IA em diferentes cenários para identificar suas particularidades. Neste caso, seja por meio de inteligência artificial ou não, as ações tomadas durante períodos de guerra devem obedecer às regras de guerra (jus in bello), e não é justificável violar o direito internacional com base no uso da tecnologia.