Brasileiro lidera grupo da ONU que discute limites para armas autônomas, capazes de atacar sem comando humano

No começo do ano passado, uma publicação feita no Twitter chamou a atenção. Ela apresentava instruções para desativar “cachorros robôs”, os conhecidos “Digidogs”, usados pela polícia de New York. A publicação levantou um questionamento sobre o crescente uso desse tipo de tecnologia pelas forças de segurança em todo o mundo.
Apesar dos “Digidogs” serem operados por humanos, empresas e governos não escondem planos para integrar os equipamentos à inteligência artificial, inclusive com fins militares. Existem projetos que podem torná-los autônomos para decidir seus alvos e quando atacá-los.
O assunto já provoca um grande debate na vida real que envolve o Brasil. Isso porque desde 2020, quando foi anfitrião de um seminário internacional sobre armas letais autônomas, o país se mostrou interessado no debate sobre a necessidade de uma legislação global sobre o assunto. Um ponto em questão é quem deve ser responsabilizado por uma ação de arma autônoma.
Hoje à frente de um Grupo de Peritos Governamentais que discutem o tema no âmbito das Nações Unidas, o Brasil defende, junto a outras nações em desenvolvimento, a necessidade de regular a utilização de drones e robôs que podem cometer graves violações dos direitos humanos.
O embaixador Flavio Damico, que preside o grupo em Genebra, disse que “os sistemas de armas autônomas são cada vez mais importantes”, e as “discussões a respeito desses sistemas não podem ficar limitadas a diálogos entre poucas potências”.
O assunto foi levantado inicialmente em 2013, no âmbito da Convenção da ONU sobre Certas Armas Convencionais (CCAC), que tem como missão proibir ou restringir o uso de armamentos que provocam danos excessivos ou sofrimento desnecessário a civis e combatentes, como minas explosivas. Para o diplomata, o histórico do Brasil em discussões do tipo o credencia como um “construtor de pontes em um processo negociador muito difícil”.
O objetivo, explica, é de que sejam alcançados consensos importantes até o próximo encontro do grupo, em julho, mas o desafio, sabe-se, não é simples, e as posições ainda são difíceis de conciliar.
Em entrevista ao site TechCrunch, o então presidente da empresa, Jiren Parikh, reiterou que seus robôs armados sempre serão operados por humanos, sem o uso de inteligência artificial. Ao mesmo tempo, admitiu não ter certeza absoluta sobre o destino dos equipamentos entregues ao governo dos EUA.
No ano passado, um relatório do Conselho de Segurança da ONU apontou para o que seria o primeiro ataque usando drones autônomos, um ano antes, na guerra civil da Líbia. Segundo o documento, o STM Kargu-2, de fabricação turca, atacou forças ligadas ao marechal Khalifa Haftar, apoiado por EUA, França e Arábia Saudita.
“Os sistemas de armas letais autônomos foram programados para atacar alvos sem exigir a conexão de dados entre o operador e a munição”, apontou o relatório.
Para Maiara Folly, co-fundadora e diretora de programas da Plataforma CIPÓ e membro da Campanha para Parar Robôs Assassinos, o caso da Líbia reforça a necessidade de regras sobre o uso de armas autônomas: afinal, o drone usado nos ataques foi originalmente desenvolvido para ser guiado por um operador.

Compartilhar:

Login

Bem-vindo! Faça o login na sua conta

Lembrar-me Perdeu a senha?

Lost Password

WhatsApp Chat
Enviar Mensagem