Israel usa IA para decidir quem vive e quem morre em Gaza

Publicado originalmente em *Desinformante por Liz Nóbrega. Para acessar, clique aqui.

“O uso desses sistemas de mira de IA transfere a responsabilidade humana por decisões de vida ou morte, tentando esconder uma campanha totalmente não sofisticada de destruição em massa e assassinato atrás de uma fachada de objetividade algorítmica”, escreveu a organização Access Now sobre o uso que Israel faz da inteligência artificial na guerra contra o Hamas, em Gaza.

A Access Now elencou três formas em que Israel usa a IA para fins bélicos, algo que é praticado pelo país desde o bombardeio realizado em Gaza em 2021. A primeira delas é categorizada como os “sistemas de armas autônomas letais (LAWS) e armas semi-autônomas (semi-LAWS)”, onde o exército israelense implantou “drones suicidas”, “robôs-franco-atiradores” automatizados e torres com IA para criar “zonas de morte automatizadas” ao longo da fronteira. “Em 2021, também implantou um robô militar semi-autônomo chamado ‘Jaguar’, promovido como ‘um dos primeiros robôs militares do mundo que pode substituir soldados nas fronteiras’”, relatou a organização.

A segunda categoria são os “sistemas de reconhecimento facial e vigilância biométrica”De acordo com o New York Times, o exército israelense está usando um amplo sistema de reconhecimento facial em Gaza “para conduzir uma vigilância em massa, coletando e catalogando os rostos dos palestinos sem o conhecimento ou consentimento deles”. O relatório publicado também alerta que o sistema usa tecnologia da empresa Corsight e do Google Fotos para identificar rostos em multidões e até mesmo em imagens granuladas de drones. 

Por fim, a Access Now alerta para os “sistemas de geração de alvos automatizados”. Reportagens investigativas de dois veículos israelenses, +972 e Local Call, revelaram que os sistemas de mira de IA de Israel “Lavender” e “The Gospel” estão automatizando ataques em massa e destruição em toda a Faixa de Gaza, isso porque os sistemas não eram utilizados apenas para gerar alvos, mas também para decidir sobre o ataque.

O Lavender é um sistema para mapear suspeitos de operar no Hamas e na Jihad Islâmica. De acordo com a apuração, durante as primeiras semanas da guerra, o exército confiou quase completamente na ferramenta – que tem 10% de chance de erro – que registrou cerca de 37.000 palestinos como suspeitos de serem militantes. O sistema The Gospel também é utilizado para criação de alvos a partir de inteligência artificial, aumentando significativamente a taxa que era possível anteriormente.

Outro sistema foi exposto pelos veículos, chama-se “Where is Daddy?”, “Onde está o papai?” em português. Eles foram utilizados para rastrear os indivíduos visados ​​e realizar atentados quando eles entravam nas residências de suas famílias. “As Forças de Defesa de Israel os bombardeiam em casas sem hesitação, como primeira opção. É muito mais fácil bombardear a casa de uma família. O sistema foi construído para procurá-los nessas situações”, disse um oficial ao veículo +972.

Fontes ouvidas pelas reportagens indicaram que, para o uso desses sistemas, é aceitável, como “vítimas colaterais”, a morte de 15 a 20 civis para cada “membro jovem” do Hamas. Caso o alvo do sistema fosse um comandante, essa proporção colateral aumenta para 100 civis.

“Embora possa inicialmente parecer uma nova fronteira chocante, o uso de sistemas de mira como o Lavender e The Gospel é, na verdade, apenas o ápice de outro sistema de IA já usado em todo o mundo: o policiamento preditivo”, destacou a Access Now em sua publicação, argumentando que o uso de sistemas de geração de alvos de IA na guerra, juntamente com a vigilância biométrica em massa, requer mais atenção, “dado como demonstram o impacto devastador, até genocida, em tempos de guerra, de tecnologias que já deveriam ser proibidas em tempos de paz”.

Big Techs são negligentes na proteção dos direitos humanos 

Além disso, a organização também chamou atenção para o papel das big techs nesse cenário, justamente pela infraestrutura de vigilância desenvolvida pelas grandes empresas de tecnologia em “tempos de paz” que pode ser reaproveitada na guerra para “possibilitar as piores violações dos direitos humanos”. A Access Now destaca os serviços de computação e aprendizagem de máquina fornecidos pelo Google e Amazon para Israel. 

“Ao não abordar suas responsabilidades de direitos humanos e continuar a fornecer esses serviços ao governo de Israel, empresas como Google, AWS e Meta correm o risco de serem cúmplices em auxiliar ou incentivar o aparato militar e de inteligência israelense e seus supostos crimes de atrocidade em Gaza”, enfatizou. A ONG publicou uma carta aberta ao CEO da Alphabet com questionamentos sobre os serviços ofertados à Israel por meio do Projeto Nimbus, especialmente porque a empresa expandiu seus serviços para o Ministério da Defesa israelense durante a guerra.

“Com mais de 35.000 palestinos mortos, incluindo uma criança morrendo a cada dez minutos, o Google não pode mais continuar conduzindo seus negócios como de costume com um cliente responsável por tanta morte e destruição”, argumenta a carta.

Uso de IA para fins bélicos é debatido no Brasil

Apesar do exemplo de violações dos direitos humanos em Israel, o projeto de lei brasileiro que busca regular a inteligência artificial prevê o uso de armas autônomas. Em entrevista ao *desinformante em abril, Paulo Rená, integrante da organização AqualtuneLab e doutorando em Direito, Estado e Democracia na Universidade de Brasília, disse que o tema é “complexo e perigoso” e que entrou no documento sem discussão prévia. “Se o Estado tem errado repetidamente em reconhecer pessoas, especialmente negras, é inaceitável que a lei permita qualquer uso dessa mesma tecnologia para matar. É necessário dizer o óbvio: os erros seriam incorrigíveis”, disse Rená. A organização Data Privacy, em sua análise do projeto de lei, também condenou a previsão.

Outro tema que é elencado pelo PL 2338 é o uso de IA para reconhecimento facial, o que também vem carregado de críticas, como da campanha Tire Meu Rosto da Sua Mira, que requer o banimento total dessa tecnologia na Segurança Pública brasileira, diante de evidências de abuso e falta de transparência. “A capacidade de identificar individualmente e rastrear pessoas mina direitos como os de privacidade e proteção de dados, de liberdade de expressão e de reunião, de igualdade e de não-discriminação”, coloca a campanha. 

Um levantamento recente publicado pelo Poder 360 mostrou que, em 2023, o Superior Tribunal de Justiça, emitiu 377 decisões revogando a prisão provisória ou absolvendo réus por falhas no seu reconhecimento como autores de crimes. Dessas decisões, 281 (74,6%) foram fundamentadas pela existência de erros na identificação por meio de fotografias.  

Compartilhe:

Share on whatsapp
Share on twitter
Share on facebook
Share on email
Share on linkedin
Share on telegram
Share on google
Language »
Fonte
Contraste