top of page

Israel foi derrotado: o colapso de sua solução mágica baseada em algoritmo de IA




O jornalista israelita Yuval Abraham, num relatório detalhado baseado em múltiplas fontes, descreveu como as forças israelitas usaram um sistema de mira de IA para marcar dezenas de milhares de pessoas na Faixa de Gaza como suspeitas, a fim de as assassinar.

O direito internacional baseia-se na responsabilidade humana e na responsabilização final quando pessoas matam outras pessoas. A lei para combatentes armados é mais ampla, mas a responsabilidade pessoal também se aplica ao assassinato de civis, mulheres e crianças.

Mas e se a matança for controlada por uma “máquina” – inteligência artificial baseada em “ciência” algorítmica?

Será que a responsabilidade humana por matar “outros” será abolida pela intenção “científica” das listas de mortes criadas por máquinas de IA – quando elas enlouquecem?
Essa é a questão que surge quando as Forças de Defesa de Israel usam a IA “Lavender” para fornecer a Israel listas de mortes na Faixa de Gaza.

O jornalista israelita Yuval Abraham escreveu um relatório detalhado e de múltiplas fontes descrevendo como as forças israelitas sinalizaram dezenas de milhares de pessoas na Faixa de Gaza como suspeitas, utilizando um sistema de mira de IA com pouca supervisão humana e uma política de vítimas tolerante.

O criador do sistema, o atual comandante da Unidade de elite 8200 de Israel, já havia defendido o desenvolvimento de uma "máquina de mira" baseada em IA e algoritmos de aprendizado de máquina que possa processar rapidamente grandes quantidades de dados no calor da guerra para identificar milhares de potenciais “alvos.”” para gerar ataques militares.

Oficialmente, o sistema Lavender destina-se a marcar todos os supostos agentes das alas militares do Hamas e da Jihad Islâmica Palestiniana (PIJ) como potenciais alvos de bombas, incluindo os de baixa patente. As fontes disseram ao +972 e à Local Call que nas primeiras semanas da guerra, o exército confiou quase exclusivamente na Lavender, que registou até 37.000 palestinos como suspeitos de combate - e nas suas casas - para possíveis ataques aéreos.

Nos estágios iniciais da guerra, o Exército deu aos oficiais permissão geral para adotar as listas de mortes de Lavender sem examinar minuciosamente por que a máquina tomou essas decisões ou examinar a inteligência bruta em que se baseavam. Uma fonte disse que os operadores humanos muitas vezes serviam apenas como um “carimbo de borracha” nas decisões da máquina, acrescentando que normalmente gastavam apenas cerca de “20 segundos” em cada alvo antes de autorizar um bombardeio.

Só para ficar claro: o “genocídio” gerado pela IA coloca uma estaca no coração do direito humanitário internacional.

“O resultado é que milhares de palestinianos – a maioria deles mulheres e crianças ou pessoas não envolvidas nos combates – foram exterminados por ataques aéreos israelitas, especialmente nas primeiras semanas da guerra, porque as decisões tomadas pelo programa de IA foram cumpridas. ”

Então quem é o responsável? Quem precisa ser responsabilizado?

O sistema era falho desde o início. As forças militares Al-Qassam do Hamas operavam a partir de túneis profundos onde tinham os seus dormitórios - o que as tornava imunes aos programas de reconhecimento facial utilizados pelo reconhecimento aéreo de Israel sobre Gaza.

Em segundo lugar, um alto funcionário do Escritório B explicou a Abraham: “Não sabíamos quem eram os agentes de 'nível inferior' [na superfície]. Os combatentes Qassam e os civis de Gaza não são diferentes. Não há nenhuma característica que distinga o “homem do Hamas” de outros homens de Gaza. Lavender identificou esses “alvos” como “membros do Hamas”, embora os limites fossem fluidos: talvez eles já tivessem se juntado a um grupo de WhatsApp ao qual um membro do Hamas pertencia, ou emprestassem seus celulares para suas famílias ou os deixassem em casa.

“Eles queriam que nós [os jovens agentes] pudéssemos atacar automaticamente. Este é o Santo Graal. Assim que você muda para automático, a geração alvo enlouquece”.

“De acordo com fontes, a máquina avalia quase todas as pessoas em Gaza numa escala de 1 a 100, indicando a probabilidade de serem militantes.

Tendo trabalhado em Gaza durante vários anos, posso dizer que todos em Gaza conhecem ou falaram com alguém do Hamas. O Hamas venceu as eleições de 2006 com uma maioria esmagadora: portanto, quase todos podem ser descritos como “afiliados” de uma forma ou de outra.

Fica ainda pior:

“Às 5 da manhã [a Força Aérea] chegou e bombardeou todas as casas que havíamos marcado”, disse B.. “Matamos milhares de pessoas. Não analisamos um por um - inserimos tudo em um sistema automatizado e, assim que uma [das pessoas marcadas] chegou em casa, imediatamente se tornou um alvo. Nós bombardeamos ele e sua casa”.

"O exército preferiu usar apenas bombas 'burras'... Não se quer desperdiçar bombas caras com pessoas sem importância - isso é caro para o país e há uma escassez [dessas bombas]", disse C.

O autor do sistema Lavender, Brigadeiro-General Yossi Sariel, escreveu anonimamente em The Human Machine Team (2021) que a sinergia entre “a inteligência humana e a artificial irá revolucionar o nosso mundo”. Aparentemente, o seu entusiasmo por esta revolução na guerra foi acreditado pela liderança israelita (e também por alguns em Washington - veja, por exemplo, este post de John Spencer, Presidente de Estudos de Guerra Urbana na elite da Academia Militar do Exército dos EUA, WestPoint). Daí a afirmação repetida de Netanyahu de que Israel está à beira de uma “grande vitória” em Gaza, já que 19 das 24 brigadas do Hamas foram desmanteladas. Hoje sabemos que isso era um absurdo.

A IA deveria ser a arma secreta de Israel. Yossi Sariel (o criador de Lavender) recentemente deu seu mea culpa (relatou o The Guardian): Em um relatório citado pelo Guardian, os críticos de Sariel dizem que a prioridade dada à Unidade 8200 é a tecnologia "viciante e excitante", admitiram que a tecnologia mais antiquada métodos de inteligência levaram a um desastre. Um funcionário de longa data disse ao Guardian que sob o comando de Sariel a unidade “seguiu a nova bolha de inteligência [IA]”.

Por sua vez, Sariel teria dito aos seus colegas depois de 7 de outubro: “Assumo a responsabilidade pelo que aconteceu, no sentido mais profundo da palavra”, disse ele. “Fomos derrotados. Eu fui derrotado.”

Sim – e como resultado, dezenas de milhares de palestinianos, mulheres e crianças inocentes foram brutalmente assassinados. E Gaza foi reduzida a escombros. O relatório investigativo de Yuval Abraham deve ser submetido ao Tribunal Internacional de Justiça (CIJ), que está a examinar provas de “suspeita de genocídio” em Gaza.
7 visualizações0 comentário
bottom of page