Blog

El ejército israelí utiliza IA para seleccionar objetivos en Gaza con un “sello de goma” de un operador humano: Informe

Israel ha estado utilizando un sistema de inteligencia artificial llamado Lavender para crear una “lista de asesinatos” de al menos 37.000 personas en Gaza, según un nuevo informe de Israel +972 revista, confirmada por la guardián. Lavender es el segundo sistema de IA revelado después de la existencia de Israel El Evangelio fue reportado por primera vez el año pasado, pero mientras El Evangelio se dirige a los edificios, Lavender se dirige a la gente.

El nuevo informe cita a seis oficiales de inteligencia israelíes anónimos que hablaron con +972 sobre cómo el ejército del país “confió casi completamente » en Lavender durante las primeras semanas de la guerra, a pesar de el hecho de que era conocido por identificar erróneamente objetivos potenciales como terroristas. Humanos que estaban en el circuito: el nombre para asegurarse de que una persona sea la que esté apuntando decisiones en lugar de una máquina, esencialmente actuó como un “sello de goma”, según +972, y los oficiales israelíes dedicaron unos 20 segundos a cada decisión. Inyección vertical FIFO

El ejército israelí utiliza IA para seleccionar objetivos en Gaza con un “sello de goma” de un operador humano: Informe

El sistema de IA Lavender supuestamente funciona analizando la información recopilada sobre casi todos los 2,3 millones de palestinos en la Franja de Gaza “a través de un sistema de vigilancia masiva”, que evalúa la probabilidad de que cualquier persona determinada pertenezca a Hamás en un sistema de clasificación opaco. Cada palestino recibe una clasificación de 1 a 100 que supuestamente determina la probabilidad de que sean miembros del grupo terrorista militante.

Lavender aprende a identificar las características de miembros conocidos de Hamas y de la [Jihad Islámica Palestina], cuya información fue alimentada a la máquina como datos de entrenamiento , y luego localizar estas mismas características—también llamadas “características”—entre la población general, explicaron las fuentes. Si se descubre que tiene varias características incriminatorias diferentes, alcanzará una calificación alta y, por lo tanto, se convertirá automáticamente en un objetivo potencial para el asesinato.

El ejército israelí dio una “amplia aprobación” para que los oficiales usaran lavanda para apuntar en Gaza según +972, pero no había ningún requisito. hacer una verificación exhaustiva de “por qué la máquina tomó esas decisiones o examinar los datos de inteligencia en bruto en los que se basaron” .” Los humanos que controlaban las decisiones de selección de objetivos de Lavender estaban en su mayoría simplemente comprobando para asegurarse de que el objetivo fuera masculino, aunque al menos el 10% de los objetivos no tenían posible asociación con Hamas, según los “controles internos”. si el porcentaje era mucho mayor.

La mayoría de los objetivos fueron bombardeados en sus hogares, según +972. Otro sistema automatizado utilizado junto con Lavender, denominado «¿Dónde está papá?» ?”se ha utilizado para atacar objetivos dentro de sus hogares familiares.

“No estábamos interesados en matar a agentes de [Hamás] sólo cuando estaban en un edificio militar o participaban en una actividad militar”, un oficial de inteligencia israelí anónimo dijo +972. “Por el contrario, las FDI los bombardearon en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. casa. El sistema está construido para buscarlos en estas situaciones».

El nuevo informe también afirma que los objetivos identificados por Lavender eran solo militantes jóvenes, lo que significaba que los militares israelíes preferían usar municiones no guiadas o » “bombas tontas”, para no desperdiciar bombas costosas en objetivos relativamente intrascendentes. El resultado ha sido la eliminación de familias enteras, según +972.

Israel también aflojó su umbral para el número de civiles que era aceptable matar como “daños colaterales”, un informe que es consistente con informes anteriores. fugas publicado en Haaretz sobre las nuevas reglas de compromiso después del 7de octubre.

En una medida sin precedentes, según dos de las fuentes, el ejército también decidió durante las primeras semanas de la guerra que, por cada operativo jóven de Hamas que Lavender marcó, era permisible matar hasta 15 o 20 civiles; en el pasado, los militares no autorizó ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes agregaron que, en caso de que El objetivo era un alto funcionario de Hamás con el rango de comandante de batallón o brigada, el ejército en varias ocasiones autorizó el asesinato de más de 100 civiles en el asesinato de un solo comandante.

Israel lanzó la guerra en Gaza después de los ataques terroristas del 7 de octubre de 2023, que mataron a aproximadamente 1.200 israelíes y vieron a Hamás secuestrar a unos 240 personas. Más de 32.600 palestinos han sido asesinados en Gaza desde el inicio de la guerra, según el Naciones Unidas, con la mayoría identificadas como mujeres y niños. Y se estima, miles más enterrados bajo los escombros del territorio diezmado, no han sido contado. Israel informa que 255 de sus soldados han sido asesinado desde el inicio de la guerra.

La lavanda se había utilizado anteriormente sólo como una “herramienta auxiliar” antes del 7 de octubre, según +972, pero listas de muerte enteras con decenas de Miles de personas fueron adoptadas al por mayor después de los ataques terroristas.

“A las cinco de la mañana [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado”, dijo uno de los anónimos israelíes. Las fuentes le dijeron al +972. “Sacamos a miles de personas. No las analizamos una por una: pusimos todo en sistemas automatizados, y tan pronto como uno de [los individuos marcados] estaba en casa, inmediatamente se convertía en un objetivo. Lo bombardeamos y su casa”.

Israel publicó una extensa declaración al Guardian sobre el sistema de IA Lavender en Miércoles, insistiendo en que Hamás utiliza a los palestinos en Gaza como “escudos humanos”, mientras que Israel respeta el derecho internacional.

“Contrariamente a lo que se afirma, las FDI no utilizan un sistema de inteligencia artificial que identifique a los agentes terroristas o intente predecir si una persona es un terrorista. Los sistemas de información son simplemente herramientas para los analistas en el proceso de identificación de objetivos”, se lee en la declaración israelí.

“De acuerdo con las directivas de las FDI, los analistas deben realizar exámenes independientes, en los que verifican que los objetivos identificados cumplan con las definiciones pertinentes en de conformidad con el derecho internacional y las restricciones adicionales estipuladas en las directivas de las FDI”, continúa la declaración.

Y aunque el nuevo informe de +972 reconoce que el uso de lavanda se ha reducido en gran medida desde el inicio de la guerra, parte de la La razón es que el ejército israelí simplemente se está quedando sin viviendas civiles para atacar, ya que “la mayoría de las viviendas en la Franja de Gaza ya fueron destruidas”. o dañado”.

El ejército israelí utiliza IA para seleccionar objetivos en Gaza con un “sello de goma” de un operador humano: Informe

Máquina de sujeción Podemos ganar una comisión cuando usted compra a través de enlaces en nuestros sitios. ©2024 GIZMODO USA LLC. Todos los derechos reservados.