“Israel” utiliza Inteligencia Artificial para asesinar civiles
"Lavender" es una máquina de IA que dirige la ola de bombardeos israelíes sobre Gaza.
El ejército israelí marcó a decenas de miles de habitantes de Gaza como sospechosos a través de un sistema de selección de objetivos de Inteligencia Artificial (IA) con poca supervisión humana y una política permisiva en cuanto a las bajas.
Una investigación de la revista +972 y Local Call reveló que el ejército israelí desarrolló el programa basado en IA y conocido como “Lavender”, el cual jugó un papel central en el bombardeo sin precedentes a la Franja de Gaza, especialmente durante las primeras etapas de la guerra.
De hecho, según las fuentes, su impacto en las operaciones del "ejército" fue tal que esencialmente trataron la producción de una máquina de IA "como si fuera una decisión humana".
Oficialmente, "Lavender" está diseñado para identificar a todos los supuestos agentes sospechosos de pertenecer a las alas militares de Hamas y la Yihad Islámica, incluidos elementos de bajo rango y seleccionarlos como objetivos potenciales.
Las fuentes dijeron que durante las primeras semanas de la guerra, el "ejército" dependió casi por completo de "Lavender", que registró hasta 37 mil palestinos como presuntos militantes, y sus familiares, para posibles ataques aéreos.
Además, las fuerzas israelíes atacaron sistemáticamente a las personas seleccionadas mientras se encontraban en sus hogares con sus familias y no durante la actividad militar.
Según describieron informes de militares vinculados al programa, el sistema de seguimiento alerta sobre un sospechoso dentro de su vivienda y sin verificar bombardeaban todo y asesinan a sus familiares y las de los alrededores, aunque incluso, en muchas ocasiones, el señalado ni siquiera estaba en casa.
"El resultado es que mataste a una familia sin ningún motivo", afirmó la fuente.