REGISTRO DEL TIEMPO
17/4/2024

En las guerras de la Inteligencia Artificial, sólo las víctimas son humanas

Tatiana Lozano

El texto, las imágenes y los videos creados por inteligencias artificiales generativas no dejan de asombrarnos e intrigarnos. Pero mientras estos modelos generativos captan nuestra atención con su pirotecnica, miles de millones de dólares se invierten en el desarrollo de modelos de la inteligencia artificial para la industria de la guerra. Más grave aún es que estas herramientas bélicas se están probando en tiempo real en escenarios de guerra reales, como la invasión de Ucrania y el genocidio en Gaza. Y desde hace años, antes de la tragedia del 7 de octubre, el ejército israelí ya había desarrollado y usado modelos de inteligencia artificial para atacar a palestinas y palestinos. En 2021, las Fuerzas de Defensa de Israel anunciaron que habían librado la “primera guerra de IA en el mundo” al referirse a la Operación Guardián de las Murallas (Ahronheim, 2021). Hoy esa declaración se lee como una confesión y una especie de anuncio publicitario sobre sus grandes desarrollos tecnológicos para aniquilar al enemigo, ya sean terroristas o 15 mil niños y niñas palestinas.   

En junio del año pasado, el medio israelí +972 Magazine publicó un reportaje sobre cómo Gaza era una especie de campo de práctica de la industria bélica israelí (Goodfriend, 2023). Después del conflicto de 2021, Israel alcanzó su mayor exportación de tecnología militar, que va desde los drones automatizados, los escudos antimisiles y los modelos de rastreo hasta herramientas para la guerra informática. Una reciente innovación del ejército de Israel fue noticia hace un par de semanas cuando la misma +972 Magazine publicó un reportaje con una serie de testimonios de oficiales de la inteligencia israelí que explican cómo un modelo de inteligencia artificial llamado Lavander genera objetivos militares para que el ejército dirija esos ataques (Abraham, 2024).

El programa computacional Lavander se usó a principios del operativo para determinar la probabilidad de que un gazatí cualquiera estuviera relacionado con los grupos terroristas de Hamas o la Yihad Islámica Palestina (PIJ). El propósito de este programa era generar objetivos militares en poco tiempo. De esta forma se cortan los costos, culpas y esfuerzos que supone un proceso de investigación exhaustivo para incriminar a aquellos responsables que serían atacados. El proceso de investigación que antes realizaban equipos de humanos fue sustituido por una máquina con el objetivo de generar más y más objetivos con los datos y etiquetas disponibles. Al cruzar una serie de datos (privados) de los individuos, el modelo generaba una puntuación del 1 al 100 para indicar la probabilidad de que el individuo estuviera relacionado con algún grupo terrorista. Las características relevantes que se obtienen al cruzar los datos del modelo fueron producidas tanto por los desarrolladores como por el propio sistema. El modelo no sólo busca a los “militantes junior” de forma automática, sino que los localiza en sus hogares porque es más fácil identificarlos ahí y más barato bombardear una casa que un objetivo en movimiento. 

Una vez que la máquina generaba los objetivos, algún oficial humano tenía simplemente que aprobarlos, también de manera automática, para que las fuerzas aéreas hicieran el resto. Las decisiones humanas, mediadas por tecnologías inhumanas, se volvieron automáticas como las de la máquina. Hasta este punto, el problema de la sistematización de la masacre no dista mucho, en términos cualitativos, del Holocausto de la Segunda Guerra Mundial como lo explica Zygmunt Bauman en Modernidad y Holocausto. La razón se objetiva de tal manera que los humanos logran racionalizar medios eficaces, en abstracto, para fines atroces. Lamentablemente ya conocíamos un caso de ‘optimización del genocidio’, uno que ahora se usa para justificar este otro (Mishra, 2024).

El problema es que Lavander va un paso más allá que las masacres del siglo XX hacia la disolución las responsabilidades humanas detrás de cada asesinato. El primer paso es borrar la línea que distingue al sospechoso del criminal: cualquier sospechoso y sus familiares pueden ser objetivos militares “legítimos” en la medida en que se les pueda relacionar con las características etiquetadas como propias de los terroristas. Esta legitimidad se respalda en una supuesta objetividad de la máquina que no siente la necesidad venganza, como declaran los testimonios. En palabras de los oficiales israelíes: “La máquina lo hizo fríamente. Y eso lo hizo más fácil.” Desde ese punto se borra la responsabilidad de tomar la decisión de matar a una familia entera y de ejecutarla. Mientras más fácil y mejor delegada sea la decisión, mucho menor es el peso moral. 

La máquina no sólo aliviana el peso que implica haber matado a personas inocentes. Eso también lo lograron los procesos de sistematización del exterminio previos a la inteligencia artificial y ya está en la banalidad del mal que expone Arendt en su análisis de la participación de Eichmann en la Shoa. Lavander nos sitúa en un riesgo de injusticia aún mayor, no sólo por lo que ya provocó a manos de sus programadores y de todas las personas involucradas en cada ataque. El riesgo es perder incluso las posibilidades de identificar y sancionar al victimario mientras se acumulan las víctimas. No sólo es que quienes usan estas herramientas logran distanciarse de su propia responsabilidad moral, sino que hay una confusión generalizada sobre la agencia y, por lo tanto, sobre la responsabilidad que tienen las herramientas de la inteligencia artificial sobre sus efectos.

Con esta fórmula, los humanos detrás y al lado de estas inteligencias artificiales podrán negociar su responsabilidad. Las personas detrás de las máquinas y, por lo tanto, las verdaderas responsables, pueden aprovechar esta confusión general sobre las capacidades de decisión de las inteligencias artificiales para sortear las brechas en la agencia humana-maquinal y así borrarse como perpetradores de crímenes sistemáticos. Así, en la antesala de lo que parece un retorno de las guerras regionales, arriesgamos quedarnos atrapados en un mundo donde sólo las víctimas son humanas. 

Referencias

Ahronheim, Anna, “Israel's operation against Hamas was the world's first AI war”, The Jerusalem Post, 27 de mayo de 2021, https://www.jpost.com/arab-israeli-conflict/gaza-news/guardian-of-the-walls-the-first-ai-war-669371 

Abraham, Yuval, “‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza”, +972 Magazine, disponible en: https://www.972mag.com/lavender-ai-israeli-army-gaza/ 

Mishra, Pankaj, “The Shoah after Gaza”, London Review of Books, disponible en: https://www.lrb.co.uk/the-paper/v46/n06/pankaj-mishra/the-shoah-after-gaza

Suscríbete a nuestro newsletter

Si quieres recibir artículos en tu mail, enterarte de nuestros próximos lanzamientos y apoyar nuestra iniciativa, suscríbete a nuestro boletín mensual para que lo recibas en tu correo.
¡Gracias por suscribirte!
Oops! Hubo un error en tu suscripción.