Lavender: Se desenmascara la aterradora realidad de la guerra automatizada

Martes, 04/06/2024 11:55 AM

Puede considerarse el estallido de la Primera Guerra Mundial el verdadero inicio del siglo XX, y con ella la forma como toda la humanidad ve la guerra. Hasta entonces, la guerra era vista como un esfuerzo patriótico y romántico; donde el resultado de la batalla dependía en gran parte de la valentía, la intrepidez, la capacidad de sacrificio, es decir, del heroísmo.

Con la llegada de la Gran Guerra llegaron también los avances de la Revolución industrial al campo de batalla. Por un lado, la mecanización del armamento (tanques, artillería pesada, aviones de combate, armas químicas) convirtieron a las praderas de ejércitos a caballo e infantería con bayonetas, en páramos yermos pululantes de trincheras y lotes minados, donde sin aparente sentido alguno, se sacrificaba a la generación europea mediante la indiferente nueva tecnología. También, gracias a los avances en comunicaciones, los soldados en el frente pudieron saltarse a los aparatos de propaganda de los países enfrentados y compartir los horrores con sus familias, lo cual derivó en el primer movimiento a gran escala contra la Guerra.

De igual manera, la humanidad entera es hoy testigo del probable genocidio del pueblo gazatí, sin filtros ni censores, a través de las redes sociales; y al igual que en la Primera Guerra Mundial, todos podemos ver como la tecnología es puesta al servicio de la barbarie.

Reportaje original de la revista Israelí +972

La revista israelí +972 publicó un extenso exposé, a principios de abril 2024, donde revela cómo las Fuerzas de Defensa de Israel han utilizado los avances recientes en el campo de la Inteligencia Artificial para hacer más eficiente el uso de sus bombas: Lavender (lavanda en español). El sistema, explicado brevemente, consta de una base de datos que recopila información (geolocalización, redes sociales) de más de dos millones de gazatíes, y asigna un puntaje de 1 a 100 a cada persona, que corresponde a la probabilidad de que dicha persona pertenezca a Hamas o sea colaboracionista de esa organización. Lo aterrador aquí es que es un mero sistema estadístico, y en ningún caso se hace una verificación "humana" que los resultados del sistema correspondan con la realidad; el modelo se alimenta de información proxy que es susceptible a error: porque tu teléfono celular esté cerca del lugar donde se sospecha hay una reunión del grupo terrorista no implica necesariamente que hagas parte de él. Con este sistema se han marcado desde el 7 de octubre de 2023 ya más de 37.000 palestinos como probables miembros de Hamás sin ningún debido proceso.

Como si no fuera suficientemente abyecta la actuación del ejército israelí, Lavender se combina con otra herramienta ominosamente llamada ¿Where is Daddy? (¿Dónde está papito?). El sistema hace un cálculo de cuantos "daños colaterales" (o sea civiles inocentes) son permisibles de acuerdo al rango del sospechoso: entre 15 y 20 para militantes rasos, y hasta 300 para los de alto rango, pero con un margen de error de hasta 10%. Y esta ignominia no acaba allí, los detalles son cada vez más repugnantes, el programa informático recomienda usar bombas "tontas" (propensas a ser más destructivas e imprecisas) para ahorrar dinero; y los ataques a ser llevados a cabo durante la noche, en los hogares de los presuntos combatientes, de ahí el nombre. Por un lado, los combatientes que descansan en sus casas se consideran Hors de Combat, y según la Convención de Ginebra de 1949 considerados personas protegidas; pero con el agravante que el ataque acabará con la vida de la familia del sindicado y de todos los vecinos, recordemos que Gaza es una de las zonas urbanas más densas del planeta; todo es una auténtica carnicería y se torna con un cariz doblemente criminal, pues se calcula que pasan menos de 20 segundos entre que el programa recomienda un ataque y este es autorizado.

La filósofa Hanna Arendt, en su libro Eichmann en Jerusalén, introduce el concepto de la banalidad del mal; nos muestra como el régimen nazi llevaba a cabo de manera cotidiana los peores crímenes de los que se tenga noticia, de manera industrial, con procesos y técnicas afines a una línea de producción, y con un ejército de funcionarios que resolvía los problemas logísticos al cometer un genocidio. Eichmann, no disparó nunca el gatillo, pero de no ser por su eficiente sistema de trenes, nunca hubiéramos asistido a la increíble dimensión del Holocausto al pueblo judio. Contrasta que Eichmann afirmara que no tenía un sentimiento de odio al pueblo judío, o un fanatismo por la causa nazi; simplemente hacía bien su trabajo porque era lo que se esperaba de él para ascender; se consideraba como una persona buena. Las capas de burocracia y la tecnología del momento, permitieron reducir la disonancia cognitiva (la desarmonía en sus sistemas de creencias) de Eichmann, nunca tuvo que enfrentarse de manera directa a las consecuencias de sus decisiones de oficina.

De manera similar, el programa de drones estadounidenses utilizados en las guerras de Irak y Afganistán, reclutó a jóvenes operadores, criados con videojuegos de guerra, para que, desde la seguridad de sus casas, llevaran a cabo ataques a objetivos para ellos anónimos. En la era Obama se vendió al público como una forma quirúrgica y segura para los miembros en servicio de llevar a cabo la guerra. Ahora sabemos gracias a Wikileaks y valientes whistleblowers, la indecente cantidad de civiles inocentes muertos en estos ataques. También, podemos observar como la distancia que permite la tecnología en este caso hace del atacante un operador desensibilizado: a pesar que se han registrado casos de estrés postraumático en este tipo de soldados no son ni de cerca lo que se registra con soldados en terreno, de nuevo la tecnología pone una barrera que permite al ser humano perder la empatía para ser más eficiente en la guerra.

GQ: Operadores de Drones de ataque en la guerra de Irak

Lavender y ¿Where Is Daddy? son sólo la versión más sofisticada del uso de la ingeniería que busca al mismo tiempo ser más letal y ofuscar la responsabilidad en la guerra; tenemos que recordar que son en últimas, extensiones de la voluntad humana; que sus parámetros fueron diseñados por personas con un objetivo político, que los que autorizan los ataques con un botón de teclado son tan responsables como los que aprietan gatillos. Por eso es tan importante lo que hacen los valientes periodistas en campo (hay récord de periodistas asesinados desde que empezó la agresión israelí). Nos permiten ver los horrores que el gobierno de Israel quiere tapar con sofismas y propaganda y del que el ejército israelí quiere blindar a sus activos con estas capas de tecnología. Por eso es importante también que mostremos los intentos de censura de las redes sociales, como los intentos de X (otrora Twitter) de evitar la difusión de los efectos de la escalada de Israel; o la iniciativa del congreso de EE.UU. de prohibir TikTok, la principal fuente de información y activismo de los jóvenes norteamericanos.

Por último, los gobiernos del mundo deberían apoyar iniciativas como las de la organización Stop Killer Robots, que busca que se emita una resolución de las Naciones Unidas que prohíba el uso (como se prohibió el uso de armas químicas después de la Primera Guerra Mundial) de los sistemas de armas autónomos.

Foreign Policy: Manifestación de Stop Killer Robots

La tecnología a priori es neutral, como un cuchillo salva vidas en las manos de un cirujano y las termina en las manos de un asesino, es nuestra responsabilidad como especie hacer uso de ella de manera que represente lo mejor de nosotros y no lo que nos hace peor que animales, que es lo que vemos hoy en Gaza.

Referencias:

Robot Dog Maker Boston Dynamics Pledges Not to Let Its Robots Kill You (vice.com)

Nota leída aproximadamente 1057 veces.

Las noticias más leídas: