Tecnocracia israelita
Israel lleva años aplicando tecnologías de inteligencia artificial en sus operaciones de defensa. Entre ellas, destaca un sistema de realidad virtual diseñado para ayudar a los soldados a mapear y analizar zonas de guerra urbanas y estructuras subterráneas como los túneles. Una herramienta clave es el programa Lavender, que genera listas de objetivos humanos en Gaza basándose en conexiones con organizaciones como Hamas; incluso se han reportado casos donde un simple tatuaje ha sido considerado un indicio relevante. Además, están combinando esta tecnología con sistemas avanzados de reconocimiento facial y han desarrollado una inteligencia artificial entrenada en idioma árabe -similar a grandes modelos conversacionales como ChatGPT- capaz de procesar mensajes de texto, publicaciones en redes sociales y otros datos digitales para identificar posibles sospechosos.
Estas herramientas no funcionan de forma aislada, sino que forman parte de un conjunto integrado que opera de manera coordinada y se alimenta entre sí.
El asesinato del comandante de Hamas en octubre de 2023, cuyos detalles hoy conocemos con mayor claridad, se logró gracias a la interceptación de todas las comunicaciones realizadas desde los túneles de Gaza. Para identificar al blanco, utilizaron una inteligencia artificial comparable a ChatGPT que procesó grandes volúmenes de información, y lo combinaron con tecnología de reconocimiento facial para localizarlo y ejecutar el ataque.
Todo sistema autónomo diseñado para tomar decisiones que afecten la vida humana -como la generación de listas de objetivos o ejecutar ataques letales- debe estar sujeto al derecho internacional. Sin embargo, en estos casos parece haberse vulnerado dicho marco legal.
Si bien estas herramientas tecnológicas permiten un alto grado de precisión en la identificación y eliminación de objetivos, su aplicación suele generar víctimas inocentes. En el caso del ataque que costó la vida al comandante mencionado, otras 125 personas perdieron la vida junto a él. Esto plantea una comparación escalofriante: sería como destruir un avión entero únicamente para dar muerte a uno de los pasajeros.
El desarrollo de estas avanzadas tecnologías empleadas por el ejército israelí está a cargo de una unidad de inteligencia muy especializada: la Unidad 8200, también conocida como «El Estudio». Esta unidad colabora de forma intensiva con los gigantes tecnológicos globales -los llamados Siete Magníficos: Alphabet (Google), Amazon, Apple, Meta, Microsoft, NVIDIA y Tesla-, muchas de las cuales están integradas directamente en el conflicto de Gaza, suministrando servicios críticos como computación en la nube e inteligencia artificial.
Desde el inicio de la ofensiva en octubre de 2023, el uso de IA se ha multiplicado exponencialmente. Durante una conferencia reciente, la coronela Racheli Dembinsky, responsable de tecnología y comunicaciones en las fuerzas israelíes, destacó cómo la inteligencia artificial había potenciado la precisión y rapidez de sus operaciones en Gaza. Tras bambalinas, detrás de esos avances, aparecían claramente identificados sus aliados tecnológicos: Microsoft Azure, Google Cloud y Amazon Web Services, las tres principales plataformas en la nube que hoy soportan buena parte de la infraestructura digital mundial.
Desde octubre de 2023 hasta julio de 2024, el volumen de datos almacenados por el ejército israelí se duplicó, evidenciando un aumento exponencial en el uso de la tecnología gracias al apoyo de grandes compañías del sector. Documentos filtrados por fuentes cercanas a la defensa israelí han revelado por primera vez que modelos de inteligencia artificial comerciales, utilizados diariamente por millones de personas en todo el mundo, están siendo aplicados para seleccionar y eliminar objetivos humanos en Gaza. Se trata de herramientas esenciales en lo que muchos consideran un plan sistemático de exterminio.
Las grandes tecnológicas, conocidas como los Siete Magníficos, están diseñando, empaquetando y comercializando soluciones digitales que, aunque se promueven como innovadoras y orientadas al desarrollo, terminan siendo usadas en contextos bélicos. En este caso, colaboran activamente con el ejército israelí en un conflicto marcado por denuncias de genocidio.
A pesar de las evidencias, la mayoría de estas empresas han guardado silencio ante las acusaciones. OpenAI, por ejemplo, antes advertía en su página web que no permitiría el uso de su tecnología por militares ni para actividades violentas. Sin embargo, recientemente actualizó sus términos de servicio: ahora autoriza el uso de sus productos en asuntos de «seguridad nacional», siempre que sean compatibles con su visión corporativa.
Herramientas como ChatGPT no solo permiten agilizar y ampliar procesos a escalas nunca antes vistas, sino que también los vuelven menos transparentes, dado que su funcionamiento es prácticamente incomprensible para quienes no diseñaron los algoritmos.
La administración Trump está usando datos centralizados obtenidos mediante prácticas cuestionables, incluidos aquellos extraídos por empresas vinculadas a Elon Musk, con el objetivo de deportar a personas desposeídas de derechos, entre ellas ciudadanos estadounidenses nacidos en territorio nacional. Esta estrategia implica saltarse incluso su propia Constitución para perseguir a su propia población, algo inaudito.
Las grandes compañías tecnológicas están facilitando esta maquinaria digital autoritaria, y si ya están implementándola en Israel, no es difícil imaginar cómo la utilizarán en otros países.
En Europa, Frontex ha venido adoptando métodos cada vez más extremos y opresivos. Se sabe que recurre a la inteligencia artificial para monitorear y rastrear a personas migrantes, contando con el apoyo de las grandes plataformas digitales para desarrollar lo que denominan “innovadoras soluciones de seguridad”.
Con la creciente crisis climática y los conflictos geopolíticos, la situación de los refugiados seguirá empeorando. Mientras tanto, gobiernos de múltiples regiones están comprando e implementando tecnologías inicialmente probadas en zonas de conflicto como Gaza, con el objetivo de aplicarlas después contra sus propias poblaciones migrantes y ciudadanas.
Control tecnológico de la ayuda humanitaria
El Estado de Israel está empleando sistemas de reconocimiento facial para limitar el acceso de los palestinos a la ayuda humanitaria esencial. Recientemente, se aprobó un plan que permite el uso de tecnología avanzada para “verificar” a las personas que solicitan asistencia, afectando especialmente a quienes viven bajo el bloqueo en la Franja de Gaza.
Según este plan, los miembros del gabinete israelí decidieron restringir aún más la entrega de alimentos y ayuda humanitaria, introduciendo el uso obligatorio del reconocimiento facial. Quienes intenten acceder a estos recursos deberán registrarse y circular por puntos controlados mediante esta tecnología, lo cual forma parte de una estrategia diseñada para concentrar a la población civil palestina en una zona más pequeña de Gaza, permitiendo al ejército israelí expandir sus operaciones en otros territorios.
Este modelo no solo criminaliza la necesidad de ayuda, sino que también transforma la asistencia humanitaria en un instrumento de control político y territorial. Organizaciones tradicionales están siendo marginadas, mientras empresas privadas con intereses comerciales toman el control de la logística y distribución de la ayuda.
En 2023 y 2024, se reveló que Israel usaba esta tecnología junto con otras herramientas -como Google Photos- para escanear y filtrar a la población civil palestina antes de permitirles acceso a ayuda humanitaria o movilidad dentro de Gaza. La ONU ha emitido fuertes críticas contra estas prácticas, denunciando cómo las nuevas medidas aumentan el sufrimiento de la población civil palestina y violan derechos humanos fundamentales.
Corsight AI es una empresa tecnológica israelí especializada en reconocimiento facial avanzado y análisis de video inteligente, con un fuerte enfoque en aplicaciones de seguridad, vigilancia y control fronterizo. Su tecnología se basa en inteligencia artificial y está diseñada para identificar personas en tiempo real a partir de imágenes o videos, incluso en condiciones difíciles como baja resolución, ángulos no frontales o cambios en la apariencia (barba, gafas, etc.).
Características principales de Corsight:
Alta precisión: Afirma ofrecer uno de los índices más altos de acierto en identificaciones faciales.
Integración con cámaras existentes: Funciona con redes de videovigilancia tradicionales, sin necesidad de infraestructura nueva.
Uso en entornos de seguridad nacional: Ha sido empleada por fuerzas de seguridad y gobiernos para vigilancia pública, control de fronteras y detección de “amenazas”.
Análisis masivo: Permite el procesamiento de millones de rostros en cuestión de segundos.
Controversias y uso en conflictos:
Corsight ha sido señalada por grupos de derechos humanos por su uso en zonas de conflicto, especialmente en Palestina. Se ha reportado que:
Sus sistemas son utilizados por el ejército israelí para identificar y rastrear a palestinos en Cisjordania y Gaza.
La tecnología forma parte de operativos de detención masiva y control poblacional.
Es parte del ecosistema tecnológico que permite el funcionamiento del programa Lavender, utilizado para generar listas de objetivos humanos.
Ejemplo de cómo funciona:
Una persona pasa frente a una cámara conectada a la plataforma de Corsight.
El sistema compara su rostro en tiempo real contra una base de datos de millones de perfiles.
Si hay coincidencia, se alerta a las autoridades o fuerzas de seguridad.
Esto puede desencadenar una detención, vigilancia o inclusión en listas de «sospechosos».
¿Por qué es importante conocerla?
Corsight representa una de las muchas empresas tecnológicas privadas que están transformando la guerra y el control social mediante IA. Sus algoritmos, aunque presentados como neutrales, están siendo utilizados para vigilar, criminalizar y atacar a civiles en contextos de ocupación militar.
Su trabajo no solo afecta a Palestina, sino que también sienta precedentes sobre cómo otros Estados pueden usar estas herramientas para suprimir disidencias, restringir derechos y automatizar la violencia estatal.
¿Qué es el programa Lavender?
El programa Lavender es un sistema de inteligencia artificial desarrollado por las Fuerzas Armadas de Israel para seleccionar objetivos en operaciones militares, específicamente durante los bombardeos en la Franja de Gaza. Este sistema permite identificar y marcar a presuntos miembros de grupos como Hamás y la Yihad Islámica Palestina, aunque también se ha señalado que su uso puede implicar bajas civiles.
Según informes, Lavender tiene un margen de error del 10 % en la selección de objetivos, lo que significa que existe la posibilidad de errores en la identificación de sospechosos o blancos militares. El sistema forma parte de una serie de herramientas basadas en algoritmos de IA utilizadas por el ejército israelí para apoyar decisiones en conflictos armados.
Partido Feminista de España
25 de julio de 2025