Scathax

Noticias Internacionales

Coronel IDF discute 'polvo mágico de ciencias de datos' para localizar terroristas.

10/4/2024 | The Guardian

Coronel IDF discute 'polvo mágico de ciencias de datos' para localizar terroristas.

Ha surgido un video de un alto funcionario de la agencia de inteligencia cibernética de Israel, la Unidad 8200, hablando el año pasado sobre el uso de "polvo mágico" de aprendizaje automático para ayudar a identificar objetivos de Hamas en Gaza.

Las declaraciones del funcionario

Las imágenes plantean preguntas sobre la precisión de una declaración reciente sobre el uso de inteligencia artificial (IA) por parte de las Fuerzas de Defensa de Israel (FDI), que afirmaron que "no utilizan un sistema de inteligencia artificial que identifique a terroristas o intente predecir si una persona es un terrorista".

Sin embargo, en el video, el jefe de ciencia de datos e IA de la Unidad 8200, identificado solamente como "Coronel Yoav", dijo que revelaría "un ejemplo de una de las herramientas que usamos" antes de describir cómo la división de inteligencia utilizó técnicas de aprendizaje automático en la ofensiva de Israel en Gaza en mayo de 2021 para "encontrar nuevos terroristas".

"Digamos que tenemos algunos terroristas que forman un grupo y solo conocemos a algunos de ellos", dijo. "Al practicar nuestro polvo mágico de ciencia de datos, podemos encontrar al resto de ellos".

Similitudes con testimonios recientes

Las descripciones en el video de la tecnología utilizada por la Unidad 8200 tienen similitudes con el testimonio reciente de seis fuentes internas de las FDI sobre el uso de una herramienta de IA llamada "Lavender" durante su ofensiva contra Hamas. Dijeron que la base de datos generada por IA se había utilizado para ayudar a los oficiales de inteligencia involucrados en la campaña de bombardeos en Gaza, ayudando a identificar decenas de miles de posibles objetivos humanos.

En su refutación, las FDI dijeron que algunas de las cuentas eran "infundadas". Sin embargo, las cuentas son consistentes con los comentarios de Yoav durante una conferencia de IA en la Universidad de Tel Aviv en febrero del año pasado. El video, en el que se puede escuchar a Yoav pero no se le puede ver, fue alojado en el canal de YouTube de la universidad y hasta hace poco tenía menos de 100 vistas.

El uso de IA en la inteligencia militar

En la presentación de 10 minutos, titulada "transformación digital e inteligencia artificial en el ámbito de la inteligencia", el coronel ofreció una rara visión de cómo los sistemas de IA opacos están siendo utilizados por cuerpos militares y de inteligencia secretos.

Cuando se utiliza IA para predecir si alguien es un terrorista, explicó, la Unidad 8200 toma la información que tiene sobre personas que cree que son miembros de grupos terroristas y busca "encontrar al resto del grupo".

Refiriéndose a un ejemplo específico, el funcionario dijo que en la operación militar de las FDI en mayo de 2021 en Gaza, su departamento aplicó este principio para "encontrar comandantes de misiles de Hamas y terroristas de misiles anticarro en Gaza para operar contra ellos".

Explicó que utilizando una forma de aprendizaje automático conocida como "aprendizaje no etiquetado positivo", "tomamos al subgrupo original, calculamos sus círculos cercanos, luego calculamos características relevantes y finalmente clasificamos los resultados y determinamos el umbral".

El coronel dijo que se utiliza la retroalimentación de los oficiales de inteligencia "para enriquecer y mejorar nuestro algoritmo" y enfatizó que las decisiones son tomadas por "personas de carne y hueso". "Desde el punto de vista ético, ponemos mucho énfasis en esto", dijo, añadiendo que "estas herramientas son para ayudar a romper sus barreras".

Según Yoav, la Unidad 8200 logró superar "la barrera humana" durante la ofensiva de mayo de 2021, logrando identificar más de 200 nuevos objetivos. "Hubo momentos en los que esta cantidad nos llevó casi un año", dijo.

Respuesta de las FDI

Contactadas para hacer comentarios sobre el video, las FDI dijeron que la participación del coronel en la conferencia había sido aprobada por el ejército. Sin embargo, un portavoz negó que sus declaraciones entren en conflicto con las recientes negaciones de las FDI sobre su uso de IA. En un cambio sutil de palabras que no se utilizó en su declaración original, las FDI dijeron al periódico The Guardian que sus sistemas de IA no "eligen objetivos" para atacar.

"Las FDI nunca negaron la existencia de una base de datos de operativos de organizaciones terroristas, que verifica la información existente sobre dichos operativos", dijeron. "Al mismo tiempo, las FDI se mantienen firmes en su declaración de que no utilizan sistemas de IA que eligen objetivos para atacar, y que la base de datos en cuestión no es una lista de operativos elegibles para atacar. No hay contradicción".

En su testimonio, los seis oficiales de inteligencia que hablaron la semana pasada dijeron que la herramienta Lavender se había utilizado para ayudar a identificar objetivos potenciales a una escala y velocidad sin precedentes. No se acusó a las FDI de utilizar sistemas que seleccionan automáticamente los objetivos para el ataque.

Cuatro de las fuentes dijeron que, en una etapa temprana de la guerra, Lavender mencionó hasta 37,000 hombres en la franja que habían sido relacionados por el sistema de IA con Hamas o la Yihad Islámica Palestina. Ninguna de las fuentes negó que los humanos estuvieran involucrados en el proceso de autorizar los ataques, aunque algunos admitieron una supervisión mínima por parte de los humanos.

"Invertiría 20 segundos en cada objetivo en esta etapa y haría docenas de ellos todos los días", dijo un oficial de inteligencia. "No tenía ningún valor añadido como humano, aparte de ser un sello de aprobación. Ahorró mucho tiempo".

Sus testimonios fueron publicados por la revista israelí-palestina +972, su medio en hebreo Local Call y The Guardian.

Conclusiones

La descripción del coronel Yoav sobre la colaboración entre IA y personal de inteligencia refleja un modelo para operaciones de selección concebido por su comandante, el jefe de la Unidad 8200 Yossi Sariel, quien el Guardian reveló que dejó su identidad expuesta en línea cuando escribió en secreto un libro publicado en 2021, The Human Machine Team.

En una etapa, el coronel explicó que el departamento de IA y ciencia de datos que él dirige en la Unidad 8200 también se conoce internamente como "el centro de integración entre el hombre y la máquina".

Hablando ocho meses antes de que las FDI comenzaran las operaciones en Gaza después de los ataques del 7 de octubre liderados por Hamas, el coronel habló con optimismo sobre cómo las FDI están pasando "de la era de las postales a la era digital" donde "de repente puedes reaccionar durante la batalla con soluciones impulsadas por datos aplicados".

Mirando hacia el futuro, añadió: "Tengo curiosidad respecto a cómo será la próxima operación, en términos digitales".