Microsoft informó haber cortado el polémico acceso a sus servicios en la nube, que le ofrecía a una unidad de defensa israelí que aparentemente los usaba como parte de una operación de vigilancia masiva en Gaza y la elección de blancos mortales por Inteligencia Artificial. Fue resultado de lo que Microsoft asegura que fue una investigación interna a partir de un reporte del diario The Guardian sobre el uso que el ejército israelí estaba dando al servicio de nube Azure: "almacenar archivos de datos de llamadas telefónicas obtenidos a través de una amplia o masiva vigilancia de civiles en Gaza y Cisjordania".

"Encontramos evidencia que da crédito a elementos del reporte del The Guardian", dijo el presidente de Microsoft, Brad Smith, en un mensaje a sus empleados publicado en línea. Y de manera algo paradógica, agregaron: "No proveemos tecnología para facilitar vigilancia masiva de civiles". Microsoft revisó la decisión con el ministro israelí de Defensa junto con los pasos que la empresa tecnológica toma para garantizar su cumplimiento, según Smith.  "Esto no afecta el importante trabajo que Microsoft continúa haciendo para proteger la ciberseguridad de Israel y otros países en el Medio Oriente", dijo Smith.

De qué los acusan

La acusación --que parte de denuncias de los propios empleados de la empresa-- dice que la empresa de Bill Gates comenzó a alojar en sus granjas de servidores todas las conversaciones telefónicas y escritas de la totalidad de los palestinos en Gaza y Cisjordania, las 24 horas cada día del año. Esa información bruta es tamizada por una inteligencia artificial con reconocimiento de voz que elige blancos para los drones, en general sentencias de muerte dictadas y ejecutadas por robots contra una persona y todos en un mismo edificio: así se producen gran parte de los ataques en Gaza.

Esta información la había lanzado al mundo el diario inglés The Guardian revelando que las Fuerzas de Defensa de Israel (IDF) estaban desarrollando una especie de ChatGPT entrenado con millones de conversaciones en árabe, obtenidas mediante cibervigilancia en Cisjordania. Esta herramienta de IA a cargo de la Unidad 8200 implica un programa de aprendizaje automático que analiza diálogos grabados y traducidos al hebreo. Esto traza un perfil casi perfecto de cada palestino ocupado, que se actualiza a diario trackeando sus pasos para ver a quiénes visitan. Un chatbot les da a los soldados la información procesada de quien deseen: identifica posible resistencia armada, defensores de derechos humanos y simples niños propensos a tirar piedras a militares.