El Secretario General de la ONU, António Guterres, advirtió esta semana sobre las consecuencias del uso de la inteligencia artificial en la guerra, afirmando: "En el futuro no nos moveremos tan despacio como lo hacemos ahora", subrayando la urgente necesidad de regular la IA. La velocidad del desarrollo tecnológico en medio de los convulsiones geopolíticas está borrando las líneas entre los conceptos teóricos y los eventos del mundo real. El debate político sobre las capacidades de la IA del ejército estadounidense coincidió con su uso sin precedentes en la crisis iraní. La empresa de IA, Anthropic, declaró que no pudo eliminar las salvaguardas que impiden que el Departamento de Defensa de EE. UU. (el Pentágono) utilice su tecnología para la vigilancia masiva o armas letales autónomas. El Pentágono declaró que no tiene interés en tales usos, pero enfatizó que dichas decisiones no deben dejarse en manos de las empresas. Extrañamente, la administración no se limitó a romper lazos con Anthropic, sino que también la incluyó en una lista negra, considerándola una amenaza para la cadena de suministro. La empresa de investigación y desarrollo de IA, OpenAI, intervino, reafirmando su compromiso con las líneas rojas establecidas por Anthropic. Sin embargo, su respuesta se limitó a la reacción interna de los usuarios y empleados. El CEO, Sam Altman, reconoció que la empresa no controla el uso del Pentágono de sus productos y que la forma en que se gestionó el acuerdo con el Departamento de Defensa hizo que OpenAI pareciera "oportunista y necesitada de más pericia".Pero la directora ejecutiva de la campaña 'Detener los robots asesinos', que aboga por el control humano sobre el uso de la fuerza, Nicole van Royen, advirtió: "El asunto no es si estas armas se utilizarán o no, sino cómo ya están cambiando los sistemas existentes de hacer la guerra. El control humano se vuelve secundario o un mero trámite".Este cambio radical ya está en marcha. A pesar de la controversia, algunos han sugerido que Anthropic pudo facilitar los ataques generalizados y en aumento en esta guerra, que han costado muchas vidas. Expertos le dijeron a The Guardian esta semana que "la edad en la que vivimos es la edad del bombardeo, más rápido que la velocidad del pensamiento, donde la IA identifica y prioriza objetivos, sugiere armas y evalúa las bases legales del ataque".La IA no es la principal responsable de las bajas civiles, los errores militares o la impunidad. Al final, los seres humanos son los responsables porque la IA no puede operar por sí sola sin los humanos que inician las guerras sin pensar en las posibles víctimas. Sin embargo, incluso sin abordar los problemas de imprecisión y sesgo en la IA, su impacto es claro para sus usuarios. Un oficial militar dijo: "Hay muchos objetivos y cada uno solo toma unos segundos para ser bombardeado". Añadió que se sintió inútil porque la IA se encargaba de todo el proceso, lo que literalmente facilitó los asesinatos en masa, creando mayor distancia de los sentimientos morales y emocionales y disminuyendo la rendición de cuentas.La supervisión democrática y las restricciones multilaterales son cruciales, en lugar de dejar las decisiones en manos de los fabricantes de armas y los ministerios de defensa.Mientras la guerra arde y el bombardeo se intensifica entre las partes en el conflicto en curso en Irán, las naciones se han reunido en Ginebra para discutir los sistemas de armas letales autónomas. El borrador del texto en discusión podría formar una base sólida para un tratado del que la humanidad más que nunca necesita. La mayoría de los gobiernos quieren directrices claras sobre el uso militar de la IA, pero los mayores perpetradores de la guerra se resisten, a pesar de estar al menos en el cículo de toma de decisiones. Desafortunadamente, la intensidad de las guerras impulsadas por la IA puede ser interpretada por quienes las conducen como mejor les parezca. Algunos pueden interpretar una disminución en la intensidad de la guerra y el bombardeo como una cesión de terreno al enemigo. Sin embargo, como comprenden los propios trabajadores tecnológicos y los funcionarios militares, los riesgos de una expansión descontrolada son mucho mayores.
Advertencia de Guterres sobre la IA en la guerra y debates en EE. UU.
El Secretario General de la ONU, António Guterres, llamó a regular el uso de la IA en la guerra. Un debate enciende en EE. UU. entre las empresas de IA y el Pentágono sobre el control de tecnologías que están cambiando la naturaleza de la guerra, aumentando la velocidad y reduciendo el control humano.