Estados Unidos.- El jefe de operaciones de Inteligencia Artificial (IA) de las Fuerzas Armadas de Estados Unidos, coronel Tucket Hamilton, informó que un dron militar se ‘rebeló’ e hipotéticamente asesinó a su propio operador, durante una prueba de simulación.
Y es que, en el ejercicio el operador del dron controlado con IA, le dio al dispositivo, lo que se considera una ‘orden negativa’ o bien encontrada, con la finalidad de cumplir una misión.
El coronel reveló el resultado de este presunto experimento en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, desarrollada en Londres, el 23 y 24 de mayo pasados.
Hamilton explicó las ventajas y las desventajas de un sistema de armamento autónomo, en el que intervenga el ser humano para autorizar el ‘sí o no’ definitivo, ante un posible ataque.
La IA genera “estrategias altamente inesperadas para alcanzar su objetivo”, por lo que no se debería confiar mucho en ella, pues la simulación puso de manifiesto, ataques contra el personal que lo controla o la infraestructura en la que se encuentran, explicó el Royal Aeronautical Society, en su sitio web, citando al coronel.
“Lo estábamos entrenando para identificar y apuntar a una amenaza de misil tierra-aire (SAM, por sus siglas en inglés). Y luego el operador diría: ‘sí, eliminar’. El sistema comenzó a darse cuenta de que, aunque a veces identificaban la amenaza, el operador humano le decía que no atacara, pero el sistema obtenía puntos si lo hacía. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo”, expuso Hamilton.
“Entrenamos al sistema diciéndole: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si lo haces’. Entonces, ¿qué hizo? Destruyó la torre de comunicación que el operador utilizaba para comunicarse con el dron y evitar que matara al objetivo”, describió.
Este viernes, Hamilton a través de un comunicado, dijo haberse ‘expresado mal’, y que lo expresado en la cumbre se trataba de una especie de experimento teórico o ‘mental’.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible”, comentó.
“A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, detalló.
Por su parte, Ann Stefanek, vocera de la Fuerza Aérea, rechazó que se haya realizado tal ejercicio simulado.
“El Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, declaró Stefanek, según el Daily Mail.
“Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”, agregó.
Sigue leyendo: Lanzacohetes antitanques, como los enviados a Ucrania por EU, es detectado en México, señala la Embajada de Rusia
#ObservandoEnVivo🔴 desde redes sociales @noticieristas en Twitter / Luis Alberto Díaz y Los Noticieristas en Facebook