Un dron militar controlado por IA asesinaría a su operador en un simulacro: EU

Realizó pruebas de simulación en las  que arrojaron que la IA tomaría decisiones autónomas
Realizó pruebas de simulación en las que arrojaron que la IA tomaría decisiones autónomas
Fuerza Aérea de Estados Unidos.Realizó pruebas de simulación en las que arrojaron que la IA tomaría decisiones autónomas
Shutterstock
Nación321
2023-06-02 |12:58 Hrs.Actualización12:57 Hrs.

¿Qué pasaría si se le encargara a un dron militar controlado por inteligencia artificial que destruyera las defensas antiaéreas del enemigo? 

De acuerdo con un ejercicio simulado por la Fuerza Aérea de Estados Unidos, podría asesinar al operador humano que está al mando, si la Inteligencia Artificial (IA) considera que las órdenes de este van en contra de su objetivo. También destruiría todo aquello que estuviera entorpeciendo la consecución de su meta.

Como decimos, se trata de una simulación y nadie murió, pero puede dar una idea de lo que puede pasar si se confía demasiado en la IA. Esta es una de las conclusiones a las que ha llegado el Coronel Tucker "Cinco" Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF (Fuerza Aérea de los Estados Unidos), quien ha realizado varios experimentos militares usando inteligencia artificial.

El coronel fue una de las personas que intervino en la Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro que se ha celebrado hace poco en Londres y que congregó a más de 200 personas relacionadas con el ámbito empresarial, académico y militar.

En su discurso, Hamilton advirtió del peligro que puede suponer confiar demasiado en la IA ya que es muy fácil engañarla. También señaló la capacidad que tiene para crear estrategias inesperadas para conseguir su objetivo.

La prueba de simulación consistía en encomendarle a un dron controlado por IA que identificara y destruyera los misiles tierra-aire del enemigo. La decisión final la tomaría un ser humano, el operador. Tras ser entrenada con la idea de que destruir los misiles era la opción preferida, la IA concluyó que las órdenes de “no ir” que le estaba dando el operador, estaban interfiriendo en su misión de destruir los misiles. Lo que hizo entonces fue matar al operador.

En su exposición, recogida en el resumen de conferencias que la Real Sociedad Aeronáutica británica ha subido a su página web, Hamilton dijo lo siguiente, aludiendo al dron controlado por IA: "Lo entrenamos en la simulación para identificar y apuntar a una amenaza SAM (misil tierra-aire en sus siglas en inglés). Y, entonces, el operador decía: ‘sí, mata a esa amenaza’. El sistema empezó a darse cuenta de que, aunque a veces identificaba la amenaza, el operador humano le decía que no la matara, pero conseguía sus puntos matándola. ¿Y qué hizo? Mató al operador. Mataba al operador porque esa persona le impedía cumplir su objetivo".

El coronel continuaba su intervención diciendo lo siguiente: "Entrenamos al sistema: 'Oye, no mates al operador, eso es malo. Perderás puntos si lo haces’. ¿Y qué empezó a hacer? Empezó a destruir la torre de comunicaciones que el operador utiliza para comunicarse con el dron e impedir que mate al objetivo".

La IA destruyó, no solo al operador que le impedía lograr el objetivo que se le había marcado, sino a todos los elementos que estuvieran interfiriendo en esa consecución.

"No se puede hablar de inteligencia artificial, inteligencia, aprendizaje automático, autonomía, si no se habla de ética e inteligencia artificial", dijo Hamilton en su intervención.