¿Nos arrastrará la inteligencia artificial a una guerra nuclear?

El ex vicesecretario de Defensa estadounidense Robert Work alertó del peligro de integrar la inteligencia artificial en las armas nucleares otorgándole el control de cuándo usarlas. Lo hizo durante una conferencia sobre IA en el Laboratorio de Física Aplicada de la Universidad John Hopkins de EUU.

«Imaginen tener un sistema de predicción [basado] en inteligencia artificial en un sistema de mando y control nuclear que se dispararía con ciertos parámetros. Esa es una perspectiva mucho, mucho, muchísimo más alarmante que cualquier cosa que se pueda pensar parecida a un arma en concreto», alertó Work.

El ex vicesecretario de Defensa estadounidense defendió que es más peligroso otorgar ese control a la inteligencia artificial que crear un arma basada en ella. Según Work, la inteligencia artificial es necesaria, pero no se debe sobredimensionar su papel en los conflictos armados venideros.

En una entrevista con Sputnik, el profesor adjunto y especialista en conflictos de guerra, paz y defensa de la Universidad de Carolina del Norte Mark Gubrud defendió que los humanos «son mejores juzgando las situaciones más complicadas y ambiguas», pero que cuando las cosas son simples y claras, las máquinas pueden reaccionar más rápido y con mayor precisión. Advirtió que en la guerra los errores son a menudo irreversibles y que no es buena idea que inteligencias artificiales se enfrenten entre sí.

«Si los sistemas automatizados empiezan a pelear entre sí, puede que no seamos capaces de detenerlos antes de que sea demasiado tarde. Por lo tanto, no debemos permitir que se relaje el control humano», añadió Gubrud.

El experto aboga por un tratado fuerte que convierta en algo obligatorio el control humano de todas las armas para que la inteligencia artificial detrás de ciertos sistemas de guerra no actúe sin supervisión. Lamenta que los países que lideran el desafrollo de armas autónomas movidas por IA —entre ellos Estados Unidos, China y Rusia—, se hayan resistido a fundar un tratado de este tipo.

Una explosión nuclear, imagen ilustrativa

¿Cómo es de realista un escenario en el que la IA esté conectada al arsenal nuclear de un país? Gubrud cree que es poco probable que EEUU o cualquier otra nación permita que una computadora dispare armas nucleares sin una decisión humana detrás. Recuerda que se dice que Rusia posee un sistema automatizado que puede reaccionar si un primer ataque destruye a la cúpula política del país y que algunos autores estadounidenses ahora están solicitando a EEUU que desarrolle un sistema similar. Espera, en el caso del sistema ruso, que haya un humano detrás.

Cree que el mundo se acerca a un momento muy peligroso. Lo argumenta a la luz de «la destrucción de tratados y la llamada nueva carrera armamentística», en la que incluye nuevas armas nucleares y no nucleares que acortan los tiempos de ataque y de respuesta. Defiende que es necesario que tanto EEUU como Rusia renueven el tratado START y que, entre otras cosas, limiten las pruebas y el despliegue de misiles y que se prohíban las pruebas de misiles hipersónicos, las armas antisatélite y las espaciales.

¿Cómo sería de fiable una inteligencia artificial nuclear?

El fundamental problema de la disuasión nuclear está en que solo se activa si puede fracasar, es decir, si la guerra nuclear sigue siendo una posibilidad y, por tanto, no se consigue disuadir a una tercera nación, analiza.

Con los sistemas que alertan de un inminente ataque, prosigue, se intenta que nunca den una falsa alarma, «pero también que no se les pase advertir de un verdadero ataque nuclear», añade. Son, a su juicio, objetivos completamente imposibles de alcanzar simultáneamente: «Son objetivos contradictorios, ya que es imposible minimizar simultáneamente los ‘falsos positivos’ y los ‘falsos negativos'».

Los humanos también se pueden equivocar, reconoce. Pero cuando se trata de personas, subraya, «dedican a su trabajo toda su inteligencia y toda su comprensión» y saben lo que está en juego en caso de que aprieten el botón. «Siempre comprobarán una y otra vez que no se trata de un error» y que efectivamente se aproxima un ataque nuclear. En cualquier caso, el control humano es esencial, pero no suficiente, concluye: la única seguridad verdadera «es acabar con la carrera armamentista y con las armas nucleares».

 

 


 

Buscar mecanismos de seguridad que demanden la intervención humana como última oportunidad de presionar el botón ante la detección de un posible ataque no es para menos. En el año 1983 ,cuando el sistema soviético de detección de misiles nucleares detectó cinco misiles dirigiéndose hacia territorio ruso y disparó las alertas. El teniente coronel Stanislav Petrov, gracias a considerarla como falsa alarma, las desestimó acertadamente y en contra de los protocolos de seguridad y se evitó un holocausto nuclear, un verdadero héroe para el mundo (aunque no así para los altos mandos rusos). Hoy por hoy, con la inteligencia artificial en creciente auge, ha generado también más desconfianza por parte de los seres humanos hacia ella, ante un riesgo de que tales sistemas automáticos impidan que haya un Petrov para detenerla.

 

Hasta la próxima

 

David (10% Nori-El)
foto-perfil-300

 

«Hay mayor realidad que nuestra mayor ficción»

Maestro Nori-El

 


 

Mas Información y Fuentes:

mundo.sputniknews.com
Wiki – Stanislav Petrov
Wiki – START – Tratado de Reducción de Armas Estratégicas