El Congreso de Estados Unidos debate sobre el papel de la inteligencia artificial (IA) en el arsenal nuclear, planteando preocupaciones sobre la autonomía de la tecnología y su potencial para desencadenar conflictos nucleares.
Inteligencia Artificial: ¿Amiga o enemiga?
La IA está ganando terreno en el ámbito militar, pero su uso en armas nucleares plantea preocupaciones sobre la posibilidad de que la tecnología inicie ataques sin intervención humana. Un grupo bipartidista en el Congreso de EE. UU. propone un proyecto de ley para limitar el desarrollo de sistemas autónomos de IA en armas nucleares.
El representante Ken Buck advierte sobre los riesgos de la IA en armas nucleares, argumentando que es necesario mantener a los seres humanos en el proceso de toma de decisiones. Mientras tanto, otros legisladores reconocen los beneficios y riesgos potenciales de la IA, buscando garantizar su uso responsable.
Según una encuesta del Stanford Institute for Human-Centered Artificial Intelligence, el 36 % de los expertos en IA creen que podría causar una “catástrofe de nivel nuclear”.
Estados Unidos: Avances en IA militar
El Pentágono asigna $ 1.800 millones a la investigación y desarrollo de IA en su presupuesto para el año fiscal 2024, reflejando el creciente interés en la tecnología para mantener la seguridad nacional y liderar la innovación en el campo.
El Mando Central de EE. UU. (CENTCOM) nombra a su primer asesor en IA, el Dr. Andrew Moore, enfatizando la importancia de la tecnología en el ejército. Schuyler Moore, directora de tecnología del CENTCOM, describe la IA como un “interruptor de luz” que ayuda a las personas a interpretar datos y tomar decisiones informadas.
La IA se utiliza en el ámbito del CENTCOM para luchar contra envíos ilegales de armas en torno a Irán, ayudando a identificar patrones de envío y anomalías.
Proyecto de Ley: Prevenir catástrofes nucleares
El proyecto de ley propuesto busca frenar el desarrollo de sistemas autónomos de IA en armas nucleares, garantizando que los seres humanos sigan siendo parte integral del proceso de toma de decisiones. Funcionarios del Pentágono reiteran que EE. UU. está en una carrera por desarrollar un sistema de IA más ético y responsable que sus adversarios.
El debate en curso subraya la necesidad de encontrar un equilibrio entre el avance tecnológico y la responsabilidad en el desarrollo de IA, especialmente en el ámbito bélico.