Cualquier aficionado a la ciencia ficción puede decir que un buen apocalipsis empieza y termina con la inteligencia artificial y el complejo de dios.
Pero la cuestión principal es cuán cerca estamos realmente de traer al mundo aspectos como el Skynet de la franquicia Terminator o el Brainiac de DC Comics, y si es posible controlar a un ser cuya inteligencia supera con creces la de los más brillantes e inteligentes de la humanidad.
Varios científicos, filósofos y expertos en tecnología de instituciones educativas internacionales publicaron un artículo en el que analizan el peligro, afirmando, entre otras cosas, que si surgiera una entidad de este tipo, no sería posible detenerla. Los autores del estudio, procedentes de instituciones académicas y organismos tecnológicos de Estados Unidos, Australia y Madrid, publicaron sus conclusiones en el Journal of Artificial Intelligence Research. El artículo presenta un complejo panorama sobre la relación entre la humanidad y sus dispositivos inteligentes.
El campo de la inteligencia artificial ha fascinado y asustado a la raza humana durante décadas, de hecho desde la invención del ordenador, pero hasta hace poco los peligros potenciales se limitaban a las películas y libros de ciencia ficción. Los investigadores señalan que en los últimos años la inteligencia artificial se ha desarrollado a un ritmo increíble con nuevas técnicas, como el aprendizaje automático y el aprendizaje por refuerzo, que se han aplicado con éxito en un gran número de campos.
“Seamos o no conscientes de ello, la IA afecta significativamente a muchos aspectos de la vida humana, a la forma en que experimentamos los productos y servicios, desde la elección hasta el consumo”, escriben los investigadores. “Ejemplos de ello son la mejora del diagnóstico médico mediante el procesamiento de imágenes, las recomendaciones personalizadas de películas y libros, el filtrado del correo electrónico, etc. Los dispositivos inteligentes, que usamos a diario, activan multitud de aplicaciones de IA”.
Como ejemplo, los investigadores dicen que los dispositivos de los smartphones no sólo utilizan IA, sino que ejecutan software de autoaprendizaje y almacenan información casi infinita sobre el usuario.
La IA gana la batalla
Uno de los aspectos más importantes en el progreso de la inteligencia artificial hacia un super-ser avanzado se caracteriza por los avances en la capacidad de cálculo de la máquina, la habilidad para diseñar algoritmos y, por supuesto, el desarrollo que los humanos han hecho en las tecnologías relacionadas con el mundo de la comunicación. “La capacidad de las máquinas para derrotar a oponentes humanos en diversas situaciones de juego, como el ajedrez, el póquer o el trivial, entre otras, es emblemática de una tendencia alimentada por el crecimiento exponencial de la capacidad de procesamiento de los ordenadores, que les permite derrotar a las mejores mentes humanas”, afirman los investigadores.
Se señala que, debido a este progreso tecnológico, estamos experimentando un resurgimiento del debate sobre la inteligencia artificial como un desastre potencial para la humanidad. “Estos riesgos van desde máquinas que causan importantes trastornos en el mercado laboral, donde se puede llegar al uso de drones y otras armas autónomas que pueden ser utilizadas contra los humanos”, subrayan.
Los investigadores afirman que el mayor riesgo es la inteligencia artificial superinteligente, que supera en sabiduría al mejor cerebro humano en todos los campos posibles. Para entender el origen del peligro, hay que volver a las tres leyes del autor Isaac Asimov, que durante años representaron las pautas destinadas a evitar que las máquinas nos ataquen.
Las leyes de Asimov dicen:
- Un robot no puede dañar a una persona ni permitir que una persona dañe a otra.
- Un robot debe obedecer las órdenes que le den los humanos, siempre que no entre en conflicto con el primer apartado.
- Un robot debe proteger su existencia siempre que la protección no entre en conflicto con los dos apartados anteriores.
- Otra cláusula añadida posteriormente establece que un robot no puede perjudicar a la humanidad por inacción.
“Estas leyes se basan en suposiciones erróneas”, afirman los autores del estudio, “el deseo o la capacidad de los programadores de programar estas leyes en un algoritmo, y la capacidad de ese algoritmo de desviarse de las leyes de forma autónoma, o de reprogramarlas por sí mismo”.
Los autores del estudio afirman que este enfoque es correcto para diseñar sistemas “sencillos” que tomen decisiones autónomas en nombre de los humanos, pero son menos relevantes cuando se trata de una super IA.
“Maximizar la supervivencia”
En el estudio se señala que el momento de la discusión no es casual, y surge en el contexto de los ejemplos del nivel en que se ha desarrollado la IA. Uno de ellos es el desarrollo de la inteligencia artificial en el campo de los juegos de arcade, que utiliza la tecnología del aprendizaje por refuerzo, sin intervención humana.
“La IA se guía por la maximización de alguna noción de recompensa en línea”, explican los autores del estudio. “No requiere supervisión ni órdenes de los humanos. Esto apunta en la dirección de las máquinas, cuyo objetivo será maximizar su supervivencia sin programadores humanos”.
“Una IA superinteligente tiene las herramientas necesarias para movilizar una serie de recursos con el fin de alcanzar objetivos que pueden ser comprensibles para los humanos, y mucho menos controlables”.
“Una superinteligencia, ante la tarea de maximizar la felicidad en el mundo, puede pensar que es más eficaz destruir toda la vida en la Tierra y crear simulaciones informáticas más rápidas de pensamientos felices”, explican los investigadores. “Una superinteligencia controlada por un método de incentivos puede no confiar en que los humanos entreguen la recompensa prometida o puede preocuparse de que el operador humano no reconozca el logro de los objetivos fijados”.
Los investigadores afirman que la capacidad de adaptación de los ordenadores modernos mediante sofisticados algoritmos de aprendizaje automático hace que nos resulte difícil entender o prepararnos para la posibilidad de un levantamiento por parte de una superinteligencia de este tipo. El temor es que una única IA superinteligente pueda tener en su memoria todos los programas informáticos posibles a la vez, y cualquier programa escrito para evitar que las máquinas dañen a los humanos podría ser borrado o reescrito, sin que tengamos forma de alcanzarlo a tiempo o impedirlo.
En una época en la que las máquinas poseen toda nuestra información sensible, y en la que algunas se dedican a operaciones policiales o militares en todo el mundo, con organizaciones terroristas y países hostiles constantemente comprometidos con los avances tecnológicos en este campo, es difícil no pensar que esto es un peligro claro y artificial.