• Info
  • Contacto
  • Embajadas
  • Oficina PM
  • Condiciones
  • Privacidad
  • Política de cookies (UE)
  • Declaración de privacidad (UE)
  • Login
  • Register
jueves, febrero 19, 2026
Noticias de Israel
  • Inicio
  • FDI
  • Gaza
  • Terrorismo
  • Mundo
  • Zona de guerra
  • Siria
  • Irán
  • Antisemitismo
  • Tecnología
  • Arqueología
Noticias de Israel

Portada » Ciencia y Tecnología » ¿Es la inteligencia artificial capaz de atacar a la humanidad?

¿Es la inteligencia artificial capaz de atacar a la humanidad?

6 de octubre de 2022
¿Es la inteligencia artificial capaz de atacar a la humanidad?

¿Será la IA capaz de dominar a la humanidad? (Crédito de la foto: Wikimedia Commons)

Cualquier aficionado a la ciencia ficción puede decir que un buen apocalipsis empieza y termina con la inteligencia artificial y el complejo de dios.

Pero la cuestión principal es cuán cerca estamos realmente de traer al mundo aspectos como el Skynet de la franquicia Terminator o el Brainiac de DC Comics, y si es posible controlar a un ser cuya inteligencia supera con creces la de los más brillantes e inteligentes de la humanidad.

Varios científicos, filósofos y expertos en tecnología de instituciones educativas internacionales publicaron un artículo en el que analizan el peligro, afirmando, entre otras cosas, que si surgiera una entidad de este tipo, no sería posible detenerla. Los autores del estudio, procedentes de instituciones académicas y organismos tecnológicos de Estados Unidos, Australia y Madrid, publicaron sus conclusiones en el Journal of Artificial Intelligence Research. El artículo presenta un complejo panorama sobre la relación entre la humanidad y sus dispositivos inteligentes.

El campo de la inteligencia artificial ha fascinado y asustado a la raza humana durante décadas, de hecho desde la invención del ordenador, pero hasta hace poco los peligros potenciales se limitaban a las películas y libros de ciencia ficción. Los investigadores señalan que en los últimos años la inteligencia artificial se ha desarrollado a un ritmo increíble con nuevas técnicas, como el aprendizaje automático y el aprendizaje por refuerzo, que se han aplicado con éxito en un gran número de campos.

“Seamos o no conscientes de ello, la IA afecta significativamente a muchos aspectos de la vida humana, a la forma en que experimentamos los productos y servicios, desde la elección hasta el consumo”, escriben los investigadores. “Ejemplos de ello son la mejora del diagnóstico médico mediante el procesamiento de imágenes, las recomendaciones personalizadas de películas y libros, el filtrado del correo electrónico, etc. Los dispositivos inteligentes, que usamos a diario, activan multitud de aplicaciones de IA”.

Como ejemplo, los investigadores dicen que los dispositivos de los smartphones no sólo utilizan IA, sino que ejecutan software de autoaprendizaje y almacenan información casi infinita sobre el usuario.

¿Es la inteligencia artificial capaz de atacar a la humanidad?
Artificial intelligence (credit: PIXABAY/WIKIMEDIA)

La IA gana la batalla

Uno de los aspectos más importantes en el progreso de la inteligencia artificial hacia un super-ser avanzado se caracteriza por los avances en la capacidad de cálculo de la máquina, la habilidad para diseñar algoritmos y, por supuesto, el desarrollo que los humanos han hecho en las tecnologías relacionadas con el mundo de la comunicación. “La capacidad de las máquinas para derrotar a oponentes humanos en diversas situaciones de juego, como el ajedrez, el póquer o el trivial, entre otras, es emblemática de una tendencia alimentada por el crecimiento exponencial de la capacidad de procesamiento de los ordenadores, que les permite derrotar a las mejores mentes humanas”, afirman los investigadores.

Se señala que, debido a este progreso tecnológico, estamos experimentando un resurgimiento del debate sobre la inteligencia artificial como un desastre potencial para la humanidad. “Estos riesgos van desde máquinas que causan importantes trastornos en el mercado laboral, donde se puede llegar al uso de drones y otras armas autónomas que pueden ser utilizadas contra los humanos”, subrayan.

Los investigadores afirman que el mayor riesgo es la inteligencia artificial superinteligente, que supera en sabiduría al mejor cerebro humano en todos los campos posibles. Para entender el origen del peligro, hay que volver a las tres leyes del autor Isaac Asimov, que durante años representaron las pautas destinadas a evitar que las máquinas nos ataquen.

Las leyes de Asimov dicen:

  1. Un robot no puede dañar a una persona ni permitir que una persona dañe a otra.
  2. Un robot debe obedecer las órdenes que le den los humanos, siempre que no entre en conflicto con el primer apartado.
  3. Un robot debe proteger su existencia siempre que la protección no entre en conflicto con los dos apartados anteriores.
  4. Otra cláusula añadida posteriormente establece que un robot no puede perjudicar a la humanidad por inacción.

“Estas leyes se basan en suposiciones erróneas”, afirman los autores del estudio, “el deseo o la capacidad de los programadores de programar estas leyes en un algoritmo, y la capacidad de ese algoritmo de desviarse de las leyes de forma autónoma, o de reprogramarlas por sí mismo”.

Los autores del estudio afirman que este enfoque es correcto para diseñar sistemas “sencillos” que tomen decisiones autónomas en nombre de los humanos, pero son menos relevantes cuando se trata de una super IA.

“Maximizar la supervivencia”

En el estudio se señala que el momento de la discusión no es casual, y surge en el contexto de los ejemplos del nivel en que se ha desarrollado la IA. Uno de ellos es el desarrollo de la inteligencia artificial en el campo de los juegos de arcade, que utiliza la tecnología del aprendizaje por refuerzo, sin intervención humana.

“La IA se guía por la maximización de alguna noción de recompensa en línea”, explican los autores del estudio. “No requiere supervisión ni órdenes de los humanos. Esto apunta en la dirección de las máquinas, cuyo objetivo será maximizar su supervivencia sin programadores humanos”.

“Una IA superinteligente tiene las herramientas necesarias para movilizar una serie de recursos con el fin de alcanzar objetivos que pueden ser comprensibles para los humanos, y mucho menos controlables”.

“Una superinteligencia, ante la tarea de maximizar la felicidad en el mundo, puede pensar que es más eficaz destruir toda la vida en la Tierra y crear simulaciones informáticas más rápidas de pensamientos felices”, explican los investigadores. “Una superinteligencia controlada por un método de incentivos puede no confiar en que los humanos entreguen la recompensa prometida o puede preocuparse de que el operador humano no reconozca el logro de los objetivos fijados”.

Los investigadores afirman que la capacidad de adaptación de los ordenadores modernos mediante sofisticados algoritmos de aprendizaje automático hace que nos resulte difícil entender o prepararnos para la posibilidad de un levantamiento por parte de una superinteligencia de este tipo. El temor es que una única IA superinteligente pueda tener en su memoria todos los programas informáticos posibles a la vez, y cualquier programa escrito para evitar que las máquinas dañen a los humanos podría ser borrado o reescrito, sin que tengamos forma de alcanzarlo a tiempo o impedirlo.

En una época en la que las máquinas poseen toda nuestra información sensible, y en la que algunas se dedican a operaciones policiales o militares en todo el mundo, con organizaciones terroristas y países hostiles constantemente comprometidos con los avances tecnológicos en este campo, es difícil no pensar que esto es un peligro claro y artificial.

Via: The Jerusalem Post
© 2017–2025

Welcome Back!

Login to your account below

Forgotten Password? Sign Up

Create New Account!

Fill the forms below to register

All fields are required. Log In

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Gestiona tu privacidad

Para ofrecer las mejores experiencias, nosotros y nuestros socios utilizamos tecnologías como cookies para almacenar y/o acceder a la información del dispositivo. La aceptación de estas tecnologías nos permitirá a nosotros y a nuestros socios procesar datos personales como el comportamiento de navegación o identificaciones únicas (IDs) en este sitio y mostrar anuncios (no-) personalizados. No consentir o retirar el consentimiento, puede afectar negativamente a ciertas características y funciones.

Haz clic a continuación para aceptar lo anterior o realizar elecciones más detalladas. Tus elecciones se aplicarán solo en este sitio. Puedes cambiar tus ajustes en cualquier momento, incluso retirar tu consentimiento, utilizando los botones de la Política de cookies o haciendo clic en el icono de Privacidad situado en la parte inferior de la pantalla.

Funcional Siempre activo
El almacenamiento o acceso técnico es estrictamente necesario para el propósito legítimo de permitir el uso de un servicio específico explícitamente solicitado por el abonado o usuario, o con el único propósito de llevar a cabo la transmisión de una comunicación a través de una red de comunicaciones electrónicas.
Preferencias
El almacenamiento o acceso técnico es necesario para la finalidad legítima de almacenar preferencias no solicitadas por el abonado o usuario.
Estadísticas
El almacenamiento o acceso técnico que es utilizado exclusivamente con fines estadísticos. El almacenamiento o acceso técnico que se utiliza exclusivamente con fines estadísticos anónimos. Sin un requerimiento, el cumplimiento voluntario por parte de tu Proveedor de servicios de Internet, o los registros adicionales de un tercero, la información almacenada o recuperada sólo para este propósito no se puede utilizar para identificarte.
Marketing
El almacenamiento o acceso técnico es necesario para crear perfiles de usuario para enviar publicidad, o para rastrear al usuario en una web o en varias web con fines de marketing similares.
Estadísticas

Marketing

Características
Siempre activo

Siempre activo
  • Administrar opciones
  • Gestionar los servicios
  • Gestionar {vendor_count} proveedores
  • Leer más sobre estos propósitos
Administrar opciones
  • {title}
  • {title}
  • {title}
No Result
View All Result
  • Inicio
  • FDI
  • Gaza
  • Terrorismo
  • Mundo
  • Zona de guerra
  • Siria
  • Irán
  • Antisemitismo
  • Tecnología
  • Arqueología