• Quiénes somos
  • Contacto
  • Embajadas
  • Oficina PM
  • Condiciones de servicio
  • Política de Privacidad
  • Política de cookies (UE)
  • Declaración de privacidad (UE)
  • Login
  • Register
jueves, febrero 5, 2026
Noticias de Israel
  • Inicio
  • FDI
  • Gaza
  • Terrorismo
  • Mundo
  • Zona de guerra
  • Siria
  • Irán
  • Antisemitismo
  • Tecnología
  • Arqueología
Noticias de Israel

Portada » Zona de guerra » Por qué crece la presión para prohibir los robots asesinos

Por qué crece la presión para prohibir los robots asesinos

20 de diciembre de 2021
Por qué crece la presión para prohibir los robots asesinos

Puede parecer un oscuro cónclave de las Naciones Unidas, pero una reunión celebrada esta semana en Ginebra fue seguida con atención por expertos en inteligencia artificial, estrategia militar, desarme y derecho humanitario.

¿El motivo del interés? Los robots asesinos -drones, pistolas y bombas que deciden por sí mismos, con cerebros artificiales, si atacan y matan- y lo que debería hacerse, si es que se hace algo, para regularlos o prohibirlos.

Los robots asesinos, conocidos técnicamente como Sistemas de Armas Autónomas Letales, se han inventado y probado a un ritmo acelerado sin apenas supervisión. Algunos prototipos se han utilizado incluso en conflictos reales.

La evolución de estas máquinas se considera un acontecimiento potencialmente sísmico en la guerra, similar a la invención de la pólvora y las bombas nucleares.

Este año, por primera vez, la mayoría de las 125 naciones que pertenecen a un acuerdo llamado Convención sobre Ciertas Armas Convencionales, o C.C.W., dijeron que querían que se pusieran límites a los robots asesinos. Pero se opusieron los miembros que están desarrollando estas armas, sobre todo Estados Unidos y Rusia.

La conferencia del grupo concluyó el viernes con sólo una vaga declaración sobre la consideración de posibles medidas aceptables para todos. La Campaña para Detener los Robots Asesinos, un grupo de desarme, dijo que el resultado se quedó “drásticamente corto”.

¿Qué es la Convención sobre Ciertas Armas Convencionales?

La C.C.W., a veces conocida como Convención sobre Armas Inhumanas, es un marco de normas que prohíben o restringen las armas que se considera que causan un sufrimiento innecesario, injustificable e indiscriminado, como los explosivos incendiarios, los láseres cegadores y las trampas explosivas que no distinguen entre combatientes y civiles. La Convención no contiene disposiciones sobre los robots asesinos.

¿Qué son exactamente los robots asesinos?

Las opiniones difieren en cuanto a la definición exacta, pero en general se considera que son armas que toman decisiones con poca o ninguna participación humana. Los rápidos avances en robótica, inteligencia artificial y reconocimiento de imágenes están haciendo posible este tipo de armamento.

Los drones que Estados Unidos ha utilizado ampliamente en Afganistán, Irak y otros lugares no se consideran robots porque son operados a distancia por personas, que eligen los objetivos y deciden si disparar.

¿Por qué se consideran atractivos?

Para los planificadores de la guerra, las armas ofrecen la promesa de mantener a los soldados fuera de peligro y tomar decisiones más rápidas que las que tomaría un humano, al dar más responsabilidades en el campo de batalla a sistemas autónomos como drones sin piloto y tanques sin conductor que deciden de forma independiente cuándo atacar.

¿Cuáles son las objeciones?

Los críticos argumentan que es moralmente repugnante asignar la toma de decisiones letales a las máquinas, independientemente de la sofisticación tecnológica. ¿Cómo puede una máquina diferenciar a un adulto de un niño, a un combatiente con un bazooka de un civil con una escoba, a un combatiente hostil de un soldado herido o que se rinde?

“Fundamentalmente, los sistemas de armas autónomas plantean a la sociedad la preocupación ética de sustituir las decisiones humanas sobre la vida y la muerte por procesos de sensores, programas informáticos y máquinas”, declaró en la conferencia de Ginebra Peter Maurer, presidente del Comité Internacional de la Cruz Roja y abierto opositor a los robots asesinos.

Antes de la conferencia, Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard pidieron que se adopte un acuerdo jurídicamente vinculante que exija el control humano en todo momento.

“Los robots carecen de la compasión, la empatía, la piedad y el juicio necesarios para tratar a los seres humanos con humanidad, y no pueden comprender el valor inherente de la vida humana”, argumentaron los grupos en un documento informativo para apoyar sus recomendaciones.

Otros afirmaron que las armas autónomas, en lugar de reducir el riesgo de guerra, podrían hacer lo contrario, al proporcionar a los antagonistas formas de infligir daño que minimicen los riesgos para sus propios soldados.

“Los robots asesinos producidos en masa podrían reducir el umbral de la guerra al sacar a los humanos de la cadena de muerte y dar rienda suelta a máquinas que podrían atacar a un objetivo humano sin ningún humano a los mandos”, dijo Phil Twyford, ministro de desarme de Nueva Zelanda.

¿Por qué fue importante la conferencia de Ginebra?

Los expertos en desarme consideraron la conferencia como la mejor oportunidad hasta la fecha para idear formas de regular, si no prohibir, el uso de robots asesinos en el marco de la C.C.W.

Fue la culminación de años de debates por parte de un grupo de expertos a los que se les había pedido que identificaran los retos y los posibles enfoques para reducir las amenazas de los robots asesinos. Pero los expertos ni siquiera pudieron llegar a un acuerdo sobre cuestiones básicas.

¿Qué dicen los que se oponen a un nuevo tratado?

Algunos, como Rusia, insisten en que cualquier decisión sobre los límites debe ser unánime, lo que de hecho da a los opositores un derecho de veto.

Estados Unidos argumenta que las leyes internacionales existentes son suficientes y que prohibir la tecnología de armas autónomas sería prematuro. El principal delegado estadounidense en la conferencia, Joshua Dorosin, propuso un “código de conducta” no vinculante para el uso de robots asesinos, una idea que los defensores del desarme desestimaron como una táctica dilatoria.

El ejército estadounidense ha invertido mucho en inteligencia artificial, trabajando con los mayores contratistas de defensa, como Lockheed Martin, Boeing, Raytheon y Northrop Grumman. El trabajo ha incluido proyectos para desarrollar misiles de largo alcance que detectan objetivos en movimiento basándose en la radiofrecuencia, drones enjambre que pueden identificar y atacar un objetivo, y sistemas automatizados de defensa de misiles, según las investigaciones de los opositores a los sistemas de armas.

La complejidad y los diversos usos de la inteligencia artificial hacen que sea más difícil de regular que las armas nucleares o las minas terrestres, afirmó Maaike Verbruggen, experta en tecnologías emergentes de seguridad militar del Centro de Seguridad, Diplomacia y Estrategia de Bruselas. Dijo que la falta de transparencia sobre lo que los diferentes países están construyendo ha creado “miedo y preocupación” entre los líderes militares que deben mantenerse al día.

“Es muy difícil hacerse una idea de lo que está haciendo otro país”, dijo Verbruggen, que está haciendo un doctorado sobre el tema. “Hay mucha incertidumbre y eso impulsa la innovación militar”.

Franz-Stefan Gady, investigador del Instituto Internacional de Estudios Estratégicos, dijo que “la carrera armamentística de los sistemas de armas autónomas ya está en marcha y no se detendrá pronto”.

¿Existe un conflicto en el sector de la defensa sobre los robots asesinos?

Sí. Incluso a medida que la tecnología se vuelve más avanzada, ha habido reticencias a la hora de utilizar armas autónomas en combate por el temor a los errores, dijo el Sr. Gady.

“¿Pueden los mandos militares confiar en el juicio de los sistemas de armas autónomas? En este caso, la respuesta por el momento es claramente ‘no’ y lo seguirá siendo en un futuro próximo”, dijo.

El debate sobre las armas autónomas ha salpicado a Silicon Valley. En 2018, Google dijo que no renovaría un contrato con el Pentágono después de que miles de sus empleados firmaran una carta en la que protestaban por el trabajo de la compañía en un programa que utilizaba inteligencia artificial para interpretar imágenes que podrían utilizarse para elegir objetivos de drones. La empresa también creó nuevas directrices éticas que prohíben el uso de su tecnología para el armamento y la vigilancia.

Otros creen que Estados Unidos no va lo suficientemente lejos para competir con sus rivales.

En octubre, el antiguo jefe de software de las Fuerzas Aéreas, Nicolas Chaillan, declaró al Financial Times que había dimitido por lo que consideraba un escaso progreso tecnológico dentro del ejército estadounidense, especialmente en el uso de la inteligencia artificial. Dijo que los responsables políticos se ven frenados por cuestiones éticas, mientras que países como China siguen adelante.

¿Dónde se han utilizado las armas autónomas?

No hay muchos ejemplos verificados en el campo de batalla, pero los críticos señalan algunos incidentes que muestran el potencial de la tecnología.

En marzo, los investigadores de las Naciones Unidas afirmaron que las fuerzas respaldadas por el gobierno en Libia habían utilizado un “sistema de armas autónomas letal” contra combatientes de la milicia. Un dron llamado Kargu-2, fabricado por un contratista de defensa turco, rastreó y atacó a los combatientes cuando huían de un ataque con cohetes, según el informe, que no dejó claro si algún humano controlaba los drones.

En la guerra de 2020 en Nagorno-Karabaj, Azerbaiyán luchó contra Armenia con drones de ataque y misiles que merodean en el aire hasta detectar la señal de un objetivo asignado.

¿Qué ocurre ahora?

Muchos defensores del desarme afirmaron que el resultado de la conferencia había reforzado lo que describieron como una decisión de impulsar un nuevo tratado en los próximos años, como los que prohíben las minas terrestres y las municiones de racimo.

Daan Kayser, experto en armas autónomas de PAX, un grupo de defensa de la paz con sede en los Países Bajos, dijo que el hecho de que la conferencia no haya acordado ni siquiera negociar sobre los robots asesinos fue “una señal realmente clara de que la C.C.W. no está a la altura”.

Noel Sharkey, experto en inteligencia artificial y presidente del Comité Internacional para el Control de Armas de Robots, dijo que la reunión había demostrado que era preferible un nuevo tratado a más deliberaciones de la C.C.W.

“Había una sensación de urgencia en la sala”, dijo, de que “si no hay movimiento, no estamos dispuestos a seguir en esta rueda de molino”.

© 2017–2025

Welcome Back!

Login to your account below

Forgotten Password? Sign Up

Create New Account!

Fill the forms below to register

All fields are required. Log In

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Gestiona tu privacidad

Para ofrecer las mejores experiencias, nosotros y nuestros socios utilizamos tecnologías como cookies para almacenar y/o acceder a la información del dispositivo. La aceptación de estas tecnologías nos permitirá a nosotros y a nuestros socios procesar datos personales como el comportamiento de navegación o identificaciones únicas (IDs) en este sitio y mostrar anuncios (no-) personalizados. No consentir o retirar el consentimiento, puede afectar negativamente a ciertas características y funciones.

Haz clic a continuación para aceptar lo anterior o realizar elecciones más detalladas. Tus elecciones se aplicarán solo en este sitio. Puedes cambiar tus ajustes en cualquier momento, incluso retirar tu consentimiento, utilizando los botones de la Política de cookies o haciendo clic en el icono de Privacidad situado en la parte inferior de la pantalla.

Funcional Siempre activo
El almacenamiento o acceso técnico es estrictamente necesario para el propósito legítimo de permitir el uso de un servicio específico explícitamente solicitado por el abonado o usuario, o con el único propósito de llevar a cabo la transmisión de una comunicación a través de una red de comunicaciones electrónicas.
Preferencias
El almacenamiento o acceso técnico es necesario para la finalidad legítima de almacenar preferencias no solicitadas por el abonado o usuario.
Estadísticas
El almacenamiento o acceso técnico que es utilizado exclusivamente con fines estadísticos. El almacenamiento o acceso técnico que se utiliza exclusivamente con fines estadísticos anónimos. Sin un requerimiento, el cumplimiento voluntario por parte de tu Proveedor de servicios de Internet, o los registros adicionales de un tercero, la información almacenada o recuperada sólo para este propósito no se puede utilizar para identificarte.
Marketing
El almacenamiento o acceso técnico es necesario para crear perfiles de usuario para enviar publicidad, o para rastrear al usuario en una web o en varias web con fines de marketing similares.
Estadísticas

Marketing

Características
Siempre activo

Siempre activo
  • Administrar opciones
  • Gestionar los servicios
  • Gestionar {vendor_count} proveedores
  • Leer más sobre estos propósitos
Administrar opciones
  • {title}
  • {title}
  • {title}
No Result
View All Result
  • Inicio
  • FDI
  • Gaza
  • Terrorismo
  • Mundo
  • Zona de guerra
  • Siria
  • Irán
  • Antisemitismo
  • Tecnología
  • Arqueología