• Quiénes somos
  • Contacto
  • Embajadas
  • Oficina PM
  • Directorio
  • Jerusalén
  • Condiciones de servicio
  • Política de Privacidad
martes, mayo 13, 2025
Noticias de Israel
  • Inicio
  • FDI
  • Gaza
  • Terrorismo
  • Mundo
  • Zona de guerra
  • Siria
  • Irán
  • Antisemitismo
  • Tecnología
  • Arqueología
  • Inicio
  • FDI
  • Gaza
  • Terrorismo
  • Mundo
  • Zona de guerra
  • Siria
  • Irán
  • Antisemitismo
  • Tecnología
  • Arqueología
Noticias de Israel

Portada » Zona de guerra » Por qué crece la presión para prohibir los robots asesinos

Por qué crece la presión para prohibir los robots asesinos

por Arí Hashomer
20 de diciembre de 2021
en Zona de guerra
Por qué crece la presión para prohibir los robots asesinos

Puede parecer un oscuro cónclave de las Naciones Unidas, pero una reunión celebrada esta semana en Ginebra fue seguida con atención por expertos en inteligencia artificial, estrategia militar, desarme y derecho humanitario.

¿El motivo del interés? Los robots asesinos -drones, pistolas y bombas que deciden por sí mismos, con cerebros artificiales, si atacan y matan- y lo que debería hacerse, si es que se hace algo, para regularlos o prohibirlos.

Los robots asesinos, conocidos técnicamente como Sistemas de Armas Autónomas Letales, se han inventado y probado a un ritmo acelerado sin apenas supervisión. Algunos prototipos se han utilizado incluso en conflictos reales.

La evolución de estas máquinas se considera un acontecimiento potencialmente sísmico en la guerra, similar a la invención de la pólvora y las bombas nucleares.

Más noticias

DZYNE prueba Grasshopper de largo alcance con turbina en Utah

DZYNE prueba Grasshopper de largo alcance con turbina en Utah

Exclusivo: El primer F-35B BX-1 realiza su vuelo inaugural

Exclusivo: El primer F-35B BX-1 realiza su vuelo inaugural

El F-47 integra sigilo multispectral, IA y guerra en red

General de EE. UU. detalla el rendimiento del Boeing F-47

Defensas aéreas hutíes casi alcanzan a los F-35 y F-16 de EE. UU.

Defensas aéreas hutíes casi alcanzan a los F-35 y F-16 de EE. UU.

Este año, por primera vez, la mayoría de las 125 naciones que pertenecen a un acuerdo llamado Convención sobre Ciertas Armas Convencionales, o C.C.W., dijeron que querían que se pusieran límites a los robots asesinos. Pero se opusieron los miembros que están desarrollando estas armas, sobre todo Estados Unidos y Rusia.

La conferencia del grupo concluyó el viernes con sólo una vaga declaración sobre la consideración de posibles medidas aceptables para todos. La Campaña para Detener los Robots Asesinos, un grupo de desarme, dijo que el resultado se quedó “drásticamente corto”.

¿Qué es la Convención sobre Ciertas Armas Convencionales?

La C.C.W., a veces conocida como Convención sobre Armas Inhumanas, es un marco de normas que prohíben o restringen las armas que se considera que causan un sufrimiento innecesario, injustificable e indiscriminado, como los explosivos incendiarios, los láseres cegadores y las trampas explosivas que no distinguen entre combatientes y civiles. La Convención no contiene disposiciones sobre los robots asesinos.

¿Qué son exactamente los robots asesinos?

Las opiniones difieren en cuanto a la definición exacta, pero en general se considera que son armas que toman decisiones con poca o ninguna participación humana. Los rápidos avances en robótica, inteligencia artificial y reconocimiento de imágenes están haciendo posible este tipo de armamento.

Los drones que Estados Unidos ha utilizado ampliamente en Afganistán, Irak y otros lugares no se consideran robots porque son operados a distancia por personas, que eligen los objetivos y deciden si disparar.

¿Por qué se consideran atractivos?

Para los planificadores de la guerra, las armas ofrecen la promesa de mantener a los soldados fuera de peligro y tomar decisiones más rápidas que las que tomaría un humano, al dar más responsabilidades en el campo de batalla a sistemas autónomos como drones sin piloto y tanques sin conductor que deciden de forma independiente cuándo atacar.

¿Cuáles son las objeciones?

Los críticos argumentan que es moralmente repugnante asignar la toma de decisiones letales a las máquinas, independientemente de la sofisticación tecnológica. ¿Cómo puede una máquina diferenciar a un adulto de un niño, a un combatiente con un bazooka de un civil con una escoba, a un combatiente hostil de un soldado herido o que se rinde?

“Fundamentalmente, los sistemas de armas autónomas plantean a la sociedad la preocupación ética de sustituir las decisiones humanas sobre la vida y la muerte por procesos de sensores, programas informáticos y máquinas”, declaró en la conferencia de Ginebra Peter Maurer, presidente del Comité Internacional de la Cruz Roja y abierto opositor a los robots asesinos.

Antes de la conferencia, Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard pidieron que se adopte un acuerdo jurídicamente vinculante que exija el control humano en todo momento.

“Los robots carecen de la compasión, la empatía, la piedad y el juicio necesarios para tratar a los seres humanos con humanidad, y no pueden comprender el valor inherente de la vida humana”, argumentaron los grupos en un documento informativo para apoyar sus recomendaciones.

Otros afirmaron que las armas autónomas, en lugar de reducir el riesgo de guerra, podrían hacer lo contrario, al proporcionar a los antagonistas formas de infligir daño que minimicen los riesgos para sus propios soldados.

“Los robots asesinos producidos en masa podrían reducir el umbral de la guerra al sacar a los humanos de la cadena de muerte y dar rienda suelta a máquinas que podrían atacar a un objetivo humano sin ningún humano a los mandos”, dijo Phil Twyford, ministro de desarme de Nueva Zelanda.

¿Por qué fue importante la conferencia de Ginebra?

Los expertos en desarme consideraron la conferencia como la mejor oportunidad hasta la fecha para idear formas de regular, si no prohibir, el uso de robots asesinos en el marco de la C.C.W.

Fue la culminación de años de debates por parte de un grupo de expertos a los que se les había pedido que identificaran los retos y los posibles enfoques para reducir las amenazas de los robots asesinos. Pero los expertos ni siquiera pudieron llegar a un acuerdo sobre cuestiones básicas.

¿Qué dicen los que se oponen a un nuevo tratado?

Algunos, como Rusia, insisten en que cualquier decisión sobre los límites debe ser unánime, lo que de hecho da a los opositores un derecho de veto.

Estados Unidos argumenta que las leyes internacionales existentes son suficientes y que prohibir la tecnología de armas autónomas sería prematuro. El principal delegado estadounidense en la conferencia, Joshua Dorosin, propuso un “código de conducta” no vinculante para el uso de robots asesinos, una idea que los defensores del desarme desestimaron como una táctica dilatoria.

El ejército estadounidense ha invertido mucho en inteligencia artificial, trabajando con los mayores contratistas de defensa, como Lockheed Martin, Boeing, Raytheon y Northrop Grumman. El trabajo ha incluido proyectos para desarrollar misiles de largo alcance que detectan objetivos en movimiento basándose en la radiofrecuencia, drones enjambre que pueden identificar y atacar un objetivo, y sistemas automatizados de defensa de misiles, según las investigaciones de los opositores a los sistemas de armas.

La complejidad y los diversos usos de la inteligencia artificial hacen que sea más difícil de regular que las armas nucleares o las minas terrestres, afirmó Maaike Verbruggen, experta en tecnologías emergentes de seguridad militar del Centro de Seguridad, Diplomacia y Estrategia de Bruselas. Dijo que la falta de transparencia sobre lo que los diferentes países están construyendo ha creado “miedo y preocupación” entre los líderes militares que deben mantenerse al día.

“Es muy difícil hacerse una idea de lo que está haciendo otro país”, dijo Verbruggen, que está haciendo un doctorado sobre el tema. “Hay mucha incertidumbre y eso impulsa la innovación militar”.

Franz-Stefan Gady, investigador del Instituto Internacional de Estudios Estratégicos, dijo que “la carrera armamentística de los sistemas de armas autónomas ya está en marcha y no se detendrá pronto”.

¿Existe un conflicto en el sector de la defensa sobre los robots asesinos?

Sí. Incluso a medida que la tecnología se vuelve más avanzada, ha habido reticencias a la hora de utilizar armas autónomas en combate por el temor a los errores, dijo el Sr. Gady.

“¿Pueden los mandos militares confiar en el juicio de los sistemas de armas autónomas? En este caso, la respuesta por el momento es claramente ‘no’ y lo seguirá siendo en un futuro próximo”, dijo.

El debate sobre las armas autónomas ha salpicado a Silicon Valley. En 2018, Google dijo que no renovaría un contrato con el Pentágono después de que miles de sus empleados firmaran una carta en la que protestaban por el trabajo de la compañía en un programa que utilizaba inteligencia artificial para interpretar imágenes que podrían utilizarse para elegir objetivos de drones. La empresa también creó nuevas directrices éticas que prohíben el uso de su tecnología para el armamento y la vigilancia.

Otros creen que Estados Unidos no va lo suficientemente lejos para competir con sus rivales.

En octubre, el antiguo jefe de software de las Fuerzas Aéreas, Nicolas Chaillan, declaró al Financial Times que había dimitido por lo que consideraba un escaso progreso tecnológico dentro del ejército estadounidense, especialmente en el uso de la inteligencia artificial. Dijo que los responsables políticos se ven frenados por cuestiones éticas, mientras que países como China siguen adelante.

¿Dónde se han utilizado las armas autónomas?

No hay muchos ejemplos verificados en el campo de batalla, pero los críticos señalan algunos incidentes que muestran el potencial de la tecnología.

En marzo, los investigadores de las Naciones Unidas afirmaron que las fuerzas respaldadas por el gobierno en Libia habían utilizado un “sistema de armas autónomas letal” contra combatientes de la milicia. Un dron llamado Kargu-2, fabricado por un contratista de defensa turco, rastreó y atacó a los combatientes cuando huían de un ataque con cohetes, según el informe, que no dejó claro si algún humano controlaba los drones.

En la guerra de 2020 en Nagorno-Karabaj, Azerbaiyán luchó contra Armenia con drones de ataque y misiles que merodean en el aire hasta detectar la señal de un objetivo asignado.

¿Qué ocurre ahora?

Muchos defensores del desarme afirmaron que el resultado de la conferencia había reforzado lo que describieron como una decisión de impulsar un nuevo tratado en los próximos años, como los que prohíben las minas terrestres y las municiones de racimo.

Daan Kayser, experto en armas autónomas de PAX, un grupo de defensa de la paz con sede en los Países Bajos, dijo que el hecho de que la conferencia no haya acordado ni siquiera negociar sobre los robots asesinos fue “una señal realmente clara de que la C.C.W. no está a la altura”.

Noel Sharkey, experto en inteligencia artificial y presidente del Comité Internacional para el Control de Armas de Robots, dijo que la reunión había demostrado que era preferible un nuevo tratado a más deliberaciones de la C.C.W.

“Había una sensación de urgencia en la sala”, dijo, de que “si no hay movimiento, no estamos dispuestos a seguir en esta rueda de molino”.

© 2017–2025
No Result
View All Result
  • Inicio
  • FDI
  • Gaza
  • Terrorismo
  • Mundo
  • Zona de guerra
  • Siria
  • Irán
  • Antisemitismo
  • Tecnología
  • Arqueología

© 2019 - 2025 Todos los derechos reservados.