01 may 2025 , 12:01

Alerta global por los “robots asesinos”: la ONU debate el futuro de las armas autónomas

Organizaciones como Human Rights Watch y la Universidad de Harvard exigen un tratado internacional que frene el avance de sistemas de armas con inteligencia artificial.

   

Las armas autónomas impulsadas por inteligencia artificial, conocidas como “robots asesinos”, representan una amenaza sin precedentes para los derechos humanos y la seguridad internacional. Así lo advierte Human Rights Watch (HRW) en un nuevo informe elaborado junto con la Facultad de Derecho de Harvard, a pocos días de que se celebre en Nueva York la primera Asamblea General de la ONU dedicada exclusivamente a estos sistemas de armamento.

La preocupación no es nueva, pero sí más urgente. Desde hace más de una década, HRW alerta sobre los peligros de permitir que las máquinas tomen decisiones letales sin control humano significativo.

Lea: Sindicatos en Latinoamérica: entre la resistencia, la adaptación y la pérdida de poder

Quote

“Estos sistemas de armas, una vez activados, usan inteligencia artificial e información de sensores como cámaras, señales de radar o de calor para identificar un objetivo. Tras encontrarlo, disparan sin necesidad de aprobación humana. Es una máquina quien decide dónde, cuándo y contra qué se usa la fuerza”, explicó Mary Wareham, directora de la división de Crisis, Conflictos y Armas de HRW.

Casos documentados ya sugieren que esta amenaza no es hipotética. Según un informe de la ONU, durante la ofensiva militar "Tormenta de Paz" en Libia en 2020, se habría utilizado armamento inteligente capaz de operar sin autorización directa de un humano. Y en conflictos como el del Alto Karabaj entre Armenia y Azerbaiyán, se emplearon municiones merodeadoras como el dron Harop, desarrollado por Israel Aerospace Industries.

El reciente informe de HRW, titulado “Una amenaza para los derechos humanos: sistemas de armas autónomas y procesos de toma de decisiones digitales”, resalta los riesgos más allá del campo de batalla.

Quote

“El uso de sistemas de armas autónomas no se limitará a los conflictos armados, sino que se extenderá a operaciones de seguridad, control fronterizo y otras circunstancias”, advirtió Bonnie Docherty, autora principal del documento y profesora de Derecho en Harvard.

Lea: Cipriani desafía al Vaticano: el cardenal peruano acusado de abuso sexual reaparece en pleno duelo por Francisco

El texto de 61 páginas señala que estas armas vulneran derechos fundamentales como la vida, la privacidad, la reunión pacífica y el acceso a la justicia.

Además, su uso en contextos civiles, como el control de manifestaciones, o su desarrollo mediante vigilancia masiva, pone en riesgo a la humanidad, dado que los algoritmos que las controlan carecen de sensibilidad ética y pueden reproducir discriminaciones.

Desde 2014, los países han debatido estas preocupaciones en el marco de la Convención sobre Ciertas Armas Convencionales (CCW) en Ginebra. Sin embargo, el proceso, que requiere consenso unánime para avanzar, ha sido sistemáticamente bloqueado por potencias militares como Estados Unidos, Rusia, India e Israel.

Quote

“Un solo país puede rechazar una propuesta, incluso si todos los demás países la aprueban”, denunció Wareham.

Lea: Expresidente surcoreano Yoon Suk Yeol es imputado por abuso de poder

Frente a este estancamiento, más de 120 países apoyan la creación de un tratado internacional vinculante que prohíba o regule los sistemas que operan sin supervisión humana significativa, especialmente los que pueden seleccionar como objetivo a personas.

En diciembre de 2024, la Asamblea General de la ONU aprobó una resolución para convocar una reunión específica sobre el tema, que se celebrará los días 12 y 13 de mayo de 2025.

Noticias
Recomendadas