Presentación al Secretario General de las Naciones Unidas sobre los sistemas de armas autónomas

Presentación al Secretario General de las Naciones Unidas sobre los sistemas de armas autónomas

Human Rights Watch celebra la oportunidad de presentar sus opiniones y recomendaciones al Secretario General de las Naciones Unidas para su consideración en respuesta a la Resolución 78/241 sobre “Sistemas de armas autónomas letales”, adoptada por la Asamblea General de la ONU el 22 de diciembre de 2023. Esta resolución histórica insta al Secretario General de las Naciones Unidas a recabar las opiniones de los países y otras partes interesadas sobre “cómo abordar los desafíos y las preocupaciones que plantean estos sistemas de armas desde las perspectivas humanitaria, jurídica, de seguridad, tecnológica y ética”.

Este documento resume brevemente nuestro trabajo sobre este tema, esboza los retos y preocupaciones específicos que plantean los sistemas de armas autónomos e identifica las formas en que estos retos y preocupaciones pueden abordarse a través de un instrumento jurídicamente vinculante.

I. Antecedentes

Human Rights Watch es una organización no gubernamental (ONG) internacional con estatus consultivo ante el Consejo Económico y Social de las Naciones Unidas. Investigamos y abogamos por la protección de la dignidad humana y la promoción de los derechos humanos y el derecho internacional de los derechos humanos en todo el mundo. Durante más de 30 años, Human Rights Watch ha documentado y trabajado para prevenir los daños a civiles y el sufrimiento humano causados por una serie de armas, como las minas terrestres, las municiones de racimo, las armas incendiarias, las armas químicas y las armas explosivas utilizadas en zonas pobladas. Trabajamos para impulsar el desarme humanitario, un enfoque que pretende prevenir y remediar el sufrimiento humano y los daños medioambientales causados por las armas mediante el establecimiento y la aplicación de normas.

En octubre de 2012, Human Rights Watch y otras seis ONG que trabajan en el desarme humanitario fundaron la Campaña para Detener los Robots Asesinos.[1] La coalición, que ahora incluye a más de 270 ONG en 70 países, está haciendo campaña para la negociación y adopción de un tratado internacional para prohibir y restringir los sistemas de armas autónomas. En nombre de Human Rights Watch, Mary Wareham fue la coordinadora fundadora de la campaña de 2012 a 2021.

II. Desafíos y preocupaciones que plantean los sistemas de armas autónomos

Esta declaración se basa y se fundamenta en nuestros años de investigación y trabajo de incidencia sobre esta cuestión. Desde 2012, Human Rights Watch ha publicado más de dos docenas de informes sobre sistemas de armas autónomas, la mayoría de ellos en colaboración con la Clínica Internacional de Derechos Humanos (IHRC, por sus siglas en inglés) de la Facultad de Derecho de Harvard. Esta investigación ha examinado los numerosos y graves desafíos y problemas éticos, morales, jurídicos, de rendición de cuentas y de seguridad que plantean los sistemas de armas que seleccionan y atacan objetivos basándose en el procesamiento de sensores y no en la intervención humana.[2]

En noviembre de 2012, Human Rights Watch y el IHRC publicaron “Losing Humanity: The Case against Killer Robots”, la primera gran La sociedad civil Informe que analiza los peligros asociados a la abolición del control humano sobre el uso de la fuerza.[3] Este informe -y otros posteriores- concluía que la capacidad de las máquinas para seleccionar y atacar objetivos sin más intervención humana no es compatible con las disposiciones fundamentales de la derecho internacional humanitarioincluidos los principios de distinción y proporcionalidad.[4] Los sistemas de armas autónomos tendrían dificultades para distinguir entre combatientes y civiles, sobre todo cuando los primeros se entremezclan con los segundos, ya que no podrían interpretar indicios sutiles. Además, no dispondrían del juicio humano para decidir si el daño esperado a la población civil es demasiado elevado en relación con la ventaja militar esperada en situaciones que cambian rápidamente de un caso a otro.

Human Rights Watch y la IHRC han señalado los importantes obstáculos que existen para asignar responsabilidad personal por las acciones de los sistemas de armas autónomos, tanto en el derecho penal como en el civil.[5] La rendición de cuentas es esencial para disuadir de futuros actos ilícitos, castigar los actos pasados y reconocer el sufrimiento de las víctimas. Existe un vacío en la rendición de cuentas por los daños causados por los sistemas de armas autónomas tanto en los conflictos armados como en la aplicación de la ley. Es jurídicamente difícil y podría decirse que injusto responsabilizar penalmente a los operadores humanos de las acciones de los sistemas de armas autónomos cuando no podían prever o controlar esas acciones. Existen otros obstáculos para responsabilizar civilmente a los fabricantes de armas.

Los sistemas de armas autónomos también violarían los principios fundamentales de humanidad y los dictados de la conciencia pública establecidos por la Cláusula Martens en el derecho internacional humanitario.[6] Los principios de humanidad exigen humanidad (incluida la compasión) y respeto por la vida y la dignidad humanas, que las armas autónomas no pueden proporcionar porque son objetos inanimados. Además, para muchos, eliminar el control humano sobre el uso de la fuerza cruza una línea moral y, por tanto, va en contra de su conciencia pública. Miles de científicos y expertos en inteligencia artificial, más de 24 premios Nobel de la Paz y más de 160 líderes religiosos y organizaciones de diversas confesiones han pedido la prohibición de los sistemas de armas autónomas.

Los sistemas de armas autónomas suscitan serias preocupaciones en relación con la legislación internacional sobre derechos humanos, ya que podrían utilizarse tanto en operaciones policiales como en conflictos armados. Human Rights Watch acogió con satisfacción el primer informe de la ONU sobre sistemas de armas autónomas presentado al Consejo de Derechos Humanos en mayo de 2013 por el Relator Especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, el profesor Christof Heyns de Sudáfrica.[7] El innovador informe recomendaba una moratoria inmediata sobre lo que Heyns denominó “robótica autónoma letal”, es decir, sistemas de armas que seleccionarían y atacarían objetivos sin más intervención humana.[8]

Las investigaciones realizadas por Human Rights Watch y la IHRC han revelado que los sistemas de armas autónomas suscitan preocupación por los derechos fundamentales a la vida, la reparación legal y el principio de dignidad humana.[9] Según el derecho a no ser privado de la vida arbitrariamente, la fuerza sólo puede utilizarse si es necesaria, como último recurso y de forma proporcionada. En el caso de las armas que funcionan sin un control humano significativo, es difícil que se cumplan las tres partes de esta prueba. Podría ser difícil para una máquina decidir si el uso de la fuerza es necesario porque, como objeto inanimado, es incapaz de reconocer señales sutiles de los seres humanos para determinar si suponen una amenaza real. Las máquinas carecerían del juicio humano para sopesar la proporcionalidad de un ataque. Mientras que un agente del orden humano podría evitar la violencia negociando con un ser humano percibido como una amenaza y apaciguando la situación, un sistema de armas autónomo no podría hacerlo, y sería menos probable que un ser humano se rindiera ante una máquina. Además, los sistemas de armas autónomos plantean los problemas de falta de rendición de cuentas antes mencionados, que ponen en entredicho el derecho a la reparación.

Los sistemas de armas autónomos socavarían el principio de dignidad, un concepto jurídico y moral que establece que todo ser humano tiene un valor que merece respeto. Como objetos inanimados, las máquinas no pueden comprender ni entender el valor de la vida humana ni el significado de su pérdida. Permitirles tomar decisiones de vida o muerte les quita la dignidad humana de las personas que son objeto de sus ataques. Al decidir a quién matar, los sistemas de armas autónomas reducen los objetivos humanos a puntos de datos. Como declaró Heyns: “Si dejas que las máquinas decidan cuándo y dónde usar la fuerza contra las personas, reduces a estas personas a objetos….. Se convierten en ceros y unos en los objetivos digitales de armas programadas de antemano para desatar la violencia sin posibilidad de comprobar si no hay otra salida, sin un grado suficiente de elección humana consciente en el asunto”.[10] Los recientes esfuerzos por programar un umbral de daños a civiles en los sistemas automatizados han sido inadecuados y no proporcionan ningún freno.

Las preocupaciones en materia de seguridad citadas por Human Rights Watch y la IHRC incluyen el riesgo de una carrera armamentística, el peligro de que los sistemas de armas autónomas caigan en manos de Estados o actores no estatales que no respeten el derecho internacional, y una reducción del umbral para la guerra.[11] Dado que los sistemas de armamento autónomos podrían tomar decisiones complejas en un entorno menos estructurado, su velocidad podría hacer que los conflictos armados se descontrolaran rápidamente. Su uso podría favorecer la inestabilidad de las crisis y la escalada de los conflictos.[12]

III Formas de abordar los retos y preocupaciones que plantean los sistemas de armas autónomos

Un instrumento jurídicamente vinculante

Como miembro de la campaña “Stop Killer Robots”, Human Rights Watch apoya su llamamiento a la urgente negociación y adopción de un instrumento jurídicamente vinculante para prohibir y regular los sistemas de armas autónomas.[13] Los sistemas de armas autónomas son un problema grave que puede afectar a cualquier país del mundo, por lo que es esencial contar con normas claras, sólidas y globales. Estas normas deben ser jurídicamente vinculantes para promover su cumplimiento por parte de los Estados que se adhieran al tratado. La experiencia demuestra que un instrumento jurídicamente vinculante también puede influir en los Estados que no son parte e incluso en los grupos armados no estatales mediante la creación de normas y la estigmatización de las armas más problemáticas.

Sólo un nuevo derecho internacional será suficiente para hacer frente a los peligros que plantean los sistemas de armas autónomas.[14] Medidas como un código de conducta voluntario no harían sino allanar el camino hacia un futuro de asesinatos automatizados. Compromisos voluntarios como las declaraciones políticas estadounidenses de 2023 para garantizar el uso responsable de los sistemas de armas de inteligencia artificial (IA) son completamente inadecuados y no ofrecen ninguna razón para la moderación.

Como han informado Human Rights Watch y la IHRC, un precedente relevante para un instrumento jurídicamente vinculante puede encontrarse en el Protocolo IV de la Convención sobre Armas Convencionales, que establece una prohibición preventiva de las armas láser cegadoras.[15] De hecho, las amenazas a los principios de humanidad y conciencia pública, así como la repulsa y la inaceptación social, contribuyeron a que los países prohibieran los láseres cegadores mediante el Protocolo adoptado en 1995. Aunque los láseres cegadores son una clase de armas más limitada que los sistemas de armas autónomas, los paralelismos demuestran que es factible y eficaz poner fin a las nuevas tecnologías problemáticas mediante prohibiciones.

Un instrumento jurídicamente vinculante debería ir acompañado de legislación nacional y otras medidas para aplicar y hacer cumplir las disposiciones del tratado a nivel nacional. Estamos de acuerdo con la recomendación del Comité Internacional de la Cruz Roja (CICR) de que el instrumento “debe exigir a los Estados Partes que adopten todas las medidas legales, administrativas y de otra índole que procedan, incluida la imposición de sanciones penales, para prevenir o reprimir cualquier actividad prohibida a los Estados Partes en virtud del instrumento que sea realizada por personas o en territorio bajo su jurisdicción o control”.[16]

Elementos esenciales del tratado

Human Rights Watch, IHRC y otros han esbozado los elementos esenciales para un tratado internacional sobre sistemas de armas autónomas, basándose en tratados de desarme anteriores, instrumentos internacionales de derechos humanos y derecho internacional humanitario, todos los cuales proporcionan modelos para las disposiciones propuestas.[17]

Un instrumento jurídicamente vinculante debería aplicarse a todos los sistemas de armas que seleccionan y atacan objetivos basándose en el procesamiento de sensores y no en la intervención humana. Aunque las limitaciones del tratado se centrarán en un grupo más reducido de sistemas, este amplio alcance contribuirá a que el tratado esté preparado para el futuro y garantizará que ningún sistema escape al escrutinio. El nuevo tratado debería incluir: 1) una obligación general de mantener un control humano significativo sobre el uso de la fuerza; 2) una prohibición de los sistemas de armas que seleccionan y atacan objetivos de forma autónoma y que, por su propia naturaleza, plantean cuestiones morales y jurídicas fundamentales; y 3) obligaciones positivas específicas destinadas a garantizar que se mantenga un control humano significativo en el uso de todos los demás sistemas que seleccionan y atacan objetivos.

El concepto de control humano significativo es fundamental para dicho instrumento, ya que la mayoría de los problemas derivados de los sistemas de armas autónomos se deben a la falta de dicho control humano.[18] El concepto de control humano significativo debe incluir una combinación de componentes, tales como, pero no necesariamente limitados a: 1) componentes de toma de decisiones, por ejemplo, la capacidad de comprender cómo funciona el sistema; 2) componentes tecnológicos, incluyendo la previsibilidad y la fiabilidad; y 3) componentes operativos, especialmente las restricciones temporales y espaciales dentro de las cuales opera el sistema.

Un nuevo tratado debería prohibir el desarrollo, la producción y el uso de sistemas que Dada la relación entre la pérdida de control y los retos y preocupaciones mencionados, un nuevo tratado debería prohibir el desarrollo, la producción y el uso de sistemas que intrínsecamente no permitan un control humano significativo sobre el uso de la fuerza. El tratado también debería prohibir prohibir el desarrollo, la producción y el uso de sistemas de armas autónomas que tengan como objetivo a seres humanos para evitar el uso de sistemas de armas que priven a las personas de su dignidad, deshumanicen el uso de la fuerza o conduzcan a la discriminación. La prohibición también debería aplicarse a las armas que se basan siempre en datos como el peso, el calor o el sonido para seleccionar objetivos humanos. Estas prohibiciones contribuirían a proteger a los civiles y otros no combatientes en los conflictos armados y a reducir las violaciones de derechos humanos en las operaciones policiales. Deberían aplicarse “en todas las circunstancias” para garantizar que las disposiciones se aplican tanto en tiempos de paz como de guerra.

El tratado también debería incluir disposiciones (obligaciones positivas) para garantizar que todos los demás sistemas de armas autónomas nunca se utilicen sin un control humano significativo. El tratado debería esbozar las medidas positivas que los Estados parte deben adoptar para proteger los sistemas que no son intrínsecamente inaceptables, pero aún tienen el potencial de utilizado para seleccionar y atacar objetivos sin un control humano significativo.

Existen otros tipos de obligaciones positivas comunes al derecho internacional humanitario y al derecho de los derechos humanos que podrían incluirse en un instrumento jurídicamente vinculante sobre los sistemas de armas autónomas. Por ejemplo, las obligaciones de información promoverían la transparencia y facilitarían la supervisión. Los mecanismos de verificación y cumplimiento podrían ayudar a prevenir las violaciones del tratado. Las reuniones periódicas de los Estados Partes brindarían la oportunidad de examinar la situación y el funcionamiento del tratado, detectar lagunas en su aplicación y fijar objetivos para el futuro.

El camino a seguir

En lo que respecta a los foros de negociación, la Convención sobre Armas Convencionales (CCAC) aún no ha alcanzado su ha proporcionado un foro para debates útiles y el desarrollo de apoyo a un instrumento jurídicamente vinculante. Después de más de una década, está claro que las negociaciones sobre un nuevo instrumento en el marco de la CCAC son imposibles. Es hora de abandonar este foro y pasar a otro que apunte más alto, avance más rápido y sea más inclusivo con los países que no forman parte de la CCW, las organizaciones internacionales y la sociedad civil. Los precedentes en materia de desarme demuestran que los procesos independientes y los iniciados por la Asamblea General de las Naciones Unidas son opciones viables en las que Estados comprometidos y de ideas afines, en colaboración con otros actores, pueden desarrollar tratados sólidos en 15 meses o menos.[19]

El mundo se está acercando a un punto de inflexión en esta cuestión, ya que el apoyo a la negociación de un instrumento jurídicamente vinculante sobre los sistemas de armas autónomas alcanza niveles sin precedentes.[20] El proyecto Automated Decision Research de la campaña Stop Killer Robots identifica a más de 110 países que han expresado su deseo de un nuevo tratado internacional sobre sistemas de armas autónomas en declaraciones nacionales y de grupo.[21] Human Rights Watch apoya el llamamiento conjunto del Secretario General de la ONU, António Guterres, y la presidenta del CICR, Mirjana Spoljaric, el 5 de octubre, para que los Estados miembros de la ONU negocien un nuevo tratado internacional que prohíba los sistemas de armas autónomas letales para 2026.

Human Rights Watch reafirma su determinación de trabajar con todas las partes interesadas para promover un instrumento jurídico internacional que prohíba y regule los sistemas de armas autónomas. Agradecemos la oportunidad de compartir las opiniones y recomendaciones anteriores sobre las formas de abordar esta grave amenaza para la humanidad.

[1] Véase www.stopkillerrobots.org y también Human Rights Watch, “Nueva campaña para detener a los robots asesinos”, 23 de abril de 2013, https://www.hrw.org/news/2013/04/23/arms-new-campaign-stop-killer-robots.

[2] Presentación de Bonnie Docherty, Human Rights Watch (HRW), en la Conferencia Latinoamericana y del Caribe sobre Sistemas Autónomos de Armas, 8 de marzo de 2023, https://www.hrw.org/news/2023/03/08/expert-panel-social-and-humanitarian-impact-autonomous-weapons-latin-american-and.

[3] Human Rights Watch y IHRC, Perdiendo la humanidad: argumentos contra los robots asesinos, 19 de noviembre de 2012, https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-killer-robots.

[4] Véase también: HRW y IHRC, Making the Case: The Dangers of Killer Robots and the Need for a Preemptive Ban, 9 de diciembre de 2016, https://www.hrw.org/report/2016/12/09/making-case/dangers-killer-robots-and-need-preemptive-ban.

[5] HRW y IHRC, Mind the Gap: La falta de responsabilidad de los robots asesinos, 9 de abril de 2015, https://www.hrw.org/report/2015/04/09/mind-gap/lack-accountability-killer-robots.

[6] HRW y IHRC, Heed the Call: Un imperativo moral y legal para prohibir los robots asesinos, 21 de agosto de 2018, https://www.hrw.org/report/2018/08/21/heed-call/moral-and-legal-imperative-ban-killer-robots.

[7] HRW, “EEUU: toma la iniciativa contra las armas robóticas letales”, 28 de mayo de 2013, https://www.hrw.org/news/2013/05/28/us-take-lead-against-lethal-robotic-weapons.

[8] Informe del Relator Especial sobre ejecuciones extrajudiciales, sumarias o arbitrarias, Christof Heyns, Documento de la ONU A/HRC/23/47, 9 de abril de 2013, https://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A-HRC-23-47_en.pdf..

[9] HRW y IHRC, Sacudir los cimientos: Implicaciones de los robots asesinos en los derechos humanos, 12 de mayo de 2014, https://www.hrw.org/report/2014/05/12/shaking-foundations/human-rights-implications-killer-robots.

[10] Christof Heyns, “Autonomous Weapon Systems: Human Rights and Ethical Issues” (Presentación ante la Reunión de Expertos de la Convención sobre Armas Convencionales sobre Sistemas de Armas Autónomas Letales, 14 de abril de 2016).

[11] HRW y IHRC, Making the Case: The Dangers of Killer Robots and the Need for a Preemptive Ban, 9 de diciembre de 2016, https://www.hrw.org/report/2016/12/09/making-case/dangers-killer-robots-and-need-preemptive-ban.

[12] RAND, “Military Applications of Artificial Intelligence: Ethical Concerns in an Uncertain World”, 28 de abril de 2020, https://www.rand.org/pubs/research_reports/RR3139-1.html.

[13] Campaign to Stop Killer Robots, “Submission to the United Nations Office for Disarmament Affairs (UNODA) for the Secretary-General’s New Agenda for Peace”, julio de 2023, https://www.stopkillerrobots.org/wp-content/uploads/2023/07/Submission_StopKillerRobots_AgendaForPeace.pdf (consultado el 5 de abril de 2024), p. 3.

[14] HRW, “US: New Policy on Autonomous Weapons Flawed”, 14 de febrero de 2023, https://www.hrw.org/news/2023/02/14/us-new-policy-autonomous-weapons-flawed.

[15] HRW y IHRC, “Precedent for Preemption: The Ban on Blinding Lasers as a Model for a Killer Robots Prohibition”, noviembre de 2015, https://www.hrw.org/news/2015/11/08/precedent-preemption-ban-blinding-lasers-model-killer-robots-prohibition.

[16] Comité Internacional de la Cruz Roja, “Submission on Autonomous Weapons Systems to the United Nations Secretary-General”, marzo de 2024, https://www.icrc.org/sites/default/files/wysiwyg/war-and-law/icrc_submission_on_autonomous_weapons_to_unsg.pdf.

[17] HRW y IHRC, New Weapons, Proven Precedent: Elements and Models for a Treaty on Killer Robots (Nuevas armas, precedentes probados: elementos y modelos para un tratado sobre robots asesinos)., 20 de octubre de 2020, https://www.hrw.org/report/2020/10/20/new-weapons-proven-precedent/elements-and-models-treaty-killer-robots. Véase también, Campaign to Stop Killer Robots, “Key Elements of a Treaty on Fully Autonomous Weapons”, noviembre de 2019, https://www.stopkillerrobots.org/wp-content/uploads/2020/04/Key-Elements-of-a-Treaty-on-Fully-Autonomous- WeaponsvAccessible.pdf (consultado el 3 de septiembre de 2020).

[18] HRW y IHRC, “Killer Robots and the Concept of Meaningful Human Control”, 11 de abril de 2016, https://www.hrw.org/news/2016/04/11/killer-robots-and-concept-meaningful-human-control.

[19] HRW y IHRC, Agenda para la Acción: Procesos alternativos para negociar un tratado sobre robots asesinos, 10 de noviembre de 2022, https://www.hrw.org/report/2022/11/10/agenda-action/alternative-processes-negotiating-killer-robots-treaty.

[20] Más de 1.000 representantes de 144 países y organizaciones internacionales, la industria, el mundo académico y la sociedad civil participaron en la mayor conferencia internacional sobre sistemas de armas autónomas celebrada hasta la fecha en Viena los días 29 y 30 de abril. Véase el resumen del presidente: https://www.bmeia.gv.at/fileadmin/user_upload/Zentrale/Aussenpolitik/Abruestung/AWS_2024/Chair_s_Summary.pdf.

[21] Automated Decision Research, https://automatedresearch.org/state-positions/. Véase también, HRW, Detener a los robots asesinos: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control, 10 de agosto de 2020, https://www.hrw.org/report/2020/08/10/stopping-killer-robots/country-positions-banning-fully-autonomous-weapons-and.


Source link