El jueves de 6 agosto se realizó en Chile el 2º Encuentro Virtual de Armas Letales Autónomas: “Debates éticos, sociales y humanitarios entorno a la Inteligencia Artificial”. La actividad convocó a representantes de gobierno, parlamentarios, académicos y miembros de la sociedad civil. Fue organizada por la Campaña contra Robots Asesinos, la red Seguridad Humana en América Latina y el Caribe (SEHLAC) y la Fundación Instituto de Ecología Política.
El propósito de estos encuentros es propiciar diálogos participativos entre distintos actores nacionales sobre el desarrollo tecnológico y conocer algunos de los alcances de las armas totalmente autónomas. La actividad se enmarca en el proceso de participación para contribuir con la Política Nacional de Inteligencia Artificial.
Las expositoras que compartieron sus visiones fueron Romina Garrido, abogada experta en protección de datos, investigadora asociada al GobLab en la Universidad Adolfo Ibáñez y Vanina Martinez, investigadora del Instituto de Ciencias de la Computación (CONICET- UBA) en el área de Inteligencia Artificial y profesora de la Universidad de Buenos Aires.
En este segundo encuentro se abordó el desarrollo de la inteligencia artificial y las implicancias éticas y humanitarias en el desarrollo de esta tecnología en las armas letales autónomas.
Si bien la inteligencia artificial es una tecnología facilitadora que está presente en muchas dimensiones de nuestra vida, actualmente esta herramienta es desarrollada y usadas por humanos que tienen que hacerse responsables de las consecuencias, especialmente en el ámbito de las armas.
Primeramente existe un aspecto ético, de cómo una máquina decide sobre la vida o muerte de una persona, decisión que es programada por un algoritmo. Cómo un arma se puede adherir a los principios del Derecho Internacional Humanitario, cómo puede distinguir a un civil de un combatiente, cómo puede evaluar en contextos dinámicos el daño colateral a civiles… ¿Cómo se programaría en este contexto una ley internacional?
Otro elemento a considerar es cómo se diseñan y alimentan los datos, cuáles serían los sesgos existentes en estas tecnologías que son programadas, en su mayoría, por hombres del hemisferio norte, ¿Cómo estos sesgos estandarizados consideran los dimensiones de género, raza, capacitista y culturales?
Los aspectos tecnológicos son altamente impredecibles: podrían ocurrir errores de interacción con otros sistemas autónomos por aprendizaje automático, problemas de comunicación y hasta hackeos que agraven los conflictos bélicos.
Una vez desarrolladas estas tecnologías pueden ser muy baratas de producir, aumentando la probabilidad que se multipliquen y que sean utilizadas para otras funciones o caigan en manos de actores no estatales.
Es necesario un tratado global preventivo e integral, legalmente vinculante, que prohíba el desarrollo y el uso de armas letales antes de que puedan ser construidas. A la vez, se hace urgente una moratoria en el desarrollo, despliegue, transferencia y uso de sistemas de armas letales autónomas.
El problema no termina con un tratado de prohibición para armas letales autónomas: la militarización de los sistemas de Inteligencia Artificial va a continuar y se requiere de medidas nacionales e internacionales para regular sus alcances.