Por: Manuel Meléndrez
¿Cómo debería decidir un algoritmo de un vehículo autónomo entre atropellar a una anciana o a un niño? Es un hecho que el desarrollo de la tecnología afecta a nuestra vida diaria y tanto la ciencia como la evidencia científica avanza de la mano con la tecnología.
Lo que hay que preguntarse hoy en día: ¿existe aún la ética en la ciencia? o ¿ha existido alguna vez? Mi respuesta personal es que existe un espacio temporal de conveniencia o resistencia a lo disruptivo desde el punto de vista de la moral, espacio temporal que sirve para reflexionar, pero a la larga se transforma en una utopía. Por ejemplo, el año 2018, fue el año donde los avances científicos desafiaron a la ética, cuando el científico He Jiankui de la Southern University of Science and Technology de Shenzhen, aseguró haber modificado los genes de bebés. Según explicó, en una cumbre científica, logró desactivar el gen CCR5 que genera la proteína que permite al VIH entrar en las células [1] y el otro “avance” – con doble comilla- fue el primer bebé fruto del trasplante de útero de una donante fallecida, quien nació sin útero, debido al denominado síndrome de Mayer-Rokitansky-Küster-Hauser.
Parece ser que muchos de las escenas de series y películas fuera un reflejo del futuro en el presente, o ¿no se preguntan ustedes sobre los Frankenstein modernos que, al alero de la ambición humana, les importa un cero la ética? Entonces, ¿puede haber progreso científico sin ideal de felicidad y de justicia?
Los avances de la investigación científica implican la formación de un tipo de pensamiento ético que oriente la producción del conocimiento hacia la comprensión de los límites y las exigencias que se imponen como necesarios para garantizar el bienestar humano y la protección de la vida, en sus diversas manifestaciones [2]. La elevación de los fines de la ciencia a lo más humano y noble hace que esta también sea ética. Es decir, que cualquier explicación, comprensión, interpretación o demostración de los objetos y fenómenos del mundo conllevan el principio de responsabilidad, no sólo con la vida de las generaciones presentes sino con aquellas que están por venir. Preparando esto leí que “la guerra es buena porque nos hace avanzar”, “la guerra es buena porque reduce la población mundial”, “los mayores avances tecnológicos son gracias a la guerra”, “muchas tecnologías que empezaron por la guerra ahora se usan hasta en salud”. No defiendo la guerra, estoy en contra de ésta en su totalidad. Pero si analizamos los cuatro principios de la guerra moderna, me doy cuenta de que darle un arma a un algoritmo es un error más del “ser humanos”. Las guerras modernas tienen “principios” de humanidad (Todo aquel que no participe o haya dejado de participar en las hostilidades debe ser tratado con humanidad); necesidad (no utilice armas o métodos que causen un daño excesivo en relación con la ventaja militar prevista); proporcionalidad (no se debe infligir al adversario un daño desproporcionado al objetivo del conflicto armado); y distinción (Debes diferenciar en todo momento entre población y combatientes) [3].
Parece contradictorio hablar de la humanidad de la guerra, me parece una bazofia solo mencionarlo, pero existe. Por ejemplo, el término «control humano significativo» se refiere al control sobre seleccionar y disparar a los objetivos, es decir, las «funciones críticas» de un arma. Esto significa cuándo, dónde y cómo se usan las armas; contra qué o contra quién se usan; y los efectos de su uso [4]. Un arma autónoma sería programada para que una vez que se despliegue, opere por sí misma, la cual podría seleccionar y disparar objetivos por sí misma, basándose en sus algoritmos y programación de análisis de datos. En esencia, esto significa que las máquinas tendrían el poder de matar a los seres humanos o destruir edificios u otra infraestructura, sin que un ser humano tome la decisión, ¿es esto ético?, la excusa que muchos desarrolladores afirman al respecto es que soldados de carne y hueso no se expongan y de esta manera evitar pérdidas de esas vidas, ¿no suena contradictorio? Esto parecería que fuera a pasar mañana, por decir tiempos por venir; pero en marzo del 2020 en Libia un grupo de expertos de las Naciones Unidas comprobó por primera vez en la historia que una máquina atacó de manera autónoma a un ser humano [5]. El dron dotado con IA autónoma decidió el ataque. Copio la frase de la nota que encajará perfecta algún día: [skynet tendrá conciencia de sí mismo a las 2 y 14 de la madrugada del 29 de agosto de 1997]. Por tanto, la falta de humanidad que no se puede replicar en un algoritmo crearían una máquina de matar perfecta, despojada de la empatía, la conciencia o la emoción que podrían disuadir a un soldado humano. Los defensores de las armas autónomas han argumentado que esto es exactamente lo que los haría mejores que los soldados humanos. Sostienen que las máquinas cumplirían mejor las leyes de la guerra que los humanos porque carecerían de emociones humanas, pero esto también significa que no poseerían misericordia ni compasión [4]. No dudarían ni cuestionarían el despliegue o la instrucción de un oficial al mando, simplemente harían lo que han sido programados para hacer, y si esto incluye masacrar a todos en un pueblo, lo harán sin dudarlo. Es importante mencionar que tú y yo, todos nosotros tenemos un don adquirido relacionado con la capacidad de aplicar principios amplios y experiencias pasadas a situaciones particulares, esto que se domina juicio prudencial, desde una perspectiva moral dota a los humanos de razón para tomarse con cuidado el respeto por el valor de la vida. Entonces ¿Por qué alguien querría desarrollar los robots asesinos? La evolución de estas máquinas es considerada un evento trascendental para los conflictos armados, similar a la invención de la pólvora y las bombas nucleares. La complejidad y los diversos usos de la inteligencia artificial hacen que sea más difícil de regular que las armas nucleares o las minas terrestres. ¿Qué criterios tendrá el auto autónomo, ese mismo que está decidiendo entre atropellar a una abuela o un niño cruzando la calle, para tomar su decisión? Sus críticos arguyen que en términos morales es repugnante encargarles la toma de decisiones letales a máquinas, sin importar la sofisticación tecnológica. ¿Cómo una máquina puede diferenciar entre un adulto y un niño, un combatiente con una bazuca y un civil con una escoba, un combatiente hostil y un soldado herido o que se está rindiendo?
Por tanto, el ejercicio del juicio prudencial “humano” depende de un análisis más allá de los datos numéricos con respecto a ataques legales e ilegales, sería muy difícil para un arma totalmente autónoma ejercer este tipo de juicio, sin importar la cantidad de datos que pueda procesar. Los avances tecnológicos para mí se dan en esferas de tiempo, algunas los mismos avances o repercusiones tienen esferas más allá de una generación. Ahora hablamos de la ética que se asocia a los robots asesinos, pero en el mañana “otra esfera” seria común y normal su aceptación. Es como vivir en una burbuja, por ejemplo, una dictadura, donde se pierde la lucha por la libertad y los nacidos en ella piensan que su burbuja ha sido y será siempre así, como los nativos digitales, al igual como cuando se inventó y masificó la imprenta, una esfera tras otra.
La visión del futuro de Einstein le llego a decir: no sé cómo será la tercera guerra mundial, pero estoy seguro de que la cuarta será con palos y piedras. En relación con las regulaciones al respeto, el año pasado una mayoría de 125 naciones que pertenecen al acuerdo llamado Convención sobre Ciertas Armas Convencionales (CCW, por su sigla en inglés) señaló que buscaba restricciones para los robots asesinos. Sin embargo, se les opusieron los miembros que están desarrollando estas armas, en particular Estados Unidos y Rusia [6]. Algunas regulaciones al respecto han comenzado a ser abordadas muy escuetamente por derechos humanos, a través de un instrumento que aborde las preocupaciones legales, éticas, de rendición de cuentas y de seguridad que plantean tales sistemas al incluir los siguientes elementos: Un alcance amplio que cubre todos los sistemas de armas que seleccionan y atacan objetivos en función de las entradas de los sensores, es decir, sistemas en los que el objeto que se atacará está determinado por el procesamiento del sensor, no por humanos; obligación general de mantener un control humano significativo sobre el uso de la fuerza; prohibición del desarrollo, producción y uso de sistemas de armas que, por su naturaleza, seleccionan y atacan objetivos sin un control humano significativo; prohibición del desarrollo, producción y uso de sistemas de armas autónomos dirigidos a personas; y obligaciones positivas para garantizar que otros sistemas de armas autónomos no se puedan utilizar sin un control humano significativo [7].
Por otro lado, ¿Qué piensan los desarrolladores al respecto?, por ejemplo, el tema ya es discutido en Silicon Valley, en el 2018 Google señaló que no iba a renovar un contrato con el Pentágono después de que miles de sus empleados firmaron una carta en la que protestaron en contra de la participación de la empresa en un programa que empleaba IA para interpretar imágenes que podían ser utilizadas para la elección de los blancos de los drones.
La empresa también creó nuevos lineamientos éticos que prohíben el uso de su tecnología para armas y vigilancia [6]. Entre algunos desarrollos que se consideran la punta del iceberg según la agencia WILPF se encuentran, por ejemplo: el despliegue centinelas mecanizados en la zona desmilitarizada de la República de Corea, por otra parte la Cúpula de Hierro de Israel detecta y destruye cohetes de corto alcance. Los sistemas de defensa de misiles de los Estados Unidos como el Patriot y Aegis son semiautónomos, además ejército de los Estados Unidos ya tiene un buque antisubmarino autónomo sin tripulación capaz de destruir submarinos y otros buques sin ser detectado.
El Reino Unido está desarrollando el Taranis, un avión autónomo no tripulado que puede evitar la detección de radares. Rusia ha construido un tanque que puede equiparse con una ametralladora o un lanzagranadas y ha fabricado un arma totalmente automatizada que utiliza redes neuronales artificiales para elegir objetivos. China está desarrollando «enjambres» de armas: pequeños drones que podrían estar equipados con sensores de calor y ser programados para atacar cualquier cosa que emita una temperatura corporal [8]. Si esta tendencia continúa sin restricciones, los humanos eventualmente serán eliminados de la toma de decisiones cruciales. ¿Estaremos preparados para esto?, en esta esfera temporal no, pero encontraremos la manera de adaptarnos a nuestros errores, tanto así que soldados de carne y huesos harán parte de nuestro pasado colectivo, indignante en un futuro, así como fue fumar en aviones.
REFERENCIAS.
[1]. https://gacetamedica.com/con-rayos-x/2018-el-ano-en-que-los-avances-cientificosdesafiaron-a-la-etica-en1852798/
[2]. https://www.elnuevosiglo.com.co/articulos/09-2019-la-etica-de-los-avances-cientificos
[3]. https://elpais.com/tecnologia/2021-06-05/robots-asesinos-cuando-el-que-decide-matar-esun-algoritmo.html
[4]. https://www.wilpf.org › wilpf-guide-aws-sp
[5]. https://as.com/meristation/2021/05/28/betech/1622234551_710916.html
[6]. https://www.nytimes.com/es/2021/12/24/espanol/onu-armas-robots-asesinos.html
[7]. https://www.hrw.org/news/2021/12/01/crunch-time-killer-robots#
[8]. https://www.eldiario.es/internacional/enjambre-china-desafiar-supremaciaestadounidense_1_2156616.html