El Pentágono realiza ejercicios de entrenamientos con drones para preguntarse si es necesario un humano en algunos escenarios complejos. ¿Puede una máquina discernir en una emergencia? Leé lo que opinan los expertos, ¡acá!
En agosto del 2020, drones militares del ejército de Estados Unidos comenzaron a hacer ejercicios en el sur de Seattle para buscar “terroristas”, sin la intervención humana. El evento fue organizado por la Agencia de Proyectos de Investigación Avanzada y Defensa, la división DARPA del Pentágono. Los robots estaban armados con transmisores de radio diseñados para simular interacciones entre aliados y enemigos. La idea era probar cómo reaccionaría un sistema completamente automatizado para tomar decisiones más rápidas que un humano en momentos críticos.
Desde el ejército de Estados Unidos se argumentó que quizás los humanos no deberían tomar las decisiones de usar fuerza letal o no, y que posiblemente una computadora sería más eficiente y no se cobre vidas. Desde la Fuerza Aérea, el director del Acelerador de Inteligencia Artificial sugirió que están avanzando en esa dirección. Además, sostuvieron que, incluso, no serán necesarios los humanos en el ciclo. Por este motivo es que varias agencias piden que no se bloquee internacionalmente el uso de armas autónomas.
Los ejercicios del Pentágono, hasta ahora, exploran en qué momentos un humano debería tomar decisiones y en cuáles no. Por ejemplo, en un ataque desde varios frentes, los sistemas autónomos dan mejores tiempos de respuesta y los humanos no pueden reaccionar a una velocidad comparable. Esta tecnología se usa desde hace décadas en misiles, pero ahora se puede poner en dispositivos como drones, que permiten activar más sistemas en menos tiempo. Sin embargo, el problema es que la inteligencia artificial tiene sus sesgos y puede, por ejemplo plantearse como objetivos a alguien usando ropas similares a algoritmos. Entonces, podrían atacar a personas inocentes por accidente. Lo que para la inteligencia artificial es un error, puede costar vidas, y por esto varias naciones se incomodan con la idea.
Este es un debate que está activo y muchos gobiernos tienen lo propio para decir. El Departamento de Defensa de Estados Unidos dijo en noviembre del 2012 que los sistemas de armas autónomos siempre necesitan la supervisión de un humano. Pero esto no necesariamente quiere decir que las personas deban tomar cada decisión. Desde las organizaciones que se oponen, argumentan que estos sistemas también podrían ser adquiridos por fuerzas opositoras. De esta forma, la eficiencia no vale tanto como el uso responsable de la tecnología que puede realizar un humano. Por su parte, Max Tegmark de la organización Future of Life Institute, asegura: “creo que un día nos vamos a arrepentir de darle armas a la inteligencia artificial más de lo que nos arrepentimos de haber armado a los talibanes“.