Más de 100 figuras líderes en el desarrollo de sistemas de Inteligencia Artificial lanzaron una declaración que dice que “mitigar el riesgo de extinción causada por la IA debería ser una prioridad mundial” como lo fue con las pandemias y la guerra nuclear. Lee más ¡acá!
La preocupación por el potencial impacto negativo de la Inteligencia Artificial en la sociedad sigue creciendo. La semana pasada les contábamos que OpenAI había pedido a los organismos internacionales que regule el desarrollo y uso de su propia tecnología, que incluye ChatGPT, y ahora más de 100 expertos de la industria firmaron una declaración que advierte que la IA podría convertirse en una amenaza existencial para la humanidad comparable a la de la guerra nuclear y las pandemias.
La declaración, publicada el martes 30 de mayo por el Centro para la Seguridad de la IA (una organización sin fines de lucro), es mucho más breve que la carta lanzada en marzo que pedía una pausa en el desarrollo de Inteligencia Artificial, la cual había sido firmada por cientos de investigadores y ejecutivos de IA, incluido Elon Musk. Es más, es solo una oración: “Mitigar el riesgo de extinción causada por la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Algunas de las figuras líderes en el desarrollo de Inteligencia Artificial que firmaron la declaración son el CEO de OpenAI, Sam Altman; el CEO de Google DeepMind, Demis Hassabis; el CEO de Anthropic, Dario Amodei; Geoffrey Hinton y Yoshua Bengio, dos de los tres académicos que recibieron el Premio Turing por su trabajo en aprendizaje profundo; y docenas de empresarios e investigadores que trabajan en problemas de IA de última generación.
Junto a la declaración, el Centro para la Seguridad de la IA agregó: “Los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA. Aun así, puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada”. La organización también aclara que la declaración tiene como objetivo “superar este obstáculo y abrir la discusión”.
Según Wired, Max Tegmark, profesor de física en el Instituto Tecnológico de Massachusetts y director del Instituto Future of Life (organización sin fines de lucro enfocada en los riesgos a largo plazo que plantea la IA), dijo que la declaración es “una gran iniciativa” y que espera que aliente a los gobiernos y al público en general a tomar más en serio los riesgos existenciales de la IA y discutirlos “sin temor a las burlas”.
Por otro lado, Dan Hendrycks, director del Centro para la Seguridad de la IA, comparó la preocupación actual por la Inteligencia Artificial con la que había entre científicos por la creación de la bomba atómica. Este paralelismo ya se había hecho en un blog de OpenAI: “Es probable que con el tiempo necesitemos algo parecido a un OIEA [Organismo Internacional de Energía Atómica] para los esfuerzos de superinteligencia”.
Sin embargo, no todos los expertos en IA están de acuerdo con el escenario del fin del mundo causado por la IA, sino que se preocupan más por problemas más inmediatos que esta tecnología profundiza, como la desinformación. Es más, algunos investigadores creen que la alarma repentina sobre el riesgo teórico a largo plazo distrae la atención de los problemas en cuestión.
Entre quienes creen que los temores de que la IA acabe con la humanidad son una distracción se encuentra Yann LeCun, quien ganó el Premio Turing con Hinton y Bengio por el desarrollo del aprendizaje profundo; y Arvind Narayanan, informático de la Universidad de Princeton. En declaraciones con BBC en marzo, Narayanan dijo que los escenarios catastróficos propios de la ciencia ficción no son realistas, que el problema es que “se ha desviado la atención de los daños a corto plazo de la IA” y que “la IA actual no es lo suficientemente capaz como para que estos riesgos se materialicen”.
Otra es Meredith Whittaker, presidenta de Signal Foundation y cofundadora y asesora principal del AI Now Institute (organización sin fines de lucro enfocada en la IA y la concentración de poder en la industria tecnológica). Ella dijo que muchos de los que firmaron la declaración probablemente creen que los riesgos son reales, pero que la alarma “no capta los problemas reales”.
También agregó que la discusión sobre el riesgo existencial presenta una nueva capacidad de Inteligencia Artificial como si fuera un producto del progreso científico natural en lugar de un reflejo de productos moldeados por intereses y control corporativos. “Este discurso es una especie de intento de borrar el trabajo que ya se ha hecho para identificar daños concretos y limitaciones muy significativas en estos sistemas”, dijo Whittaker.
Margaret Mitchell, investigadora de Hugging Face que dejó Google en 2021, dijo que vale la pena pensar en las ramificaciones a largo plazo de la IA, pero que quienes están detrás de la declaración parecen haber hecho poco para considerar cómo podrían priorizar los daños más inmediatos, incluida la forma en que se utiliza esta tecnología para la vigilancia. “Esta declaración, tal como está escrita, y de dónde proviene, me sugiere que será más perjudicial que útil para determinar qué priorizar”, agregó Mitchell.
Estés de un lado o del otro, no cabe duda de que la Inteligencia Artificial sigue desarrollándose y expandiéndose en diferentes áreas. Si bien esto trajo más de un beneficio, no hay que dejar de pensar que si no se limita o regula se nos puede ir de las manos.