Elon Musk sostuvo que hay un 20% de probabilidades de que la IA acabe con la humanidad. ¿Qué más dijo?

El CEO de X, Elon Musk, declaró que hay una probabilidad de 1 entre 5 de que la IA destruya la humanidad, pero algunos expertos notaron que está subestimando el peligro. ¡Enterate de más en la nota!

El famoso empresario sigue dando que hablar con sus declaraciones. Elon Musk declaró en un seminario que hay probabilidades que el desarrollo de las IA involucre el fin de la humanidad. Según el CEO de X: “Creo que hay alguna posibilidad de que lleve al fin de la humanidad. Estoy de acuerdo con Geoff Hinton de que probablemente sea alrededor del 10% o 20% o algo así“. No obstante, no dijo de qué forma hizo el cálculo que lo llevó a esa conclusión.

A pesar de este panorama no tan alentador, Musk declaró que vale la pena seguir con el desarrollo de las IA. “Creo que el probable escenario positivo supera al escenario negativo“, declaró. Sin embargo, los expertos creen que el empresario está subestimando el riesgo que implican las IA.  El investigador de seguridad de la IA, Roman Yampolskiy, declaró que si bien Elon Musk está en lo cierto cuando dice que la inteligencia artificial puede ser peligrosa para la humanidad, está dando un número muy bajo.

El experto declaró: “En realidad el p(doom) es mucho más alto en mi opinión”. El p(doom) es el número de probabilidades de que ocurra una catástrofe para la humanidad debido a las IA. Existen muchos investigadores y ejecutivos que dieron su propia probabilidad de que exista un peligro para nosotros en un futuro por la IA que oscilan entre menos de 1% hasta casi el 100%. El mismo Yampolskiy sostiene que el peligro es de más del 99% y por eso cree que hay que detener el desarrollo de las IA.

Sin embargo, Elon Musk tiene interés en seguir yendo por el camino de la inteligencia artificial, tal como lo hizo creando xAI. Y para evitar el riesgo para la humanidad el empresario dijo: “Una de las cosas que creo que es increíblemente importante para la seguridad de la IA es tener un tipo máximo de IA curiosa y que busque la verdad“. Por lo tanto, para que las IA sean seguras, tienen que estar obligadas a buscar la verdad. “Es muy importante. No hagas que la IA mienta“, sostuvo. ¿Vos crees que las IA pueden acabar con la humanidad en el futuro?

Posteos relacionados

Jake Gyllenhaal sobre Road House: “usamos una nueva técnica en la que realmente se puede ver el impacto de un golpe en la cara y en el cuerpo”

Superman: James Gunn compartió la primera imagen de David Corenswet como Kal-EL

Doctor Who: te contamos todo lo que tenés que saber sobre el esperado regreso del personaje