OpenAI estaría lidiando con una inteligencia artificial mucho más potente y avanzada que habría preocupado a varios empleados de la compañía

OpenAI estaría intentando lidiar con el avance de una “superinteligencia” que generó preocupación entre empleados, ya que la compañía parece que no contaba con las salvaguardias adecuadas para comercializar modelos de IA tan avanzados. Lee más ¡acá!

Tras el despido y recontratación del cofundador y director ejecutivo de OpenAI, Sam Altman, la empresa creadora de ChatGPT parece que sigue con problemas, los cuales podrían estar relacionados con el porqué del regreso de Altman. Según un informe de The Information, varios empleados de la compañía estarían preocupados por un avance significativo de la IA generativa que podría conducir al desarrollo de una “superinteligencia” dentro de esta década.

Recordemos que la superinteligencia es, justamente, una inteligencia que iguala o excede la inteligencia humana promedio. Si bien la existencia de esto ya puede preocupar a más de uno, lo que generó cierta perturbación e intranquilidad en OpenAI es que aparentemente no había salvaguardias adecuadas para mantener ese modelo de IA todo bajo control.

Según cuenta el medio mencionado, un día antes de que la junta directiva de OpenAI despidiera a Sam Altman, el ejecutivo había aludido a un avance técnico reciente que la compañía había logrado y que le permitió “descorrer el velo de la ignorancia y avanzar la frontera del descubrimiento“.

Si bien esto pasó medio desapercibido en ese momento, algunos empleados de OpenAI pararon las orejas y relacionaron ese comentario con una innovación realizada por los investigadores de la compañía a principios de 2023 que les permitiría desarrollar modelos de inteligencia artificial mucho más potentes. Como les decíamos, este avance técnico, encabezado por el científico jefe de OpenAI, Ilya Sutskever, generó preocupación porque la compañía no contaba con las salvaguardias adecuadas para comercializar modelos de IA tan avanzados.

Este avance técnico permitiría a la Inteligencia Artificial utilizar datos más limpios y generados por computadora para resolver problemas que la IA nunca antes había visto. Esto significa que esa tecnología no estaría entrenada en muchas versiones diferentes del mismo problema, sino en información que puede no estar directamente relacionada con el problema. Para hacer esto, normalmente se requiere razonamiento, algo que suelen hacer los humanos, no la IA. ¿Ven de dónde viene la preocupación?

Lo que la diferencia del principal producto de OpenAI orientado al consumidor, ChatGPT, es que el chatbot solo da información que aprendió (y sigue aprendiendo) de las grandes cantidades de datos que recibe. De esta manera, ChatGPT da suposiciones (en su mayoría precisas) sobre cómo elaborar oraciones que tengan sentido y que se apliquen a la consulta, pero sin usar razonamiento.

Si bien no hay nada confirmado que relacione el avance hacia una “superinteligencia” con el despido y recontratación de Altman, sí parece que esta innovación llevó a Sutskever y a otro científico de OpenAI, Jan Leike, a formar un nuevo grupo de investigación de OpenAI llamado Superaligment. ¿Para qué? Justamente para desarrollar salvaguardias y protegernos del vasto poder de la superinteligencia, la cual podría ser muy peligrosa y, según explican en la página, podría llegar a “conducir a la pérdida de poder de la humanidad o incluso a su extinción”.

Posteos relacionados

Boston Dynamics presentó su nuevo robot humanoide, el Atlas Eléctrico

Genshin Impact: la saga tiene un corto animado a cargo de los creadores de Demon Slayer

Motorola presentó los primeros smartphones con cámara y pantalla con colores Pantone Validated