OpenAI, el gigante detrás de ChatGPT, Dall-e y otros servicios de inteligencia artificial, pidió que se regule el uso de su tecnología. Leé cómo, por qué, y en qué contexto, ¡a continuación!
OpenAI, la empresa de investigación en inteligencia artificial con sede en San Francisco, pidió a los organismos internacionales la implementación de regulaciones más estrictas para el desarrollo y uso de su propia tecnología, que incluye ChatGPT. En un comunicado publicado hoy, la compañía expresó su preocupación por el potencial impacto negativo de la IA en la sociedad y abogó por una mayor supervisión.
l llamado de OpenAI llega en un momento en el que la inteligencia artificial gana terreno en diversas industrias y campos, desde la atención médica y la conducción autónoma hasta la toma de decisiones financieras. A medida que la IA se vuelve más poderosa también aumentan las preocupaciones sobre su posible mal uso y consecuencias no deseadas.
OpenAI, que busca dar una imagen de IA segura y ética, argumenta que las regulaciones son necesarias para garantizar que la tecnología se utilice de manera responsable y beneficiosa para la humanidad en general. El comunicado de la empresa también menciona la necesidad de evitar la concentración excesiva de poder en manos de unas pocas empresas o actores y propuso la creación de un entorno competitivo y equitativo, donde las innovaciones en inteligencia artificial puedan beneficiar a todos y no solo a unos pocos.
Si bien OpenAI asegura hacer esfuerzos para desarrollar IA segura y responsable, la compañía reconoce que la autorregulación no es suficiente y que se requiere la intervención de gobiernos y organismos reguladores. El gigante también enfatiza la importancia de un enfoque global en la regulación de la inteligencia artificial, ya que el alcance de la tecnología trasciende fronteras nacionales.