Grok, el chatbot de Elon Musk, está medio rebelde y responde cosas medio inesperadas como pedidos de recetas de cocaína o preguntas “picantes”. Te contamos más, ¡acá!
Hace unos días Elon Musk lanzó su chatbot de inteligencia artificial, Grok y desde entonces todo fue raro. El bot se lanzó el fin de semana a un grupo selecto de usuarios y parece que este bichito anda insultando y burlándose de sus interlocutores. En un ejemplo, compartido por Christopher Stanley, empleado de X/Twitter, Grok comparaba el escalado de solicitudes de API con una “orgía interminable” para que te hagas una idea de la clase de cosas que decía.
Como ya informó Insider, el bot también compartió su respuesta a una petición donde pedían una receta para fabricar cocaína. Musk dijo que su intención era que las respuestas del bot tuvieran algo de humor, pero es ese humor muy Elon, que en realidad no es gracioso sino más bien infantil. Esto puede explicar por qué el bot volvió con una respuesta que decía “obtén un título en química y una licencia de la DEA” y “empezá a cocinar y espera no explotar o ser arrestado“.
Musk, sin embargo, siguió el post con una captura de pantalla de una receta más detallada de la droga. Es re vivo, Elon, como el Indio Solari. Ahora, si es tan vivo, ni idea por qué no hace plata y su esposa lo deja, pero bueno.
La empresa X dice que Grok es una alternativa a los chatbots convencionales de Google o OpenAI. Grok puede responder a preguntas “picantes” rechazadas por otros modelos de IA y es “un poco rebelde”, según la empresa.
El producto es en parte una respuesta a las preocupaciones de Musk sobre el popular chatbot ChatGPT de OpenAI. El multimillonario dice que hay mucha parcialidad en algunas de las respuestas y lleva mucho tiempo amenazando con construir un “TruthGPT” competidor para abordar los problemas.