Después de que varios usuarios de Microsoft dejaron en claro sus preocupaciones por si la compañía usaba sus datos para entrenar sistemas de IA, la empresa salió a aclarar que eso no es así. “En las aplicaciones M365, no utilizamos datos de clientes para capacitar a los LLM”, dijeron.

En estas últimas semanas, algunos usuarios de Microsoft mostraron preocupación cuando surgieron informes de una función que aparentemente extraía datos de documentos de Word y Excel para entrenar sus sistemas de Inteligencia Artificial. Tras estos comentarios, la compañía quiso tranquilizar a sus clientes y aclaró que no usan ningún dato de las aplicaciones M365 para formar su modelo extenso de lenguaje (LLM).
La confusión surgió a partir de una configuración de privacidad en Microsoft Office que activa las “experiencias conectadas opcionales”. Según la compañía, esta función permite a los usuarios “buscar y descargar contenido en línea, incluidas plantillas, imágenes, modelos 3D, videos y materiales de referencia para mejorar sus documentos”. Y no, no hay ninguna mención al entrenamiento de IA.
Lo que pudo haber contribuido a la confusión alrededor de esta función, activada de forma predeterminada, es que en el mismo documento de aprendizaje de Microsoft, publicado el 21 de octubre, hay una lista de experiencias conectadas en Office que “analizan tu contenido”. Estas sirven para darles a los usuarios recomendaciones de diseño, sugerencias de edición, información sobre datos y funciones similares. Y no, tampoco hay mención a la IA o la capacitación de los LLM.
En respuesta a una publicación en X que hablaba de que la función analiza tus documentos de Word y Excel para entrenar a sus sistemas de IA, la cuenta de Microsoft 365 escribió: “En las aplicaciones M365, no utilizamos datos de clientes para capacitar a los LLM. Esta configuración solo habilita funciones que requieren acceso a Internet, como la coautoría de un documento”. El jefe de comunicaciones de Microsoft, Frank Shaw, también desacreditó las afirmaciones en Bluesky.

Sin embargo, son varios los usuarios que mantienen sus dudas, ya que en la Declaración de privacidad de Microsoft se lee: “Como parte de nuestros esfuerzos por mejorar y desarrollar nuestros productos, podemos utilizar sus datos para desarrollar y entrenar nuestros modelos de IA”.
Si queremos más información, Microsoft no envía a la página que habla sobre Copilot y en las preguntas más frecuentes hay varias sobre el uso de datos y el entrenamiento de modelos de IA generativa. Acá, la empresa aclara que no entrenan con datos de clientes comerciales, usuarios que hayan iniciado sesión en una cuenta M365/EntraID de la organización, suscripciones personales o familiares de M365 ni con usuarios que no hayan iniciado sesión en su cuenta de Microsoft.
Sin embargo, agrega: “Microsoft comenzará a utilizar los datos de los consumidores para el entrenamiento de IA en ciertos países a finales de este año. En el caso de los usuarios que hayan iniciado sesión en una cuenta de Microsoft, podrán controlar si los datos de consumidor se usan para entrenar los modelos de IA generativa que se usan en Copilot y otras ofertas de IA de Microsoft a través de un control de exclusión. Si optas por no participar, no podrás usar tus datos de consumidores pasados, presentes y futuros para entrenar estos modelos de IA, a menos que decidas volver a participar. Esta configuración estará disponible en las versiones web, de escritorio y móvil de todos los productos de consumo incluidos en el ámbito durante los próximos meses. También verás mensajes en el producto que te notifican sobre un nuevo control de usuario, incluso en Bing, MSN y Copilot”.
Así que aunque Microsoft haya aclarado que no está usando los documentos de Office de sus clientes para entrenar su modelo de IA, varios usuarios siguen preocupados por el uso general de sus datos en el resto de los servicios.