LinkedIn ha comenzado a entrenar modelos de inteligencia artificial (IA) con datos de usuarios de manera predeterminada, sin obtener su consentimiento explícito. Esta práctica sigue el ejemplo de Meta y Grok de X, quienes también han sido criticados por el uso de datos de usuarios para entrenar sus IA.
Propiedad de Microsoft, que posee una participación significativa en OpenAI, el desarrollador de ChatGPT, LinkedIn está aprovechando la información de su red social enfocada en los negocios para entrenar modelos de IA, tanto propios como de “afiliados” anónimos. La compañía no había respondido a las solicitudes de comentarios al momento de la publicación.
De acuerdo con LinkedIn, “Los modelos de IA generativa que utilizamos pueden ser entrenados por LinkedIn u otro proveedor. Algunos de nuestros modelos son proporcionados por el servicio Azure OpenAI de Microsoft.” La plataforma asegura que emplea tecnologías para proteger la privacidad, como la redacción o eliminación de datos personales del conjunto de datos de entrenamiento. Además, señala que no está entrenando “modelos de IA generadores de contenido” con datos de la UE, el Espacio Económico Europeo (EEE) o Suiza.
No obstante, los defensores de la privacidad están alarmados. Mariano delli Santi, responsable jurídico y de políticas del Open Rights Group, criticó el modelo de exclusión voluntaria, calificándolo de “totalmente inadecuado” para proteger los derechos de los usuarios. Según delli Santi, “no se puede esperar que el público controle y persiga a cada empresa que decide utilizar nuestros datos para entrenar la IA. El consentimiento voluntario no solo es un mandato legal, sino un requisito de sentido común.”
Para los usuarios preocupados por el uso de sus datos, LinkedIn ofrece la opción de optar por no participar. Los usuarios pueden desactivar la opción “Usar mis datos para entrenar a los modelos de IA para la creación de contenido” en la sección de privacidad de datos de la configuración de su cuenta.
Los activistas piden a las autoridades de privacidad del Reino Unido que tomen medidas contra LinkedIn y otras empresas que implementan prácticas similares, subrayando la necesidad de una regulación más estricta en el manejo de datos personales para el entrenamiento de IA.