Meta ha dado a conocer que comenzará a entrenar sus modelos de IA utilizando el contenido público de usuarios europeos de Facebook, Instagram y Threads. Esto incluye publicaciones, comentarios y pies de foto, así como el historial de conversaciones con su chatbot, aunque no afectará a los mensajes privados ni al contenido de las cuentas de personas menores de edad.
Esta decisión se produce tras la confirmación de un panel de reguladores de privacidad de la UE, que evidencia el enfoque de Meta por satisfacer las responsabilidades legales. La medida ha suscitado polémica, pero también constituye un avance crucial en los planes de Meta para consolidarse en el competitivo mundo de la IA.
La compañía sostiene que su meta es conseguir que su IA sea más representativa de los distintos matices culturales, lingüísticos y sociales de las zonas donde desarrolla sus operaciones. En un comunicado, Meta señaló: «Creemos que tenemos la responsabilidad de desarrollar una IA que no sólo esté disponible para los europeos, sino que esté realmente construida para ellos».
El entrenamiento de modelos con datos públicos no es exclusivo de Meta. Empresas como Google y Open AI también han utilizado contenido producido por usuarios para enriquecer sus modelos de IA. No obstante, Meta ha enfatizado en que su método es más transparente y que los usuarios tendrán la posibilidad de no involucrarse en este proceso.
Organizaciones como el Centro Europeo de Derechos Digitales (NOYB), han presentado quejas en 11 países de la UE. Esta compañía sostiene que Meta dificulta deliberadamente el proceso de exclusión a través de «patrones oscuros», estrategias de diseño que debiliten la protección de la privacidad, como formularios complicados de encontrar o el requisito de proporcionar una razón para no participar, a pesar de que cualquier justificación sea aceptada.
¿Cómo evitar que Meta utilice tus datos?
Meta comenzará a informar a aquellos usuarios de la UE a través de emails y notificaciones en sus plataformas. Estos incluirán un enlace a un formulario para rechazar el uso de su contenido en el entrenamiento de la IA. Además, este formulario estará disponible a través de su política de privacidad, donde ya se han comenzado a reflejar las modificaciones. Meta ha señalado que atenderá todas las peticiones de rechazo.
El procedimiento para objetar es:
- Acceder al formulario mediante el enlace en el aviso de Meta o desde su política de privacidad.
- Señalar que no quieres que tu información pública sea utilizada para capacitar sus modelos de IA.
- Ofrecer una razón (cualquier motivo será aceptado)
- Enviar el formulario
Es importante actuar antes de la fecha límite fijada por Meta, ya que después de ese momento, la empresa indica que no podrá garantizar la eliminación de los datos previamente empleados en el entrenamiento de sus modelos de IA.
¿Qué significa esto para los usuarios?
Aunque Meta asegura que este entrenamiento facilitará una IA más ajustada a la diversidad europea, numerosos usuarios están preocupados por las consecuencias en términos de privacidad. La resolución abre un nuevo frente en la discusión sobre cómo las grandes tecnologías utilizan los datos personales y hasta qué punto los usuarios pueden tener un control auténtico sobre estos.
El contexto regulatorio, más estricto que en otras áreas, ha forzado a Meta a retrasar estos planes previamente. Ahora, después de obtener la aprobación del Comité Europeo de Protección de Datos, la empresa está preparada para emprender en el próximo avance. Sin embargo, el foco seguirá puesto en cómo implementa este cambio y si verdaderamente asegura el derecho de los usuarios a decidir.