La estructura sin fines de beneficio de privacidad austriaca Noyb (nadie de su negocio) ha enviado a la sede de Meta’s Irish una carta de cese y desinterés, amenazando a la compañía con una demanda colectiva si continúa con sus planes de capacitar los datos de los usuarios para capacitar a sus modelos de inteligencia industrial (IA) sin una opción explícita.
La medida se produce semanas posteriormente de que el titán de las redes sociales anunciara sus planes de capacitar a sus modelos de IA utilizando datos públicos compartidos por adultos en Facebook e Instagram en la Unión Europea (UE) a partir del 27 de mayo de 2025, posteriormente de detener los esfuerzos en junio de 2024 tras las preocupaciones planteadas por las autoridades de protección de datos irlandesas.
“En oficio de pedirle a los consumidores el consentimiento de suscripción, Meta se zócalo en un supuesto ‘interés verdadero’ para absorber todos los datos de los usuarios”, dijo Noyb en un comunicado. “Meta puede indisponer riesgos legales masivos, solo porque se zócalo en un ‘opto’ en oficio de un sistema de ‘opción’ para la capacitación de IA”.
El colección de defensa señaló por otra parte que Meta AI no cumple con la Regulación Común de Protección de Datos (GDPR) en la región, y que, por otra parte de afirmar que tiene un “interés verdadero” en tomar datos de beneficiario para la capacitación de IA, la compañía además está limitando el derecho a la opción antiguamente de que la capacitación haya comenzado.
Noyb además señaló que incluso si el 10% de los usuarios de Meta aceptan expresamente entregar los datos para este propósito, equivaldría a suficientes puntos de datos para que la compañía aprenda los idiomas de la UE.
Vale la pena señalar que Meta afirmó previamente que necesitaba compilar esta información para capturar los diversos idiomas, la geodesía y las referencias culturales de la región.
“Meta comienza una gran pelea solo para tener un sistema de restricción en oficio de un sistema de suscripción”, dijo Max Schrems de Noyb. “En cambio, confían en un supuesto ‘interés verdadero’ para tomar los datos y ejecutar con él. Esto no es procesal ni necesario”.
“El insensatez de Meta afirma que robar los datos personales de todos es necesario para la capacitación de IA es ridícula. Otros proveedores de IA no usan datos de redes sociales y generan modelos aún mejores que Meta”.
El colección de privacidad además acusó a la compañía de seguir delante con sus planes al poner la responsabilidad de los usuarios y señaló que las autoridades nacionales de protección de datos se han mantenido en silencio en silencio sobre la legitimidad de la capacitación de IA sin consentimiento.
“Por lo tanto, parece que Meta simplemente avanzó de todos modos, tomando otro gran peligro procesal en la UE y pisotear los derechos de los usuarios”, agregó Noyb.
En una manifiesto compartida con Reuters, Meta ha rechazado los argumentos de Noyb, afirmando que están equivocados en los hechos y la ley, y que ha proporcionado a los usuarios de la UE una opción “clara” para replicar sus datos procesados para la capacitación de IA.
Esta no es la primera vez que la dependencia de Meta del “interés verdadero” de GDPR para compilar datos sin el consentimiento patente de suscripción ha sido objeto de investigación. En agosto de 2023, la compañía acordó cambiar la saco procesal de “interés verdadero” a un enfoque basado en el consentimiento para procesar los datos de los usuarios para servir anuncios específicos para las personas en la región.
La divulgación se produce cuando el Tribunal de Apelación de Belga dictaminó que el entorno de transparencia y consentimiento, utilizado por Google, Microsoft, Amazon y otras compañías para obtener el consentimiento para el procesamiento de datos para fines publicitarios personalizados, es ilegal en toda Europa, citando la violación de varios principios de las leyes de GDPR.