🔓 Escándalo en Bumble: denuncian que filtró datos personales a OpenAI

Una investigación reveló que la app de citas Bumble habría compartido datos sensibles de sus usuarios con OpenAI sin consentimiento. La empresa enfrenta ahora una denuncia formal ante autoridades europeas de protección de datos.

Actualidad26 de junio de 2025Alejandro CabreraAlejandro Cabrera
ChatGPT Image 26 jun 2025, 19_08_46
Bumbe

Privacidad en jaque dentro del mundo del "match"

La popular app de citas Bumble quedó en el ojo de la tormenta tras ser denunciada ante la Autoridad de Protección de Datos de Austria por presuntamente compartir información personal de sus usuarios con OpenAI, la compañía detrás de ChatGPT. La acusación fue presentada por el grupo NOYB (None of Your Business), organización fundada por el activista Max Schrems, con un extenso historial en la defensa de la privacidad digital.

Según la denuncia, Bumble habría integrado herramientas de inteligencia artificial en su plataforma sin informar ni solicitar consentimiento a los usuarios, infringiendo directamente el Reglamento General de Protección de Datos (RGPD) vigente en la Unión Europea. La información filtrada incluiría datos sensibles como orientaciones sexuales, opiniones políticas o creencias religiosas que los usuarios comparten en sus perfiles.

La gravedad del caso no radica solo en la filtración, sino en el tratamiento automatizado de estos datos mediante algoritmos de IA generativa, con el objetivo de personalizar las respuestas del asistente dentro de la aplicación. Según los denunciantes, este tipo de uso es especialmente delicado y debe estar sujeto a mecanismos claros de consentimiento informado.

El rol de OpenAI bajo la lupa

La denuncia no acusa directamente a OpenAI de incumplimiento, sino que pone el foco en la falta de transparencia por parte de Bumble al integrar esta tecnología sin una adecuada explicación de sus funciones ni del tipo de datos involucrados. En efecto, el formulario de privacidad de la app, aún disponible en su sitio web, no menciona explícitamente el uso de modelos de lenguaje externos ni sus implicancias.

Aunque Bumble ya había anunciado en marzo la inclusión de inteligencia artificial generativa para mejorar la experiencia del usuario, nunca detalló que el procesamiento de datos fuera realizado por sistemas externos, lo cual representa una potencial violación de las normativas europeas de protección de datos. Las autoridades deberán ahora determinar si se produjo una transferencia ilegal de información y cuál es el alcance real de los datos expuestos.

En medio del creciente uso de IA por parte de aplicaciones móviles, el caso Bumble podría sentar un precedente clave sobre los límites del uso de estas herramientas en plataformas digitales que manejan información íntima y confidencial.

Repercusiones y posibles sanciones

De confirmarse los hechos, la compañía podría enfrentar sanciones millonarias. Según el RGPD, las multas pueden alcanzar hasta el 4% del volumen de negocios global de una empresa. En el caso de Bumble, que cotiza en bolsa y tiene millones de usuarios en todo el mundo, el impacto económico podría ser considerable, sumado a un potencial daño reputacional.

Por otro lado, el caso vuelve a encender el debate sobre la incorporación de IA en plataformas sociales y de citas, donde la manipulación algorítmica de datos puede derivar en situaciones de vulnerabilidad para los usuarios. La pregunta de fondo es si las herramientas de IA están siendo usadas para mejorar la experiencia o para extraer información valiosa con fines comerciales encubiertos.

La decisión de la Autoridad Austriaca podría tardar algunos meses, pero el escándalo ya está instalado. Y en un escenario global de desconfianza hacia las grandes tecnológicas, cada nuevo caso pone más presión sobre la necesidad de regulaciones más claras y herramientas de fiscalización más efectivas.

Te puede interesar
Lo más visto