
Según su investigación, la mayoría de versiones de este servicio de inteligencia artificial emplean las conversaciones y archivos subidos por los usuarios para perfeccionar sus modelos, incluso en algunas modalidades de suscripción.
Solo 2 modalidades del servicio garantizan por defecto la confidencialidad de la información: ChatGPT Team (25/mes) y Enterprise (precio variable).
Las demás opciones, incluyendo la versión gratuita y las de pago Plus (20 / mes) y Pro (200/mes), mantienen la capacidad de emplear los contenidos proporcionados por los usuarios para el refinamiento de sus algoritmos. Pese a que la compañía garantiza que no utiliza esta información con fines comerciales, la OCU recomienda a los usuarios desactivar manualmente esta característica en la configuración de su cuenta
- Iniciar sesión en la plataforma oficial de ChatGPT
- Seleccionar el icono de perfil situado en la esquina superior derecha
- Acceder al apartado de Configuración
- Localizar la opción ‘Controles de datos’ y desmarcar ‘Mejorar el modelo para todos’
La organización advirtió que, incluso desactivando esta opción, OpenAI continúa recopilando diversos tipos de información:
- Datos de registro (nombre, correo electrónico, forma de pago)
- Estadísticas de uso (frecuencia, funciones empleadas)
- Información técnica (dirección IP, navegador utilizado)
- Metadatos (duración de sesiones, extensión de mensajes)
- Datos requeridos por obligaciones legales
La OCU recordó que desde febrero rige en la UE una normativa sobre IA que prohíbe específicamente:
- Tácticas que aprovechen vulnerabilidades por edad, discapacidad o situación económica
- Sistemas de puntuación social basados en conductas o características personales
- Predicción de conductas delictivas mediante perfiles
- Recolección indiscriminada de imágenes para bases de datos de reconocimiento facial
- Análisis de emociones en entornos laborales o educativos (salvo motivos médicos)
- Deducción de características sensibles (ideología, orientación sexual, creencias)
- Identificación biométrica en espacios públicos (excepto en casos de seguridad nacional)
La OCU solicitó a las autoridades mayor difusión sobre estos derechos y recursos adecuados para la recién creada Agencia Española de Supervisión de Inteligencia Artificial (AESIA), encargada de vigilar el cumplimiento de estas normas.
Este análisis forma parte del trabajo continuo que realiza la OCU desde 1975, en colaboración con organizaciones europeas y laboratorios independientes, para evaluar productos y servicios bajo criterios de calidad, eficiencia y transparencia. Su independencia está avalada por los más de 190.000 socios que apoyan su labor.