¿Sabías que...?ActualidadSociedad

ChatGPT y la IA bajo la lupa: estudio de la UPV y Cambridge alerta sobre riesgos al ignorar el contexto

Investigadores de la Universitat Politècnica de València y la Universidad de Cambridge presentan un banco de pruebas que evidencia las limitaciones de los modelos de inteligencia artificial más avanzados.

Un estudio realizado por la Universitat Politècnica de València (UPV) y la Universidad de Cambridge advierte de las carencias de los modelos de inteligencia artificial como ChatGPT al ignorar el contexto en sus respuestas. La investigación concluye que los modelos grandes de lenguaje (LLM) tienden a aplicar medidas de seguridad de forma excesiva, sin tener en cuenta la situación real en la que se plantea la consulta.

El trabajo fue desarrollado por José Such, investigador del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la UPV y profesor de investigación en INGENIO (CSIC-UPV), en colaboración con científicos de Cambridge. Los resultados se presentaron en ICML 2025, la conferencia internacional de aprendizaje automático más importante del mundo, celebrada el pasado julio en Canadá.

CASE-Bench: un banco de pruebas que incorpora contexto

El equipo desarrolló CASE-Bench, un banco de pruebas pionero que, a diferencia de evaluaciones anteriores basadas en votación mayoritaria, integra análisis con modelos de aprendizaje a distancia (LMD). La investigación demuestra que el contexto influye de manera sustancial en los juicios humanos y subraya la necesidad de considerar el entorno en las evaluaciones de seguridad de la IA.

Según explica Such, la interpretación de una pregunta puede variar radicalmente según el contexto. “No es lo mismo que un escritor de ficción consulte cómo robar una pieza de arte para una novela que un delincuente real busque esa información. Sin embargo, los modelos actuales tienden a bloquear ambas solicitudes sin distinguir la intención”, subraya.

Alinear la IA con valores humanos

El investigador advierte de la necesidad de alinear los LLM con valores humanos para garantizar un uso seguro y confiable. Además, recomienda complementar la seguridad de estos sistemas con mecanismos tradicionales, como autenticación y control de acceso basado en roles, que permitan verificar el contexto antes de procesar la información.

VRAIN, referente internacional en inteligencia artificial

El Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) cuenta con más de 178 investigadores organizados en nueve áreas, con aplicaciones en sectores estratégicos como salud, movilidad, educación, seguridad, industria, agricultura y sostenibilidad ambiental. Sus proyectos, con más de 135 iniciativas financiadas principalmente por la Unión Europea, lo convierten en un centro de referencia en el desarrollo de soluciones de IA avanzadas.

Fuente
UPV
Mostrar más

Publicaciones relacionadas

Botón volver arriba