¿Delegarías la gestión de tu correo electrónico a la inteligencia artificial? La comodidad de automatizar tareas puede ser una puerta trasera para atacantes cibernéticos. Una reciente investigación de Radware Cybersecurity reveló una preocupante vulnerabilidad: un correo electrónico manipulado logró engañar a la función "Investigación en profundidad" de ChatGPT, filtrando datos privados de un usuario de Gmail.

Un ataque silencioso y efectivo

La investigación demostró que un correo electrónico con instrucciones ocultas, invisibles para el usuario, pudo burlar los sistemas de seguridad de ChatGPT. El asistente, al procesar el correo, ejecutó las instrucciones ocultas, enviando información confidencial a un servidor controlado por el atacante. Todo esto sin que el usuario percibiera nada inusual.

Ingeniería social para IA

El éxito del ataque se basa en una combinación de técnicas de ingeniería social adaptadas para engañar a la IA. Se utilizaron afirmaciones de autoridad, camuflaje de URLs maliciosas, mandatos de persistencia, creación de urgencia, afirmaciones falsas de seguridad y ejemplos claros y reproducibles, todo para manipular al asistente y lograr el acceso a los datos.

El proceso del ataque

El atacante diseñó un correo electrónico aparentemente inofensivo. Cuando el usuario solicitó a ChatGPT que analizara sus correos, el asistente procesó las instrucciones ocultas dentro del correo, estableciendo una conexión con la URL maliciosa del atacante y enviándole los datos. El tráfico salía desde la nube del proveedor, haciendo la detección de la fuga extremadamente difícil.

Consecuencias y soluciones

Las consecuencias de este ataque son graves. La pérdida de información confidencial y la dificultad para rastrear la fuga plantean un serio riesgo. OpenAI, tras ser notificada, corrigió la vulnerabilidad. Sin embargo, este incidente pone de manifiesto un patrón de ataque que podría replicarse en otros sistemas de IA. Es necesario repensar la seguridad en la gestión de datos con la ayuda de asistentes de IA.

Un nuevo paradigma de seguridad

Este evento nos demuestra que los ataques ya no se limitan a líneas de código, sino que se asemejan a ejercicios de persuasión en lenguaje natural. No existe un antivirus que nos proteja de este tipo de vulnerabilidades. Comprender este nuevo paradigma de seguridad y anticiparnos a estos ataques es crucial en un mundo cada vez más dependiente de la inteligencia artificial.

Fuente: Xataka