Las conversaciones privadas de los usuarios con ChatGPT están encriptadas. Y pese a ello los hackers las están leyendo
Las conversaciones privadas de los usuarios con ChatGPT están encriptadas. Y pese a ello los hackers las están leyendo
9 d’abril de 2024

    Las conversaciones de ChatGPT están cifradas, pero no impiden que se realice este tipo de ataque
    El chatbot conversacional de Google, Gemini, no está alcanzado porque utiliza una arquitectura diferente

ChatGPT se ha vuelto parte de la vida de millones de personas que lo utilizan a diario para diferentes tareas que van desde prepararse para entrevistas de trabajo hasta resumir reuniones. Pero, ¿qué tan expuestas están sus conversaciones? Desde hace tiempo sabemos que OpenAI puede utilizar el contenido de los chats para mejorar sus modelos de inteligencia artificial, a menos que se desactive el historial de chats o que se utilice la versión de pago ChatGPT Enterprise.

Lo anterior significa que algunos empleados de la compañía liderada por Sam Altman tienen la posibilidad de acceder a tus conversaciones con fines técnicos o de seguridad. Por esto es tan importante no compartir información confidencial, y, sino que se lo digan a Samsung que acabó prohibiendo el uso de ChatGPT entre sus empleados. Más allá de esto, hay otras maneras en las que las conversaciones pueden acabar en manos de un tercero, por ejemplo, de un ciberdelincuente.
El ciberataque que compromete la seguridad de ChatGPT

Imagínate que estás en un café utilizando ChatGPT desde tu portátil conectado a la red Wifi pública. Este escenario podría ser propicio para que un atacante pueda utilizar ciertos elementos que están a su alcance para intentar deducir las respuestas del chatbot. Todo esto, sin que te des cuenta. La información sobre el ataque que explicaremos a continuación proviene de un interesante estudio del Laboratorio de Investigación de IA Ofensiva de la Universidad Ben-Gurion en Israel que se desarrolla básicamente en cuatro pasos:


    Interceptar el tráfico de la víctima
    Filtrar los paquetes para hallar las respuestas de ChatGPT
    Revelar la longitud de los tokens
    Inferir la respuesta de ChatGPT utilizando un LLM

Si eres usuario de ChatGPT, seguramente habrás notado que el chatbot va enviándote la respuesta progresivamente. Este proceso podemos explicarlo también de la siguiente manera: el modelo, GPT-3.5 o GPT-4, va transmitiendo los tokens con destino a tu ordenador a medida que los va generando. Ahora bien, aunque esta transmisión secuencial está cifrada, abre la puerta a utilizar un tipo de ataque conocido como Side-channel attack que puede revelar la longitud de lo tokens para inferir información.

El desafío que tiene el atacante en este punto es interceptar los datos enviados entre los servidores de OpenAI y tu ordenador, algo que se puede conseguir con un ataque del tipo Man-in-the-Middle. Una vez que el actor malintencionado ha comprometido la seguridad de la red, se encargará de filtrar el tráfico por dirección IP y de analizar los paquetes para detectar un patrón incremental con el fin de descubrir los paquetes relacionados a las respuestas de ChatGPT.

Después podrá identificar la longitud de lo tokens utilizando los tamaños de los paquetes observados anteriormente. Aquí, precisamente, se presenta el nivel de mayor dificultad: dado que un token puede representar una unidad de texto tan breve como un carácter o tan larga como un conjunto de palabras, es necesario recurrir a una solución adicional para interpretarlos e inferir las respuestas. La solución de los investigadores ha sido utilizar un LLM para esta tarea.

Estamos hablando de un modelo de lenguaje largo especialmente entrenado que es capaz de analizar la longitud de los tokens y predecir con bastante precisión las respuestas generadas por ChatGPT. Los resultados pueden variar, pero en las pruebas el modelo fue capaz de inferir el 55% de todas las respuestas con una alta precisión (pueden cambiar ligeramente las palabras, pero poco el sentido de la frase). Además, el 29% de las mismas tenían una precisión perfecta.

Si bien se trata de un ataque que requiere de ciertos elementos sofisticados para su ejecución, nunca está de más tener presente hasta qué punto pueden acabar expuestos nuestros datos. Cabe señalar que esta técnica, según los investigadores, no solo funciona con ChatGPT, sino también con otros bots de inteligencia artificial como Copilot que envían los tokens de manera secuencial. Gemini de Google no está alcanzado, precisamente, porque tiene una arquitectura diferente.

ARTICLES PUBLINET
Cómo usar Gemini para detectar imágenes y vídeos generados con la IA de Google.
30 de desembre de 2025

Los avances en IA están dotando a las obras generadas con esta tecnología de un realismo cada vez mayor, lo cual puede ser un gran problema a la hora de distinguir entre realidad y contenido artificial. Para ayudar a los usuarios y usuarias en este sentido...

Leer más...
Google concluye su core update de diciembre: la tercera y última de 2025
30 de desembre de 2025

A Google casi le dan las uvas con su última core update del año. El gigante tecnológico activó su actualización principal el pasado 11 de diciembre, junto con la predicción de que tardaría unas tres semanas en completarla...

Leer más...
Notícies
TikTok duplicó sus sesiones de live shopping en España durante el pasado Black Friday
30 de desembre de 2025

Hace un par de meses te contábamos cómo TikTok Shop había alcanzado los 12.000 vendedores locales, coincidiendo con su primer aniversario en España. Un año de crecimiento y, claro, de adaptación, tanto de la plataforma como de q...

IA contra IA: así es el sistema con el que OpenAI intenta blindar a su navegador agéntico Atlas.
30 de desembre de 2025

En el mes de octubre, OpenAI lanzó Atlas, un navegador impulsado por IA que funciona como un asistente personal proactivo, capaz de entender el contexto de la web que visitas y ayudarte en tiempo real con resúmenes, búsquedas contextuales y automati...

Meta compra Manus en una operación que superaría los 2.000 M$
30 de desembre de 2025

La apuesta de Meta es tan inesperada como arriesgada, y deja expuesta su preocupación por adelantarse en la carrera por lograr la Inteligencia Artificial General, algo de lo que Manus viene presumiendo desde su fundación, en marzo de 2025. Qué im...