Sus chatbots privados de IA no están a salvo ni siquiera de los piratas informáticos, advierten los investigadores

En solo un año, los asistentes de IA se han convertido en parte integral de nuestras vidas, desde nuestras profundas preocupaciones e información confidencial.

A estos compañeros digitales se les confían datos confidenciales, desde consultas de salud personales hasta asesores profesionales. Si bien los proveedores implementan el cifrado para proteger las interacciones de los usuarios, investigaciones recientes plantean preocupaciones sobre la vulnerabilidad de la seguridad de los asistentes de IA.

Análisis de ataques a las respuestas del asistente de IA

Sus chats privados de AI Chatbot no están a salvo de los piratas informáticos, incluso con cifrado, advierten los investigadores
Aunque el uso del chatbot con IA es seguro gracias al cifrado, los usuarios no controlan si las respuestas se revelarán a otros. Los piratas informáticos utilizan ChatGPT que no son de Google para leer sus consultas privadas en la aplicación.
(Foto: Mariia Shalabaieva de Unsplash)

Un estudio innovador revela un ataque sofisticado capaz de descifrar las respuestas de los asistentes de IA con una precisión alarmante.

Esta técnica utiliza un canal lateral que se incluye en los principales asistentes de IA (excepto Google Gemini) y refina los resultados mediante modelos de lenguaje a gran escala (LLM).

Al interceptar paquetes de datos intercambiados entre el asistente de IA y el usuario, un adversario pasivo podría identificar el tema específico de la mitad de todas las respuestas interceptadas, según el Offensive AI Research Lab.

Artículo relacionado: No le cuentes a ChatGPT tus secretos más profundos, dice un experto en inteligencia artificial: ‘Ser sincero con los chatbots es ‘demasiado estúpido’

Comprender la privacidad de los tokens

En el centro de este ataque hay un canal lateral que involucra tokens utilizados por asistentes de IA.

Los símbolos, representaciones codificadas de palabras, facilitan la transmisión de respuestas en tiempo real. Sin embargo, la entrega en serie de tokens expone una debilidad: la «cadena de longitud del token». Los atacantes pueden utilizar este canal para extraer el contenido de la respuesta, comprometiendo la privacidad del usuario.

Ataque de resultado de token: no recuperar respuestas cifradas

Para refinar dichos datos, los investigadores utilizan un ataque de inferencia de tokens, utilizando LLM para traducir las cadenas de tokens en texto coherente.

«Ahora, cualquiera puede leer chats privados enviados desde ChatGPT y otros servicios», escribió en un correo electrónico Yisroel Mirsky, jefe del Laboratorio de Investigación de IA Ofensiva de la Universidad Ben-Gurion en Israel.

Cabe señalar que Mirsky excluye a Google Gemini de los chatbots afectados. Los piratas informáticos pueden explotar la respuesta cifrada de ChatGPT con el siguiente ejemplo. Mira sus diferencias.

  • Sí, hay varias consideraciones legales importantes que las parejas deben tener en cuenta al considerar el divorcio,…
  • Sí, existen muchas consideraciones legales potenciales que una persona debe tener en cuenta al considerar el divorcio. …

Al capacitar a los LLM en conjuntos de datos disponibles públicamente, los investigadores obtienen una precisión notable en la codificación de respuestas. Este método, similar a un conocido ataque de texto sin formato, aprovecha la predicción de las respuestas del asistente de IA y realiza el cifrado del contenido cifrado.

Anatomía de un chatbot de IA: comprensión de la tokenización

Los tokens sirven como unidades básicas de procesamiento de texto en los chatbots de IA y guían la generación e interpretación del diálogo.

Durante la formación, los LLM analizan amplias colecciones de texto tokenizado para aprender patrones y probabilidades. A medida que los usuarios interactúan con los asistentes de IA, los tokens facilitan la interacción en tiempo real, generando respuestas basadas en señales contextuales, informa Ars Technica.

Información en tiempo real y estrategias de mitigación

El intercambio de tokens en tiempo real proporciona una vulnerabilidad crítica que permite a los atacantes extraer el contenido de la respuesta en función de la longitud del paquete.

A diferencia de la transmisión sumatoria, que oculta la longitud de los hilos individuales, la transmisión secuencial revela los detalles de la respuesta. Mitigar este riesgo requiere repensar los protocolos de transferencia de tokens para reducir la exposición a adversarios pasivos.

Garantiza la privacidad de los datos en las comunicaciones de IA

A medida que los asistentes de IA siguen evolucionando, proteger la privacidad del usuario sigue siendo primordial. La implementación de protocolos de cifrado sólidos y el perfeccionamiento de los mecanismos de transferencia de tokens son pasos clave para mitigar los riesgos de seguridad.

Los proveedores pueden proteger la confianza de los usuarios en las tecnologías de IA abordando las vulnerabilidades y aumentando las medidas de protección de datos.

Asegurar el futuro de la IA

La aparición de asistentes de IA presagia una nueva era de interacción entre humanos y computadoras. Sin embargo, la innovación conlleva responsabilidad.

A medida que los investigadores descubren vulnerabilidades, los proveedores deben priorizar la seguridad y la privacidad de los datos. Los piratas informáticos están en marcha; La próxima vez que lo sepamos, compartirán nuestras conversaciones privadas con otras empresas.

Lea también: He aquí por qué los chatbots de IA no pueden reemplazar los trabajos humanos, según los expertos

José Enrique
(Foto: Tiempos tecnológicos)

ⓒ 2024 TECHTIMES.com Todos los derechos reservados. No reproducir sin permiso.

Puede interesarte

Géminis abandonado en el polvo

Como se ha informado ampliamente, Google recientemente impidió que su chatbot Gemini creara imágenes de …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *