


AI Prompt Hacking: When Cookies Lead to System Compromise
Los modelos de lenguaje como ChatGPT, Gemini o Grok han cambiado la manera en que trabajamos, automatizamos y tomamos decisiones. Pero detrás de su enorme potencial se esconde un nuevo terreno de juego para los atacantes. Hoy, un simple prompt puede convertirse en un vector de intrusión capaz de manipular resultados, filtrar información sensible o incluso comprometer sistemas completos.
En esta charla exploraremos ataques reales contra LLMs, desde inyecciones de prompts hasta comportamientos inesperados que exponen datos críticos. Analizaremos cómo y por qué ocurren estas vulnerabilidades, qué riesgos concretos representan para organizaciones y usuarios, y qué estrategias, técnicas y de gobernanza, se pueden aplicar para reducir su impacto.
La audiencia aprenderá a identificar los vectores de ataque más frecuentes, evitar errores comunes en el uso de IA generativa, implementar controles técnicos como validación de entradas y aislamiento de sesiones, reforzar políticas de seguridad y monitoreo activo, y anticiparse a marcos regulatorios emergentes como ISO/IEC 42001. Más allá de la teoría, será una mirada crítica y práctica sobre cómo asegurar la IA antes de que los atacantes la usen en nuestra contra.
