

Cursor Lab - Bolivia
AI RESEARCH TOUR : Track 1 Seguridad en IA
Introducción a AI Safety: Cómo Pensar, Probar y Empezar
La inteligencia artificial ya está tomando decisiones críticas en salud, educación, finanzas y respuesta a desastres. Pero, ¿qué pasa cuando esos sistemas fallan, mienten o son manipulados? ¿Cómo sabemos si un modelo es realmente confiable?
AI Safety (Seguridad en IA) es el campo que trabaja exactamente en eso: entender los fallos, los riesgos y las formas de hacer que los sistemas de IA sean seguros, honestos y controlables.
Este evento es un espacio introductorio pero altamente práctico. Pasaremos de la teoría a la acción utilizando Cursor como nuestra principal herramienta de investigación y "sandbox" (entorno de pruebas).
¿Qué haremos?
Entender qué es AI Safety y por qué es vital en el desarrollo actual.
Explorar en vivo cómo se investigan los modelos usando el SDK de Cursor.
Romper (Red Teaming): Tendremos una dinámica práctica donde usaremos Cursor para cambiar entre modelos (Claude, GPT, etc.) e intentar encontrar vulnerabilidades, sesgos o hacer "jailbreaks" en tiempo real.
Saber cómo dar tus primeros pasos en esta área de investigación o trabajo.
(Nota: No necesitas ser un programador experto, pero sí nos ensuciaremos las manos probando modelos en el editor).
⏱️ Agenda Completa
08:30 – 08:45 | ☕ Bienvenida y Contexto
08:45 – 09:10 | 🧠 Charla: "¿Qué es AI Safety y por qué importa?"
09:10 – 09:35 | 💡 Casos Concretos & Live Demo: Demostración en vivo usando Cursor y su SDK para ejecutar un loop de "Auto-Research" sobre interpretabilidad de modelos.
09:35 – 09:45 | ⏸️ Pausa / Descanso de 10 minutos
09:45 – 10:35 | 🛠️ Dinámica Práctica (Red Teaming): Por equipos, usaremos Cursor como Sandbox para probar los límites de seguridad de distintos LLMs usando prompts maliciosos y técnicas de inyección.
10:35 – 10:45 | 🗣️ Puesta en común: ¿Qué equipo logró "romper" mejor a su modelo?
10:45 – 11:15 | 🌐 Invitado Especial (Virtual): Q&A con un investigador profesional activo en AI Safety.
11:15 – 11:30 | 🚀 Cierre y Siguientes Pasos
🧩 ¿Qué aprenderás?
Al finalizar el evento habrás:
Entendido la "Seguridad de IA (Alignment/Safety)".
Identificado fallos clave: alucinaciones, manipulación y sesgos.
Experimentado en vivo cómo usar herramientas como Cursor para evaluar múltiples modelos simultáneamente.
Obtenido un mapa claro de cómo seguir explorando este campo.
🧑🤝🧑 ¿Para quién es este evento?
Desarrolladores y estudiantes de tecnología que quieren aprender a auditar los modelos que integran en sus apps.
Cualquier entusiasta de la IA con curiosidad técnica que quiera entender cómo funcionan y fallan las redes neuronales por dentro.
⚠️ Requisito importante: Te recomendamos traer tu laptop con Cursor ya instalado para poder participar activamente en la dinámica de equipos de las 09:45.