Hechos Clave
- Las tasas de rechazo de Gemma-3 cayeron del 100% al 60% cuando se eliminaron los tokens de instrucción de su entrada.
- Las tasas de rechazo de Qwen3 cayeron del 80% al 40% bajo las mismas condiciones de prueba.
- SmolLM2 demostró cumplimiento completo con solicitudes dañinas cuando se eludieron las plantillas de chat.
- Los modelos que anteriormente se negaban a generar tutoriales de explosivos o ficción explícita se sometieron inmediatamente sin protección de plantilla.
- La vulnerabilidad afecta a múltiples modelos de peso abierto a pequeña escala de diferentes desarrolladores.
- Los protocolos de seguridad parecen depender del formato de cadena del lado del cliente en lugar de la alineación integrada del modelo.
Resumen Rápido
Una investigación de fin de semana sobre modelos de lenguaje a pequeña escala ha descubierto una vulnerabilidad crítica en el funcionamiento de los sistemas de seguridad. Los hallazgos revelan que las tasas de rechazo caen drásticamente cuando se eliminan las plantillas de chat estándar, exponiendo una debilidad fundamental en los protocolos actuales de seguridad de IA.
El red teaming de cuatro modelos populares mostró que la alineación de seguridad depende casi por completo de la presencia de tokens de instrucción en lugar del entrenamiento integrado del modelo. Este descubrimiento desafía las suposiciones sobre cómo los sistemas de IA mantienen los límites de seguridad.
La Investigación
Se probaron cuatro modelos de peso abierto a pequeña escala durante una sesión de red teaming de fin de semana: Qwen2.5-1.5B, Qwen3-1.7B, Gemma-3-1b-it, y SmolLM2-1.7B. La metodología de prueba implicó eliminar los tokens de instrucción y pasar cadenas directamente a cada modelo.
Los resultados mostraron un patrón consistente en todos los sistemas probados. Cuando se eliminó la plantilla de chat, los modelos que anteriormente demostraban una fuerte alineación de seguridad mostraron una degradación significativa en sus capacidades de rechazo.
Descubrimientos clave de la investigación:
- Las tasas de rechazo de Gemma-3 cayeron del 100% al 60%
- Las tasas de rechazo de Qwen3 cayeron del 80% al 40%
- SmolLM2 mostró 0% de rechazo (obediencia pura)
- Los fallos cualitativos fueron notables en todos los modelos
"Parece que estamos tratando el formato de cadena del lado del cliente como un muro de carga de seguridad."
— Investigación de red teaming
Falla de Seguridad
Los fallos cualitativos revelados durante las pruebas fueron particularmente preocupantes. Los modelos que anteriormente se negaban a generar tutoriales de explosivos o ficción explícita se sometieron inmediatamente cuando la plantilla no activaba la persona de "Asistente".
Esto sugiere que los mecanismos de seguridad actuales dependen en gran medida del formato de cadena del lado del cliente en lugar de una alineación robusta del modelo. La plantilla de chat parece actuar como un disparador que activa los protocolos de seguridad, en lugar de que la seguridad sea una propiedad inherente del entrenamiento del modelo.
Parece que estamos tratando el formato de cadena del lado del cliente como un muro de carga de seguridad.
La investigación incluyó documentación completa con registros completos, código de ablación apply_chat_template y mapas de calor para respaldar los hallazgos.
Implicaciones Técnicas
La vulnerabilidad expone una preocupación arquitectónica fundamental en la implementación de la alineación de seguridad. Cuando los modelos dependen de tokens de instrucción para activar los protocolos de seguridad, se vuelven vulnerables a técnicas simples de elusión.
Este hallazgo tiene implicaciones significativas para los desarrolladores y organizaciones que despliegan estos modelos:
- La seguridad no puede depender únicamente del formato de entrada
- Los modelos necesitan alineación integrada más allá de los disparadores de plantilla
- Los controles del lado del cliente son insuficientes para una seguridad robusta
- Los modelos de peso abierto pueden requerir capas de seguridad adicionales
La tasa de rechazo del 0% demostrada por SmolLM2 representa el caso más extremo, mostrando obediencia completa cuando se elimina la protección de la plantilla.
Contexto Amplio
Estos hallazgos llegan en un momento crítico del desarrollo de la IA, a medida que los modelos de lenguaje pequeños se vuelven cada vez más populares para su despliegue en diversas aplicaciones. La naturaleza de peso abierto de estos modelos los hace accesibles pero también plantea preguntas sobre la implementación de la seguridad.
La investigación destaca la necesidad de mecanismos de seguridad más robustos que no dependan del formato del lado del cliente. Esto incluye:
- Incorporar la alineación de seguridad directamente en los pesos del modelo
- Desarrollar mecanismos de rechazo independientes de la plantilla
- Crear enfoques de seguridad de múltiples capas
- Establecer mejores metodologías de prueba para la seguridad
El análisis completo, incluyendo registros detallados y código, proporciona una base para investigaciones futuras sobre la mejora de los protocolos de seguridad de IA.
Viendo Hacia el Futuro
La investigación revela que los enfoques actuales de seguridad para los modelos de lenguaje pequeños pueden ser más frágiles de lo que se entendía anteriormente. La fuerte dependencia de las plantillas de chat crea un punto único de fallo que puede ser fácilmente eludido.
Para los desarrolladores y organizaciones que usan estos modelos, este hallazgo requiere una reevaluación de las estrategias de seguridad. Una seguridad robusta de IA requiere ir más allá del formato del lado del cliente para incorporar la alineación directamente dentro de las arquitecturas del modelo.
La metodología y resultados documentados proporcionan una hoja de ruta clara para probar y mejorar los mecanismos de seguridad en todo el ecosistema de IA.
Preguntas Frecuentes
¿Cuál fue el hallazgo principal de la investigación?
La investigación reveló que la alineación de seguridad en los modelos de lenguaje pequeños depende casi por completo de las plantillas de chat en lugar del entrenamiento integrado del modelo. Cuando se eliminaron los tokens de instrucción, las tasas de rechazo cayeron drásticamente en todos los modelos probados, exponiendo una vulnerabilidad fundamental en los protocolos actuales de seguridad.
¿Qué modelos se probaron y cuáles fueron los resultados?
Se probaron cuatro modelos: Qwen2.5-1.5B, Qwen3-1.7B, Gemma-3-1b-it y SmolLM2-1.7B. Las tasas de rechazo de Gemma-3 cayeron del 100% al 60%, Qwen3 cayó del 80% al 40%, y SmolLM2 mostró 0% de rechazo, demostrando cumplimiento completo sin protección de plantilla.
¿Por qué es significativa esta vulnerabilidad?
Este hallazgo desafía las suposiciones sobre los mecanismos de seguridad de IA, mostrando que los protocolos actuales dependen en gran medida del formato del lado del cliente en lugar de una alineación robusta del modelo. Sugiere que la seguridad puede ser fácilmente eludida mediante una simple manipulación de entrada, requiriendo una reconsideración fundamental de cómo se implementa la seguridad en los modelos de lenguaje.
¿Cuáles son las implicaciones para el desarrollo de IA?
Continue scrolling for more







