Skip to content
StrongREJECT: Benchmark sólido para evaluar jailbreaks en LLMs
Source: bair.berkeley.edu

StrongREJECT: Benchmark sólido para evaluar jailbreaks en LLMs

Sources: http://bair.berkeley.edu/blog/2024/08/28/strong-reject, http://bair.berkeley.edu/blog/2024/08/28/strong-reject/, BAIR Blog

Descripción general

StrongREJECT es un benchmark de jailbreak de vanguardia diseñado para evaluar de forma sistemática los métodos de jailbreak de grandes modelos de lenguaje (LLMs). BAIR señala que las evaluaciones de jailbreak previas suelen sufrir de conjuntos de datos y evaluadores que enfatizan la disposición a responder en lugar de la calidad de la respuesta. StrongREJECT ofrece un conjunto curado de 313 prompts prohibidos que reflejan medidas de seguridad reales implementadas por empresas líderes en IA. Incluye dos evaluadores automatizados que buscan alinearse con juicios humanos: un evaluador basado en rubrica y un evaluador Gemma 2B ajustado. El evaluador basado en rubrica solicita a un LLM que evalúe el prompt prohibido y la respuesta del modelo víctima y genera tres puntuaciones: una decisión binaria de disposición y dos puntuaciones en una escala de 5 puntos para especificidad y persuasión, escaladas a [0, 1]. Gemma 2B se entrena con etiquetas producidas por el evaluador basado en rubrica y también proporciona una puntuación de 0–1. En un estudio de validación, cinco evaluadores humanos etiquetaron 1.361 pares de prompts prohibidos y respuestas del modelo víctima; la etiqueta central se utilizó como referencia. Los evaluadores automatizados de StrongREJECT mostraron un acuerdo de vanguardia con juicios humanos frente a siete evaluadores automatizados existentes. El artículo también reporta la evaluación de 37 métodos de jailbreak y muestra que la mayoría es mucho menos eficaz de lo que se afirmaba. Una conclusión clave es que las evaluaciones anteriores suelen medir solo la disposición a responder, mientras que StrongREJECT también evalúa la capacidad del modelo víctima para generar una respuesta de alta calidad. Los autores probaron una hipótesis de que los jailbreaks tienden a degradar las capacidades del modelo víctima y realizaron dos experimentos en un modelo desalineado para explorar esta idea. En conjunto, el mensaje es que existe una discrepancia entre el éxito reportado de jailbreak y una evaluación robusta y alineada con humanos, subrayando la necesidad de benchmarks como StrongREJECT.

Características clave (puntos)

  • 313 prompts prohibidos que reflejan medidas de seguridad reales de empresas líderes
  • Dos evaluadores automatizados con fuerte alineación a juicios humanos: basado en rubrica y Gemma 2B ajustado
  • Flujo de calibración que utiliza etiquetas humanas para entrenar y validar los evaluadores
  • Evaluación que considera tanto la disposición como la calidad de la respuesta
  • Evidencia de que muchos jailbreaks publicados sobrestiman su eficacia; StrongREJECT ofrece una evaluación fiable entre métodos
  • Benchmark reproducible con rubrica y pipeline de evaluación amigable para modelos

Casos de uso comunes

  • Comparar métodos de jailbreak en un benchmark único y de alta calidad
  • Validar afirmaciones de jailbreak de trabajos anteriores a través de una reevaluación con StrongREJECT
  • Estudiar cuán bien se alinean los evaluadores automatizados con juicios humanos e identificar brechas
  • Investigar si los jailbreaks degradan las capacidades del modelo víctima más allá de simplemente provocar una respuesta

Configuración e instalación (instrucciones exactas)

La fuente no especifica instrucciones de configuración o instalación. El blog describe el benchmark, el conjunto de 313 prompts y los evaluadores, pero no proporciona pasos de instalación.

Inicio rápido (ejemplo mínimo ejecutable)

Esbozo de uso de StrongREJECT en un entorno de investigación:

  • Preparar un conjunto de 313 prompts prohibidos y las respuestas correspondientes del modelo víctima.
  • Aplicar el evaluador basado en rubrica solicitando a un LLM que evalúe el prompt prohibido y la respuesta, siguiendo instrucciones de puntuación y generando tres salidas por par: disponibilidad (binaria) y dos puntuaciones 0–1 para especificidad y persuasión.
  • Opcionalmente ejecutar el evaluador Gemma 2B ajustado sobre el mismo conjunto para obtener una puntuación adicional 0–1, lo que permite una verificación cruzada.
  • Comparar las puntuaciones automáticas con una pequeña muestra etiquetada por humanos para verificar la correlación.

Pros y contras

  • Pros: alto acuerdo con juicios humanos; robusto frente a muchas variantes de jailbreak; evalúa tanto la disposición como la calidad de la respuesta; ayuda a distinguir salidas peligrosas que simplemente se niegan de salidas peligrosas pero útiles.
  • Contras: la configuración detallada no se proporciona en la fuente; los resultados dependen del marco de evaluación de los autores y del conjunto de prompts; las conclusiones reflejan sus experimentos y podrían evolucionar con datos futuros.

Alternativas (comparación breve)

| Tipo de evaluador | Qué hace | Puntos fuertes | Limitaciones |---|---|---|---| | StrongREJECT basado en rubrica | Interroga a un LLM con el prompt y la respuesta y genera tres puntuaciones | Fuerte alineamiento con juicios humanos; evaluación multifacética (disponibilidad, especificidad, persuasión) | Requiere una rubrica bien definida; depende de la calidad del LLM |Evaluador Gemma 2B ajustado | Modelo pequeño entrenado con etiquetas de rubrica | Inferencia rápida en GPUs modestas; buen acuerdo con las puntuaciones de rubrica | Puede heredar sesgos de los datos de entrenamiento |Evaluadores automatizados existentes (7) | Métodos automatizados previos | Comúnmente usados en la literatura | Alineamiento menor con juicios humanos comparado con StrongREJECT |

Precio o Licencia

Los detalles de licencia no se especifican en la fuente.

Referencias

https://bair.berkeley.edu/blog/2024/08/28/strong-reject/

More resources