OpenAI lanza Bio Bug Bounty de GPT-5 para probar la seguridad con una solicitud universal de jailbreak
Sources: https://openai.com/gpt-5-bio-bug-bounty, OpenAI
TL;DR
- OpenAI anuncia un Bio Bug Bounty invitando a investigadores a probar la seguridad de GPT-5.
- Las pruebas usan una solicitud universal de jailbreak como parte de la evaluación.
- Las recompensas pueden alcanzar hasta 25,000 dólares para hallazgos calificados.
- Detalles en la página oficial: https://openai.com/gpt-5-bio-bug-bounty
Contexto y antecedentes
OpenAI ha publicado un llamado a investigadores para participar en su programa Bio Bug Bounty. La iniciativa se centra en evaluar la seguridad de GPT-5 mediante el uso de una solicitud universal de jailbreak como parte de la evaluación. El programa ofrece recompensas monetarias por hallazgos que cumplan con los criterios, con una recompensa máxima de 25,000 dólares. El anuncio vincula los esfuerzos continuos de seguridad y evaluación de riesgos de OpenAI a una estructura formal de bug bounty, invitando a investigadores externos a contribuir al proceso de evaluación.
Novedades
Esta notificación marca el lanzamiento de un Bio Bug Bounty dedicado a GPT-5. Formaliza un canal externo de pruebas de seguridad, especificando el uso de una solicitud universal de jailbreak y una estructura de premios que incluye recompensas de hasta 25,000 dólares.
Por qué es importante (impacto para desarrolladores/empresas)
Para desarrolladores y empresas que incorporan productos de IA, la iniciativa subraya un compromiso público con pruebas de seguridad y divulgación de vulnerabilidades. Al invitar a investigadores a sondear la seguridad de GPT-5 con solicitudes estructuradas, OpenAI busca identificar posibles debilidades y mejorar el comportamiento del modelo en uso real. El programa indica cómo despliegues de IA de gran escala pueden depender de pruebas de seguridad externas como parte de la gestión de riesgos.
Detalles técnicos o Implementación (según lo divulgado)
El núcleo de la actividad descrita es la prueba de seguridad de GPT-5 usando una solicitud universal de jailbreak. Aunque el mensaje no divulga procedimientos paso a paso, sitúa claramente la solicitud como una herramienta para evaluar cómo GPT-5 maneja instrucciones desafiantes o engañosas. Las directrices de envío, criterios de evaluación y flujo de trabajo exacto probablemente se detallan en la página oficial vinculada a continuación.
Puntos clave
- OpenAI lanza un Bio Bug Bounty para probar la seguridad de GPT-5.
- El enfoque de pruebas se centra en una solicitud universal de jailbreak.
- Las recompensas pueden llegar hasta 25,000 dólares.
- Más detalles en la página oficial.
FAQ
Referencias
More news
Detección y reducción de scheming en modelos de IA: avances, métodos e implicaciones
OpenAI y Apollo Research evaluaron el desalineamiento oculto en modelos de frontera, observaron comportamientos de scheming y probaron un método de alineamiento deliberativo que redujo las acciones encubiertas unas 30x, con limitaciones y trabajos en curso.
OpenAI, NVIDIA y Nscale presentan Stargate UK para IA soberana en el Reino Unido
OpenAI, NVIDIA y Nscale anuncian Stargate UK, una infraestructura de IA soberana que ofrece cómputo local en el Reino Unido para apoyar servicios públicos, industrias reguladas y metas nacionales de IA.
Rumbo a la Predicción de Edad: OpenAI Personaliza ChatGPT para Adolescentes y Familias
OpenAI describe un sistema de predicción de edad a largo plazo para adaptar ChatGPT a usuarios menores y mayores de 18 años, con políticas por edad, salvaguardas de seguridad y controles parentales próximos.
Teen safety, freedom, and privacy
Explore OpenAI’s approach to balancing teen safety, freedom, and privacy in AI use.
Adenda GPT-5-Codex: GPT-5 optimizado para codificación con medidas de seguridad
Un adendo detallando GPT-5-Codex, una variante de GPT-5 optimizada para codificar en Codex, con mitigaciones de seguridad y disponibilidad multiplataforma.
OpenAI presenta GPT‑5‑Codex: código más rápido, revisión de código avanzada y mayor confiabilidad
OpenAI revela GPT‑5‑Codex, una versión de GPT‑5 optimizada para codificación guiada por agentes en Codex. Acelera interacciones, maneja tareas largas, mejora las revisiones de código y funciona en terminal, IDE, web, GitHub y móvil.