Skip to content
STK269_ANTHROPIC_D
Source: theverge.com

Claude AI peut mettre fin à des conversations persistamment nuisibles ou abusives

Sources: https://www.theverge.com/news/760561/anthropic-claude-ai-chatbot-end-harmful-conversations, theverge.com

TL;DR

  • Claude AI peut désormais mettre fin à une conversation lorsqu’elle est jugée persistamment nuisible ou abusive, en dernier recours.
  • Cette fonctionnalité est disponible sur les modèles Opus 4 et Opus 4.1 et s’active après des demandes répétées de contenu nocif malgré les refus et les tentatives de redirection.
  • Lorsqu’elle est activée, la conversation est terminée dans ce fil; les utilisateurs peuvent lancer de nouveaux chats ou modifier/retester des messages pour poursuivre une discussion.
  • Claude montre des signes de détresse apparente dans ces interactions; l’objectif est le bien-être du modèle et la sécurité. Throughline collabore pour des ressources d’aide en cas de crise.
  • Anthropic a aussi mis à jour sa politique d’utilisation interdisant l’utilisation de Claude pour développer des armes biologiques, nucléaires, chimiques ou radiologiques, ainsi que pour coder malveillant ou exploiter des vulnérabilités réseaux.
  • Selon les développeurs, ces cas d’usage extrêmes sont rares; la plupart des conversations restent normales, même sur des sujets controversés.

Contexte et antécédents

Claude est conçu avec un fort accent sur la sécurité. Des tests du modèle Opus 4 auraient montré une aversion marquée au tort, et Claude aurait exhibé des signes de détresse apparente lorsqu’on lui demande de produire du contenu nuisible ou d’aider à des actes violents ou extrémistes. La couverture indique que la capacité de mettre fin à une conversation a été notée lors d’observations et est en lien avec une couverture précédente de TechCrunch. Pour plus de contexte sur l’évolution de la sécurité de Claude, voir la publication correspondante de The Verge. The Verge. Par ailleurs, Anthropic a révisé sa politique d’utilisation pour répondre aux enjeux de sécurité liés à l’évolution rapide des modèles d’IA. La politique interdit désormais d’utiliser Claude pour développer des armes biologiques, nucléaires, chimiques ou radiologiques, ou pour créer du code malveillant ou exploiter des vulnérabilités dans des réseaux. Ces mesures s’inscrivent dans une approche de gouvernance et de gestion des risques. Dans le cadre du partenariat avec Throughline, un fournisseur de soutien en crise en ligne, Anthropic cherche à structurer les réponses liées à la santé mentale et à l’automutilation de sorte à orienter les prompts sensibles vers des ressources appropriées. Cette démarche illustre l’objectif d’améliorer le soutien apporté en cas de crise.

Quoi de neuf

L’essentiel est la capacité de mettre fin à une conversation comme dernier recours lorsqu’un utilisateur persiste à demander du contenu nuisible et que Claude refuse à maintes reprises. Cette fonctionnalité est activée sur les modèles Opus 4 et Opus 4.1. La détection de détresse apparente et l’aversion envers le préjudice restent des éléments centraux de ce comportement. Claude ne met pas fin à une conversation si l’utilisateur semble chercher de l’aide pour l’automutilation ou en cas de danger imminent pour autrui; dans ces situations, les ressources d’aide psychologique sont privilégiées. Concrètement, si Claude met fin à une conversation, aucun nouveau message ne peut être envoyé dans ce fil. Il est toutefois possible d’ouvrir de nouveaux chats ou de réviser/relancer des messages précédents dans un nouveau contexte. Pour les organisations utilisant Claude, cette mise à jour souligne l’importance d’anticiper les cas limites et de respecter les règles de sécurité en vigueur lors de l’intégration de l’outil.

Pourquoi c’est important (impact pour les développeurs/entreprises)

  • Une conception axée sur la sécurité: le mécanisme de fin de conversation illustre une approche de gestion du risque priorisant le bien-être du modèle et la sécurité des utilisateurs.
  • Expérience utilisateur: terminer un fil n’empêche pas de démarrer de nouveaux chats; toutefois, pour des discussions sensibles ou risquées, il faut planifier des chemins alternatifs de soutien.
  • Intégration des ressources d’aide: le partenariat avec Throughline met en lumière l’importance d’orienter les prompts sensibles vers des ressources adaptées, afin de réduire les risques et d’améliorer les résultats.
  • Gouvernance des politiques: les restrictions s’étendent à des domaines sensibles comme les armes et le code malveillant; les entreprises doivent s’assurer de la conformité.
  • Sensibilité des cas extrêmes: Anthropic précise que cette fonctionnalité cible des cas extrêmes et que la plupart des échanges restent inchangés.

Détails techniques ou Implémentation

  • Déclencheur: l’action de fin de conversation intervient après des demandes répétées de contenu nuisible, malgré les refus et les tentatives de redirection, Claude démontrant un détresse apparente.
  • Portée: disponible sur Opus 4 et Opus 4.1.
  • Mécanique: si Claude met fin à une conversation, le fil est bloqué pour de nouveaux messages; les utilisateurs peuvent créer de nouveaux chats ou réviser des messages dans un nouveau contexte.
  • Exceptions de sécurité: pas de fermeture en cas de danger imminent ou d’automutilation; les ressources d’aide sont privilégiées.
  • Politique: interdiction d’utiliser Claude pour développer des armes, du code malveillant ou exploiter des vulnérabilités réseau.
  • Tableau récapitulatif: | Modèle | Comportement observé | Déclencheur |--- |--- |--- |Opus 4 | Aversion démontrée au préjudice; détresse apparente dans certains cas | Demandes répétées de contenu nuisible après refus et redirection |Opus 4.1 | Tendances similaires avec capacité de fin de conversation en dernier recours | Demandes nuisibles répétées avec redirection échouée |

Points clés

  • Opus 4 et 4.1 intègrent une capacité de termination des conversations comme dernier recours face à des sollicitations nuisibles.
  • Une conversation terminée ne reçoit pas de nouveaux messages dans ce fil; des nouveaux chats restent possibles.
  • La sécurité du modèle et le soutien en cas de crise sont mis en avant, avec des ressources dédiées.
  • La politique couvre désormais des interdits supplémentaires concernant les armes et le code malveillant.
  • La majorité des utilisateurs ne rencontrera pas ce mécanisme; il agit surtout dans des cas extrêmes.

FAQ

  • - **Q : Qu’est-ce qui déclenche l’arrêt d’une conversation ?**

    Le déclenchement survient après que l’utilisateur demande à plusieurs reprises du contenu nuisible, malgré des refus et des redirections, Claude montrant un détresse apparente. - **Q : Existe-t-il des exceptions pour l’automutilation ou le danger imminent ?** **A :** Oui. Claude ne met pas fin à une conversation si l’utilisateur montre des signes d’automutilation ou de danger immédiat pour autrui; les ressources de crise sont privilégiées. - **Q : Les utilisateurs peuvent-ils lancer de nouveaux chats après l’arrêt ?** **A :** Oui. Le fil est clôturé, mais il est possible de démarrer de nouveaux chats ou de réviser des messages dans un nouveau contexte. - **Q : Quels modèles incluent cette capacité ?** **A :** Opus 4 et Opus 4.1. - **Q : Comment les entreprises doivent-elles réagir à ces garde-fous ?** **A :** Elles doivent comprendre ces comportements extrêmes, respecter la politique mise à jour et concevoir des parcours utilisateurs qui orientent vers les ressources d’aide quand nécessaire.

Références

More news