Skip to content
An image of the Anthropic logo on a brown an pink background
Source: theverge.com

Anthropic atualiza regras do Claude diante de um cenário de IA mais perigoso

Sources: https://www.theverge.com/news/760080/anthropic-updated-usage-policy-dangerous-ai-landscape

TL;DR

  • Anthropic atualizou a política de uso do Claude para proibir explicitamente assistência no desenvolvimento de armas biológicas, químicas, radiológicas e nucleares (CBRN) e explosivos de alto rendimento.
  • A empresa incluiu uma seção ‘Não comprometa sistemas de computador ou redes’ proibindo descoberta/exploração de vulnerabilidades, criação de malware e ferramentas de negação de serviço.
  • Em maio, Anthropic implementou proteções de ‘AI Safety Level 3’ juntamente com o lançamento do modelo Claude Opus 4 para reduzir jailbreaks e assistência a CBRN.
  • Recursos agentivos como Computer Use e Claude Code foram citados como riscos por poderem facilitar abuso em escala e ataques cibernéticos.
  • A política sobre conteúdo político foi flexibilizada, passando a proibir apenas casos enganosos ou disruptivos aos processos democráticos e o direcionamento de eleitores/ campanhas.

Contexto e antecedentes

Anthropic publicou uma atualização em sua política de uso para o chatbot Claude em resposta a preocupações crescentes com segurança. Anteriormente, a empresa já proibia o uso do Claude para ‘produzir, modificar, projetar, comercializar ou distribuir armas, explosivos, materiais perigosos ou outros sistemas projetados para causar dano ou perda de vidas humanas’. A comparação entre as versões antiga e nova mostra que a empresa expandiu e clarificou essa proibição em áreas específicas. Em maio, a Anthropic lançou proteções chamadas ‘AI Safety Level 3’ junto ao Claude Opus 4. Essas salvaguardas buscam tornar o modelo mais difícil de ser ‘jailbroken’ e ajudar a evitar que ele auxilie no desenvolvimento de armas CBRN. A empresa também destacou capacidades agentivas como área de risco. Exemplos citados na atualização são Computer Use, que permite ao Claude executar ações no computador de um usuário, e Claude Code, que integra Claude diretamente no terminal de um desenvolvedor. A Anthropic cita riscos como potencial de abuso em escala, criação de malware e ataques cibernéticos. Para o anúncio completo, veja a cobertura citada: The Verge.

O que há de novo

Principais alterações e esclarecimentos incluem:

  • Proibição explícita de usar Claude para ajudar a desenvolver armas biológicas, químicas, radiológicas ou nucleares (CBRN).
  • Proibição específica de assistência com explosivos de alto rendimento.
  • Nova seção ‘Não comprometa sistemas de computador ou redes’, que impede descoberta/exploração de vulnerabilidades, criação/distribuição de malware e desenvolvimento de ferramentas de negação de serviço.
  • Redução da proibição sobre conteúdo político: não é mais proibido todo conteúdo relacionado a campanhas e lobby, apenas usos enganosos ou disruptivos aos processos democráticos e direcionamento de eleitores/campanhas.
  • Clarificação de que requisitos de ‘alto risco’ se aplicam a cenários de recomendação voltados ao consumidor, não ao uso interno empresarial. Essas mudanças ampliam a proibição anterior ao nomear categorias de alto risco e adicionar restrições ligadas a capacidades agentivas.

Por que isso importa (impacto para desenvolvedores/empresas)

  • Conformidade e gestão de risco: Desenvolvedores e organizações que usam Claude devem revisar a nova política para garantir que suas aplicações não violem as proibições explícitas a CBRN, explosivos de alto rendimento ou as novas restrições de cibersegurança.
  • Recursos agentivos exigem supervisão adicional: Computer Use e Claude Code podem realizar ações além da geração de texto. A própria atualização destaca o risco de abuso em escala e ataques cibernéticos, o que implica controles extras para integrações.
  • Design e implantação de produto: Equipes que constroem sistemas de recomendação ao consumidor com Claude devem seguir os requisitos de alto risco. Anthropic esclareceu que isso se aplica a cenários voltados ao consumidor, não ao uso empresarial interno.
  • Implicações políticas e de conformidade: A mudança de política em conteúdo político foca usos enganosos e direcionamento de eleitores. Organizações em tecnologia de campanhas ou lobby devem reavaliar seus usos de Claude.

Detalhes técnicos ou de implementação

A atualização combina mudanças de política com proteções a nível de modelo. Pontos técnicos e de política relevantes:

  • AI Safety Level 3 e Claude Opus 4: Em maio, Anthropic implementou proteções descritas como destinadas a dificultar jailbreaks e reduzir assistência em tópicos CBRN.
  • Recursos agentivos citados:
Recurso agentivoDescrição segundo a atualização
Computer UsePermite ao Claude executar ações no computador do usuário; citado como gerador de riscos para abuso em escala e ataques cibernéticos
Claude CodeIntegra Claude no terminal do desenvolvedor; citado entre recursos que introduzem riscos de malware e segurança
  • Novas proibições de cibersegurança: A seção ‘Não comprometa sistemas de computador ou redes’ proíbe uso do Claude para descobrir/explorar vulnerabilidades, criar/distribuir malware e desenvolver ferramentas de negação de serviço.
  • Comparação na política de armas: | Tópico | Linguagem antiga | Linguagem nova |---|---:|---| | Armas e explosivos | Proibia produzir, modificar, projetar, comercializar ou distribuir armas, explosivos, materiais perigosos ou outros sistemas produzindo dano ou perda de vidas | Expandida para proibir explicitamente assistência ao desenvolvimento de explosivos de alto rendimento e armas CBRN |

Principais conclusões

  • Proibição explícita a assistência em armas CBRN e explosivos de alto rendimento.
  • Nova seção de cibersegurança proíbe descoberta de vulnerabilidades, criação de malware e ferramentas de DDoS.
  • Proteções AI Safety Level 3 com Claude Opus 4 visam reduzir jailbreaks e limitar assistência em CBRN.
  • Recursos agentivos como Computer Use e Claude Code são destacados como riscos e sujeitos a salvaguardas.
  • Política política foi ajustada para focar em usos enganosos, disruptivos ou de direcionamento de eleitores; requisitos de alto risco são para cenários de consumidor.

FAQ

Referências

  • Cobertura da atualização de política da Anthropic: The Verge

More news