28 agosto, 2025
quinta-feira, 28 agosto, 2025

Anthropic quer usar suas conversas para treinar o Claude – mas tem como impedir

Compartilhe

Inteligência artificial

Recentemente, a Anthropic anunciou uma mudança significativa em suas políticas de uso de dados. A partir do dia 28 de setembro, a empresa começará a utilizar informações de usuários, como transcrições de conversas e sessões de programação, para treinar seus modelos de inteligência artificial. Esses dados poderão ser armazenados por até cinco anos, mas os usuários terão a opção de proibir o uso dessas informações.

A decisão é crucial para quem utiliza o chatbot Claude. Os usuários precisarão manifestar sua preferência antes da data limite, decidindo se querem ou não que suas interações ajudem no aprimoramento da IA. Vale ressaltar que a configuração se aplica apenas a novas interações e conversas retomadas, excluindo chats passados, a menos que os usuários decidam retornar a eles.

Essa mudança afetará todos os planos do Claude, incluindo Claude Free, Pro e Max. Por outro lado, os planos corporativos, como Claude Gov, Claude for Work e Claude for Education, não estarão incluídos nesse novo sistema. Usuários novos deverão definir suas preferências no momento da inscrição, enquanto os já cadastrados receberão um pop-up com a opção de aceitar ou recusar o uso dos dados.

O alerta aparece em destaque, e muitos podem clicar rapidamente em “Aceitar” sem compreender completamente as implicações. É importante notar que, na parte inferior do pop-up, a opção para desativar o uso de dados está configurada como “Ativada” por padrão. Para recusar o compartilhamento, basta mudar essa configuração.

Janela sobre novas regras da Anthropic para treinar IA Claude
Quem já usa o Claude verá um pop-up para decidir sobre a Anthropic usar seus dados para treinar IA (Imagem: Reprodução)

Caso um usuário aceite involuntariamente, é possível reverter essa decisão acessando Configurações > Privacidade e alterando a opção Ajudar a melhorar o Claude para Desativado. A Anthropic assegura que, embora seja possível mudar a escolha a qualquer momento, essa alteração só se aplicará a dados futuros, não afetando informações já utilizadas.

A empresa enfatiza seu compromisso com a privacidade, afirmando que utiliza ferramentas automatizadas para proteger dados sensíveis e que não vende informações a terceiros. A transparência é fundamental, especialmente em um momento em que debates sobre privacidade e segurança na IA se intensificam.

Montagem com telas para configurar uso de dados no Claude para Anthropic treinar IA
“Chave” para ativar ou desativar uso dos seus dados para treinar IA da Anthropic está nas configurações do Claude (Montagem: Olhar Digital)

Além das atualizações sobre o uso de dados, é interessante notar a parceria entre Anthropic e OpenAI, que decidiram revisar os sistemas uma da outra para melhorar a segurança em IA. Resultados dessa avaliação mostraram falhas e caminhos para aprimoramentos, destacando a importância de um setor que se torna cada vez mais vigilante.

Com essas mudanças e iniciativas, a Anthropic e a OpenAI estão não apenas buscando aprimorar suas tecnologias, mas também oferecendo segurança reforçada aos seus usuários. A pressão por regras mais claras é uma preocupação crescente, especialmente em relação à proteção de informações sensíveis.

Você já decidiu sobre o uso dos seus dados no Claude? Compartilhe suas opiniões ou perguntas nos comentários e participe dessa conversa sobre privacidade e inteligência artificial!

Você sabia que o Itamaraju Notícias está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.

Veja também

Mais para você