Recentemente, a Anthropic anunciou uma mudança significativa em suas políticas de uso de dados. A partir do dia 28 de setembro, a empresa começará a utilizar informações de usuários, como transcrições de conversas e sessões de programação, para treinar seus modelos de inteligência artificial. Esses dados poderão ser armazenados por até cinco anos, mas os usuários terão a opção de proibir o uso dessas informações.
A decisão é crucial para quem utiliza o chatbot Claude. Os usuários precisarão manifestar sua preferência antes da data limite, decidindo se querem ou não que suas interações ajudem no aprimoramento da IA. Vale ressaltar que a configuração se aplica apenas a novas interações e conversas retomadas, excluindo chats passados, a menos que os usuários decidam retornar a eles.
Essa mudança afetará todos os planos do Claude, incluindo Claude Free, Pro e Max. Por outro lado, os planos corporativos, como Claude Gov, Claude for Work e Claude for Education, não estarão incluídos nesse novo sistema. Usuários novos deverão definir suas preferências no momento da inscrição, enquanto os já cadastrados receberão um pop-up com a opção de aceitar ou recusar o uso dos dados.
O alerta aparece em destaque, e muitos podem clicar rapidamente em “Aceitar” sem compreender completamente as implicações. É importante notar que, na parte inferior do pop-up, a opção para desativar o uso de dados está configurada como “Ativada” por padrão. Para recusar o compartilhamento, basta mudar essa configuração.

Caso um usuário aceite involuntariamente, é possível reverter essa decisão acessando Configurações > Privacidade e alterando a opção Ajudar a melhorar o Claude para Desativado. A Anthropic assegura que, embora seja possível mudar a escolha a qualquer momento, essa alteração só se aplicará a dados futuros, não afetando informações já utilizadas.
A empresa enfatiza seu compromisso com a privacidade, afirmando que utiliza ferramentas automatizadas para proteger dados sensíveis e que não vende informações a terceiros. A transparência é fundamental, especialmente em um momento em que debates sobre privacidade e segurança na IA se intensificam.

Além das atualizações sobre o uso de dados, é interessante notar a parceria entre Anthropic e OpenAI, que decidiram revisar os sistemas uma da outra para melhorar a segurança em IA. Resultados dessa avaliação mostraram falhas e caminhos para aprimoramentos, destacando a importância de um setor que se torna cada vez mais vigilante.
Com essas mudanças e iniciativas, a Anthropic e a OpenAI estão não apenas buscando aprimorar suas tecnologias, mas também oferecendo segurança reforçada aos seus usuários. A pressão por regras mais claras é uma preocupação crescente, especialmente em relação à proteção de informações sensíveis.
Você já decidiu sobre o uso dos seus dados no Claude? Compartilhe suas opiniões ou perguntas nos comentários e participe dessa conversa sobre privacidade e inteligência artificial!