Constituição da Anthropic: Regras para Treinar IAs
A Anthropic, criadora do chatbot Claude, publicou uma constituição que estabelece as regras para treinar seus modelos de inteligência artificial (IA). O objetivo é garantir que as IAs sejam desenvolvidas de forma ética e segura, priorizando a transparência e a responsabilidade.
O documento, disponível no site da Anthropic, apresenta quatro pilares essenciais para o desenvolvimento das IAs:
- Amplamente segura: não pode prejudicar mecanismos humanos para supervisionar a IA durante o desenvolvimento;
- Amplamente ética: precisa ser honesta e agir de acordo com “bons valores”, evitando ações que possam ser inapropriadas, perigosas ou prejudiciais a alguém;
- De acordo com as regras da Anthropic: agir sempre seguindo as diretrizes da Anthropic quando isso for necessário;
- Genuinamente útil: beneficiar quem interage com a IA.
Esses pilares são fundamentais para garantir que as IAs sejam desenvolvidas de forma responsável e segura. A Anthropic defende a necessidade de transparência num contexto em que a tecnologia assume papéis mais importantes na sociedade.
A constituição é a autoridade final da Anthropic para regular o comportamento do Claude, e seu objetivo é explicar os valores e a base de conhecimento necessária para atuar de forma segura e benéfica em todos os casos. O documento completo pode ser acessado no site da Anthropic.
O Claude é um chatbot que surgiu como uma alternativa útil para cenários corporativos, programado para evitar palavrões e outras linguagens impróprias. Recentemente, a empresa liberou o Claude Cowork, uma espécie de “assistente de trabalho” capaz de realizar ações no computador.
A publicação da constituição da Anthropic é um passo importante para garantir que as IAs sejam desenvolvidas de forma responsável e segura. Isso demonstra o compromisso da empresa em priorizar a transparência e a responsabilidade no desenvolvimento de tecnologias de IA.
Este conteúdo pode conter links de compra.
Fonte: link