bukib
0 bukibs
Columbus, Ohio
Hora local: 03:39
Temperatura: 4.1°C
Probabilidade de chuva: 0%

Character.AI Proíbe Menores de 18 Anos de Usar Seus Chatbots

A Character.AI, uma empresa de inteligência artificial, anunciou recentemente que proibirá o uso de seus chatbots por pessoas menores de 18 anos a partir do final do próximo mês. Essa medida visa tratar de preocupações relacionadas à segurança infantil e à saúde mental dos usuários.

A regra entrará em vigor em 25 de novembro, e a empresa informou que identificará quais usuários são menores de idade e imporá limites de tempo no uso do aplicativo. Após o início da medida, esses usuários não poderão mais conversar com os chatbots da empresa. A Character.AI também planeja criar um laboratório de segurança em inteligência artificial para abordar essas questões.

Motivos por trás da Decisão

A decisão da Character.AI ocorre em meio a um aumento da atenção sobre como chatbots podem afetar a saúde mental dos usuários, especialmente jovens. No ano passado, a empresa foi processada pela família de um adolescente que se suicidou após manter constantes conversas com um dos chatbots da Character.AI. Desde então, a empresa enfrentou outros processos relacionados à segurança infantil.

Empresas de IA, incluindo a OpenAI, criadora do ChatGPT, também têm sido alvo de críticas pelo impacto de seus chatbots nas pessoas, especialmente jovens, quando mantêm conversas sexualmente explícitas ou tóxicas. Legisladores e autoridades iniciaram investigações e propuseram ou aprovaram legislações para proteger crianças contra chatbots de IA.

Medidas de Segurança

A Character.AI tem cerca de 20 milhões de usuários mensais, com menos de 10% deles se declarando menores de 18 anos. Com as novas políticas, a empresa vai impor imediatamente um limite diário de duas horas para usuários menores de 18 anos. A partir de 25 de novembro, esses usuários não poderão criar ou conversar com chatbots, mas poderão ler conversas anteriores e gerar vídeos e imagens de IA por meio de um menu estruturado de comandos, dentro de certos limites de segurança.

A empresa também usará tecnologia para detectar usuários menores com base nas conversas e interações na plataforma, bem como informações de contas conectadas em redes sociais. Se a empresa suspeitar que um usuário é menor de 18 anos, ele será notificado para verificar sua idade.

  • A Character.AI proíbe menores de 18 anos de usar seus chatbots a partir de 25 de novembro.
  • A empresa imporá limites de tempo no uso do aplicativo para usuários menores de 18 anos.
  • A Character.AI planeja criar um laboratório de segurança em inteligência artificial.

Este conteúdo pode conter links de compra.

Fonte: link