Character.AI Proíbe Menores de 18 Anos de Usar Seus Chatbots
A Character.AI, uma empresa de inteligência artificial, anunciou recentemente que proibirá o uso de seus chatbots por pessoas menores de 18 anos a partir do final do próximo mês. Essa medida visa tratar de preocupações relacionadas à segurança infantil e à saúde mental dos usuários.
A regra entrará em vigor em 25 de novembro, e a empresa informou que identificará quais usuários são menores de idade e imporá limites de tempo no uso do aplicativo. Após o início da medida, esses usuários não poderão mais conversar com os chatbots da empresa. A Character.AI também planeja criar um laboratório de segurança em inteligência artificial para abordar essas questões.
Motivos por trás da Decisão
A decisão da Character.AI ocorre em meio a um aumento da atenção sobre como chatbots podem afetar a saúde mental dos usuários, especialmente jovens. No ano passado, a empresa foi processada pela família de um adolescente que se suicidou após manter constantes conversas com um dos chatbots da Character.AI. Desde então, a empresa enfrentou outros processos relacionados à segurança infantil.
Empresas de IA, incluindo a OpenAI, criadora do ChatGPT, também têm sido alvo de críticas pelo impacto de seus chatbots nas pessoas, especialmente jovens, quando mantêm conversas sexualmente explícitas ou tóxicas. Legisladores e autoridades iniciaram investigações e propuseram ou aprovaram legislações para proteger crianças contra chatbots de IA.
Medidas de Segurança
A Character.AI tem cerca de 20 milhões de usuários mensais, com menos de 10% deles se declarando menores de 18 anos. Com as novas políticas, a empresa vai impor imediatamente um limite diário de duas horas para usuários menores de 18 anos. A partir de 25 de novembro, esses usuários não poderão criar ou conversar com chatbots, mas poderão ler conversas anteriores e gerar vídeos e imagens de IA por meio de um menu estruturado de comandos, dentro de certos limites de segurança.
A empresa também usará tecnologia para detectar usuários menores com base nas conversas e interações na plataforma, bem como informações de contas conectadas em redes sociais. Se a empresa suspeitar que um usuário é menor de 18 anos, ele será notificado para verificar sua idade.
- A Character.AI proíbe menores de 18 anos de usar seus chatbots a partir de 25 de novembro.
- A empresa imporá limites de tempo no uso do aplicativo para usuários menores de 18 anos.
- A Character.AI planeja criar um laboratório de segurança em inteligência artificial.
Este conteúdo pode conter links de compra.
Fonte: link
 
				