Concorrente do ChatGPT é impedido de ser usada por forças armadas dos EUA
O Pentágono tomou uma medida significativa ao impor uma designação formal de risco à cadeia de suprimentos do laboratório de inteligência artificial Anthropic. Essa ação, realizada na quinta-feira, tem como objetivo limitar o uso de uma tecnologia que, segundo uma fonte, estava sendo utilizada em operações militares no Irã.
A decisão do Pentágono pode ter implicações importantes para o uso de tecnologias de inteligência artificial em contextos militares. A Anthropic é conhecida por desenvolver modelos de linguagem avançados, semelhantes ao ChatGPT, que têm o potencial de serem usados em uma variedade de aplicações, incluindo operações militares.
É importante notar que a designação de risco à cadeia de suprimentos pode afetar a capacidade do laboratório de fornecer suas tecnologias para uso em operações militares. Isso pode ser um desafio para a Anthropic, pois a empresa pode precisar encontrar maneiras de mitigar os riscos identificados pelo Pentágono para continuar fornecendo suas tecnologias para uso militar.
Algumas das razões pelas quais o Pentágono pode ter imposto essa designação incluem:
- Preocupações sobre a segurança e a confiabilidade das tecnologias de inteligência artificial;
- Riscos potenciais para a cadeia de suprimentos e a infraestrutura militar;
- Necessidade de garantir que as tecnologias sejam usadas de forma ética e responsável.
Em resumo, a decisão do Pentágono de impor uma designação formal de risco à cadeia de suprimentos do laboratório de inteligência artificial Anthropic é um desenvolvimento significativo que pode ter implicações importantes para o uso de tecnologias de inteligência artificial em contextos militares.
Este conteúdo pode conter links de compra.
Fonte: link