bukib
0 bukibs
Columbus, Ohio
Hora local: 13:43
Temperatura: 14.9°C
Probabilidade de chuva: 0%

Treinamento do DeepSeek R1 custou 300 vezes menos que o do GPT-4; entenda

Veja também honey lemon soda.

O custo para o treinamento do DeepSeek finalmente foi revelado em um relatório divulgado pela própria empresa. O modelo R1 da inteligência artificial (IA) movimentou o mercado em janeiro por ter capacidade de raciocínio semelhante à de concorrentes por um custo muito menor. O que é DeepSeek? IA chinesa desafia big techs 7 em cada 10 alunos do Ensino Médio já usam IA generativa em pesquisas no Brasil De acordo com a publicação da empresa chinesa na Nature, o modelo custou US$ 294 mil (cerca de R$ 1,6 milhão) para ser treinado, e utilizou 512 chips H800 da Nvidia.  Para comparação, o treinamento do GPT-4 da OpenAI custou entre US$ 80 milhões e US$ 100 milhões, de acordo com o CEO da OpenAI, Sam Altman. Ou seja, se considerarmos uma média de custo de R$ 90 milhões, o DeepSeek R1 foi mais de 300 vezes mais barato.  -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- Por que tão mais barato? Segundo a empresa chinesa de IA, o motivo do valor tão abaixo para o treinamento do modelo de linguagem é devido à técnicas de aprendizagem baseadas em tentativa e erro. A maioria dos modelos de linguagem de IA são treinados com exemplos humanos e demonstrações específicas para aprender a resolver tarefas que necessitam de raciocínio. Este processo é caro e difícil de escalar à medida que os problemas se tornam mais complexos.  O que o DeepSeek fez foi, ao invés de fazer com que seu modelo aprendesse a partir de exemplos semelhantes, aprendesse com tentativa e erro, até que encontrasse a resposta certa. No artigo publicado na Nature, a professora-assistente da Universidade Carnegie Mellon e o doutorando Yiming Zhang comparam o método de aprendizado do DeepSeek R1 com uma criança jogando videogame.  “À medida em que a criança explora com seu avatar pelo mundo do jogo, ela aprende por tentativa e erro que algumas ações, como coletar moedas, rendem pontos, enquanto outras, como ser atacado por inimigos, fazem com que perca pontuação”, afirmaram os pesquisadores.  Eles contam que, assim como em um jogo, o R1 recebia uma pontuação alta quando respondia perguntas corretamente, e perdia pontos quanto às errava.  Usando este mesmo exemplo, enquanto o DeepSeek era treinado por tentativa e erro, os modelos comuns estariam seguindo infinitos tutoriais para passar pelas fases do jogo.  Ou seja, como o R1 tinha maior entendimento de como seguir no jogo a partir do seu aprendizado, a partir de um…

Este conteúdo possui links de compra.

Fonte: link