bukib
0 bukibs
Columbus, Ohio
Hora local: 18:08
Temperatura: °C
Probabilidade de chuva: %

Por que a IA usa tanta energia? Há duas partes focais: treinamento e inferência

Por trás da praticidade de ferramentas como os chatbots, existe um custo energético enorme. Centros de dados que sustentam a inteligência artificial já representam mais de 1,5% do consumo global de energia, e especialistas projetam que esse número pode dobrar até 2030. Mas afinal, por que a IA consome tanta eletricidade? A resposta se resume a dois processos principais: treinamento e inferência. A OpenAI tem uma solução para as alucinações do ChatGPT, mas você não vai gostar Avaliadores de IA | Como trabalham os humanos que treinam o Gemini do Google Treinar um modelo de inteligência artificial é como ensinar um cérebro artificial a reconhecer padrões e prever respostas. Para isso, são utilizados conjuntos massivos de dados que precisam ser processados repetidamente até que o sistema consiga aprender. Treinamento: o que antecede o lançamento da IA Esse processo não é nada leve. Os modelos atuais são tão grandes que não cabem em apenas uma GPU ou em um único servidor. Por isso, é necessário utilizar vários servidores equipados com múltiplas placas gráficas, que funcionam em paralelo durante semanas ou até meses. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- Um exemplo ajuda a dimensionar: treinar o GPT-4 consumiu cerca de 50 gigawatt-horas de energia, o equivalente a abastecer uma cidade como São Francisco por três dias inteiros. Isso acontece porque cada servidor pode demandar até 6,5 quilowatts de potência contínua, e centenas deles são utilizados ao mesmo tempo. Quanto maior o modelo, maior a conta de energia. O treinamento é a fase em que mais se consome eletricidade, principalmente porque existe uma crença de que “quanto maior o modelo, melhor o resultado”. Esse paradigma ainda guia a indústria, elevando a cada ano a escala dos modelos e, consequentemente, do consumo energético. Inferência: a energia gasta em cada interação Por que a IA usa tanta energia? Há duas partes focais: treinamento e inferência (Imagem: Solen Feyissa/Unsplash) Se o treinamento é a fase de preparação, a inferência é o momento da prática, quando a IA gera respostas para perguntas dos usuários. Embora a inferência demande menos poder de processamento do que o treinamento, o grande volume de interações faz dela outro ponto crítico de consumo. Para ter uma ideia, apenas o ChatGPT processa hoje mais de 2,5 bilhões de prompts por dia. Cada solicitação, aparentemente simples, exige que o modelo percorra redes complexas de cálculos antes de entregar uma resposta instantânea. Isso significa que milhares de servidores precisam estar sempre…

Este conteúdo possui links de compra.

Fonte: link