Pular para o playerIr para o conteúdo principal
  • há 5 dias
Transcrição
00:00E uma mudança relevante começa a redesenhar o cenário da inteligência artificial.
00:05Depois de anos em que o foco esteve concentrado no treinamento dos modelos,
00:11a prioridade agora é a chamada inferência,
00:15que é a etapa responsável por colocar esses sistemas para funcionar no dia a dia.
00:21Vamos saber mais detalhes na reportagem.
00:26Nos últimos cinco anos, o desenvolvimento da inteligência artificial
00:30foi marcado por investimentos massivos no treinamento de grandes modelos de linguagem.
00:35Esse processo exige uma infraestrutura robusta de milhares de chips especializados,
00:40operando continuamente por semanas ou meses em data centers de grande escala,
00:45consumindo grandes volumes de energia para processar bilhões de dados.
00:49Com a popularização das aplicações de IA, o foco passou a ser como executar essas soluções em tempo real.
00:57É neste contexto que a inferência ganhou protagonismo.
01:00Trata-se da etapa em que modelos já treinados respondem às solicitações dos usuários.
01:06Essa mudança já se reflete nos investimentos.
01:09Segundo projeções da consultoria Gartner,
01:11os gastos globais com infraestrutura voltada à inferência devem superar,
01:15pela primeira vez, os investimentos em treinamento ainda neste ano.
01:20E a tendência é de aceleração.
01:22Até 2029, as empresas devem destinar cerca de 72 bilhões de dólares à inferência,
01:27quase o dobro dos 37 bilhões de dólares previstos para o treinamento.
01:32Mas o que diferencia eles?
01:34Uma analogia talvez nos ajude a entender melhor.
01:37Se o modelo de IA é um chefe de cozinha,
01:40o treinamento seria o período em que ele aprende receitas e técnicas.
01:44Já a inferência corresponde ao funcionamento do restaurante,
01:47quando os pedidos chegam e precisam ser preparados rapidamente.
01:51Esse processo ocorre em duas etapas principais.
01:54A primeira, chamada de pré-preenchimento, envolve a interpretação da solicitação do usuário.
01:59Cada palavra, símbolo ou imagem é analisado pelo modelo.
02:03Em seguida, vem a decodificação,
02:05quando o sistema gera a resposta com base no conhecimento adquirido.
02:09A primeira demanda maior capacidade de processamento,
02:12enquanto a segunda exige mais memória.
02:14Diferentemente do treinamento, que pode levar semanas e permite certa flexibilidade no uso de recursos,
02:20a inferência ocorre sob demanda e precisa entregar resultados em segundos.
02:24Isso exige não apenas chips mais rápidos,
02:26mas também data centers estrategicamente posicionados,
02:30próximos aos usuários, para minimizar atrasos.
02:33Além disso, novas tecnologias começam a ser adotadas para melhorar a eficiência.
02:38Algumas empresas já utilizam conexões óticas dentro dos sistemas,
02:43substituindo cabos de cobre para acelerar a transmissão de dados
02:46e reduzir a necessidade de resfriamento.
02:49Estamos diante de uma nova fase da IA.
02:52E aí
02:53E aí
02:56Legenda por Sônia Ruberti

Recomendado