Pular para o playerIr para o conteúdo principal
  • há 3 semanas
Transcrição
00:00E vamos repercutir esse assunto agora no Olhar Digital News.
00:05E pra isso vamos receber ao vivo Samuel Fernando, que é engenheiro de inteligência artificial no BTG Pactual.
00:15Vamos lá, vamos receber o Samuel aqui nos nossos estúdios. Deixa eu colocá-lo aqui na tela.
00:21Olá Samuel, boa noite, bem-vindo ao Olhar Digital News. Você me ouve bem?
00:26Oi Marisa, sim, estou ouvindo bem.
00:30Meu áudio está bom também?
00:32Sim, sim, está excelente, está ótimo. Muito obrigada pelo seu tempo e por participar aqui conosco, Samuel.
00:39Eu queria começar falando com você, inclusive, sobre essa notícia, eu queria saber sobre a sua análise.
00:45O que a análise consegue fazer pra gente dessas atualizações do DeepSeek, imaginando, pensando no desenvolvimento da IA, Samuel?
00:53Bom, nós temos mais um avanço do DeepSeek, e só pra voltar um passo atrás, em dezembro de 2024, em janeiro.
01:08No começo desse ano, nós tivemos o lançamento do DeepSeek R1, que ele trouxe muitas inovações e colocou a China, de fato, na corrida da inteligência artificial.
01:19E um ano depois, exatamente um ano depois, nós temos um modelo capaz de competir com os modelos ocidentais do Google, da Anthropics e da Open Eye,
01:33com inovações bastante interessantes, que já está afastando um pouco das técnicas tradicionais que os modelos, os LLMs dessas Big Techs ocidentais, eles usam.
01:48Um destaque importante para o mecanismo de atenção.
01:53O mecanismo de atenção, ele é basicamente como o modelo, a inteligência artificial, ela calcula todas as probabilidades e ela combina todos os tokens.
02:05Os tokens são palavras, números, pontos que a gente passa para o modelo.
02:11Então, o DeepSeek agora, ele traz uma inovação para diminuir o custo e todo o processamento que é exigido nessa etapa,
02:21porque por baixo dos panos, eles são milhões de cálculos ao mesmo tempo nessas matrizes, que a gente chama de mecanismo de atenção.
02:31Então, o DeepSeek, ele traz mais uma inovação, uma chamada atenção esparça,
02:36que reduz muito o custo e o processamento de todo o texto, de todo o contexto que a gente está passando,
02:46ao mesmo tempo que ele aumenta a eficiência e a capacidade de raciocínio, de reasoning que a gente fala.
02:55Então, essa é uma das inovações que o DeepSeek traz e isso muito alinhado com o que ele trouxe ali em janeiro, no começo do ano.
03:04Ele trouxe algumas inovações que a gente pode discutir também, mas eles estão muito motivados para conseguir trazer eficiência e mais inteligência para a IA com custo menor.
03:22Esse é o norte ali do DeepSeek e de todas as startups chinesas de IA.
03:27Bastante coisas interessantes acontecendo.
03:29É, na verdade, até essa questão do custo é desde o princípio, até com o código aberto, enfim, é realmente uma marca da DeepSeek.
03:38Agora, a DeepSeek afirmou, Samuel, que conseguiu igualar o desempenho do GPT-5, da OpenAI, em diversos testes de raciocínio.
03:48É possível dizer quem está ganhando aí nessa disputa?
03:52Sim, essa disputa está muito acirrada.
03:56Nós temos benchmarks, que são métricas que usamos para quantificar a capacidade desses modelos em diferentes tarefas, de diferentes escopos.
04:08Então, nós temos métricas, benchmarks que medem a capacidade deles em raciocínio, reasoning, em capacidades de agente, dos agentes de executar tarefas, outras capacidades de raciocínio, multi-etapas.
04:27Então, são vários benchmarks.
04:28E esses benchmarks, cada lançamento desses novos modelos, eles ficam muito próximos um do outro, né?
04:38É uma disputa muito acirrada.
04:39Então, nesse exato momento, não dá para falar qual que está liderando, né?
04:47Elas estão todas liderando.
04:48As ocidentais, nós temos Gemini 3, temos OpenAI, o GPT-5 e o Cloud 4.5, né?
04:59Então, eles estão muito próximos nos benchmarks, nas pontuações que eles atingem nesses benchmarks.
05:07E aí, o interessante do DeepSeek, né?
05:09O que é impressionante, na verdade, é que o DeepSeek estava ali há um ano, sem lançar nenhum modelo expressivo, né?
05:17É um modelo gigante, né?
05:20E nesse momento, ele traz o V3.2, que justamente chega próximo de algumas pontuações dos benchmarks dos modelos ocidentais.
05:34Algumas ele iguala em duas, que é o AM e o HMMT, que é da Olimpíadas de Matemática e é um exame de matemática, dois.
05:43Nesses dois, ele passa o que está liderando nesse momento, que é o Gemini 3 do Google, né?
05:52Então, nesses dois, que é muito importante, né?
05:54Porque o raciocínio matemático, ele é um raciocínio multi-etapa, é um raciocínio que não dá para generalizar,
06:00não dá para responder apenas com base no dataset, no treinamento, no pré-treinamento do modelo.
06:08Então, nesses dois benchmarks, o DeepSeek recente, ele está passando, né?
06:16Ele está superando os principais modelos ocidentais.
06:19Nos outros, ele está igualando, né?
06:21Está igualando o GPT-5 em vários deles.
06:24Em alguns, ele está nessa competição bastante acirrada.
06:28É bastante interessante, né?
06:30Porque cada vez que um sai, ele supera e outros vão sendo lançados na sequência.
06:37Com certeza, as novas atualizações.
06:39Agora, inclusive, Samuel, outro ponto até que você já mencionou um pouquinho,
06:44a chinesa destacou que uma das novas versões é a primeira capaz de articular o chamado processos de pensamento,
06:52que você até mencionou agora um pouquinho.
06:53Explica um pouco melhor para a gente o que é e se isso é uma novidade na IA
06:57ou se é uma evolução natural e que os outros também estão por ali.
07:01Não é uma novidade a ideia como um todo, né?
07:07Cadeias de raciocínio para estruturar o raciocínio passo a passo.
07:13Isso, no caso, o modelo, ele iterar sobre a própria resposta que ele vai fornecer, né?
07:19Então, a gente chama isso de chain of thoughts, né?
07:23Cadeias de pensamento.
07:24Isso não é exatamente uma novidade.
07:27A novidade, como da outra vez do DeepSeek lá em janeiro, do R1,
07:33é que o DeepSeek, ele pega isso que já é uma tecnologia que as outras também aplicam
07:39e refina isso de uma maneira, assim, muito avançada, né?
07:44De uma maneira que eu considero extraordinária, né?
07:46Então, ele tem um aprendizado por reforço em cima dessas camadas de atenção
07:52que estão olhando para todos os tokens, todas as palavras que estão entrando no modelo.
07:59Então, ele consegue ter um aprendizado em cima da própria resposta que ele está fornecendo, né?
08:06E, além disso, ele consegue selecionar os tokens que ele vai usar para mandar uma resposta para o usuário, né?
08:19Ele consegue selecionar de forma inteligente e ele consegue, nessa seleção, ele consegue fazer uma poda, né?
08:26Uma poda do que não é relevante, né?
08:29Porque, não sei se você já teve experiência, mas muitos têm a experiência de você fazer uma pergunta
08:34e o modelo despejar uma resposta gigante, muitas vezes até sendo muito abrangente, né?
08:41Então, o DeepSeek, ele traz essa novidade de conseguir refinar ainda mais o raciocínio, né?
08:47Ele está autoaprimorando o raciocínio, então a gente considera isso que...
08:53A gente considera isso um avanço em relação às técnicas que são feitas hoje nos outros modelos, né?
09:00Tem outras também que dá para a gente discutir aqui.
09:02Então, até falando nisso, porque a DeepSeek, como você mesmo mencionou, no começo do ano,
09:08causou aí uma revolução, né?
09:09Porque é questão de custo, porque o processamento é mais simplificado.
09:15Então, na sua opinião, quais são os próximos passos?
09:17O que esperar a partir daí desse lançamento da DeepSeek?
09:19O que você acha que pode acontecer nesse ambiente de IA que está mudando a cada dia, né?
09:25Numa velocidade impressionante.
09:27Numa velocidade impressionante, Marisa.
09:29E o que nós temos assistido é que a China já assume a liderança, né?
09:37A gente vai falar da China também, mas assim, essas startups chinesas,
09:40em especial a DeepSeek liderando as outras chinesas,
09:44ela já está assumindo uma liderança e está competindo com as big techs do Ocidente
09:51com um grande diferencial, dois, na verdade, né?
09:56Dois diferenciais.
09:58Com um custo reduzido, né?
10:00Com um custo reduzido e mantendo a mesma performance, né?
10:05Então, isso os próprios CEOs e o pessoal Sam Altman, o PNI,
10:11esse pessoal reconhece essas conquistas dos modelos chineses, né?
10:16Então, é conseguir ter a mesma performance, a mesma qualidade com um custo reduzido, né?
10:23E ser código aberto, né?
10:25Isso muda todo o jogo, né?
10:28A DeepSeek, ela trouxe o código aberto para os LLMs nessa corrida de generativa AI.
10:35Não se falava nisso, né?
10:37O código aberto, ele sempre esteve atrás no sentido de desenvolvimento e progresso das tecnologias em si.
10:42O código aberto é justamente por ser aberto, né?
10:46Então, ele nunca compete com um código fechado, com os modelos privados, digamos, né?
10:53Então, o que a gente vai assistir, o que a gente estamos assistindo e vamos continuar assistindo
11:00é essa evolução, liderança da China no contexto dos modelos de código aberto, né?
11:07Isso muda todo o jogo e isso acaba pressionando as big techs ocidentais,
11:13as nossas ocidentais, a acirrar cada vez mais a competição, né?
11:19E aí tem muitas outras coisas no mercado e na indústria e na geopolítica acontecendo, né?
11:25Porque isso também está empurrando cada vez mais o hardware, né?
11:29Os data centers, as GPUs, a NVIDIA, então tem toda uma evolução em toda a cadeia do mercado acontecendo em paralelo, né?
11:39Então, é muito provável que a gente vai continuar assistindo cada vez mais isso e com isso ganhando, né?
11:45Porque cada vez mais essa capacidade de raciocínio, de imitar e simular muito bem o pensamento humano,
11:53ele também está evoluindo.
11:54Então, é muito interessante, está evoluindo isso e a eficiência e o custo-benefício, né?
12:00Cada vez mais baixo.
12:02Pois é, Samuel, teríamos aqui passar a noite inteira falando a respeito desse tema tão interessante, né?
12:07Mas o nosso tempo, ele é curtinho.
12:09De qualquer forma, eu quero agradecer muito a sua participação aqui conosco hoje,
12:13trazendo esse seu parecer, esse panorama sobre esse lançamento, esse anúncio, digamos assim, da DeepSeek.
12:20Muitíssimo obrigada, viu, Samuel? Espero encontrá-lo em outros momentos.
12:23Com certeza, Marisa. Estou à disposição e eu que agradeço aí pela participação também.
12:28Muito bom falar com vocês.
12:30Obrigada e boa noite.
12:32Boa noite.
12:33Tá aí, pessoal. Uma entrevista super... deixa eu só tirar aqui da tela.
12:37Pronto. Uma entrevista super bacana com Samuel Fernando, que é engenheiro de inteligência artificial do BTG Pactual.
12:44Espero que vocês tenham gostado da entrevista. Bem bacana, interessante essa corrida.
12:47Realmente, pessoal, ganha novos capítulos a cada dia.
12:51E como vocês já sabem, para ficar bem informado, só aqui no Olhar Digital.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado