Pular para o playerIr para o conteúdo principal
  • há 3 meses
Transcrição
00:00E vamos receber Roberto Pena Spinelli, que é físico pela USP, especialista em Machine Learning por Stanford e colunista do Olhar Digital.
00:16Vamos lá, deixa eu achar aqui o Pena. Olá Pena, boa noite, mais uma vez, seja muito bem-vindo, querido.
00:24Tudo bem, Marisa, mais um dia de lançamento, né? A gente sempre pega os lançamentos aqui, então boa noite para todo mundo, vamos repercutir um pouco sobre esse novo lançamento da OpenAI.
00:37Pois é, a gente sempre dá sorte mesmo de estar sempre com notícias ali quentíssimas para discutir aqui junto com você.
00:43Aproveitando, então vamos já começar falando sobre esse lançamento do Atlas, o navegador da OpenAI.
00:49Você já teve a oportunidade de analisar? Conta para a gente o que você achou desse anúncio.
00:57Então, como foi lançado realmente quase agora, praticamente agora, e só está para macOS, eu ainda não consegui usar.
01:05Mas, obviamente, eu já fui ver tanto a demonstração quanto as pessoas que estão usando.
01:11E assim, Marisa, me surpreendeu muito, positivamente.
01:14Eu acho que eles conseguiram, porque já até existiam outros browsers, outros navegadores com o IA integrado,
01:21talvez o mais conhecido seja o Comet, da Perplexity, que traz uma nova interface, um novo jeito de usar.
01:30Mas eu acho que eles realmente fizeram, a OpenAI realmente trouxe um produto diferente
01:37e que vai quebrar um pouco o paradigma que a gente tem ao usar o navegador.
01:41Então, normalmente, a gente sempre tem essa coisa de você vai nas abas, faz alguma busca, vai interagindo, vai clicando,
01:49e aquilo vai se tornando, vai abrindo novas abas.
01:51Eu, muitas vezes, tenho 30 abas abertas, eu nunca sei onde estão as minhas coisas que você vai abrindo lá.
01:57A diferença aqui é que você não precisa ficar necessariamente clicando, clicando, clicando.
02:03Você pode simplesmente falar o que você quer e deixar ele fazer essas buscas e gerenciar.
02:10Você tem acesso a abas também, isso é legal, não é que você vai perder isso.
02:15Mas tem que mudar um pouco o jeito de usar.
02:18E me parece, pela demonstração, que vai ser um jeito cada vez mais orgânico.
02:22Então, mesmo coisas, eu quero buscar um histórico de que eu acessei, sei lá, três dias atrás, um site.
02:29É um saco ter que ficar abrindo a aba, ficar navegando, olhando um por um daqueles links que você viu.
02:34Você pode só escrever, olha, eu quero buscar o site que eu vi três dias atrás sobre tal coisa.
02:40E deixar o próprio chat EPT, enfim, a IA, te mostrar ali na sua cara, porque ela tem acesso completo à plataforma.
02:49Então, assim, na perplexidade, o Comet, a gente já tinha visto algo parecido, esse jeito de você, não importa o que você está vendo,
02:58a IA está do seu lado e ela vai poder responder, interagir com você, jogar para outros links.
03:05Então, muitas vezes, você não precisa nem ficar clicando mais, isso é muito legal.
03:09Mas tem uma camada a mais, Marisa, eles lançaram o modo agêntico, o modo de agente.
03:14E aí, sim, a coisa fica muito surpreendente, né?
03:20E aí, eu não sei se do lado bom para o lado mal, porque você vai dar completo acesso à IA, ao modelo de linguagem,
03:27a navegar por você, seja para fazer uma compra, seja para realmente fazer tarefas complexas.
03:34Então, eles deram exemplos.
03:35Imagina você estar lá no seu Gmail, no seu Google, no seu e-mail da Google,
03:38eles colocaram, inclusive, o e-mail da Google, que é o mais usado no mundo, né?
03:43Então, você pode pedir para que ele não só te melhore o seu texto de escrita,
03:48mas que ele possa fazer coisas por você no seu e-mail.
03:52Pode apagar e-mail, abrir, fazer pesquisa.
03:55Você está usando o Docs ou alguma outra plataforma de compartilhamento de dados,
04:01ele pode ter acesso a isso.
04:03Então, por um lado, isso é surpreendente.
04:04Você está assim, nossa, é aquilo que a gente estava esperando de ter realmente aquele assistente
04:09que vai poder pôr a mão na massa e resolver coisas da sua vida,
04:12te ajudar nas ferramentas que você usa.
04:16Por outro lado, e aí, será que a gente está dando acesso demais?
04:20Será que a gente não vai perder o controle?
04:22Então, aí já levanta um alerta sobre segurança.
04:25Eles mostraram na demonstração que você pode, a qualquer momento,
04:29ter o controle de volta, né?
04:30Take control.
04:31Você vai lá, clica no botãozinho, não sei o que ele está fazendo,
04:33ele começou a clicar nos lugares estranhos, estou com medo, take control.
04:37Pega o controle, ele para de usar, você volta a ter o controle.
04:40Claro, isso é o mínimo que a gente espera.
04:42Só que eu sei bem como funcionam essas questões de segurança, Marisa.
04:46Depois que você vai usando, usando, usando e usando e vai ficando confiante,
04:50chega uma hora que você vai nem querer se take control,
04:52porque aquilo só te enche o saco.
04:55Vai chegar uma hora que a gente vai simplesmente dar o acesso à coisa
04:59e querer que ele faça o...
05:01Não quer ficar provando no final, porque já confia e acha que aquilo é uma perda de tempo.
05:06Eu sei que isso pode acontecer, é muito fácil para as pessoas começarem a ganhar confiança.
05:10Então, o alerta que eu levanto é,
05:13a gente está colocando máquinas que são muito capazes, muito inteligentes,
05:17e está dando já ferramentas para elas fazerem tudo de maneira autônoma.
05:24Em pouco tempo, eu tenho certeza que o ser humano vai começar não mais ficar monitorando,
05:29porque monitorar vai ser chato, vai querer já a resposta pronta.
05:31Então, é um alerta de segurança também.
05:34Será que já temos, já estamos no ponto de dar esses acessos sem supervisão
05:38ou com uma supervisão muito relaxada para as máquinas?
05:41Não sei, deixo aí o questionamento.
05:44Um bom questionamento mesmo.
05:46Agora, Pena, e com relação até, além dessas funcionalidades, com relação até ao mercado?
05:51Você acredita que o Atlas pode abalar o Google, que é a predominante?
05:57E mesmo, como que ficam os outros navegadores, como o Mozilla, a Firefox, o Edge, enfim?
06:03Como que fica a situação de mercado para esses navegadores com a chegada do Atlas?
06:09No ano passado, a gente já vem falando que vai mudar o nosso jeito.
06:14A IA vai transformar o jeito que a gente usa a internet e a nossa vida, né?
06:18A gente já alertou, só que parecia muito distante, né?
06:21Porque as pessoas falam, mas como assim? Pena.
06:22Eu acho que esse é um bom exemplo.
06:25A gente falou que esse ano, de 2025, seria o ano dos agentes.
06:28Várias vezes a gente trouxe isso aqui.
06:30E está se confirmando, quer dizer, no ano passado foi o ano dos assistentes.
06:35As IA ficando mais inteligentes, mais capazes de nos ajudar, escrevendo, falando, textos, etc.
06:42E agora ela está agindo pela gente.
06:44Então, eu tenho muita convicção que, tanto agora a OpenAI trazendo o Atlas,
06:50quanto a Perplex trazendo o Comet, já é essa mudança.
06:55Aqueles que não, né?
06:56Eu imagino que isso vai ter um acolhimento muito grande pelo público.
06:59Claro, a gente sempre precisa ver.
07:01Vai que tem alguma bobagem.
07:03Vai que a demonstração...
07:04A gente sempre tem que tomar cuidado com as demonstrações.
07:06As demonstrações são muito melhores do que na vida real.
07:08Mas se confirmando o que a gente viu, e eu achei super positivo,
07:13eu acho que vai ser uma adesão muito rápida.
07:15As pessoas vão começar a entender esse novo jeito de usar a internet.
07:19E isso pode ganhar agilidade para as pessoas.
07:23Então, Marisa, eu hoje, se tivesse que apostar, eu diria que sim.
07:26A gente vai...
07:27Essa já é a mudança que a gente vai ver.
07:29Um novo jeito de acessar a internet.
07:31Um novo jeito de buscar informação.
07:33Um novo jeito de agir no computador.
07:36E sim, acho que as outras empresas, elas têm que correr atrás
07:40para, no mínimo, ter algo equiparável, né?
07:43Porque se não, sim, pode ser que seja ameaçada a Google,
07:46que sempre teve os buscadores e o navegador.
07:49São duas coisas que ela sempre se orgulhou de estar à frente, né?
07:53O Chrome, o navegador mais usado no mundo, e o Google.
07:57Então, sim, se eu fosse a Google hoje, eu estaria com calafrios.
08:01Se é que ela não tem já também alguma coisa preparada na manga.
08:04Porque agora é uma corrida contra o tempo de lançar algo.
08:06Se não, os usuários migram.
08:08E aí, uma vez que eles migram, é muito difícil de você pegar de volta.
08:12Com certeza.
08:13Agora, a pena, deixa eu aproveitar e falar com você sobre outra IA.
08:17A startup Anthropic, que é criadora do chatbot Cloud,
08:22anunciou uma parceria inédita com o governo dos Estados Unidos
08:26para criar um filtro capaz de detectar e bloquear conversas relacionadas a riscos nucleares.
08:34Existe uma preocupação de que essa tecnologia possa ser usada
08:40para desenvolver armas nucleares.
08:42É isso, Pena?
08:43Sim, esse é um dos problemas ou das preocupações, que é o mau uso.
08:49Então, são ferramentas que têm um conhecimento gigantesco, né?
08:54Sabem tudo, tem toda a informação na internet.
08:56Então, sabem, inclusive, fazer armas nucleares.
09:00E aí, o medo é o mau uso.
09:02Um usuário que está...
09:03Um terrorista, um, sei lá, um psicopata.
09:06Enfim, pessoas más existem no mundo.
09:09Pessoas querendo fazer coisas ruins existem.
09:11E elas poderiam ir lá perguntar como é que eu faço, como é que eu desenvolvo.
09:15Então, essa informação ficaria mais fácil, porque na internet,
09:20embora essa informação também exista na internet, é muito mais difícil.
09:23É mais fácil dar o chat EPT ou outro assistente,
09:26que vai te ajudar passo a passo,
09:27do que você ter que ficar buscando isso em sites super difíceis, né?
09:31Então, essa preocupação é real.
09:34Então, a ideia do Cloud, da Antropic, é tentar um filtro
09:38para, no momento que o usuário estiver olhando ali pelo histórico,
09:43querendo desenvolver algo nesse sentido,
09:45opa, o Cloud bloqueia.
09:47Não, não vou te dar essa informação.
09:49Mas aí ele teria que dar acesso, por exemplo, se for uma outra pergunta,
09:52aí se for um uso radiológico para medicina,
09:56você quer que a pessoa tenha acesso a isso,
09:57você não quer bloquear usos pacíficos ou usos, né?
10:01Eu quero, sei lá, usinas nucleares,
10:04que pode ser uma coisa interessante de a pessoa estar buscando informação,
10:06você não quer ser bloqueado.
10:08Então, é um filtro complicado, Marisa.
10:09Não é muito fácil de você saber se detectar.
10:13Mas, enfim, a ideia deles é esse,
10:14junto com a parceria com o governo dos Estados Unidos,
10:16que eu acho legal, mas eu tenho minhas ressalvas.
10:19Eu acho muito difícil conseguir fazer um filtro muito,
10:22muito resistente a ataques por agentes maliciosos.
10:27Então, a gente sabe que mesmo com os filtros atuais,
10:30que você, né?
10:31Se você tentar perguntar aí como faz, sei lá,
10:34uma dinamite, você não consegue facilmente essa informação.
10:38Seu chat EPT, ou seja lá, o que você usar,
10:40não vai te dar essa informação.
10:42Mas se você fazer técnicas de ataque,
10:44você consegue essa informação.
10:45Então, por mais que eles façam esse filtro rigoroso,
10:48eu não sou muito confiante que isso vai funcionar à prova de bala.
10:53É ótimo.
10:54Qualquer camada a mais, nesse sentido, é bom.
10:57Mas não acho que resolve o problema não, viu, Marisa?
10:59Acho que temos que ter atenção a esse caso.
11:02Tá certo.
11:03Agora, vamos falar ainda da Antropica.
11:06A startup, ela lançou o Cloud for Life Science,
11:10que é uma nova plataforma voltada para pesquisadores.
11:14Esse tipo de inteligência artificial, Pena,
11:17é mais confiável para estudos do que os chatbots convencionais,
11:20ou seja, de uso tradicional?
11:22Ou, e quais são as diferenças entre elas?
11:27É, perfeito.
11:28Então, eles estão lançando esse Life for Science,
11:30ou, é, chatbot for Life Science,
11:34alguma coisa assim, Cloud for Life Science.
11:36Então, a ideia é as ciências da vida.
11:38Quais são as ciências da vida?
11:40A biologia e a medicina.
11:42Então, eles estão preparando algo,
11:46é pegar basicamente o Cloud Sonnet,
11:48que é o modelo 4.5, que é o mais avançado que eles têm,
11:52e dar acesso a algumas ferramentas
11:56que vão deixar ele mais confiável.
11:58Então, uma delas é o PubMed,
12:01que é o maior repositório de artigos científicos de medicina.
12:04Então, imagina, o Cloud,
12:06ele vai poder ler diretamente na fonte de artigos científicos.
12:10Outro é usar o BenchLink,
12:13que é uma plataforma de gerenciamento de laboratório,
12:16com protocolos corretos.
12:18Outro é dar acesso ao genoma humano,
12:20ou genoma, né, o material genético,
12:22o código genético dos humanos e dos outros animais,
12:25que vai deixar ele, por exemplo,
12:27fazer pesquisas mais confiáveis nessa questão.
12:30Então, a primeira ideia é pegar o Cloud,
12:33que já é o modelo, digamos, que alucina menos,
12:37que já tem mais confiabilidade no uso,
12:41e dar um monte de ferramentas capazes dele alucinar menos ainda.
12:45Por que o modelo alucina?
12:47Porque quando você faz uma pergunta de uma informação
12:49que não é uma informação que está muito disponível
12:52no banco de treinamentos,
12:54ele simplesmente fala qualquer coisa.
12:55Agora não, porque ele vai ter acesso a um banco de dados
12:59e a um repositório e a um monte de ferramentas
13:02de medicina e de biologia.
13:04Então, em vez dele dar uma resposta pronta,
13:07possivelmente alucinada,
13:09ele vai fazer essa busca,
13:11essa pesquisa mais profunda e buscar a informação.
13:14Então, sim, certamente,
13:17eles acreditam que vai poder ser um parceiro
13:20de pesquisa, né?
13:22Não só ali um chatbot como a gente usa,
13:24mas eles são parceiros do pesquisador.
13:27Eu acho super legal.
13:28Para mim, esse é um dos usos mais legais
13:29que a gente pode ter da IA.
13:32A IA fazendo pesquisa científica,
13:33ajudando na pesquisa científica.
13:36Isso mesmo.
13:36Agora, a pena, tem vários assuntos hoje.
13:38Quero ir para outro.
13:39É muita coisa.
13:40Hoje tem vários assuntos aqui.
13:43A startup americana Open Evidence,
13:45conhecida por aplicar inteligência artificial à medicina,
13:49aliás, falando em medicina,
13:51deve anunciar uma nova rodada de investimento,
13:53elevando sua avaliação de mercado
13:55para 6 bilhões de dólares.
13:58Descrita como um chat GPT para a medicina,
14:01a Open Evidence é treinada em bases de dados médicos.
14:07Vamos lá, pena.
14:08Como a IA já é usada, aliás, na medicina,
14:11e o que esperar com esse futuro,
14:14essa integração entre a IA e medicina?
14:16Você vê que é bem parecido com a ideia da Antrópica nesse sentido.
14:20Também é uma IA,
14:22mas nesse caso focado em medicina,
14:23não também em biologia, mas enfim.
14:27Qual que é a ideia?
14:28Então, primeiro, como que a IA já é hoje usada em medicina?
14:31Sim, já temos IA usada em medicina já faz bastante tempo.
14:33Então, principalmente no diagnóstico de imagens,
14:36análise de imagens.
14:38Então, uma IA treinada,
14:39só que aí não é um chatbot, Marisa,
14:42não é esses modelos de linguagem.
14:43São IAs especializadas em imagens
14:46que viram tudo quanto é tipo de raio-x,
14:49ressonância magnética, tomografia,
14:51tudo que você pode imaginar de imagem,
14:54e aprendeu a identificar câncer,
14:56identificar coisas,
14:58qualquer problema de saúde ali.
15:00Então, hoje ela é muito boa,
15:01melhor do que, às vezes, um ser humano,
15:03dependendo da IA,
15:04ela consegue analisar câncer de mama,
15:06consegue analisar problemas de artrose,
15:10vários tipos de problema,
15:12muito antes do que, às vezes, um olhar humano.
15:13Então, essa IA já é bem usada,
15:15a gente tem bastante disso.
15:17Tem também uma IA preditiva,
15:18que é baseado em, por exemplo,
15:21questões de genoma humano.
15:22Então, ela analisa o seu código genético,
15:25e ela consegue dizer,
15:26olha, esse paciente pode ter a tendência maior
15:29a desenvolver essas coisas,
15:31essas condições, essas doenças.
15:33Então, isso tudo a IA já é super boa hoje,
15:36já está sendo usada.
15:37A ideia aqui da Open Evidence
15:40é dar um passo a mais,
15:42é colocar, sim, agora um modelo de linguagem,
15:45assim como o Chat-EPT, o Cloud, etc.,
15:48só que treinado especificamente em dados de medicina.
15:52Então, não é só dar, digamos,
15:54um repositório, um acesso a papers,
15:57a artigos científicos de medicina,
15:58é treinar em dados de medicina.
16:01Essa é aquela IA que passou na faculdade de medicina.
16:04Ela só leu o texto de medicina.
16:07Então, essa seria essa ideia.
16:09E aí, ter uma IA que vai poder ser,
16:11digamos, um assistente muito melhor para o médico,
16:14principalmente na questão de avaliação de diagnóstico,
16:18de dar diagnóstico para as pessoas.
16:19Então, o que eu acho que esse é um grande potencial,
16:22é absurdo, assim,
16:23que a gente ainda precisa, primeiro,
16:25garantir que essas IAs sejam robustas,
16:27porque é muito crítico.
16:28Você não pode dar um diagnóstico ruim, né?
16:31Se você alucinar na hora de dar o diagnóstico,
16:33você pode estar, às vezes, matando um paciente
16:35ou levando para um tratamento muito ruim.
16:38Mas, na maioria das vezes,
16:40e a robusta nisso,
16:42é muito poderoso, Marisa.
16:43É um médico com a inteligência da medicina inteira.
16:48Então, quantas vezes você está no médico,
16:50que ele não tem capacidade de guardar tudo isso na cabeça,
16:53não tem como,
16:54nenhuma faculdade vai ensinar tudo isso,
16:55mas imagina ele estar amparado por um assistente
16:57que vai poder dar o dado que ele precisa.
17:00Claro, passando pelo crivo médico,
17:02é importante ter ali um profissional
17:03que está ali garantindo, no final, o tratamento.
17:07Mas, então, eu acho que é isso que a Open Evidence está trazendo.
17:11Buscando um modelo de linguagem,
17:13uma IA de linguagem,
17:14que vai poder assessorar durante toda a fase,
17:17seja diagnóstico ou tratamento,
17:19da medicina.
17:21Com certeza, né?
17:22Medicina e tecnologia,
17:23realmente,
17:24as expectativas são muito interessantes.
17:27Agora, vamos voltar,
17:28para encerrar o nosso quadro hoje,
17:30Irtiana,
17:31falar da Open AI novamente.
17:34A empresa divulgou,
17:35essa semana,
17:36um comunicado dizendo
17:38que vai trabalhar ao lado de Brian Cranston,
17:41que é o ator da série de sucesso Breaking Bad.
17:43Você assistiu o Breaking Bad?
17:44Acho que quem não assistiu?
17:46Duas vezes.
17:47Eu gosto também dessa série.
17:48É sensacional.
17:49E eles fizeram essa conversa com o Brian Cranston,
17:54até para combater deepfakes no aplicativo Sora 2.
17:59Ele é membro do Sindicato de Atores.
18:01E o caso aconteceu
18:02depois que vídeos feitos por IA
18:05usando a imagem de pessoas reais,
18:07sem autorização,
18:08incluindo o próprio Cranston,
18:11apareceram no aplicativo.
18:13Então, é possível, pena,
18:15ter 100% de controle sobre IAs
18:17para produzir imagens e vídeos?
18:22Não.
18:22A resposta fácil é não, Marisa.
18:25O que acontece?
18:25Então, o Brian Cranston teve ali a sua imagem,
18:28ele ficou irritado,
18:30porque, poxa,
18:31em princípio não era para acontecer.
18:33Você não poderia entrar no Sora
18:35e produzir uma imagem de alguém
18:36que não autorizou.
18:38A gente até falou,
18:39quando o lançamento do Sora,
18:40é que você pode autorizar a sua imagem,
18:43você pode ir lá, habilitar,
18:44compartilhar o seu camel,
18:48que ele chama, a sua persona,
18:49e aí os seus amigos,
18:50as pessoas que você autorizou,
18:52podem usar a sua imagem para fazer.
18:54Mas não foi o caso do Brian Cranston,
18:55ele não autorizou nada
18:56e de repente apareceram vídeos.
18:58Então, ele está super irritado com isso aí,
19:00não sei se super irritado,
19:02estou exagerando aqui,
19:03mas enfim,
19:04ele se preocupou com isso,
19:05e agora o PNA está dizendo,
19:07não, a gente vai agora resolver isso.
19:08Não vai ter mais.
19:10Marisa, é muito difícil resolver isso,
19:12porque a gente não tem
19:14os modelos de inteligência artificial,
19:16eles são caixas pretas.
19:19A gente não sabe,
19:20se eu mexer nesse número aqui,
19:22se eu mexer aqui,
19:23ele vai funcionar.
19:25Não.
19:25Então, as pessoas maliciosas
19:28são muito criativas
19:29para inventar prontos diferentes
19:32para conseguir, no final,
19:33fazer o que eles querem.
19:34Foi assim que eles conseguiram
19:36gerar com o Sora 2,
19:37o ator Brian Cress.
19:39Então, eu acho que sim,
19:41é muito importante
19:42a gente estar atento a isso.
19:43Eu acho que o PNA fez aquela defesa assim,
19:45não, a gente vai trabalhar,
19:46agora a gente vai resolver.
19:47Mas, sinceramente,
19:48eu não acho que eles sabem
19:49resolver isso muito bem.
19:51A não ser que eles
19:52corquem muito o modelo
19:53a ponto de ninguém
19:54conseguir pedir mais nada,
19:55o que é um problema.
19:57No final,
19:57tudo o que você pedir,
19:59ele fala,
19:59eu não posso,
20:00porque vai que vai dar ruim.
20:03Então, assim,
20:03eu acho que é um problema
20:04muito complicado,
20:05mas que vale sim a atenção.
20:08E no final, Marisa,
20:09a gente tem que exigir sim
20:10essa confiança.
20:12Porque, assim,
20:13é difícil,
20:14eu sei que é duro falar isso
20:15quando a gente vê
20:16essas tecnologias saindo,
20:17mas as empresas
20:18têm que ser responsáveis
20:20por aquilo
20:20que elas lançam.
20:22Então,
20:23se elas não conseguem
20:24colocar um aplicativo seguro
20:26a ponto de impedir
20:27deepfake
20:28e mau uso de imagem,
20:30então,
20:30elas precisam
20:31se responsabilizar por isso
20:32e precisam responder por isso.
20:33então,
20:34eu acho que é isso.
20:36Tá certo,
20:37tá aí, pessoal,
20:38mais um quadro.
20:40Fala aí,
20:40super bacana hoje,
20:41como vocês viram,
20:42recheado de assuntos.
20:44Pena,
20:45muitíssimo obrigada
20:46por mais essa semana.
20:48Semana que vem
20:48temos muitos mais,
20:50muito mais assuntos
20:51para discutir por aqui.
20:52Um beijo para você
20:53e uma excelente semana.
20:55Obrigado, Marisa,
20:56beijo para você,
20:57beijo para todo mundo.
20:58Hoje foi, olha,
20:59foram muitas perguntas,
21:00espero que o tema
21:01está saindo bem
21:01e até a semana que vem,
21:03Marisa,
21:04até mais.
21:04Até,
21:05foi perfeito como sempre,
21:06beijão para você.
21:08Tá aí, pessoal,
21:09mais uma coluna,
21:10fala aí,
21:11com Roberto Pena Spinelli,
21:12que é físico pela USP,
21:14especialista em machine learning
21:15e colunista
21:16aqui do Olhar Digital.
21:17então.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado