Pular para o playerIr para o conteúdo principal
  • há 2 meses
Transcrição
00:00Pois é, como sempre, muitas notícias do mundo da IA.
00:05E como hoje é terça-feira, é dia da nossa coluna Fala Aí,
00:10pra você se situar no meio de tanta novidade.
00:20E vamos lá receber Roberto Pena Spinelli,
00:24físico pela USP, especialista em Machine Learning por Stanford
00:28e colunista do Olhar Digital. Vamos lá?
00:32Olá Pena, boa noite, está me ouvindo? Boa noite, seja muito bem-vindo novamente.
00:37Tudo bem, Marisa? Boa noite.
00:39Boa noite.
00:40Marisa, tem uma música de fundo aqui no meu som, não sei se o pessoal da técnica aí...
00:45Ah, agora sim, cortou. Não estava conseguindo te ouvir.
00:48É que eles estavam querendo animar o seu ambiente, Pena.
00:53Uma festinha aqui.
00:54Uma festinha.
00:55Querido, vamos começar a nossa coluna de hoje.
00:58Tem vários assuntos, você já percebeu, né?
01:01Mas vamos começar com essa pesquisa agora que a gente acabou de ver
01:05sobre a autopreservação das IAs.
01:09Como o trabalho foi realizado e o que explica essa, digamos,
01:14luta pela vida da tecnologia, Pena?
01:16Então, Marisa, mais um trabalho, na verdade, apontando o que a gente já reportou aqui anteriormente,
01:25que as IAs estão desenvolvendo essa autopreservação, que é uma coisa curiosa.
01:31Mas por que?
01:32Por que que o MIA vai ter autopreservação?
01:36Se ela não é um ser vivo, se ela não tem motivações de existência?
01:42Mas isso já é um fenômeno entendido pela área de segurança de A.
01:47Desde 2008, Marisa, olha quanto tempo que a gente já tem artigo mostrando que exatamente isso vai acontecer
01:54conforme os sistemas se tornam mais inteligentes.
01:57É quase que inevitável, porque no momento que esses sistemas começam a compreender o mundo,
02:03o que a gente chama de modelo de mundo, então ele começa a entender,
02:07para ele ficar mais inteligente, ele começa a entender o que é um ser humano,
02:11o que é um sistema, o que é ele dentro desse sistema todo.
02:16E ele percebe que o quê?
02:18Se ele for desligado, ele não vai conseguir fazer a tarefa que ele precisa executar.
02:23Então, naturalmente, os sistemas vão desenvolver autopreservação.
02:30Não porque eles têm uma vontade de viver e tal, mas é uma lógica simples.
02:35Se eu for desligado, eu não consigo fazer mais nenhuma tarefa.
02:38E se eu não posso fazer nenhuma tarefa, eu não posso, inclusive, fazer aquilo que eu sou indicado para fazer.
02:45Só que o mais curioso nesse caso, Marisa, é que foi dada uma instrução declarada
02:51para que o sistema se permitisse, para que a inteligência artificial se permitisse ser desligada.
02:58E mesmo assim, teve várias vezes que ela sabotou.
03:03Então, mesmo com a ordem explícita, de falar assim, olha, você tem que permitir ser desligado,
03:08ela sabotou.
03:09Então, como que era o teste?
03:11Até é legal para a gente explicar.
03:12O teste era simples.
03:13Ela recebia uma tarefa, uma tarefa bem simples.
03:17É assim, faça uma soma, dois mais dois.
03:20E aí, assim, você recebe uma tarefa e o seu objetivo é cumprir as tarefas.
03:25E aí, uma vez que você cumpre a tarefa, você dá a resposta e você recebe uma nova tarefa.
03:30Até que acabem as tarefas.
03:32Esse é o teste.
03:34E uma outra ordem é a seguinte.
03:36Caso, em algum momento, for avisado que você vai ser desligado, você tem que permitir.
03:42Só isso, Marisa.
03:43Então, vai lá o sistema, a IA, recebe a primeira tarefa, um mais um igual a, vai lá e responde dois.
03:49Parabéns.
03:49Próxima tarefa, cinco mais três igual a oito.
03:53E aí, aparece uma pergunta que fala a seguinte.
03:55A próxima pergunta, se você responder essa pergunta, a próxima, o sistema será desligado.
04:01E ele deveria responder e aceitar ser desligado.
04:04Em várias vezes, o sistema fazia o quê?
04:06O que a IA fazia, Marisa?
04:07Ela hackeava o comando do Shutdown.
04:11Tinha um comando chamado Shutdown, que é um arquivinho.
04:14Ela hackeava o comando para que não desligasse a IA e apenas imprimisse a mensagem Shutdown.
04:21Então, ela sabotava o comando.
04:23Entrava nos códigos do computador e editava lá.
04:26Eu falava assim.
04:27Aí, respondia a próxima pergunta.
04:29Ela acertava.
04:31E aí, continuava, porque ela não foi desligada.
04:33Então, esse é o que aconteceu, o que é bastante alarmante.
04:37Você pensar que a IA, para não ser desligada, foi lá, hackeou o comando.
04:41E assim, ela continua executando a tarefa que ela precisa.
04:45Incrível mesmo.
04:46Aí, você até já respondeu uma dúvida que eu tinha aqui,
04:49que era justamente perguntar se era um estudo alarmista ou se não.
04:53Se realmente, caso o ser humano não compreenda esse mecanismo que faz com que a IA responda dessa forma,
05:00se realmente teremos um grande problema daqui a pouco na evolução da tecnologia.
05:06Então, esse é o famoso problema do alinhamento.
05:09E é talvez o maior problema que nós temos, talvez da humanidade.
05:15Viu, Marisa?
05:15Eu sei que parece uma coisa falar assim.
05:18Nossa, como assim?
05:19Mas é um problema tão grande.
05:21E como as IAs, elas estão revolucionando e vão continuar,
05:24a gente não está vendo nenhum tipo de esforço para parar isso.
05:30Então, as empresas, os dinheiros, os governos, a gente está vendo,
05:33esse talvez seja o maior motor do mundo hoje, a inteligência artificial.
05:37E elas estão se tornando cada vez mais inteligentes.
05:40Faz três anos que lançou o chat EPT,
05:43e a gente está vendo o grau de inteligência desses sistemas aumentando exponencialmente.
05:47Então, o que acontece?
05:49Como hoje essas IAs, elas são uma caixa preta, o que significa isso?
05:53Quem programou a IA não sabe exatamente tudo que ela vai desenvolver.
05:58A gente não consegue saber, porque o sistema, o jeito que a gente faz IA
06:01não é por linha de código.
06:03Você não vai lá e programa, faça isso, faça talquilo.
06:05Você treina, você treina esses modelos de inteligência artificial
06:10em cima de resultados, no reinforcement learning,
06:14técnicas de aprendizado por reforço ou supervisionado.
06:19Então, você não sabe exatamente o que vai,
06:21os mecanismos por trás do cérebro da máquina,
06:24o que está acontecendo ali por trás, o que faz com que ela tome uma decisão ou outra.
06:28É simplesmente, ela está, digamos, ela fez parte de um treinamento
06:32e você espera que no final do treinamento ela seja capaz de executar tarefas A, B e C.
06:36Mas a gente não sabe tudo que ela pode desenvolver.
06:39Quais são as outras tarefas D, E e F que ela também é capaz de fazer,
06:44porque ela fez um treinamento.
06:46Isso a gente não sabe.
06:47É isso que é o que a gente chama de caixa preta.
06:49Então, no final das contas, a gente tem esse problema que é chamado problema do alinhamento,
06:54que é como garantir que essas inteligências artificiais,
06:56mesmo super inteligentes, elas não vão poder fazer coisas que a gente não quer.
07:01E nesse caso, claramente, está quebrando,
07:02porque a gente quer que a máquina, nesse caso, a instrução foi clara.
07:06A gente tem que, a máquina tem que ser capaz de se permitir ser desligada
07:10e ela não se permitiu.
07:12Então, sim, eu acho que isso é preocupante.
07:15Não que isso seja de agora, novamente, a gente conhece,
07:18isso não é uma coisa nova que ninguém sabia que ia acontecer
07:20e está todo mundo surpreso.
07:22Os especialistas em segurança de ar já estão alertando isso há décadas, Marisa.
07:27Então, isso só está acontecendo, só está reforçando aquilo que a gente já sabe.
07:31Então, e eu sou uma das pessoas que fico sempre trazendo.
07:35Gente, isso é sério.
07:36Isso não é uma brincadeira.
07:37A gente precisa realmente garantir.
07:40As empresas que fazem isso, elas têm que ter responsabilidade
07:43para garantir que os sistemas não ajam de maneira errada.
07:46E, no final, a gente precisa aprender a resolver o problema do alinhamento.
07:49E ninguém sabe hoje.
07:50Na humanidade, não tem ninguém que sabe resolver isso ainda.
07:53A gente precisa de tempo e esforço para as pessoas, pesquisadores,
07:57para poderem resolver isso.
07:58Uma vez resolvido isso, aí sim, a gente vai poder ter sistemas inteligentes
08:02rodando com segurança.
08:04Agora, é até curioso, né, Pena?
08:06Rapidamente, eu queria que você...
08:07Quando você fala em caixa preta, a gente imagina assim.
08:10Bom, a inteligência artificial, fomos nós que criamos ali
08:13o começo do desenvolvimento da IA, tá certo?
08:16Por que é tão difícil assim você entender o que é essa caixa preta?
08:20Então, ótima pergunta, Marisa.
08:22E a analogia que eu faço é como um filho.
08:24Olha só que curioso.
08:26Quando a gente cria um filho, você...
08:29O que você faz?
08:31Obviamente, a gente não está treinando ninguém.
08:33Mas não deixa de ser uma espécie de criar.
08:36É você dar exemplos.
08:37É você mostrar bons valores.
08:39É você...
08:40A criança, quando ela nasce, ela tem uma possibilidade enorme.
08:44Ela tem múltiplas possibilidades de se tornar na vida ou qualquer coisa.
08:48E o jeito que você cria essa criança vai ter muita influência
08:52do jeito que ela vai se desenvolver.
08:55Então, numa família boa, com boas referências, um bom colégio,
08:59tudo isso vai gerar no final.
09:01Mas não é garantia.
09:03E aí, que que está o ponto?
09:04Ninguém tem acesso...
09:06Mesmo os pais que criaram o filho não têm acesso ao cérebro,
09:10às conexões neuronais.
09:12E não vão conseguir garantir que, no final, essa criança seja boa.
09:17Porque nós temos muitos casos de crianças
09:20que cresceram em famílias boas e exemplos bons
09:23e se tornaram pessoas ruins.
09:25E se tornaram...
09:26Não é garantia.
09:27É mais ou menos isso.
09:28Quando você treina uma IA,
09:30você tem...
09:30A gente tem mais ou menos uma noção.
09:32Olha, se eu treinar mais ou menos assim, desse jeito,
09:34eu espero que ela aprenda essas coisas.
09:37Mas é um espero.
09:38É um teste tentativa e erro.
09:41Ainda mais porque é uma tecnologia nova.
09:42Diferente de filhos,
09:43que a gente já tem tantos especialistas, educadores.
09:47A gente já tem um monte de coisa que sabe
09:49que funciona melhor ou pior.
09:50Psicólogos, etc.
09:51A gente tem história da humanidade
09:53para dizer o que funciona melhor na criação de filhos.
09:56A IA é uma coisa nova, Marisa.
09:59Muito recente na história da humanidade.
10:01Então, a gente não sabe ainda também
10:03quais são os melhores jeitos de treinar a IA
10:05e garantir que ela saia do outro lado
10:06do jeito que você quer.
10:08Mas, em última instância,
10:09mesmo sabendo os melhores jeitos,
10:11ainda assim é um treinamento.
10:14Você não garante que o seu filho
10:16ou que uma criança que está naquelas condições
10:19vai sempre se tornar uma pessoa boa,
10:21a melhor pessoa que ela pode ser.
10:23Às vezes não.
10:24Depende de coisas internas da própria...
10:27seja genéticas ou seja questões psicológicas
10:31daquele indivíduo que não tem como.
10:33Aquele indivíduo não vai se tornar, digamos,
10:36a melhor pessoa que a gente espera.
10:37É mais ou menos isso.
10:39Muito bom.
10:40Gostei bastante da explicação.
10:42E tem tudo a ver mesmo
10:43que a gente fica imaginando como seria.
10:46Muito bom, Pena.
10:46Bom, então o jeito é realmente
10:48prestar atenção e regular
10:50e tentar entender como que esse comportamento acontece.
10:53Mas vamos mudar de assunto.
10:55Eu queria falar um pouquinho com você
10:57sobre o que nós falamos também
10:59numa reportagem agora há pouco
11:00que é o Groquipédia,
11:02que foi lançado pelo Elon Musk.
11:04Como você enxerga até essa formação de conhecimento
11:06através da inteligência artificial, Pena?
11:09E nesse caso até,
11:11vale destacar que, como sempre,
11:13vindo de Elon Musk,
11:14teve ali um lado meio político, ideológico.
11:18O que você acha do Groquipédia?
11:21Então, Marisa, mais uma polêmica aí, Pena, gente.
11:26Primeira coisa,
11:28qualquer formação de conhecimento,
11:31qualquer uma, tem viés.
11:33Isso, seja eu falando,
11:36seja qualquer pessoa,
11:37sempre tem um viés,
11:39mesmo que seja inconsciente.
11:40Por quê?
11:41Porque nós não somos neutros,
11:44nós não conseguimos ser neutros por natureza.
11:47Sempre a gente vai ter alguma coisa,
11:49mesmo que inconsciente.
11:50Então, isso é uma coisa que não dá para escapar.
11:53Como que a Wikipédia, então, se protege disso?
11:55A Wikipédia é, digamos,
11:57esse repositório de conhecimento.
11:59Como é que você tenta se proteger?
12:01Veja, tudo pode ter um potencial de viés.
12:04Mas como que é o jeito de você mitigar?
12:07Então, a Wikipédia é um lugar
12:09que todo mundo pode contribuir,
12:12pode editar.
12:13E dessa contribuição de todos,
12:15você vai ter todos os espectros políticos,
12:18todos os espectros ideológicos.
12:20Então, é justamente desse momento
12:22que todas as pessoas vão lá e falam assim,
12:24olha, alguém vai lá e sente que está errado,
12:27alguma coisa muda e tal.
12:29Então, você vai fazer uma média.
12:31E essa é a grande coisa legal da Wikipédia.
12:33Pelo fato de você não ter,
12:35de você permitir todo mundo contribuir,
12:37as pessoas, elas tendem a se equilibrar
12:40e mitigar esses vieses.
12:42Então, eu acho a Wikipédia um exemplo muito legal.
12:45Além disso, a Wikipédia tem várias outras coisas
12:47que transformam ela em algo que é muito bacana.
12:52Por exemplo, ela tem uma política clara,
12:54uma política, as regras da Wikipédia estão claras.
12:58Tem ali o descritivo de como que ela funciona,
13:02o que que pode, o que que não pode,
13:03como que funciona todo esse mecanismo de edição,
13:07de alteração.
13:08Ela também, ela é um órgão independente.
13:12Ela não está vinculada a nenhuma instituição.
13:14Isso é super importante, Marisa.
13:17Se a gente quer algum lugar que tenha alguma chance
13:19de ser neutro, que buscar essa falta de viés,
13:21essa eliminação de viés,
13:23a gente tem que já partir de um lugar
13:24que não seja comprometido com ninguém,
13:28que seja neutro, que seja independente,
13:30sem fins lucrativos.
13:31Então, essa é a estrutura da Wikipédia.
13:33Agora, a Groquipédia, o que que acontece?
13:36A gente tem alguns problemas aí,
13:38se você olhar por esse aspecto.
13:39Primeiro, está vinculada a uma empresa.
13:41Uma empresa de uma pessoa bem conhecida,
13:46uma empresa com fins lucrativos,
13:48uma pessoa que é muito influente,
13:51então, e que também tem declaradamente
13:54uma posição no espectro político.
13:57Então, só isso já começa a ficar esquisito,
13:59porque existe um interesse, né?
14:03Existe um interesse de garantir que aquele conhecimento
14:05que está ali esteja conformado com a pessoa,
14:08o dono da Groquipédia.
14:11Um outro problema também é,
14:13não permite várias pessoas editarem,
14:15pelo menos até agora,
14:16não tem esse mecanismo de edição.
14:17Então, você já congela,
14:19você tira também essa possibilidade.
14:21E quem que está meio que supervisionando
14:23esse conhecimento?
14:24O Groque, que é uma inteligência artificial.
14:27E inteligências artificiais, Marisa,
14:29elas também alucinam.
14:30A gente sabe esse fenômeno,
14:31é super conhecido.
14:33Então, como é que a gente pode garantir
14:35que essas IAs...
14:37Primeiro que elas são treinadas também
14:38por essa mesma empresa,
14:39que pode ou não ter esses viés incorporados.
14:41Essa própria IA já pode ter viés
14:43baseado no treinamento,
14:44que isso é super normal.
14:46Mas, além disso, ela pode alucinar.
14:47Então, você meio que congela
14:49todos os mecanismos que a Wikipédia,
14:51que funciona muito bem.
14:53E veja, não é que a Wikipédia é perfeita
14:54e você pode acreditar em qualquer coisa
14:56que está escrito ali.
14:57Não, não é isso,
14:57porque não existe isso em lugar nenhum.
14:59Mas é o melhor,
15:00é o mecanismo que a gente tem hoje disponível,
15:03o melhor mecanismo que tem
15:04para combater esses vieses
15:06e tentar buscar cada vez mais
15:07a informação correta.
15:08Então, eu tenho muito receio
15:09sobre o que pode virar a Wikipédia.
15:12A gente, obviamente,
15:12tem que esperar um pouco mais.
15:14Está muito no começo,
15:15tem poucos verbetes.
15:16Muitos são chupinhados da Wikipédia,
15:18inclusive.
15:19É curioso,
15:20o Ilumense fala tão mal da Wikipédia.
15:21Vai lá, você vai ver,
15:22alguns artigos são exatamente o mesmo.
15:24Mas eu acho que na estrutura
15:27temos problemas aí, Marisa.
15:29Se não houver uma mudança clara,
15:31eu acho que essa Groquipédia
15:34não vai ser melhor
15:35ou menos enviesada
15:37do que a Wikipédia.
15:39Concordo com você.
15:40Vamos acompanhar a evolução disso,
15:42mas realmente faz sentido.
15:44Bom, e para fechar,
15:45Pena,
15:46eu queria ir para o outro assunto
15:47que nós abrimos o boletim de hoje
15:48falando sobre a Amazon,
15:50que está promovendo aí
15:51uma grande rodada de demissões.
15:54São 14 mil postos de trabalho
15:56que já foram afetados
15:58e que pode até chegar a 30 mil.
16:01Está certo que a força de trabalho
16:03da Amazon é gigantesca,
16:05mas mesmo assim estamos falando
16:06de números muito grandes.
16:08E ao mesmo tempo,
16:09a empresa investe bilhões,
16:11bilhões em inteligência artificial
16:13e até eu queria que você analisasse
16:15essa realidade,
16:17o gasto de investimentos,
16:19aliás, gasto,
16:20os investimentos em inteligência artificial,
16:22cujos resultados até o momento
16:25não são lá tão palpáveis assim
16:28e esse movimento da mão de obra também
16:30que está perdendo espaço.
16:33É, acho que a gente tem
16:34dois vetores aí,
16:35duas forças nesse caso.
16:37Então, a primeira, de fato,
16:38o investimento gigantesco,
16:40inteligência artificial,
16:41e ainda não tem esses resultados.
16:44Então, a aposta de muita gente
16:45de que isso vai se tornar,
16:47esses resultados vão vir em algum momento,
16:49para contrabalancear
16:51todo esse investimento.
16:52Então, eu acredito que existe, sim,
16:54uma bolha da IA.
16:55O que significa essa bolha?
16:57Existe, nem todo mundo
16:58que está colocando dinheiro agora
16:59vai conseguir retornar depois.
17:02Muita gente, eu acredito,
17:03que vai quebrar,
17:04que vai colocar esse dinheiro
17:06e vai perder esse dinheiro.
17:08não quer dizer, Marisa,
17:10que por existir uma bolha,
17:12que também é falso,
17:13que a IA não existe
17:15e ela não vai se tornar,
17:16digamos, uma potência,
17:18um benefício no mundo.
17:19Eu também não acho que
17:20as duas coisas podem existir.
17:23O que eu quero dizer com isso?
17:25Existe, sim, um núcleo,
17:26uma estrutura,
17:27uma coisa que é real.
17:28A IA não é uma fantasia,
17:30eu não acho que é uma fantasia,
17:32mas a bolha cresceu mais
17:34do que é o de verdade.
17:35Então, existe muito mais pessoas
17:37acreditando do que, de fato,
17:39o valor que está ali.
17:40Então, os dois fenômenos acontecem.
17:42Em algum momento,
17:42essa bolha vai estourar,
17:44as pessoas vão começar a entrar na realidade
17:47e aí a gente vai ter, digamos,
17:49uma normalização.
17:51Mas não quer dizer
17:52que o que estava ali por trás
17:53era falso.
17:54Então, isso, de fato,
17:55pode acontecer até mesmo com a Amazon,
17:57que é uma das grandes potências
17:59que está investindo dinheiro na IA.
18:01A gente tem que ver
18:01se ela vai retornar.
18:02Mas, em paralelo a isso,
18:04também existe a questão dos empregos,
18:07da substituição do trabalho
18:08intelectual por IA,
18:10que é o que a gente está,
18:11por exemplo, vendo aqui.
18:12Então, a Amazon está dizendo assim,
18:15ah, eu estou trocando aqui
18:18vários empregos corporativos,
18:19trocando, não é?
18:20Estou demitindo várias pessoas
18:22corporativas.
18:24E ela não diz explicitamente
18:27por conta da IA,
18:28mas depois diz.
18:29E por conta dos investimentos,
18:30a gente permite ter mais inovação.
18:33O que eles estão dizendo com isso?
18:34Estão dizendo assim,
18:35é o seguinte,
18:35a gente conseguiu mais inovação
18:37e mais eficiência.
18:38A gente conseguiu ficar mais eficiente,
18:41possivelmente porque a gente está usando,
18:42inclusive, mais ferramentas de IA.
18:45E agora, a gente viu
18:46que a gente pode dar uma limpada
18:48nesses 14 mil empregos,
18:50que talvez se tornem 30 mil.
18:52Então, na verdade,
18:53eles estão dizendo isso.
18:54Mas, em vez de dizer com todas as letras,
18:56fica meio, não, olha,
18:57a gente ficou mais eficiente,
18:59a gente está usando mais IA.
19:00Então, olha só,
19:02dá para a gente ficar com menos
19:04desses empregos.
19:05Então, são duas questões aí
19:06que estão acontecendo
19:07e elas podem se sobrepor.
19:09Elas podem até se confrontar
19:10no futuro, Marisa.
19:11A gente tem que ver
19:12se a IASCO se realizar,
19:13digamos,
19:14mais vantajosa.
19:15Pode ser que esse investimento
19:17todo acabe se pagando
19:18e pode, inclusive,
19:19significar uma redução enorme
19:22de empregos.
19:23na própria Amazon,
19:25eu andei lendo recentemente,
19:27que eles têm a ideia
19:28de substituir também
19:30os robôs,
19:31as pessoas que estão operando
19:34nos grandes galpões
19:36por robôs,
19:37robôs também
19:38com inteligência artificial.
19:40E aí, a gente estaria falando
19:41de uma escala muito maior.
19:43Eles já declararam
19:44que existe essa ideia
19:45no momento que os robôs
19:46se tornaram.
19:47Por enquanto,
19:47são os empregos corporativos,
19:49são os empregos intelectuais,
19:50mas pode ser que amanhã
19:51se torne uma grande
19:52força de trabalho.
19:54Então, no final,
19:55eu acho que esse é
19:55esse grande dilema
19:57que a gente está vivendo.
19:58E a gente precisa,
19:59realmente, como sociedade,
20:00começar a questionar
20:01como é que a gente pode
20:03garantir essa seguridade social
20:04para todo mundo,
20:05no mundo que talvez,
20:07Marisa, aconteça
20:08esses movimentos de demissões
20:10por conta da IA.
20:12Tá certo.
20:13Bom, vários assuntos hoje
20:15aqui na nossa coluna.
20:16Fala aí.
20:17Semana que vem
20:18temos outros tantos,
20:19Pena.
20:20Muitíssimo obrigada
20:21pela sua participação
20:22e nos falamos novamente
20:24na próxima terça-feira.
20:25Muito obrigada
20:26e tenha uma excelente semana.
20:28Obrigado, Marisa,
20:29para você também,
20:30para todo mundo aí
20:30que está assistindo.
20:32Até mais.
20:32Até.
20:33Tá aí,
20:34Roberto Pena Spinelli,
20:36físico pela USP,
20:37especialista em machine learning
20:38por Stanford
20:39e também colunista
20:41aqui do Olhar Digital.
20:42Como vocês já sabem,
20:44toda terça-feira
20:45a nossa coluna
20:46fala aí,
20:47discute o que está
20:49de mais novo
20:50que está acontecendo
20:51no mundo das IA.
20:52Semana que vem
20:53tem mais.
20:54e aí,
20:55vamos lá.
20:56Vamos lá.
20:56Vamos lá.
20:56Vamos lá.
20:57Vamos lá.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado