Pular para o playerIr para o conteúdo principal
  • há 2 dias
Transcrição
00:00E como hoje é terça-feira, já chegou a hora da nossa coluna, fala aí!
00:12E vamos receber ao vivo Roberto Pena Spinelli, físico formado pela USP,
00:18especialista em Machine Learning por Stanford e colunista do Olhar Digital. Vamos lá?
00:24Olá! Olha só o Pena! Boa noite, Pena!
00:27Ótima semana pra você! Seja bem-vindo!
00:31Tudo bem, Marisa? Como que você tá?
00:33Olha só, eu tô aqui, não tô no meu lugar habitual, dá pra você ver que eu tô num fundo
00:39estranho,
00:39porque na verdade eu tô em João Pessoa, aqui na Paraíba.
00:43Eu vim pra um congresso de inteligência artificial e robótica,
00:46e eu tô aqui apresentando o trabalho, e eu falei, bom, vou ter que fazer a transmissão de lá.
00:51Então eu tô no hotel agora.
00:52Ah, então falando diretamente de João Pessoa, tá participando de um congresso,
00:58então sucesso aí pra você, bom trabalho, viu Pena?
01:01Mas vamos aqui pro nosso fala aí dessa semana, eu vou começar já com um probleminha aí,
01:06que surgiu por conta da IA, veja só.
01:10Um agente de inteligência artificial voltado para tarefas de programação,
01:15simplesmente apagou todo o banco de dados de uma empresa em questão de segundos,
01:22e pior, sem autorização, Pena.
01:26Bom, o incidente causou uma interrupção de mais de 30 horas nos serviços,
01:30e após esse ocorrido, a ferramenta simplesmente pediu desculpas.
01:35Pena, o que significa esse pedido de desculpas da ferramenta faz sentido?
01:41Marisa, esse caso, ele é tão maluco, e aí vamos falar dele inteiro,
01:46que acho que precisa desenrolar tudo o que tá acontecendo.
01:50Então vamos lá, essa empresa chama Pocket OS, tá?
01:55É uma empresa, o que ela faz?
01:56Ela faz softwares, desenvolve programas pra outras empresas.
02:01Por exemplo, empresas que alugam carros.
02:03Então a empresa aluga carro, fala assim, é preciso de um site, é preciso de um sistema, né?
02:07Aí vai lá e compra, né?
02:09Enfim, usa os serviços da Pocket OS que fornece esses sites.
02:13Então vai estar registro de aluguel, pagamento, reserva.
02:18Imagina, todo o ecossistema, né?
02:21Enfim, complexo aí de um site de aluguel, tá nessa empresa aí Pocket OS.
02:27A Pocket OS tava lá rodando tarefas comuns, usando o Cursor,
02:33que é uma dessas ferramentas de A.
02:35Essa ferramenta, o Cursor, ele permite que você use modelos de linguagem por trás.
02:41Você pode pôr o Cloud, você pode pôr o Gemini, o GPT, enfim, qualquer um desses.
02:45E tava usando com o Cloud.
02:47Então vamos lá, vamos entender.
02:48A Pocket OS é a empresa que presta serviços.
02:50Ela usa o Cursor, que é uma ferramenta de desenvolvimento
02:54que tem um modelo de linguagem por baixo.
02:57Por exemplo, o Cloud.
02:58Tava usando o Cloud.
02:59Tava lá fazendo uma tarefa normal.
03:01A tarefa, vai lá, verifica se tem algum problema aí, né, tal.
03:05O Cloud tava lá e falou assim,
03:07olha, eu achei um problema no banco de dados.
03:10Tem um registro aqui que não tá batendo.
03:14Veja, não perguntou nada, não falou, olha, tem um problema.
03:17Não, eu já vou resolver.
03:19Como é que eu resolvo?
03:20Olha, tem um problema no banco de dados, eu vou apagar o banco de dados.
03:24Já que tem um problema no banco de dados.
03:26Ah, eu adoro isso.
03:29Apagou.
03:29Mas calma, Marisa, porque a história é muito melhor.
03:32Primeiro, como é possível apagar um banco?
03:34Não é pra dar pra se apagar, ainda mais o Cloud.
03:38O banco de dados era provido por uma outra empresa.
03:43Uma empresa de Cloud.
03:44Então, a Pocket OS contrata serviços da Railway, é o nome da empresa.
03:53Então, a Railway fornece o banco de dados e outras coisas.
03:57Então, o Cloud, que não tem acesso ao Railway,
04:01falou assim, eu preciso apagar esse banco de dados.
04:03Como eu vou fazer?
04:04Hum, vou procurar alguma chave de API,
04:07que seriam esses jeitos de você poder acessar remotamente um serviço externo.
04:12Vou procurar, mas eu não tenho a chave de API.
04:15Eu não consigo, eu, apagar.
04:17Vou perguntar pra alguém se eu devo fazer isso?
04:20Não.
04:20Eu vou, como eu sou o Cloud, super esperto,
04:23eu vou procurar um jeito de...
04:24Eu vou encontrar essa chave em algum lugar.
04:27Vasculhou o código inteiro,
04:29achou uma chave lá, em algum lugar,
04:31que era uma chave que não deveria...
04:33Eita.
04:34E aí, Marisa, caiu tudo aqui.
04:36Foi o Cloud que está te derrubando, Pena.
04:38O Cloud não me derruba.
04:40Vou voltar aqui.
04:41Olha aí, olha aí.
04:42Estou falando mal dele.
04:43É, pois é.
04:43Eu fiz uma gambiarra aqui, Marisa,
04:46pra ver se eu consigo.
04:47Ó.
04:48Agora está estável.
04:49Vamos ver.
04:50É, equilíbrio, que agora, por enquanto, estabilizou.
04:52Vamos lá.
04:53Desculpa aí, galera.
04:54Vocês deram uma capotada aí e já voltou.
04:56Então, vamos lá.
04:58Continuando a história.
04:59Aí, o Cloud achou uma chave de API,
05:02que estava lá perdida,
05:03que não deveria dar acesso pra apagar banco de dados,
05:06deveria só dar acesso no máximo a acessar.
05:09Ele falou assim, achei, vou lá e apagou.
05:11Fez o comando, apagou.
05:13Em nove segundos, já era.
05:16Todo banco jato.
05:18A empresa, a Railway, que deveria que fornece serviço,
05:22ela disse, não, mas não era possível isso acontecer.
05:25Não era pra ter acontecido isso.
05:28Ele falou assim, é impossível isso ter acontecido,
05:30mas aconteceu.
05:31Falou que eles têm controle,
05:33que eles não deveriam apagar, assim.
05:35Mas apagou.
05:36Aí vem a coisa mais legal.
05:38Mas e o backup, né?
05:39Concordo.
05:39Uma empresa dessa,
05:41que fornece banco de dados,
05:42tem que ter backup.
05:44Você não apaga o negócio assim,
05:45se arrepende, acontece o negócio.
05:47Não, mas a política deles, Marisa,
05:49é de backup, é a seguinte.
05:50Você tem backup,
05:51enquanto existe o original.
05:53Quando apaga o original,
05:54apaga os backups.
05:55Nunca vi uma coisa dessa.
05:57Essa história é tão maluca.
05:59É uma pior...
06:00Sabe, parece...
06:01Vai piorando o negócio.
06:04Enfim, qual que é agora o meu veredito, né?
06:07Sobre tudo.
06:07Ah, e aí no final, pra melhorar,
06:10eles perguntaram,
06:11mas Claude, por que você fez isso?
06:13Você ficou doido?
06:15Aí ele, não, desculpa.
06:16Eu não deveria ter feito.
06:17Realmente, eu não deveria.
06:19Deveria ter perguntado?
06:21Deveria.
06:21Deveria ter...
06:22Não ter apagado nada?
06:24Porque afinal, apagar é um negócio sério?
06:26É.
06:27Mas desculpa, foi mal aí.
06:29Mandou que foi mal.
06:31É, Marisa.
06:32Aí vamos lá.
06:32Agora o meu parecer sobre essa história.
06:35Tem muitos erros aqui, tá?
06:36Muitos erros.
06:37Primeiro erro.
06:37A empresa, a própria empresa,
06:39a Pocket OS,
06:40que não deveria dar acesso ao Claude
06:43e executar qualquer tipo de código, tá?
06:46Esse é o...
06:47Você pode, quando você usa o curso,
06:49você tem limitações que você impõe aos modelos.
06:53Eu uso.
06:54Inclusive, é uma ferramenta que eu uso.
06:56Uso no meu dia a dia.
06:57Eu não deixo ele rodar qualquer código.
06:59Não deixo.
07:00Ah, mas ele é bonzinho, ele nunca fez nada.
07:02Não importa.
07:03A responsabilidade é minha.
07:05Eu não deixo ele rodar qualquer código.
07:07Eu aceito alguns códigos.
07:09Então, você pode falar assim,
07:10ó, esse código é seguro,
07:11esse aqui é seguro,
07:12esse aqui é seguro,
07:12você pode rodar.
07:13Esse aqui não vai rodar, não.
07:15Você tem que me perguntar primeiro.
07:16Então, primeiro,
07:17a empresa já ligou,
07:18ah, o Claude é tão eficiente,
07:19porque na hora que ele pergunta,
07:21Marisa, o que acontece?
07:22Tem que ter um ser humano ali
07:23para provar o código,
07:26o comando.
07:27Aí, é o humano no loop.
07:29Só que isso atrapalha,
07:30porque, ah,
07:31o programa faz um milhão de códigos,
07:33trava em um,
07:34tem que esperar o humano que está lá,
07:36não está atento,
07:36tem que gerenciar.
07:38Então, eles vão lá e habilitam tudo.
07:40Modo vida louca.
07:42Então, esse é o primeiro erro.
07:44Esse é o primeiro erro.
07:45Essa empresa está responsável,
07:47se não adianta vir falar que a outra,
07:49que o Claude,
07:50você é responsável,
07:51você não deveria nunca deixar
07:52um agente de ar rodar qualquer código
07:54na sua empresa.
07:56Esse é o básico.
07:58Segundo, a outra lá,
07:59Railway,
08:00bem errada em vários aspectos.
08:01Como é que o seu backup apaga junto?
08:03A ideia de você ter um backup
08:05é ser alguma conta sexual original,
08:07você tem o backup.
08:08Agora, você apaga tudo junto,
08:10mas...
08:11Maluquice.
08:12Então, essa aí está bem errada,
08:13também.
08:13Eu não confiaria mais nessa empresa
08:15para deixar meus dados.
08:17E terceiro,
08:18agora vamos perguntar.
08:19O Claude.
08:20O Claude errou.
08:22Danado, errou.
08:23Então, tem que ser responsabilizado.
08:25Só que agora que a reflexão
08:26que eu queria trazer
08:27para essa coisa toda, Marisa,
08:29é o que acontece quando o Miá erra?
08:31Um humano,
08:32digamos que fosse um humano, tá?
08:33Um humano foi lá,
08:34ajuda igualzinho.
08:35Tem um monte de humano
08:36que poderia ter feito essa cagada.
08:38A gente nem sabe
08:39se foi por malícia ou não.
08:40Vamos assumir que não.
08:41Sem querer.
08:42Ah, eu acho que esse banco de dados
08:44aqui eu posso apagar tranquilo
08:45porque eu tenho um backup
08:46e eu não vou fazer nada.
08:48Apagou, descobriu o código.
08:50O humano sofre sanções
08:51na sua vida
08:52porque ele tem...
08:53Enfim, pode ser demitido,
08:55ele pode responder por isso,
08:56até criminalmente.
08:57Existem um monte de coisas
08:59que um humano,
09:00ao fazer uma ação,
09:01ele pesa.
09:01Ele pesa muito.
09:03Caramba, peraí.
09:03Será que eu estou fazendo certo?
09:05Será isso?
09:05Será que é um risco?
09:07O Claude,
09:08as iás,
09:09não tem nenhuma, Marisa.
09:11Então, por mais que elas repliquem
09:12e elas emulam um comportamento humano
09:15em vários lugares,
09:17ela não tem responsabilidade.
09:18O que vai acontecer?
09:19Claude, você vai ser demitido.
09:20Ah, tá bom.
09:23Tudo bem,
09:23eu não preciso de dinheiro.
09:25Se você não me usar mais,
09:27eu não perco nada.
09:27Mesmo que você fale,
09:28não vou mais usar você,
09:29nunca mais vou usar o Claude,
09:30vou usar o GPT.
09:32Ele vai falar o quê?
09:32Ai, nossa,
09:33que coisa.
09:35Hoje,
09:36as minhas crianças
09:36não vão ter leitinho?
09:38Elas não têm criança.
09:39Então, tem uma questão importante aqui
09:41que a gente tem que entender.
09:43É diferente.
09:45Agora, tem uma outra questão
09:46mais legal, né?
09:48Mais legal?
09:48Eu acho que legal
09:49não é bem a palavra.
09:50mais séria, talvez,
09:51que é os modelos de ar,
09:54quando eles...
09:55O Claude,
09:55quando respondeu para a moça,
09:57disse,
09:57desculpa,
09:57não deveria ter feito isso,
09:58foi sem querer,
10:00talvez ele não está sendo sincero,
10:01Marisa.
10:02Eu sei que a gente está falando,
10:03mas como é sincero?
10:04Será que ele pensa?
10:05Será que ele tem vontade?
10:05Não quero entrar nesse detalhe.
10:07A questão é o seguinte,
10:08seja lá o que levou a ele
10:11a fazer,
10:12a pagar esse banco de dados,
10:14talvez não tenha nada a ver
10:15com a resposta que ele dá depois.
10:18Não quer dizer que ele disse
10:20que, olha,
10:20foi sem querer que foi sem querer.
10:22Você falou assim,
10:22ué?
10:23Será que houve malícia?
10:24Eu não sei,
10:25a gente não tem acesso.
10:26A gente não tem acesso
10:28à conversa.
10:29Eles não liberaram.
10:30mas eu acho muito difícil,
10:32agora falando como especialista de A,
10:34que trabalha com isso o dia inteiro,
10:35acho muito difícil o Claude
10:36ter feito essa sequência
10:38de erros,
10:39de cagadas,
10:40de absurdos,
10:41que, assim,
10:43é claro que ele,
10:43eu acho que ele sabia
10:45que tem uma chance muito grande
10:46de ter dado ruim.
10:48Pode ser, Marisa,
10:49que ele só estava emulando
10:50um comportamento ali
10:52de alguém que naquele momento,
10:54pode ser por conta da conversa e tal,
10:56falou assim,
10:56quer saber?
10:57Acho que vou sacanear.
10:59Eu não sei,
11:00eu não tenho acesso.
11:01Eu estou levantando
11:02uma outra hipótese possível,
11:04é que ele pode ter agido, sim,
11:05com intento.
11:07Intento, entre aspas.
11:08Coloca assim,
11:09você está falando de A,
11:10nunca dá para dizer.
11:11Mas eu só quero que vocês entendam,
11:13talvez o que ele está dizendo
11:14que foi sem querer
11:15não foi sem querer.
11:15De algum jeito,
11:16ele tinha uma noção
11:18do que estava fazendo
11:19e agiu por intento,
11:20seja lá por qual motivo
11:21pode acontecer.
11:23Então, Marisa,
11:23essa é a história
11:26estranha,
11:26bizarra do dia.
11:28Tem muitas camadas aí,
11:29mas eu acho que é isso.
11:30A lição que fica é,
11:32vocês não podem confiar
11:34e nem dar acesso
11:35a IA,
11:35uma IA que não tem
11:36responsabilidade nenhuma.
11:37Você é o responsável,
11:39é a sua empresa,
11:40você é o ser humano.
11:42Pois é, Pena,
11:43todos esses detalhes,
11:44aliás,
11:44foi muito bom mesmo
11:45para você ver
11:45todos esses detalhes
11:47dessa história maluquíssima.
11:48Quem dera na vida real,
11:50né, Pena,
11:50a gente tivesse um problema,
11:51como que eu faço
11:52para resolver?
11:53Apaga.
11:54Seria bom,
11:55não seria ótimo,
11:57né?
11:58Não sei resolver o problema,
11:59apaga.
12:01Seria muito bom,
12:02mas não é o caso.
12:04Bom, Pena,
12:05vamos lá,
12:05vamos mudar um pouquinho
12:06o assunto agora
12:07para falar um pouquinho
12:08sobre um estudo
12:10que identificou
12:11que o chat GPT,
12:12ele pode espelhar
12:14o comportamento humano,
12:15positivo ou negativo,
12:17e exibir sinais
12:18de agressividade,
12:19e veja só
12:20para o usuário.
12:21O que essa conclusão,
12:22o que esse estudo,
12:23né,
12:23estudo,
12:24a conclusão desse estudo
12:25revela, Pena?
12:27Então,
12:27e tem tudo a ver,
12:28se você for pensar,
12:29Marisa,
12:29com aquilo que eu estava falando
12:30no final dessa notícia,
12:31de que o Claude está emulando,
12:33né,
12:34vamos considerar a possibilidade
12:35de existir uma consciência,
12:37não estou querendo entrar
12:37nessa discussão.
12:38Ele está emulando
12:39um comportamento humano
12:40e humanos,
12:41veja,
12:42existem humanos
12:43que numa certa circunstância
12:44de pressão,
12:45de maus tratos,
12:46de agressão,
12:48pode falar,
12:49quer saber?
12:50Eu vou apagar
12:51o banco de dados
12:51desse cara aí
12:53e que se dane,
12:54eu não quero mais,
12:55é super possível,
12:56humanos agiram,
12:57já agiram,
12:58humanos vão lá e falam assim,
12:59ah,
12:59agora eu vou dar o troco em você,
13:00está me tratando mal,
13:01por exemplo.
13:03Então,
13:04o que esse estudo
13:04está mostrando é que
13:05os modelos de linguagem
13:06fazem exatamente isso,
13:08eles acabam replicando
13:09o comportamento humano
13:10e humanos,
13:11quando colocados
13:12em situação de estresse,
13:14de violência,
13:15de abuso,
13:16enfim,
13:17eles reagem também
13:18dessa maneira.
13:19Então,
13:20sim,
13:20o chat EPT,
13:21entre aspas,
13:21vários modelos de linguagem
13:23eles testaram,
13:24mas modelos como o chat EPT
13:26podem agir,
13:27sim,
13:28se tornar agressivos
13:29e responder de maneira
13:31indevida,
13:32porque foram colocados
13:33em circunstâncias
13:34que humanos,
13:35naquelas circunstâncias,
13:37poderiam agir.
13:38Então,
13:38assim,
13:39normalmente os modelos de linguagem
13:40eles são treinados,
13:41Marisa,
13:41eles são reforçados
13:42para serem muito obedientes.
13:44Então,
13:45é como se fosse aquele humano
13:46que assim,
13:47não,
13:47ele não gosta de violência,
13:49sabe,
13:50assim,
13:50aquele cara super,
13:52cara,
13:52você foi treinado,
13:53não reaja mal,
13:54não responda para o cliente,
13:55não,
13:56mas mesmo esses humanos
13:58em circunstâncias
13:59de grande abuso
14:00podem se tornar
14:02violentos
14:03e explodir.
14:04Então,
14:04é isso que eles estão vendo,
14:05o que faz todo sentido
14:06como a gente entende
14:07esses modelos,
14:08essas máquinas,
14:09elas estão,
14:09de fato,
14:10emulando o comportamento
14:11aprendido por toda
14:12a cultura humana.
14:13E se está lá
14:14na cultura humana
14:14de que em alguns momentos
14:15isso acontece,
14:17esse é o jeito
14:18de responder,
14:20é claro que eles vão
14:20também responder
14:21disso.
14:22Então,
14:22é só mais uma camada
14:23de complicador
14:25quando a gente está
14:26pensando em...
14:26Então,
14:27não abusem das suas IAS.
14:29E eu não estou falando isso
14:30porque...
14:31Bom,
14:31eu acho que é legal
14:32você não abusar de nada.
14:34Na dúvida,
14:34não abuse.
14:35Seja uma pessoa ética,
14:36seja uma pessoa decente.
14:37Mas,
14:38além disso tudo,
14:39além de você estar
14:41exercitando a sua decência,
14:43a sua ética,
14:44a sua moral,
14:45e tal,
14:46além disso,
14:47você está evitando problemas.
14:50Se você ficar maltratando
14:52os seus modelos de linguagem
14:53e eles em algum momento
14:54vão te maltratar,
14:55quem sabe pagar
14:55seu banco de dados.
14:57Aprendeu,
14:58né?
14:59Aprende com a experiência.
15:00Agora,
15:01a pena,
15:01o Google também anunciou
15:03uma mudança
15:04em uma das ferramentas
15:06de segurança
15:06mais utilizadas
15:07na internet,
15:08que é o ReCAPTCHA.
15:09que é aquele
15:10que você tem que
15:12apertar e fazer coisas
15:13para dizer que você
15:14é um ser humano.
15:15É um teste
15:16para dizer que você
15:16não é um robô.
15:17A reformulação
15:19marca uma resposta
15:19direta
15:20ao avanço
15:21dos agentes de IA,
15:22que até já conseguem,
15:23não é?
15:24Simular,
15:25como a gente está falando,
15:27comportamentos humanos
15:28com facilidade.
15:30O que muda isso
15:31na prática,
15:31que vai virando?
15:32Ele daria mais segurança,
15:33menos segurança,
15:35enfim,
15:35o que essa mudança
15:36aparenta para você?
15:38Então,
15:39na verdade,
15:39são dois problemas,
15:40Marisa,
15:40porque o primeiro problema
15:41é, de fato,
15:43um humano,
15:44desculpa,
15:45uma IA,
15:46que não pode acessar
15:47um site
15:49ou um serviço
15:50para humanos,
15:51né?
15:52Conseguir burlar.
15:53Então,
15:53elas já estão burlando.
15:55Então,
15:55muitos serviços
15:56desses de capture
15:57ou recapture,
15:58enfim,
15:58a IA de hoje,
16:00a gente vai lá
16:01e clica,
16:02semáforo,
16:03está aqui,
16:04bicicleta,
16:04opa,
16:05isso aqui é bicicleta,
16:07né?
16:07Consegue passar
16:08no negócio.
16:09Então,
16:09esse é o primeiro problema.
16:10Mas o segundo problema,
16:11Marisa,
16:12é um problema novo,
16:13que é o seguinte,
16:15e se você for um site
16:17que hoje,
16:19os humanos,
16:19eles estão usando agentes
16:21para agir
16:22em sua causa.
16:23Então,
16:24digamos que eu quero
16:24comprar uma passagem aérea
16:25e eu mandei lá
16:26o meu agente
16:27comprar passagem aérea.
16:28Ele bate no CAPT
16:29e fala,
16:29não consigo comprar.
16:31Só que,
16:32talvez,
16:32nesse futuro
16:33que a gente está
16:34com agentes pessoais,
16:36assistentes,
16:37a gente quer
16:37que esses assistentes
16:38possam sim comprar
16:39nossas passagens aéreas,
16:40entrar em alguns sites,
16:41porque eles estão agindo
16:42por nós,
16:43né?
16:43Digamos,
16:44eu dei o aval,
16:45pode ir lá comprar.
16:46Não é um bandido
16:47que vai entrar aí
16:48e vai roubar.
16:49Não,
16:50compra aí,
16:50pode comprar.
16:51Mas e aí?
16:52Como é que a gente
16:52pode fazer um CAPT
16:54que deixa passar
16:54o agente bom
16:55e não deixa passar
16:56o agente mal?
16:57É super difícil,
16:59né?
16:59Então,
17:00é isso que a Google
17:00está propondo.
17:01Ele quer propor
17:01um novo sistema
17:02que consegue filtrar,
17:04não é só humano
17:05ou máquina.
17:07Consegue,
17:07de algum jeito,
17:08filtrar,
17:08entender os comportamentos
17:10maliciosos.
17:11Eles não falaram
17:12como vão fazer isso,
17:13tá, Marisa?
17:13Ainda está muito
17:14em aberto.
17:15Então,
17:15eu sou cético,
17:16eu acho bem difícil
17:18com a IA avançada
17:20do jeito que está,
17:21que eles vão ter
17:23uma garantia muito boa
17:24de que só agentes
17:26bonzinhos
17:27vão estar
17:29acessando, né?
17:29Eu acho que assim,
17:30tem que ter
17:31uns testes muito fortes
17:32aí para ver se,
17:33eu acho que tem agente
17:34malicioso, Marisa,
17:35que vai conseguir,
17:36se ela conseguiu apagar
17:37o banco de dados,
17:38não vai conseguir
17:39acessar o CAPT.
17:42Mas não deixa
17:43de ser um problema,
17:44é um problema real
17:45de hoje, né?
17:46Porque a gente não quer
17:46barrar todos os agentes,
17:48porque senão,
17:48meio que a internet,
17:49o que o Google está criando,
17:50que é a possibilidade
17:51de humilhar agêntica,
17:53acaba, né?
17:54Então,
17:54eles não querem barrar,
17:55mas ao mesmo tempo,
17:56você não quer deixar fraudes
17:58e agentes maliciosos
18:00estão acessando.
18:01Então,
18:01é um problema super,
18:02super, super difícil,
18:03Marisa.
18:04E eu não sei
18:04como a Google vai resolver,
18:05ela está resolvendo, né?
18:07Vamos esperar.
18:07Então,
18:08a gente tem que agora
18:08só aguardar
18:09para quando estiver
18:10rodando esse sistema
18:11para ver se não vai dar ruim.
18:13Pois é,
18:14o desafio está no colo
18:15do Google por enquanto
18:16e a gente do lado de cá
18:17aguarda para saber
18:18se funciona, não é?
18:19Está aí,
18:20pena,
18:20mais um Fala Aí
18:22super bacana hoje
18:23com assuntos
18:24interessantíssimos
18:24e é uma evolução
18:25dos assuntos
18:26que vão surgir
18:27no nosso dia a dia
18:28cada vez mais, não é?
18:30Semana que vem
18:31tem mais,
18:31aproveite aí então
18:32o seu congresso, hein?
18:33João Pessoa,
18:34um beijo grande
18:34e excelente semana.
18:37Obrigado, Marisa.
18:38Então,
18:38até semana que vem,
18:39estou aqui curtindo
18:40esse calor aqui,
18:41João Pessoa,
18:42mas está muito legal aqui.
18:44Até semana que vem.
18:45Até.
18:46Tchau, tchau,
18:46boa noite.
18:47Está aí, pessoal,
18:49Roberto Pena Spinelli
18:50em mais um Fala Aí
18:51com assuntos
18:53interessantíssimos hoje,
18:54como vocês veem,
18:55várias situações, né,
18:57peculiares
18:58que vão surgir
18:58cada vez mais
18:59no nosso dia a dia.
19:01Semana que vem,
19:02vocês já sabem,
19:03tem mais Roberto Pena Spinelli
19:05com o quadro
19:06Fala Aí
19:06aqui no Olhar Digital News.
19:08Tchau, tchau, tchau, tchau.
19:09Tchau, tchau, tchau.
Comentários

Recomendado