Pular para o playerIr para o conteúdo principal
  • há 4 meses
--
Cadastre-se para receber nossa newsletter:
https://bit.ly/2Gl9AdL​

Confira mais notícias em nosso site:
https://www.oantagonista.com​

Acompanhe nossas redes sociais:
https://www.fb.com/oantagonista​
https://www.twitter.com/o_antagonista​
https://www.instagram.com/o_antagonista
https://www.tiktok.com/@oantagonista_oficial

Categoria

🗞
Notícias
Transcrição
00:00:00Hoje temos aqui no CD Talks, Ronaldo Lemos, advogado especializado em tecnologia e inovação,
00:00:17palestrante, uma figura conhecida aí no mercado, já tem uma longa trajetória,
00:00:24acompanha todos esses movimentos de internet, toda a trajetória do desenvolvimento da internet
00:00:29no mundo e aqui no Brasil especialmente, né Ronaldo?
00:00:32É isso, Cláudio. Primeiro, super obrigado pelo convite, bacana falar sobre esse tema aí com você.
00:00:38Maravilha. Eu que agradeço pela tua disponibilidade, quem está conosco aqui também vai participar desse bate-papo
00:00:45é o André Micelli, que é da MIT Technology Review, é uma publicação especializada também em tecnologia
00:00:54e vai naturalmente agregar muito. Bem-vindo também, André.
00:00:59Obrigado, é um prazer estar aqui, é um prazer falar com você e com o Ronaldo.
00:01:04Maravilha. Se puder aumentar um pouquinho o retorno para mim, agradeço.
00:01:08Ronaldo, eu vou começar por um tema que me afeta mais no meu dia a dia,
00:01:14que é a política, né? A gente entende, quer dizer, isso está no debate público, né?
00:01:22Ao mesmo tempo, você tem lá o TSE e os demais órgãos públicos
00:01:28firmando parcerias com as grandes plataformas, né?
00:01:34Sim, sim.
00:01:35Para combate de fake news, etc. e tal.
00:01:38Só que a gente também sabe que essas grandes plataformas, elas vivem do confronto, né?
00:01:45Porque elas vivem de tráfego e quanto maior o embate, maior a polarização,
00:01:50mais tráfego você tem, mais comentários, mais interação você tem,
00:01:55e isso acaba sendo mais negócio para essas plataformas.
00:01:58E, normalmente, são coisas que me parecem que são conflitantes,
00:02:02porque esse embate também é alimentado por fake news.
00:02:07Então, assim, você acha que tem um pouco de hipocrisia nesse debate público
00:02:14com as plataformas?
00:02:16Como é que você enxerga a participação delas nas eleições?
00:02:20A gente já tem vários exemplos recentes de interferências no Brexit
00:02:25e tem várias outras campanhas e eleições em diferentes países,
00:02:30nos Estados Unidos mesmo, né?
00:02:32Na eleição do Trump.
00:02:34Como é que você enxerga esse debate da participação das plataformas,
00:02:38dessa possível colaboração, cooperação?
00:02:42O que tem de hipocrisia nessa conversa?
00:02:45O que tem de real?
00:02:47O que você acha que a gente deveria realmente estar discutindo?
00:02:51Bom, pergunta boa, Claudio.
00:02:53E pergunta difícil, porque é o seguinte.
00:02:55Primeiro, a tecnologia mudou a esfera pública.
00:02:59Então, a forma como a gente vive em sociedade e debate,
00:03:03inclusive política,
00:03:04ela se transformou totalmente nos últimos 10 anos.
00:03:08Então, o que aconteceu?
00:03:10Primeiro, a gente viu que, a partir de 2016,
00:03:15eu diria até 2014,
00:03:18esse fórum digital,
00:03:20esse fórum digital,
00:03:22essa ágora pública digital,
00:03:24se tornou central
00:03:26para a consolidação de ideias,
00:03:29para o debate e assim por diante.
00:03:31Agora, o que aconteceu?
00:03:34Você começou a ter um fenômeno
00:03:35que é o que a gente pode chamar
00:03:37de propaganda computacional
00:03:40ou comportamento coordenado
00:03:44que muitas vezes tenta fazer parecer
00:03:47que é um indivíduo,
00:03:49você entendeu?
00:03:49Que é uma pessoa ali
00:03:51querendo participar do debate,
00:03:53sendo que, na verdade,
00:03:54não é uma pessoa que está falando,
00:03:55mas às vezes é um grupo
00:03:56muito bem organizado,
00:03:58muito bem financiado,
00:03:59que atua de forma profissional.
00:04:02Então, tem designer,
00:04:04tem jornalista,
00:04:05tem redator,
00:04:06mas propaga essas informações
00:04:10se valendo, muitas vezes,
00:04:11de robô, de conta falsa,
00:04:13para dar a impressão
00:04:14de que é um cidadão,
00:04:16de que é uma pessoa só
00:04:18que está falando.
00:04:19Então, para a gente
00:04:21que está aqui do outro lado,
00:04:22consumindo esse tipo de informação,
00:04:24eu vejo um problema,
00:04:25porque isso é uma forma
00:04:26de você enganar a pessoa,
00:04:28porque existe uma peça ali,
00:04:30chave, sendo ocultada,
00:04:32de que você não está recebendo
00:04:34aquela informação de um cidadão,
00:04:36mas está recebendo de um grupo,
00:04:38e esse grupo está se disfarçando
00:04:41como se ele fosse uma pessoa só,
00:04:44ou um grupo de pessoas,
00:04:45falando como se fosse igual a você,
00:04:47e não é.
00:04:48Então, isso começou a gerar
00:04:49preocupação no mundo inteiro.
00:04:52O termo técnico para isso
00:04:53é comportamento inautêntico coordenado,
00:04:57e aí sublinha a palavra inautêntica aqui,
00:05:01porque ela é importante,
00:05:02e é exatamente isso.
00:05:04Então, é um jeito de você comunicar
00:05:06como se você estivesse
00:05:08falando com indivíduos,
00:05:10mas aquilo é broadcast,
00:05:12você entendeu?
00:05:12Aquilo é propagação de informação
00:05:15de maneira massiva.
00:05:17Isso custa dinheiro,
00:05:18não é barato, né?
00:05:19Como você sabe bem,
00:05:21falar para 10 milhões de pessoas
00:05:24não é barato em lugar nenhum,
00:05:25não é barato na televisão,
00:05:27nem no rádio,
00:05:28nem é barato na internet.
00:05:29Então, você precisa ter
00:05:30essa propaganda computacional,
00:05:32você precisa ter uma infraestrutura tecnológica
00:05:35de capital, de gente,
00:05:37de máquina,
00:05:38pronta para conseguir propagar,
00:05:40para falar disso tudo.
00:05:43Então, as plataformas,
00:05:45principalmente a partir de 2014 no Brasil,
00:05:48quando a gente identificou pela primeira vez
00:05:51esse tipo de propaganda computacional,
00:05:53e 2016 nos Estados Unidos,
00:05:56que aí eu acho que foi
00:05:56quando o mundo acompanhou
00:05:58o surgimento desse tipo de propaganda,
00:06:02elas viram ali
00:06:04que as suas redes viraram veículo,
00:06:09tanto para uso de dados,
00:06:11uso de informações ali até
00:06:13de forma abusiva
00:06:15com relação aos usuários,
00:06:17e viram também que havia
00:06:19toda essa infraestrutura
00:06:21que estava propagando informação,
00:06:23explorando os algoritmos
00:06:25das plataformas,
00:06:26e assim por diante.
00:06:27Então, isso virou um problema,
00:06:28é um problema que já
00:06:30continua entre nós,
00:06:32ele não se dissipou totalmente,
00:06:35mas especialmente depois de 2016,
00:06:38virou uma briga de gato e rato.
00:06:39Até 2016, ninguém fazia nada,
00:06:42a partir de 2016,
00:06:44tenta-se,
00:06:46às vezes com algum sucesso,
00:06:47às vezes não,
00:06:48calibrar os algoritmos
00:06:51e ter ali uma estrutura
00:06:52de contra-vigilância,
00:06:55vamos chamar assim,
00:06:56contra esse tipo de comportamento
00:06:58inautêntico coordenado.
00:07:00Então, de 2016 para cá,
00:07:02melhorou um pouco?
00:07:03Sim, melhorou.
00:07:04Mas, também a gente tem que lembrar
00:07:06que o cenário mudou completamente,
00:07:08hoje a gente tem o TikTok,
00:07:10a gente tem o Quai,
00:07:11a gente tem o Telegram,
00:07:12com uma presença muito forte,
00:07:13e isso, obviamente,
00:07:16também muda a dinâmica
00:07:17de como a informação se propaga.
00:07:19Mas o meu problema hoje
00:07:21é especialmente com essa propaganda
00:07:24que se disfarça de indivíduo,
00:07:27você entendeu?
00:07:28De você fazer uma guerra informacional
00:07:31fingindo que quem está falando
00:07:32é um indivíduo
00:07:33e não é um grupo organizado,
00:07:35que muitas vezes é o caso.
00:07:37André, você está conectado,
00:07:39fica absolutamente à vontade
00:07:40para explorar aqui o Ronaldo, tá?
00:07:44Se você quiser já perguntar,
00:07:47eu só tenho uma...
00:07:48Eu gostaria de acrescentar
00:07:49uma questão aí,
00:07:50porque, assim,
00:07:53você falou assim,
00:07:54poxa, tenta-se, né?
00:07:55Assim, na verdade,
00:07:57até que ponto?
00:07:58Aí eu volto na minha pergunta original, né?
00:08:00Até que ponto
00:08:01isso é interessante?
00:08:05O que estimula
00:08:06essas plataformas
00:08:09a fazerem esse tipo de controle?
00:08:12São as ações dela
00:08:13na Bolsa de Nova York,
00:08:15são questões reputacionais,
00:08:19processos no judiciário.
00:08:23Por que aquilo, né?
00:08:24Claro, quando você interfere nisso,
00:08:27você está impedindo,
00:08:29essa gente está reduzindo esse tráfego,
00:08:31está deixando,
00:08:32no fim das contas,
00:08:33está deixando de ganhar.
00:08:34A gente teve o Elon Musk
00:08:35negociando o Twitter recentemente,
00:08:37e ele bateu muito forte
00:08:38nessa coisa de,
00:08:40olha, eu quero saber
00:08:41quanto dos usuários do Twitter
00:08:45são fakes, né?
00:08:47Quantos são inautênticos, né?
00:08:49E não conseguiu esse número,
00:08:51ficou aquela briga,
00:08:52acabou desfazendo o negócio.
00:08:54E, no fim das contas,
00:08:55eu acho que a gente tem uma discussão
00:08:56sobre anonimato nas redes,
00:08:58sobre...
00:08:59Tem gente que defende assim,
00:09:00não, meu,
00:09:01bota o CPF lá, né?
00:09:03Mas, assim,
00:09:03as plataformas não me parecem
00:09:04muito interessadas nisso.
00:09:06É, não vão estar, né?
00:09:08Porque, como você falou,
00:09:09tráfego é ótimo,
00:09:11gera clique,
00:09:12gera publicidade,
00:09:14então, ninguém está interessado
00:09:15em reduzir tráfego, né?
00:09:16Por que elas tiveram que se mexer?
00:09:19Por pressão social,
00:09:20pressão de controle social.
00:09:22Por exemplo,
00:09:23em vários países começaram
00:09:24a discutir, né,
00:09:27a questão de criação de leis,
00:09:29com um controle maior
00:09:30sobre as plataformas.
00:09:32Isso, inclusive,
00:09:34avançou na Europa,
00:09:35a lei, inclusive,
00:09:35foi aprovada,
00:09:37que é o DSA,
00:09:37o Digital Services Act,
00:09:39que cria uma série
00:09:40de requisitos agora
00:09:41para as plataformas
00:09:42de mídia digital
00:09:43com relação aos conteúdos,
00:09:45políticas de,
00:09:47vamos dizer,
00:09:48salvaguarda,
00:09:49tudo ali especificado em lei.
00:09:51Nos Estados Unidos,
00:09:52também começou a ter pressão
00:09:53no Congresso
00:09:54e no Brasil também.
00:09:55O Brasil, por exemplo,
00:09:56começou a discutir
00:09:57o projeto de lei
00:09:58das fake news,
00:10:00do qual, inclusive,
00:10:00eu fui um crítico, né?
00:10:02Porque eu acho que é um projeto
00:10:03que tem um monte de problemas,
00:10:05resvala ali em coisas
00:10:07que eu acho que são exageradas,
00:10:10adotam a estratégia,
00:10:12ao meu ver,
00:10:12ineficaz,
00:10:13porque fica querendo
00:10:14ir atrás de conteúdo,
00:10:15eu acho isso um erro,
00:10:17eu acho que você tem que ir
00:10:18contra o método, né?
00:10:20Qual é o método?
00:10:22É o de financiamento
00:10:23desse tipo de ação oculta, né?
00:10:27Então, na minha visão,
00:10:28para combater isso,
00:10:29você tem que fazer um negócio
00:10:30que se chama follow the money, né?
00:10:32Siga o dinheiro,
00:10:33não o conteúdo.
00:10:34Eu quero saber
00:10:35quem é que está pegando o dinheiro
00:10:37e de forma oculta,
00:10:39e o oculto aqui também é importante,
00:10:41porque se a pessoa
00:10:43estiver disposta a revelar
00:10:44o que está fazendo,
00:10:45não tem nenhum problema.
00:10:47Agora, se você faz
00:10:48um financiamento oculto, né?
00:10:50É porque você está desconfortável
00:10:52com aquilo que você mesmo
00:10:54está fazendo.
00:10:54Então, na minha visão,
00:10:56a estratégia de combate
00:10:57a fake news no Brasil, né?
00:10:59Deveria ser follow the money, né?
00:11:01Entender quem é que está fazendo
00:11:03financiamento oculto de campanha.
00:11:06E não só de campanha política, né?
00:11:08De campanha de publicidade na internet,
00:11:10coisa do tipo.
00:11:11Então, houve uma pressão social muito grande,
00:11:14esses projetos de lei
00:11:15pipocando em todo lugar,
00:11:17comissões parlamentares,
00:11:20audiências públicas no Congresso.
00:11:22Então, isso veio
00:11:23como uma avalanche
00:11:25em cima das plataformas, né?
00:11:27E aí, as plataformas perceberam
00:11:29que ficar parado
00:11:30não era mais aceitável,
00:11:32que tinham que fazer alguma coisa.
00:11:33Agora, como você colocou bem,
00:11:35tem limites com relação
00:11:36ao que pode ser feito.
00:11:38A maioria dessas empresas,
00:11:39elas são empresas
00:11:40com ações negociadas em Bolsa.
00:11:42Então, elas têm preço das ações
00:11:45regulado ali,
00:11:47minuto a minuto,
00:11:48pelo mercado.
00:11:50E aí,
00:11:51entra o bom exemplo
00:11:52que você deu do Twitter.
00:11:53O Elon Musk,
00:11:55ao querer adquirir o Twitter,
00:11:58ele até foi muito criticado
00:12:00no Brasil,
00:12:00e eu elogiei,
00:12:01porque a proposta dele
00:12:03era super interessante.
00:12:05Ele queria transformar o Twitter
00:12:07numa plataforma sem robôs.
00:12:10Uma plataforma onde houvesse
00:12:11um cidadão,
00:12:13uma voz, entendeu?
00:12:15Então, ele olhou para o Twitter
00:12:16e falou,
00:12:17eu vou identificar
00:12:18a identidade de todo mundo aqui,
00:12:21o que já é super interessante,
00:12:22porque um dos problemas hoje
00:12:24é a falta de identidade digital
00:12:26nas plataformas
00:12:27e no mundo digital.
00:12:29E ele falou,
00:12:30aqui, assim,
00:12:31cada pessoa vai falar
00:12:32no seu próprio nome,
00:12:33tem a sua própria voz
00:12:34e tem a responsabilidade
00:12:36sobre o que está fazendo.
00:12:38Ao fazer isso,
00:12:39o problema
00:12:40é que ele estaria abrindo mão
00:12:41dessas centenas de milhões
00:12:44de contas de robôs, né?
00:12:46Se você imaginar,
00:12:48tem muita conta fake no Twitter,
00:12:49você vê todo dia lá
00:12:52um monte de conta aberta
00:12:54todos os dias
00:12:54com aqueles números
00:12:56X, Y, Z, 3 e tal.
00:12:58Então, esses são processos automatizados.
00:13:01E a proposta dele
00:13:03era fazer isso.
00:13:04Agora, para isso,
00:13:06ele estava disposto
00:13:07a tornar a empresa
00:13:08uma empresa privada, né?
00:13:09Tirar ela do mercado público
00:13:11de ações, né?
00:13:13Lembrando que nos Estados Unidos
00:13:14as empresas que estão em bolsa
00:13:15são chamadas
00:13:16empresas públicas, né?
00:13:17Não porque elas são do Estado,
00:13:19mas porque elas são
00:13:20negociadas em bolsa.
00:13:21E ele queria tornar
00:13:23aquela empresa privada,
00:13:25onde ele ia comprar o capital,
00:13:27tirasse a empresa da bolsa.
00:13:28Uma vez que a empresa
00:13:29está fora da bolsa,
00:13:30ele poderia fazer
00:13:31o que ele quisesse,
00:13:32sem ter esse temor, né?
00:13:34De derrubar
00:13:35o preço das ações, etc.
00:13:37Então, o que o exemplo
00:13:39do Musk indica
00:13:40é que para fazer mudanças
00:13:42estruturais profundas,
00:13:45talvez você teria que tirar
00:13:46as empresas da bolsa,
00:13:49entendeu?
00:13:49Você teria que transformá-las
00:13:51em empresas privadas.
00:13:53Por quê?
00:13:53Porque se você fizer cortes
00:13:54muito radicais
00:13:56nas contas falsas, etc.,
00:13:58você vai ter
00:13:59um impacto, né,
00:14:02no valor das ações,
00:14:03porque você tem que reportar
00:14:04trimestralmente resultados,
00:14:06você tem que comunicar
00:14:07fato relevante
00:14:08para os acionistas.
00:14:10Então, tem limites
00:14:12com relação ao que pode ser feito?
00:14:14Tem, claro que tem.
00:14:15Mas a outra lição
00:14:17é que a pressão pública
00:14:18funciona, né?
00:14:20Então, as empresas,
00:14:21elas atendem
00:14:22não só ao mercado,
00:14:25propriamente dito,
00:14:26que se fosse só ao mercado,
00:14:28não teriam feito nada.
00:14:29Mas como elas atendem
00:14:31também a interesses
00:14:33que têm que ser públicos,
00:14:34de pressão pública,
00:14:36mobilização da sociedade civil,
00:14:38mobilização do poder público, etc.,
00:14:41chegou um momento
00:14:42em que elas tiveram
00:14:43também rever,
00:14:44porque senão,
00:14:45até assim,
00:14:46poderiam estar prejudicando
00:14:47os seus acionistas,
00:14:49tamanha a pressão,
00:14:50tamanha a clareza
00:14:53até do problema
00:14:55que foi identificado.
00:14:55É, porque vira um problema
00:14:56reputacional, né?
00:14:57Exato.
00:14:58E para uma empresa
00:14:58que tem capital aberto,
00:14:59isso é fatal.
00:15:01Michele,
00:15:03você quer fazer alguma pergunta
00:15:05nessa linha aqui
00:15:06desse tema?
00:15:07Fica à vontade.
00:15:09Quando o Alon Mosk
00:15:11estava naquele processo
00:15:13de aquisição
00:15:13e divulgou alguns planos
00:15:15para o Twitter,
00:15:16um dos planos
00:15:18que me pareceu interessante,
00:15:21que me pareceram interessantes,
00:15:23mas que sofreram críticas
00:15:25por parte,
00:15:27especialmente da imprensa,
00:15:28foi a abertura do algoritmo.
00:15:30Quem era a favor
00:15:32entende que um algoritmo aberto
00:15:35permite que todos
00:15:37entendam de fato
00:15:38o que fez uma postagem
00:15:41sair, por exemplo,
00:15:43da rede
00:15:44por infringir uma regra,
00:15:46uma lei.
00:15:47A gente tem ali
00:15:47uma questão importante
00:15:49com a autorização
00:15:52da existência
00:15:52de algumas contas, inclusive.
00:15:54O Donald Trump
00:15:55é um exemplo.
00:15:57E aí, independentemente
00:15:58de concordar ou não
00:15:59com ele,
00:16:01tem uma questão importante
00:16:03sobre o que faz
00:16:05o Donald Trump
00:16:06não poder ter
00:16:07uma conta no Twitter
00:16:09e contas que defendem,
00:16:12por exemplo,
00:16:13a extinção do Estado de Israel
00:16:14continuarem lá.
00:16:16Tem algumas coisas
00:16:17que são controversas
00:16:19e a abertura do algoritmo
00:16:21deixaria isso mais claro.
00:16:22Por outro lado,
00:16:24quem entende
00:16:25que o algoritmo
00:16:26precisa continuar fechado
00:16:27não advoga
00:16:28argumentando que
00:16:30ao abrir o algoritmo
00:16:31fica fácil
00:16:32para que as pessoas
00:16:33manipulem
00:16:35esse próprio algoritmo.
00:16:36Uma vez que você entende
00:16:37como ele funciona,
00:16:39a gente consegue
00:16:40de alguma forma
00:16:42construir
00:16:43essas postagens
00:16:45de maneira
00:16:46que elas sejam
00:16:46priorizadas
00:16:47e que isso
00:16:47daria
00:16:48o privilégio
00:16:50para aquelas pessoas
00:16:51ou empresas
00:16:52que se debruçam
00:16:53no algoritmo
00:16:54para estudá-lo
00:16:55e compreendê-lo
00:16:56e isso
00:16:57criaria
00:16:57uma desvantagem
00:16:59para uma camada
00:17:00importante
00:17:00que é a imensa
00:17:01maioria dos usuários.
00:17:02Como você vê isso,
00:17:03Ronaldo?
00:17:04A abertura do algoritmo
00:17:05por parte das redes sociais
00:17:06e o plano do Elon Musk
00:17:07em relação ao Twitter
00:17:08naquele momento?
00:17:09Legal,
00:17:10o Musk provocou
00:17:12no lugar certo,
00:17:14ele tocou
00:17:15nos pontos sensíveis.
00:17:17Por exemplo,
00:17:18algoritmo hoje,
00:17:20ninguém sabe
00:17:21como funciona,
00:17:22só as empresas sabem.
00:17:24É um segredo comercial
00:17:25como é a fábrica,
00:17:27a fórmula da Coca-Cola
00:17:28ou coisas do tipo.
00:17:31Então,
00:17:31é interessante
00:17:32porque
00:17:33ele provocou isso
00:17:36até no sentido
00:17:37de conjugar
00:17:38com aquela questão
00:17:39de um cidadão
00:17:40e uma voz,
00:17:41que é meio assim,
00:17:43eu vou transformar
00:17:45cada usuário
00:17:46em uma pessoa,
00:17:47eu vou autenticar,
00:17:47eu vou dar o selinho azul
00:17:48para todo mundo
00:17:49e todo mundo vai saber
00:17:51que você é você mesmo
00:17:52e a partir dali,
00:17:54com essa regra
00:17:55da responsabilidade,
00:17:56você pode baixar
00:17:57o sarrafo
00:17:58da moderação
00:17:59de conteúdo
00:18:00porque cada pessoa
00:18:01vai estar falando
00:18:01no seu próprio nome.
00:18:02Você não vai estar ali
00:18:04escondido
00:18:05atrás de um robô
00:18:06ou qualquer coisa do tipo.
00:18:08então,
00:18:09essa proposta
00:18:10era ousada.
00:18:11Agora,
00:18:12a questão
00:18:13do algoritmo,
00:18:14de novo,
00:18:15para ele conseguir
00:18:15fazer isso,
00:18:16provavelmente,
00:18:17ele teria que tirar
00:18:18a companhia
00:18:19do mercado,
00:18:21do mercado acionário,
00:18:23porque
00:18:23ao abrir,
00:18:25vamos dizer,
00:18:26vamos supor
00:18:27que fosse transparência
00:18:28total
00:18:29ao algoritmo,
00:18:31primeiro,
00:18:32você abre
00:18:32para competidores.
00:18:34alguém pode pegar
00:18:35a experiência
00:18:37do Twitter
00:18:37de mais de década
00:18:39e esses algoritmos
00:18:41são cumulativos,
00:18:42você vai fazendo
00:18:43ajustes finos
00:18:44aqui e ali
00:18:45e você só aprende
00:18:47na prática.
00:18:48Então,
00:18:48a experiência
00:18:49do Twitter
00:18:50de acertar
00:18:51os ponteiros
00:18:52para que o site
00:18:53seja bem sucedido,
00:18:55aquilo é muito valioso.
00:18:56Então,
00:18:56se você abre
00:18:57100% do algoritmo,
00:18:59no dia seguinte,
00:19:00se não houver
00:19:01nenhuma proteção
00:19:02e nesse caso
00:19:03não há,
00:19:04porque não tem
00:19:04como patentear isso,
00:19:06você vai ter
00:19:07a possibilidade
00:19:08de alguém
00:19:08criar o Twitter 2
00:19:09ou uma cópia
00:19:11do Twitter
00:19:12que funcione,
00:19:13inclusive,
00:19:14do ponto de vista
00:19:14técnico,
00:19:15da mesma forma.
00:19:16Muita gente
00:19:17tentou criar
00:19:18competição
00:19:18para o Twitter.
00:19:19Você tem o Parler,
00:19:21você tem o Gaber
00:19:22e vários outros
00:19:23que tentam
00:19:24emular o Twitter,
00:19:26o BitClout
00:19:27e vários outros,
00:19:29mas nenhum
00:19:29funciona daquele jeito.
00:19:31e uma das razões
00:19:32para isso
00:19:32é porque o Twitter
00:19:33tem uma bagagem
00:19:35acumulada
00:19:36que se reflete
00:19:37na forma
00:19:37como o algoritmo
00:19:38é ajustado
00:19:39e que se você abrir,
00:19:41você abre
00:19:41para um competidor.
00:19:42Então,
00:19:42abrir isso
00:19:43do ponto de vista
00:19:44do mercado
00:19:44seria catastrófico,
00:19:46é meio que você
00:19:48se expor
00:19:48a uma competição
00:19:50que hoje
00:19:51é mais difícil
00:19:51porque a pessoa
00:19:52teria que fazer
00:19:53um caminho
00:19:53muito mais longo
00:19:54para chegar
00:19:55no grau
00:19:55de aperfeiçoamento.
00:19:57Agora,
00:19:58além disso,
00:20:00você expõe
00:20:01o algoritmo
00:20:02para atores
00:20:04maliciosos
00:20:05que podem olhar
00:20:05para,
00:20:06como o Miceli
00:20:07falou,
00:20:07como é que aquele
00:20:08algoritmo funciona
00:20:09e montar as estratégias
00:20:10para conseguir
00:20:12viralização
00:20:12de forma mais fácil.
00:20:15Então,
00:20:15se você descobrir,
00:20:16por exemplo,
00:20:16que o algoritmo
00:20:17privilegia
00:20:18alguns tipos
00:20:19de palavras
00:20:19ou algumas postagens
00:20:21feitas em determinados
00:20:22horários
00:20:23ou por determinados
00:20:25tipos de perfil,
00:20:26fica muito mais fácil
00:20:27de você construir
00:20:28uma rede de comportamento
00:20:29inautêntico coordenado
00:20:31para explorar
00:20:32a plataforma.
00:20:33Então,
00:20:33tem muitas nuances,
00:20:35tá?
00:20:36Eu,
00:20:37Miceli,
00:20:37eu venho
00:20:38do software livre,
00:20:39né?
00:20:40Eu sou uma pessoa
00:20:40que,
00:20:41desde o início
00:20:43da minha carreira,
00:20:43eu gosto de
00:20:44open source,
00:20:45eu gosto de
00:20:46código aberto,
00:20:47eu gosto de
00:20:47transparência.
00:20:49Então,
00:20:49eu acho que seria
00:20:50fantástico
00:20:51você ter uma rede
00:20:52social
00:20:53100% transparente
00:20:55onde você enxerga
00:20:56como é que as
00:20:57engrenagens funcionam,
00:20:58o que que aquelas
00:20:59engrenagens priorizam,
00:21:01né?
00:21:01Elas estão reguladas
00:21:03para priorizar
00:21:04a sua informação
00:21:05ou elas estão,
00:21:07vamos dizer,
00:21:09ajustadas para priorizar
00:21:10a briga,
00:21:11né?
00:21:11O que que viraliza mais?
00:21:13É a informação neutra
00:21:14ou é a informação
00:21:15belicosa, né?
00:21:18Então,
00:21:19eu acho que a gente
00:21:19tem que se colocar isso.
00:21:20Eu adoraria
00:21:21participar de uma rede social
00:21:23em que eu entendesse
00:21:24como as engrenagens
00:21:26funcionam.
00:21:26E mais,
00:21:27eu adoraria mais ainda
00:21:29participar de uma rede social
00:21:30que deixasse eu escolher
00:21:32como as engrenagens
00:21:34estão funcionando,
00:21:35entendeu?
00:21:35Então,
00:21:36eu adoraria ter eu
00:21:37as minhas alavancas
00:21:38ali do algoritmo
00:21:39e falar assim,
00:21:40olha,
00:21:40eu gosto de briga,
00:21:41então eu quero botar
00:21:42a minha alavanca da briga
00:21:43em mil,
00:21:45você entendeu?
00:21:46Agora,
00:21:46eu poderia também
00:21:47ter a opção de falar
00:21:47eu gosto de conteúdo moderado,
00:21:49eu quero coisas
00:21:50que ninguém comenta,
00:21:52que a pessoa põe lá
00:21:53e é uma chatice danada,
00:21:55eu botaria ali
00:21:56a minha alavanca
00:21:57da chatice
00:21:57e só veria aquilo.
00:21:59Essa rede social
00:21:59hoje,
00:22:00ela não existe.
00:22:01A gente perdeu
00:22:02a habilidade
00:22:03de escolher
00:22:04o que a gente quer ver.
00:22:06Essa decisão hoje,
00:22:08na maioria das redes sociais,
00:22:09ela é feita
00:22:10pelo algoritmo.
00:22:11Eu queria que
00:22:12essas alavancas
00:22:13não tivessem
00:22:14na mão
00:22:15só do Twitter,
00:22:17do Facebook,
00:22:18do Google,
00:22:20sei lá quem for,
00:22:21mas eu queria
00:22:22que tivesse
00:22:22na minha mão,
00:22:23que eu pudesse,
00:22:24mexendo com elas,
00:22:25maximizar a minha
00:22:26experiência online
00:22:27para aquilo que me interessa.
00:22:29Então, por exemplo,
00:22:29se eu gosto de conteúdo
00:22:30de cachorro,
00:22:32eu quero ter uma alavanca
00:22:33lá que eu coloque
00:22:34e só aparece
00:22:34conteúdo de golden retriever
00:22:37na minha timeline.
00:22:38Isso é diferente,
00:22:39Ronaldo?
00:22:40Eu queria que você
00:22:41aproveitasse e explicasse
00:22:42um pouquinho
00:22:42para o nosso espectador,
00:22:44porque assim,
00:22:45o espectador,
00:22:46o usuário,
00:22:47tem a sensação
00:22:48de que faz isso.
00:22:50Quando ele coloca
00:22:50lá as preferências,
00:22:52a plataforma te dá
00:22:53a opção.
00:22:54Você quer os jornalistas
00:22:56se acompanhar,
00:22:58quer que seja
00:22:59ofertado a você
00:23:00um conteúdo
00:23:01de jornalistas
00:23:03de política?
00:23:04Não.
00:23:04Ah, sim,
00:23:05jornalistas que acompanham
00:23:07pet,
00:23:08ou de celebridades,
00:23:09ou sei lá o que for.
00:23:11Você tem a sensação
00:23:13de que está fazendo
00:23:13essas escolhas,
00:23:14mas isso não é real.
00:23:15Não é real.
00:23:17Não tem jeito
00:23:18de eu chegar lá
00:23:18no Twitter hoje
00:23:19e mudar o jeito
00:23:21que o algoritmo
00:23:22distribui o conteúdo
00:23:23para mim.
00:23:25Essa capacidade
00:23:26de interferência
00:23:27do usuário,
00:23:28não é que ela é zero,
00:23:30mas ela é muito limitada.
00:23:31Você consegue
00:23:32dar ali alguns sinais,
00:23:34ah, eu gosto disso.
00:23:35Outros sinais,
00:23:36e aliás,
00:23:37a maioria deles,
00:23:38a plataforma vai captar
00:23:39no seu dia a dia.
00:23:41Então,
00:23:41ela vai procurar saber
00:23:43qual é o conteúdo
00:23:44que te move,
00:23:45que te engaja.
00:23:46De verdade, né?
00:23:47De verdade.
00:23:47E não o conteúdo
00:23:48que você quer ver,
00:23:49entendeu?
00:23:50E isso tem uma diferença
00:23:51muito grande,
00:23:52porque,
00:23:53geralmente,
00:23:54a gente tem
00:23:56as nossas preferências
00:23:57racionais
00:23:58e a gente tem
00:23:59as nossas preferências
00:24:00intuitivas.
00:24:02Então,
00:24:02a plataforma,
00:24:03ela mede as duas.
00:24:05Por exemplo,
00:24:05você pode colocar lá,
00:24:06não,
00:24:06eu só quero ver
00:24:07conteúdo informativo
00:24:09do canal futura e tal.
00:24:11Só que na hora
00:24:12do vamos ver,
00:24:13você vai clicar
00:24:14em uma notícia polêmica
00:24:16ou uma notícia
00:24:18sobre um crime violento
00:24:20ou uma notícia
00:24:21sobre uma celebridade
00:24:22e aí a plataforma
00:24:23vai falar,
00:24:24ah,
00:24:25na verdade,
00:24:26o que você quer ver mesmo
00:24:27é celebridade,
00:24:28não é?
00:24:29Entendeu?
00:24:29Então,
00:24:30isso é muito interessante,
00:24:31porque
00:24:32o nosso,
00:24:33a nossa capacidade
00:24:34hoje,
00:24:34na forma como
00:24:35as mídias sociais
00:24:36se organizam
00:24:37de interferência,
00:24:38é muito pequena.
00:24:39A plataforma
00:24:40está muito mais interessada
00:24:41naquilo que te toca
00:24:42profundamente,
00:24:44até do ponto de vista
00:24:45inconsciente,
00:24:47do que nas suas
00:24:48preferências racionais.
00:24:50Aliás,
00:24:50boa parte da confusão
00:24:52que a gente está hoje
00:24:52do ponto de vista político
00:24:54vem daí,
00:24:55porque a gente maximizou
00:24:57não o que as pessoas
00:24:58querem ver,
00:24:59mas a gente maximizou
00:25:00aquilo que as pessoas
00:25:02intimamente respondem,
00:25:04reagem,
00:25:04aquilo no qual
00:25:05elas acreditam,
00:25:06as suas crenças,
00:25:08as suas...
00:25:08Isso.
00:25:09Mexe com as emoções.
00:25:10E que são coisas
00:25:11que a gente,
00:25:12como ser humano,
00:25:12a gente tem que balancear,
00:25:14porque nós temos
00:25:14impulsos muito profundos,
00:25:16mas que se você deixa
00:25:18esses impulsos
00:25:19dominarem a sua vida,
00:25:20a sua vida,
00:25:21ela pode ser um fracasso,
00:25:22a sua vida pode fazer
00:25:23mal aos outros,
00:25:24você pode destruir
00:25:25a sua família,
00:25:26você pode destruir
00:25:27os seus amigos.
00:25:28Então,
00:25:28nós temos,
00:25:29como seres humanos
00:25:30que somos,
00:25:31esses impulsos.
00:25:32agora faz parte
00:25:35da experiência humana
00:25:36você balancear
00:25:37os impulsos,
00:25:38entendeu?
00:25:38Então,
00:25:39ah,
00:25:40eu quero ficar assistindo
00:25:40série do Netflix
00:25:42o dia inteiro,
00:25:43meu impulso é fazer isso,
00:25:45mas se você fizer isso,
00:25:46você arruina a sua carreira,
00:25:48você não vai para frente
00:25:49na escola,
00:25:50você perde a sua rede social,
00:25:52de amigos no mundo real
00:25:53e assim por diante.
00:25:55Então,
00:25:55o problema,
00:25:56muitas vezes,
00:25:57das plataformas
00:25:58é que elas estão
00:25:58mais antenadas
00:26:00nesses impulsos
00:26:02profundos,
00:26:03né,
00:26:03que a gente tem
00:26:04e menos antenadas
00:26:06nas nossas escolhas
00:26:07racionais,
00:26:08nesse balanceamento
00:26:09que faz parte,
00:26:11de novo,
00:26:11da experiência humana
00:26:12que a gente tem que fazer
00:26:13entre os nossos
00:26:14impulsos intuitivos
00:26:16e os nossos
00:26:17impulsos construtivos,
00:26:19ponderados,
00:26:20imaginados.
00:26:20Você pode dizer
00:26:21que as plataformas
00:26:22têm parte
00:26:23de responsabilidade
00:26:25na violência política
00:26:27que nós vivenciamos hoje?
00:26:28Olha,
00:26:29certamente,
00:26:32elas contribuíram
00:26:33para inflamar
00:26:35as pessoas,
00:26:36né,
00:26:36a gente,
00:26:37na medida
00:26:38daqueles anos
00:26:39ali de 2016,
00:26:402017
00:26:41e além,
00:26:42né,
00:26:43a gente viu
00:26:44que a sociedade
00:26:44se inflamou.
00:26:45Por que que se inflamou?
00:26:47Porque o conteúdo
00:26:48inflamatório,
00:26:49ele virou viral,
00:26:51né,
00:26:51você botava uma coisa
00:26:52ali que era
00:26:54altamente ácida,
00:26:56que ofendia grupos
00:26:58e ofendia
00:27:00crenças
00:27:01e aquilo
00:27:02viralizava
00:27:04e todo mundo
00:27:05acessava
00:27:05e aí
00:27:06isso,
00:27:07com certeza,
00:27:08inflamou
00:27:09muita gente,
00:27:10né,
00:27:10tanto que,
00:27:11como a gente conversou
00:27:12no início,
00:27:12depois as plataformas
00:27:14tiveram que ter
00:27:14um contramovimento,
00:27:16né,
00:27:17para poder
00:27:18diminuir
00:27:18e equilibrar.
00:27:19A gente percebe,
00:27:20eu vou passar para ti,
00:27:21Miceli,
00:27:21a gente percebe que,
00:27:23por exemplo,
00:27:23a partir justamente
00:27:24desse momento,
00:27:26para agora,
00:27:27houve ali,
00:27:29em 2020,
00:27:30especialmente,
00:27:31parece que o Google,
00:27:33o YouTube
00:27:34e outras plataformas,
00:27:36a própria Twitter,
00:27:37mas especialmente
00:27:37essas outras,
00:27:38foram lá e
00:27:39desligaram
00:27:41ou mudaram
00:27:42a chave
00:27:43do alcance
00:27:46do noticiário político,
00:27:47por exemplo,
00:27:47eu sou um produtor
00:27:48de conteúdo
00:27:49de noticiário,
00:27:50conteúdo jornalístico político,
00:27:51e eu senti
00:27:52um impacto
00:27:53na minha audiência
00:27:53absurdo,
00:27:54né,
00:27:54a gente mesmo
00:27:55aqui no canal,
00:27:56a gente
00:27:56em 2018
00:27:58gravava
00:27:59comentários
00:28:00políticos,
00:28:01etc,
00:28:01e olha o que a gente
00:28:02sempre fez ali
00:28:03dentro das
00:28:04quatro linhas,
00:28:05a gente sempre fez
00:28:06de forma orgânica,
00:28:07a gente nunca impulsionou
00:28:07o conteúdo
00:28:08nem nada,
00:28:09e a gente conseguia
00:28:11uma audiência
00:28:1110,
00:28:1220 vezes maior
00:28:13do que a gente tem
00:28:14hoje
00:28:14com o nosso
00:28:16conteúdo político.
00:28:17Exato,
00:28:18então,
00:28:18você vê que
00:28:19esses ajustes
00:28:20do algoritmo,
00:28:22eles não estão
00:28:23na mão das pessoas,
00:28:25né,
00:28:25eles estão
00:28:26na mão
00:28:26central ali
00:28:27da própria
00:28:28plataforma,
00:28:29o fã
00:28:30do antagonista,
00:28:32se ele tivesse
00:28:32alavanca,
00:28:33ele poderia
00:28:33botar,
00:28:34ó,
00:28:34botar o antagonista
00:28:36aqui no mil,
00:28:37você entendeu?
00:28:38Porque eu quero ver
00:28:38mais conteúdo,
00:28:39mas não é assim
00:28:40que funciona,
00:28:41né,
00:28:41a gente está hoje
00:28:42num ambiente
00:28:43em que os algoritmos
00:28:45são centralizados
00:28:46e o nosso poder
00:28:47de interferência
00:28:47é menor.
00:28:48E em plataformas
00:28:49novas,
00:28:50como é o caso
00:28:50do TikTok,
00:28:51por que o TikTok
00:28:52está tão poderoso,
00:28:54né,
00:28:54e viralizando tanto?
00:28:55Porque ele é
00:28:56a plataforma
00:28:57que mais consegue
00:28:59fazer essa medição
00:29:01das suas preferências
00:29:03inconscientes,
00:29:04né,
00:29:04o TikTok,
00:29:06ele rapidamente,
00:29:07e você não precisa
00:29:09dar comando nenhum,
00:29:10você não precisa
00:29:10dar like em nada,
00:29:12ele consegue mapear
00:29:13exatamente aquilo
00:29:14que te toca
00:29:15profundamente
00:29:16e começa a te
00:29:17entregar conteúdo
00:29:18que vai exatamente
00:29:20nesses pontos
00:29:21que são
00:29:22dos seus instintos,
00:29:24dos seus...
00:29:24Ele vê essa tua
00:29:25pupila de lata.
00:29:26De lata,
00:29:26é por aí,
00:29:27ele analisa o movimento
00:29:28do seu dedo,
00:29:30ele analisa o padrão
00:29:31de consumo
00:29:32da bateria
00:29:32do seu celular,
00:29:33ele analisa
00:29:35deslocamento
00:29:36dos olhos,
00:29:37ele realmente,
00:29:39o número de sinais
00:29:41que ele analisa
00:29:42para medir
00:29:43a sua percepção
00:29:44e a compreensão dele
00:29:46do conteúdo
00:29:46que está sendo mostrado
00:29:48para você,
00:29:48né,
00:29:49de entender exatamente
00:29:50o que te chamou
00:29:51atenção,
00:29:52é muito impressionante.
00:29:54Então,
00:29:55ele é uma rede social
00:29:56que se pluga
00:29:58no nosso inconsciente.
00:29:59Tanto que não adianta
00:30:00você ir no TikTok
00:30:01aquilo que eu te falei,
00:30:02dar like,
00:30:03100 mil likes
00:30:04em conteúdos educacionais,
00:30:05falar,
00:30:05não,
00:30:06eu quero ver
00:30:06só o canal Futura,
00:30:08quero ver o canal
00:30:08do Ronaldo,
00:30:09quero ver o Expresso Futuro
00:30:10aqui e tal,
00:30:12ele vai,
00:30:13ele não vai priorizar,
00:30:14ele vai priorizar...
00:30:15A dancinha.
00:30:16Pode ser a dancinha,
00:30:18pode ser coisa melhor,
00:30:18pode ser coisa pior,
00:30:20entendeu?
00:30:20cada um tem as suas preferências,
00:30:23sabe aquilo que lhe toca,
00:30:25entendeu?
00:30:25E ele vai descobrir.
00:30:27Eu tenho uma outra pergunta,
00:30:29mas queria passar para o Miceli,
00:30:30para ele poder perguntar também.
00:30:33Quero ouvir a opinião do Ronaldo
00:30:34sobre o que é uma rede social.
00:30:38Pensa só,
00:30:39quando a gente se deparou
00:30:42com esse novo mundo ali,
00:30:44depois da chegada do 4G
00:30:45e essa possibilidade
00:30:48de expansão
00:30:49de uma característica
00:30:51que também é bastante humana,
00:30:53que é a do senso de pertencimento
00:30:55a grupos.
00:30:56O argumento principal
00:30:57para inconscientemente
00:30:58tanta gente aderir
00:30:59às redes sociais
00:31:00está muito pautado
00:31:02nessa nossa necessidade
00:31:04de que,
00:31:05de forma comunitária,
00:31:08os seres humanos
00:31:08são mais fortes
00:31:09e chegamos aqui
00:31:10onde estamos hoje,
00:31:12justamente por essa construção
00:31:14desses vínculos,
00:31:16não só com os nossos parentes,
00:31:17mas com amigos,
00:31:18com pessoas com as quais
00:31:19nós compartilhamos valores
00:31:21e determinadas características
00:31:23que são importantes.
00:31:25E aí,
00:31:25a hoje meta,
00:31:27então,
00:31:27o Facebook Inc,
00:31:29criou,
00:31:30através de aquisições
00:31:31ou de construção
00:31:32de algoritmos,
00:31:33redes que têm
00:31:35características complementares.
00:31:37Você tem ali
00:31:38um WhatsApp
00:31:39que,
00:31:41conforme a descrição
00:31:42do próprio Facebook
00:31:44naquele momento,
00:31:45era a rede social
00:31:47que mantinha
00:31:48os vínculos
00:31:49mais próximos
00:31:50àquelas pessoas
00:31:51que você tem
00:31:52o número de celular,
00:31:53portanto,
00:31:53você troca mensagens,
00:31:55você conversa ali
00:31:55mais de perto.
00:31:57O Facebook,
00:31:58que tinha um círculo
00:31:59de amizade
00:32:00um pouco mais amplo,
00:32:02dali a ideia
00:32:03de construir os grupos
00:32:04do Facebook.
00:32:05E, por fim,
00:32:06o Instagram,
00:32:07que é aquele
00:32:07um para N,
00:32:09onde N é o maior possível.
00:32:10muitos construtores
00:32:13de conteúdo,
00:32:15influenciadores,
00:32:16ali é uma rede social
00:32:17pautada nessa relação
00:32:19de admiração
00:32:20que uma pessoa consegue
00:32:21despertar na outra
00:32:22pelo que é,
00:32:23pelo conteúdo
00:32:23que entrega
00:32:25e também pelos vínculos
00:32:26sociais que constrói.
00:32:27Quando a gente tem
00:32:28um TikTok
00:32:29que distribui
00:32:30conforme
00:32:31análises biométricas
00:32:33a natureza
00:32:35do conteúdo
00:32:36que você
00:32:37normalmente
00:32:37consome,
00:32:39elementos
00:32:41que são mais
00:32:42quantitativos,
00:32:44a gente
00:32:44está numa rede social
00:32:47ainda
00:32:47ou a gente
00:32:48está
00:32:48num broadcast
00:32:49mais inteligente
00:32:51do que era
00:32:51a nossa TV?
00:32:53Excelente,
00:32:53Miceli.
00:32:54Ó,
00:32:54bacana.
00:32:56E até escrevi
00:32:57um artigo
00:32:57para a Folha
00:32:58sobre esse assunto
00:32:59que é
00:32:59o fim do Instagram
00:33:01como conhecemos.
00:33:03E eu acho
00:33:04que o que você
00:33:04descreveu
00:33:05é um pouco isso.
00:33:06rede social
00:33:09ele é um conceito
00:33:11que não vem
00:33:12da internet,
00:33:13ele precede
00:33:14muito mais
00:33:15a internet.
00:33:15O que é
00:33:16a sua rede social?
00:33:17Você desenha
00:33:19você
00:33:20como um círculo
00:33:21e você
00:33:23começa a conectar
00:33:24com as pessoas
00:33:24que você conhece.
00:33:25Então,
00:33:26o seu pai,
00:33:27a sua mãe,
00:33:28seus amigos,
00:33:29seu amigo de colégio,
00:33:30seu colega de faculdade,
00:33:31seu colega do esporte.
00:33:32Então,
00:33:33você vai criando
00:33:34essa teia
00:33:35que mapeia
00:33:36as pessoas
00:33:37com quem você
00:33:38tem contato.
00:33:39Isso é o que a gente
00:33:40chama
00:33:40da nossa rede social.
00:33:44As redes sociais
00:33:45online,
00:33:46elas
00:33:46sacaram
00:33:48esse modelo,
00:33:48inicialmente,
00:33:49quem lembra
00:33:50do finado
00:33:51Orkut,
00:33:52por exemplo,
00:33:53era uma rede social
00:33:54quase que pura,
00:33:55que tentava
00:33:55mapear
00:33:56exatamente
00:33:57o seu tecido
00:33:59social
00:34:00e assim por diante.
00:34:02O problema
00:34:03é que,
00:34:04na medida em que
00:34:05foi evoluindo,
00:34:06virou uma mistura
00:34:07das pessoas
00:34:08com quem você
00:34:09conecta
00:34:09com as pessoas
00:34:11que você segue,
00:34:12às vezes,
00:34:13não é conectado.
00:34:14Você tem o veículo
00:34:15da imprensa
00:34:16e assim por diante,
00:34:17mas, de qualquer forma,
00:34:18você decidiu agregar
00:34:19aquilo ali
00:34:19nos seus conteúdos.
00:34:22O que está acontecendo
00:34:24agora
00:34:24é que o TikTok
00:34:26rompeu com isso.
00:34:28Ele não entrega
00:34:29o conteúdo mais
00:34:29para você
00:34:30com base
00:34:31em quem você
00:34:31segue.
00:34:34A premissa
00:34:35até agora
00:34:36era
00:34:36o conteúdo
00:34:37que mais me
00:34:38interessa
00:34:39é o conteúdo
00:34:39das pessoas
00:34:40que estão
00:34:41próximas a mim.
00:34:42Então,
00:34:42eu quero acompanhar
00:34:43as pessoas
00:34:44que eu sigo.
00:34:44Então,
00:34:45eu vou seguir
00:34:45o Cloud,
00:34:46eu vou seguir
00:34:46o Miceli,
00:34:47eu vou seguir
00:34:48o MIT Tech Review
00:34:49e assim por diante.
00:34:50Por quê?
00:34:51Porque aquilo
00:34:52é o que eu decidi
00:34:53acompanhar,
00:34:55porque aquilo
00:34:55me toca,
00:34:56aquilo me interessa
00:34:57e assim por diante.
00:34:58o que o TikTok
00:34:59fez
00:35:00é o seguinte,
00:35:02as pessoas
00:35:02que você segue
00:35:03ainda tem
00:35:04alguma importância,
00:35:06ele ainda te mostra
00:35:07conteúdo delas,
00:35:08mas essa importância
00:35:09ela é pequena,
00:35:11porque uma vez
00:35:12que o TikTok
00:35:13consegue captar
00:35:14exatamente
00:35:15o que você quer ver,
00:35:18aquela sua preferência
00:35:19profunda,
00:35:19intuitiva,
00:35:21ele vai buscar
00:35:21o que te mostrar
00:35:22não nas pessoas
00:35:24que você segue,
00:35:25ele vai buscar
00:35:25o que te mostrar
00:35:26no mundo inteiro,
00:35:28ele vai mapear
00:35:28a rede dele inteira
00:35:30e vai falar assim,
00:35:31esse conteúdo aqui
00:35:32feito na Coreia
00:35:34é exatamente
00:35:36o que o Ronaldo
00:35:36quer ver agora,
00:35:37ele vai puxar
00:35:38aquele conteúdo
00:35:38e vai colocar
00:35:39na minha frente.
00:35:41Se eu responder,
00:35:42ele vai confirmar
00:35:43aquela minha preferência,
00:35:45se eu falar,
00:35:46não,
00:35:46isso aqui eu não quero,
00:35:47ele vai buscar
00:35:48outra coisa
00:35:49e vai ficar
00:35:50me testando
00:35:50até achar exatamente
00:35:52o que eu quero ver.
00:35:54Então,
00:35:55qual é o efeito
00:35:56que isso traz?
00:35:57Primeiro,
00:35:58a importância
00:35:59das pessoas reais
00:36:00que você optou
00:36:01por seguir,
00:36:02ela cai brutalmente,
00:36:04então,
00:36:06é como se você
00:36:06trocasse
00:36:07o seu círculo
00:36:09social online,
00:36:10a sua vida
00:36:11comunitária
00:36:12por algo
00:36:13abstrato
00:36:14que está
00:36:15intimamente
00:36:16ligado
00:36:17ao que você quer ver,
00:36:18mas que pode estar
00:36:18sendo produzido
00:36:19em qualquer lugar.
00:36:20em outras palavras,
00:36:22isso aumenta
00:36:23a sensação
00:36:24de perda
00:36:25de comunidade,
00:36:26a sensação
00:36:27de você
00:36:29pertencer
00:36:30a um grupo
00:36:31e isso
00:36:32acaba atomizando
00:36:34as pessoas
00:36:34ainda mais,
00:36:35elas vão ficar
00:36:36cada vez mais
00:36:36sozinhas
00:36:38e não só
00:36:39sozinhas,
00:36:41desconectadas
00:36:42do círculo
00:36:42social próximo.
00:36:44As consequências
00:36:45disso,
00:36:46sociais,
00:36:47políticas,
00:36:47etc.,
00:36:48eu acho
00:36:49que são
00:36:49ainda
00:36:49uma incógnita,
00:36:51mas eu me
00:36:52preocupo,
00:36:52porque eu não
00:36:53acho que isso
00:36:54vai ser bom,
00:36:54eu acho que a gente
00:36:55vai ter momentos
00:36:56difíceis,
00:36:57exatamente porque
00:36:58a gente vai erodir
00:36:59o último
00:37:01bastião
00:37:01de comunidade
00:37:03que ainda existia
00:37:04no mundo online.
00:37:04você acha
00:37:06que,
00:37:07isso é isso,
00:37:08eu já assisti
00:37:09algumas entrevistas
00:37:11suas e percebo
00:37:13que você tem
00:37:13uma,
00:37:15você mencionou
00:37:16isso no início
00:37:17aqui,
00:37:18uma certa utopia,
00:37:19um certo romantismo
00:37:20em relação
00:37:21à internet
00:37:23e as tecnologias
00:37:24agregadas
00:37:25a isso,
00:37:26então,
00:37:27eu não me lembro
00:37:28exatamente
00:37:28onde foi
00:37:29que você falou,
00:37:30mas ficou
00:37:30marcado
00:37:31para mim
00:37:31uma menção
00:37:33que você fez assim,
00:37:34poxa,
00:37:35era legal,
00:37:36a internet era boa
00:37:37quando a gente
00:37:37podia explorar
00:37:39a internet,
00:37:40podia ir atrás
00:37:41de conteúdos
00:37:42que nem nos,
00:37:45que a gente
00:37:46nem achava
00:37:47que queria,
00:37:48vamos dizer assim,
00:37:49e que depois
00:37:51aí veio o Google
00:37:51começou a colocar
00:37:53o algoritmo também
00:37:54que ele te impõe
00:37:55uma certa
00:37:56lógica ali também
00:37:58comercial,
00:37:58etc,
00:37:59no conteúdo
00:38:00que você
00:38:01está pesquisando,
00:38:02e agora,
00:38:04você quando fala,
00:38:05quando descreve
00:38:06o TikTok,
00:38:07parece
00:38:09um pouco
00:38:11aquele raciocínio
00:38:12anterior,
00:38:13mas não é isso.
00:38:14Não,
00:38:15é isso
00:38:15em esteroides,
00:38:17porque é o seguinte,
00:38:21o que acontece,
00:38:23a gente está falando
00:38:24aqui sobre
00:38:24perda de controle,
00:38:25a minha briga
00:38:26com o caminho
00:38:27que a gente está
00:38:28seguindo é que
00:38:28o indivíduo
00:38:29está perdendo o controle
00:38:31sobre o que ele vê,
00:38:31então,
00:38:33no início da internet,
00:38:35o controle era
00:38:36total do indivíduo,
00:38:37não tinha ninguém
00:38:38decidindo,
00:38:39eu que tinha que tomar
00:38:39a iniciativa
00:38:40e buscar um conteúdo,
00:38:42inclusive,
00:38:42era difícil,
00:38:43você tinha que ficar
00:38:44procurando em bibliotecas,
00:38:46em fóruns,
00:38:47não era uma coisa simples,
00:38:49depois você começou
00:38:50a ter alguns buscadores,
00:38:51antes do Google,
00:38:52Alta Vista
00:38:53e outros,
00:38:55e aí veio o Google
00:38:56e com um modelo
00:38:58brilhante,
00:38:59de relevância,
00:39:01em que ele passou
00:39:02a entender como
00:39:03relevantes os conteúdos
00:39:04na medida em que
00:39:05os links apontavam
00:39:06para um determinado
00:39:07conteúdo,
00:39:08então,
00:39:08quanto mais links
00:39:09para uma página,
00:39:10ele supunha que aquela
00:39:11página era mais importante,
00:39:13então,
00:39:13isso mudou tudo,
00:39:14porque ele criou
00:39:15uma hierarquia
00:39:16no conteúdo
00:39:17com base em relevância,
00:39:19agora,
00:39:20o que aconteceu
00:39:21dali para cá?
00:39:22A gente tem visto
00:39:23progressivamente
00:39:24a gente perder o controle,
00:39:26a minha crítica
00:39:27à mudança do Google
00:39:29é quando o Google
00:39:29tinha o Google Reader,
00:39:31o que era o Google Reader?
00:39:32Antes de existir
00:39:34esse modelo
00:39:34do feed,
00:39:35da rede social,
00:39:37você ia no site,
00:39:38você assinava os sites
00:39:40com uma tecnologia
00:39:40chamada RSS,
00:39:43e esse RSS
00:39:44era um agregador,
00:39:45então,
00:39:45eu podia ir lá
00:39:46no antagonista,
00:39:47assinava o feed
00:39:48do antagonista,
00:39:49aí eu assinava o feed
00:39:50da Folha de São Paulo,
00:39:51assinava o feed
00:39:52de um blog,
00:39:53de um amigo
00:39:53ou de uma amiga,
00:39:55e aí,
00:39:55no meu agregador,
00:39:56era muito fácil
00:39:57eu ficar navegando
00:39:57de um para um
00:39:58para ver o que tem
00:39:59de novo aqui,
00:40:00como se você estivesse
00:40:00folheando revistas
00:40:02diferentes,
00:40:03mas eu decidia
00:40:04quais revistas
00:40:05eu assinava,
00:40:06e mais ou menos
00:40:07em 2000,
00:40:08acho que foi 2010,
00:40:092011,
00:40:10o Google eliminou
00:40:11o Google Reader,
00:40:12que era o agregador
00:40:13dele de feed,
00:40:14exatamente porque
00:40:16no modelo do RSS,
00:40:17eu decidia
00:40:19o que eu queria ver,
00:40:20você entendeu?
00:40:21A decisão era minha,
00:40:23e a partir desses momentos,
00:40:25a forma como
00:40:26o que aparece
00:40:27para você surge,
00:40:29não é mais
00:40:29a decisão sua,
00:40:30é a decisão
00:40:31do algoritmo,
00:40:32e só que o algoritmo
00:40:34hoje leva em consideração
00:40:36quem é a sua rede social,
00:40:38então ele leva em consideração
00:40:39se eu assinei
00:40:40o antagonista,
00:40:40então ele joga
00:40:41de vez em quando
00:40:42o conteúdo do antagonista
00:40:43para mim,
00:40:44ele joga
00:40:45o conteúdo
00:40:46da minha prima,
00:40:47eu assinei,
00:40:49eu sigo a minha prima
00:40:50no Facebook,
00:40:52então o conteúdo dela
00:40:54de vez em quando
00:40:54aparece para mim,
00:40:56o que o TikTok
00:40:56está fazendo
00:40:57é que nem as pessoas
00:40:59que eu sigo
00:41:00vão ser mais importantes,
00:41:02entendeu?
00:41:02Então é a perda
00:41:03completa
00:41:04do controle,
00:41:06porque o que o TikTok
00:41:07vai te mostrar,
00:41:08de novo,
00:41:09na maioria dos casos,
00:41:10ele continua mostrando
00:41:11quem você segue,
00:41:12inclusive tem uma aba
00:41:13específica para você
00:41:15ver só as pessoas
00:41:16que você segue,
00:41:17mas a aba principal,
00:41:19que é onde a pessoa
00:41:19passa 99%,
00:41:21às vezes mais de 90%
00:41:23do tempo dela,
00:41:24ela é irrelevante
00:41:26quem você segue,
00:41:27ela é gerada
00:41:30a partir do TikTok,
00:41:31analisando
00:41:32o que que você
00:41:34realmente quer
00:41:36intimamente,
00:41:37às vezes nem você sabe,
00:41:38e colocando aquilo
00:41:39na sua frente,
00:41:40e te testando
00:41:41para ver o que
00:41:42que você responde,
00:41:43e com base
00:41:44nesses testes,
00:41:45ele vai te mostrar
00:41:46mais daquilo.
00:41:47Então,
00:41:48no TikTok,
00:41:49em tese,
00:41:50você não precisa
00:41:50seguir ninguém,
00:41:52que é o que acontece,
00:41:53quando você entra
00:41:54no algoritmo,
00:41:54no aplicativo,
00:41:56e você não tem,
00:41:57não está seguindo
00:41:58ninguém ainda,
00:41:59já começa a aparecer
00:42:00coisa interessante
00:42:01para você,
00:42:02só pela marca
00:42:03do seu celular,
00:42:04pelo tanto de bateria
00:42:05que tem nele,
00:42:06ele já te coloca
00:42:07num determinado
00:42:08posicionamento,
00:42:09o lugar onde você está,
00:42:10então qual é o seu
00:42:11endereço,
00:42:12com base já nesses pontos,
00:42:13ele fala assim,
00:42:14hum,
00:42:14estou achando que o Ronaldo
00:42:15é um cara que mora,
00:42:17sei lá,
00:42:18na zona oeste
00:42:19de São Paulo,
00:42:21ele tem um celular
00:42:22mais caro,
00:42:24então ele deve ter
00:42:25preferência de consumo
00:42:27um pouco mais elevado,
00:42:28você entendeu?
00:42:29Ele já te posiciona
00:42:30em algum lugar
00:42:30e começa a te testar,
00:42:32e aí você vai responder
00:42:33naqueles testes,
00:42:34naqueles estímulos,
00:42:35e aí é irrelevante
00:42:37quem você segue,
00:42:38se você segue a sua prima,
00:42:39a sua mãe,
00:42:40a sua tia,
00:42:40isso é irrelevante,
00:42:43porque você vai ficar
00:42:43na mão do algoritmo
00:42:45do TikTok.
00:42:45O objetivo final
00:42:48do TikTok com isso,
00:42:50qual é?
00:42:51Maximizar o tempo
00:42:53de tela,
00:42:53ele quer que você fique
00:42:55o máximo possível
00:42:56com o celular ali
00:42:58observando o próprio TikTok,
00:43:00atraindo a sua atenção,
00:43:01te fixando ali,
00:43:02te bombardeando
00:43:04com publicidade.
00:43:05Exatamente,
00:43:06e lembrando,
00:43:07atenção é um recurso
00:43:08escasso,
00:43:09economia da atenção.
00:43:10Só tem 24 horas
00:43:12no dia,
00:43:13teoricamente,
00:43:138 dessas horas
00:43:14você deveria estar dormindo,
00:43:16tem gente que já não está,
00:43:17porque fica no TikTok,
00:43:18e troca sono
00:43:20por rede social,
00:43:22por qualquer outra coisa,
00:43:23então,
00:43:24atenção é um recurso
00:43:25limitado,
00:43:26ao aumentar
00:43:27o meu consumo
00:43:28de TikTok,
00:43:28eu vou diminuir
00:43:29o meu consumo
00:43:30de Instagram.
00:43:30Você tem filho?
00:43:31Não,
00:43:32ainda não tenho filhos.
00:43:32Não tem ainda?
00:43:34Bom,
00:43:34eu tenho uma filha,
00:43:35não sei se o André,
00:43:36André,
00:43:36você tem filhos?
00:43:38Tenho dois.
00:43:39Dois,
00:43:39bom,
00:43:39então a tua preocupação
00:43:40deve ser a mesma
00:43:41que a minha.
00:43:42Cara,
00:43:43como que a gente
00:43:44extrapola
00:43:45da discussão,
00:43:46da observação,
00:43:48e passa
00:43:49para o nível
00:43:50da educação?
00:43:51Porque a gente
00:43:52está tratando
00:43:52de coisas
00:43:53que elas existem
00:43:54independentemente
00:43:56de você
00:43:56querer,
00:43:58de qualquer tipo
00:43:59de escolha
00:43:59que você faça.
00:44:01Eu,
00:44:01por exemplo,
00:44:01a minha filha,
00:44:03até uns quatro anos
00:44:04de idade,
00:44:05eu tentava
00:44:05manter ela offline
00:44:06o máximo possível.
00:44:08Aí eu descobri
00:44:09que ela estava
00:44:11se tornando
00:44:11uma analfabeta
00:44:12digital comparada
00:44:13com as colegas
00:44:15da creche
00:44:16e agora
00:44:16da escola.
00:44:18Aí eu falei assim,
00:44:19não,
00:44:19puxa,
00:44:20ela precisa entender
00:44:21como funcionam
00:44:21esses gadgets
00:44:24todos,
00:44:24essa coisa.
00:44:25Bom,
00:44:26está aqui o celular,
00:44:27pronto.
00:44:28Aí abriu-se
00:44:29um universo.
00:44:30Hoje eu enfrento
00:44:31o seguinte problema
00:44:31em casa.
00:44:33Está lá no Minecraft,
00:44:34daqui a pouco
00:44:35ela está nos tutoriais
00:44:37do Minecraft
00:44:37no YouTube,
00:44:39e aí ela é uma criança
00:44:41de seis anos de idade
00:44:42que começa a ter acesso
00:44:43a tutoriais
00:44:44gravados por
00:44:46adolescentes
00:44:47ou por jovens
00:44:49de mais de 20,
00:44:5025,
00:44:50às vezes até de 30.
00:44:52A gente tem aí
00:44:52uns velhos
00:44:53que se vendem
00:44:54como jovens,
00:44:55alguns youtubers
00:44:56que são super famosos
00:44:57agora
00:44:58e que até
00:44:59resolveram palpitar
00:45:00na política
00:45:00e que são
00:45:01péssimas influências
00:45:03para uma criança
00:45:04de seis anos de idade.
00:45:06Então, assim,
00:45:06eu te confesso,
00:45:07como pai
00:45:08eu fico sem saber
00:45:09o que fazer
00:45:10porque você não tem,
00:45:12sei lá,
00:45:12você vai para uma escola
00:45:13e fala assim,
00:45:13não,
00:45:14a gente aqui
00:45:14tem um ensino moderno,
00:45:16a gente aqui
00:45:16dá um tablet
00:45:17para ensinar,
00:45:19a gente ensina
00:45:19robótica,
00:45:20programação,
00:45:21mas, gente,
00:45:22espera aí,
00:45:22a gente não consegue
00:45:25educar
00:45:26o consumo
00:45:27desse tipo
00:45:28de informação.
00:45:30Então,
00:45:31o que você descreve
00:45:33é a realidade
00:45:34da maioria
00:45:35das crianças
00:45:35que estão conectadas.
00:45:37Essa batalha,
00:45:38Cláudio,
00:45:39ela é uma batalha árdua,
00:45:41viu?
00:45:41É difícil de vencer
00:45:42porque,
00:45:44o primeiro,
00:45:45especialmente para a criança
00:45:47e daqui a pouco
00:45:48eu imagino
00:45:48que ela vai começar
00:45:49a usar Roblox
00:45:50e a usar outras plataformas
00:45:52também,
00:45:53é muito difícil sair.
00:45:55E, por exemplo,
00:45:56o próprio TikTok
00:45:56não é recomendável
00:45:58para a criança,
00:45:59tá?
00:46:00A idade mínima
00:46:01deveria ser 13 anos,
00:46:03que já acho até cedo,
00:46:04mas a verdade
00:46:05é que tem muita criança
00:46:06no TikTok
00:46:06e tem conteúdo ali
00:46:08que é muito complicado,
00:46:10você entendeu?
00:46:11Então,
00:46:12para os pais hoje
00:46:13é um dilema
00:46:14muito difícil
00:46:16você fazer...
00:46:17Posso fazer um parêntese?
00:46:18Pode.
00:46:18Porque você citou
00:46:19o Canal Futura,
00:46:20e aí você me lembrou
00:46:21um negócio
00:46:22que eu lá no início
00:46:23da minha carreira
00:46:24eu cheguei a contribuir
00:46:26com roteiros
00:46:27para um programa
00:46:28chamado Teca na TV
00:46:29e eu me lembro
00:46:31perfeitamente
00:46:31que, assim,
00:46:32isso tinha uma curadoria
00:46:34pedagógica,
00:46:35você tinha que desenvolver
00:46:36o roteiro
00:46:37dentro de um escopo
00:46:39em que, olha,
00:46:40até os personagens
00:46:41que você criava
00:46:42para um determinado episódio,
00:46:44eles tinham que ter
00:46:45uma aprovação
00:46:46da faixa etária,
00:46:47tinha que ter...
00:46:48Aquilo tinha que estar
00:46:49dentro de um escopo
00:46:50pré-aprovado
00:46:50porque você não podia
00:46:52extrapolar
00:46:53na criatividade,
00:46:55na criação
00:46:56daquele negócio.
00:46:57Então, assim,
00:46:58fechando,
00:46:58porque você citou
00:46:59o Futura várias vezes
00:47:00e a gente vai conversar
00:47:01sobre isso aqui
00:47:02por causa do teu programa
00:47:03e tal,
00:47:04mas é incrível,
00:47:06porque você não tem
00:47:07mais controle nenhum.
00:47:08Você tem lá
00:47:09o YouTube Kids
00:47:10e você saiu
00:47:12do YouTube Kids
00:47:13e vai para um YouTube
00:47:14que não tem...
00:47:15Um dia desse
00:47:15eu estava tentando
00:47:16regular
00:47:16o que podia aparecer,
00:47:18o que podia...
00:47:18Eu não consegui.
00:47:19É a mesma coisa,
00:47:20é o que a gente
00:47:20está falando aqui.
00:47:21Se a gente não tem controle
00:47:23do que a gente vê,
00:47:24nós mesmos,
00:47:25vai ter controle
00:47:25sobre o que as crianças
00:47:26veem, entendeu?
00:47:27É quase impossível
00:47:28para um pai
00:47:29ou para uma mãe hoje
00:47:30controlar
00:47:31o que o filho
00:47:32ou a filha
00:47:33vai conseguir ver online,
00:47:34você entendeu?
00:47:35Então,
00:47:36e o fato é o seguinte,
00:47:38você falou, por exemplo,
00:47:39da experiência do futuro.
00:47:41Você ia fazer
00:47:41um programa infantil antes,
00:47:44tinha um estudo pedagógico,
00:47:45aquilo tinha uma orientação
00:47:47para uma formação psíquica,
00:47:49social, emocional
00:47:50e assim por diante.
00:47:52Hoje,
00:47:53o conteúdo infantil
00:47:54que circula
00:47:55de forma,
00:47:56vamos dizer,
00:47:57não supervisionada,
00:47:59porque ninguém supervisiona,
00:48:01ele é
00:48:02cheio de problemas,
00:48:04ele é feito
00:48:06para maximizar
00:48:07respostas de novo,
00:48:09inconscientes
00:48:10das crianças.
00:48:11Então,
00:48:11a criança responde
00:48:13a vozes infantilizadas,
00:48:15então vamos colocar
00:48:16vozes infantilizadas.
00:48:17Ela responde
00:48:18a determinados padrões
00:48:19de cor
00:48:20e de imagem,
00:48:22então vamos colocar
00:48:23determinados padrões
00:48:24de cor e de imagem.
00:48:26É quase uma hipnose,
00:48:28não é hipnose
00:48:29propriamente dita,
00:48:30porque seria
00:48:31um desrespeito
00:48:32à história da hipnose
00:48:34comparar,
00:48:35mas é malicioso,
00:48:38você entendeu?
00:48:38É uma forma
00:48:39de pegar a atenção
00:48:40das crianças,
00:48:41que são muito vulneráveis,
00:48:44da forma mais
00:48:45behaviorista possível,
00:48:47que é pegar elas
00:48:48por respostas
00:48:50biológicas,
00:48:51quase,
00:48:52em que você
00:48:53captura a atenção
00:48:54das crianças
00:48:55e não larga mais.
00:48:56E o impacto
00:48:58disso para a formação
00:48:59das crianças
00:49:00é difícil de prever,
00:49:02porque a gente não viu
00:49:03essa geração
00:49:04crescer ainda,
00:49:05mas a gente viu
00:49:06a geração anterior,
00:49:08que já sofre hoje
00:49:09com problemas de ansiedade,
00:49:11de depressão,
00:49:11de saúde mental,
00:49:12a gente está vendo
00:49:13uma epidemia
00:49:14de questões
00:49:16de saúde mental
00:49:17entre jovens,
00:49:18entre pré-adolescentes,
00:49:20e não é trivial
00:49:21isso,
00:49:21você entendeu?
00:49:22Então,
00:49:23a minha preocupação,
00:49:24e eu acompanho,
00:49:26até por causa
00:49:27do nosso Instituto
00:49:28de Pesquisa no Rio,
00:49:29esse tipo de conteúdo,
00:49:30é que, por exemplo,
00:49:32há uma explosão
00:49:33hoje
00:49:33de conteúdo
00:49:35sobre ansiedade
00:49:36e saúde mental
00:49:37para crianças.
00:49:38Se você entra
00:49:39no TikTok hoje,
00:49:41o assunto
00:49:41ansiedade
00:49:43é um dos principais
00:49:44assuntos
00:49:45discutidos
00:49:46na plataforma,
00:49:47especialmente
00:49:48por crianças,
00:49:49é quase inacreditável.
00:49:51Eu fui descobrir
00:49:52a palavra ansiedade,
00:49:53sei lá,
00:49:53quando eu tinha 16 anos,
00:49:55sei você,
00:49:56mas é uma palavra
00:49:57que não fazia parte
00:49:58do meu vocabulário
00:49:59enquanto eu era criança.
00:50:01Hoje em dia,
00:50:03tem criança de 8,
00:50:049 anos
00:50:05assistindo vídeo
00:50:06de saúde mental,
00:50:08falando de ansiedade,
00:50:09falando de depressão,
00:50:10falando de assuntos
00:50:11que são pesados
00:50:13e vídeos
00:50:13que são feitos
00:50:14para essa faixa etária,
00:50:16entendeu?
00:50:17Então,
00:50:18o que me preocupa
00:50:20é isso.
00:50:20De novo,
00:50:21se a gente não consegue
00:50:21controlar
00:50:22nem o que a gente vê,
00:50:24quanto mais
00:50:25você vai controlar
00:50:26o que o seu filho
00:50:27ou a sua filha
00:50:27vai ver,
00:50:28entendeu?
00:50:28Por isso que eu acho
00:50:29que essa batalha
00:50:30é árdua,
00:50:31como eu falei,
00:50:32e ela é muito difícil
00:50:33de ser vencida,
00:50:34você entendeu?
00:50:35Então,
00:50:35o que eu recomendo,
00:50:36né?
00:50:37É supervisão,
00:50:38é o pai e a mãe
00:50:40estarem próximos,
00:50:41acompanharem,
00:50:43entenderem,
00:50:44fazer um esforço
00:50:44de saber
00:50:45quais os ambientes virtuais
00:50:47que a criança
00:50:48está frequentando,
00:50:49com quem ela se relaciona,
00:50:50controlar o tempo
00:50:51de tela,
00:50:52não pode deixar
00:50:53a criança livre
00:50:54para ficar
00:50:55quantas horas
00:50:56ela quiser conectada,
00:50:57então,
00:50:59essas medidas
00:51:00são fundamentais,
00:51:01porque pode ter certeza,
00:51:04se você não
00:51:04controlar a sua criança,
00:51:06o algoritmo
00:51:06irá controlar,
00:51:08ela vai ficar
00:51:08na mão
00:51:09de decisões
00:51:10que são
00:51:11maximizadas
00:51:12para
00:51:13engajar
00:51:16respostas
00:51:16emocionais
00:51:17que muitas vezes
00:51:19uma criança
00:51:19nem está preparada
00:51:20para vivenciar,
00:51:21então tem que tomar
00:51:22muito cuidado.
00:51:23E me preocupa
00:51:23que muitos pais
00:51:24também não estão
00:51:25preparados
00:51:26para fazer,
00:51:27para seguir
00:51:27essas orientações
00:51:28que você está dando
00:51:29aqui,
00:51:29não tem a menor
00:51:30ideia.
00:51:32É por isso
00:51:34que assim,
00:51:35tem criança
00:51:35hoje sendo criada
00:51:36pelo algoritmo
00:51:38do TikTok,
00:51:38a verdade é essa,
00:51:40isso é um problema,
00:51:42não é uma coisa...
00:51:43Essa tua frase
00:51:44eu acho fantástica agora,
00:51:46tem criança
00:51:47sendo criada
00:51:47pelo algoritmo
00:51:48do TikTok.
00:51:49Michel?
00:51:49Michel?
00:51:51Bom,
00:51:52a gente está falando
00:51:52bastante sobre
00:51:53o lado que consome,
00:51:55agora eu quero ouvir
00:51:56um pouco da opinião
00:51:57do Ronaldo
00:51:58sobre o lado
00:51:58que produz o conteúdo.
00:52:00Parte
00:52:01das explicações
00:52:04pelas quais
00:52:04um determinado perfil
00:52:06faz sucesso,
00:52:07parte passa
00:52:07pelas respostas biológicas
00:52:09que a gente tem,
00:52:12ainda que
00:52:12de uma maneira
00:52:13mais comedida,
00:52:16as redes sociais
00:52:17atuais
00:52:17usam as nossas
00:52:18reações também
00:52:19para perceber
00:52:22os algoritmos
00:52:23que vão ter
00:52:24maior probabilidade
00:52:25de fazer sucesso
00:52:26para cada um de nós
00:52:27e de uma maneira geral
00:52:29o que a gente
00:52:29tem percebido
00:52:30é muito pouco
00:52:31o confrontamento
00:52:32de ideias,
00:52:33os algoritmos
00:52:34para nos manterem
00:52:34ali dentro
00:52:36daquela rede social
00:52:38engrossam a bolha
00:52:39e essa bolha
00:52:40é fundamental
00:52:42para tudo aquilo
00:52:44que a gente recebe.
00:52:46Um dos argumentos
00:52:48que o Trump usou
00:52:49quando foi banido
00:52:52do Twitter
00:52:53para criar
00:52:54a própria rede social,
00:52:56a Truth Social,
00:52:57é o fato
00:52:58de que
00:52:59a internet
00:53:00nasceu para ser livre
00:53:01como você disse,
00:53:03Ronaldo,
00:53:03e eu também concordo.
00:53:05A questão é
00:53:06se a gente tem
00:53:08um lado
00:53:09que controla
00:53:10a distribuição
00:53:11e um outro lado
00:53:12que pode produzir
00:53:15em uma determinada
00:53:16rede social
00:53:17supostamente
00:53:18qualquer coisa,
00:53:20o que vai
00:53:21determinar
00:53:23o que é opinião,
00:53:25o que é visão,
00:53:26o que é mentira,
00:53:27o que é fato?
00:53:29Quem vai ter
00:53:29essa responsabilidade,
00:53:31Ronaldo,
00:53:31do lado de quem produz?
00:53:33Pode falar qualquer coisa
00:53:34na rede social?
00:53:35Qual a tua visão
00:53:35sobre
00:53:36essa
00:53:37proposta
00:53:39de valor
00:53:40que o Trump
00:53:41entrega
00:53:43com a Truth Social?
00:53:44Ronaldo é
00:53:47Conselheiro
00:53:48de Fiscalização
00:53:49de Conteúdo
00:53:49do Facebook,
00:53:50é isso,
00:53:50Meta?
00:53:50Isso,
00:53:51sou do Conselho
00:53:51de Supervisão
00:53:52do Facebook,
00:53:53Conselho Independente
00:53:54de Supervisão.
00:53:54Conselho Independente.
00:53:55Do Meta.
00:53:56Do Meta.
00:53:57Esse Conselho Independente
00:53:58o que é?
00:53:59Então,
00:53:59é uma instituição
00:54:00que foi criada,
00:54:01como o próprio nome diz,
00:54:02de forma independente,
00:54:03ela
00:54:04supervisiona
00:54:07em última instância
00:54:08os conteúdos
00:54:10do Meta,
00:54:11especialmente
00:54:11Facebook e Instagram
00:54:13e toma decisões
00:54:14que são
00:54:15obrigatórias
00:54:17para o Facebook
00:54:18e para o Instagram.
00:54:20Então,
00:54:21as decisões
00:54:21que esse Conselho
00:54:22toma,
00:54:22elas têm que ser
00:54:23implementadas
00:54:24por essas empresas.
00:54:26E isso,
00:54:27na minha opinião,
00:54:28é até uma evolução
00:54:29da forma
00:54:30como a gente pensa
00:54:31a moderação
00:54:31de conteúdo,
00:54:32porque a moderação
00:54:33antes era feita
00:54:34dentro da empresa,
00:54:35pela própria empresa.
00:54:36Hoje,
00:54:37com o modelo
00:54:37do Meta,
00:54:38que inclusive
00:54:38está sendo adotado
00:54:39agora por outras
00:54:40mídias
00:54:42e plataformas
00:54:43também,
00:54:44essa decisão
00:54:45passou a ser
00:54:46externa
00:54:47e independente.
00:54:50Isso não quer dizer
00:54:51que o Conselho
00:54:52supervisiona
00:54:52todos os conteúdos.
00:54:54Por ano,
00:54:54a gente seleciona
00:54:55cerca de
00:54:5640,
00:54:5850 casos
00:54:59emblemáticos
00:55:00de grande
00:55:01impacto social
00:55:02e a partir
00:55:03daqueles casos
00:55:04a gente tem
00:55:05uma interferência
00:55:06profunda
00:55:07na forma
00:55:07como a plataforma
00:55:08funciona.
00:55:09Por isso que tem
00:55:09muita gente
00:55:10que apelida
00:55:10esse Conselho
00:55:11de a Suprema
00:55:12Corte
00:55:13do Facebook,
00:55:14porque é a última
00:55:15instância mesmo
00:55:16que toma
00:55:16decisões importantes.
00:55:17Isso foi...
00:55:18Eu não quero que você
00:55:19deixe de responder
00:55:20ao Micélio,
00:55:20muito pelo contrário,
00:55:21minha ideia é que
00:55:22era só sublinhar
00:55:22até para qualificar
00:55:24ainda mais
00:55:24a sua resposta.
00:55:26Esse Conselho
00:55:27foi criado
00:55:28de que maneira?
00:55:29Foi uma imposição
00:55:30judicial?
00:55:31Foi uma decisão
00:55:32da própria Meta?
00:55:34O que aconteceu?
00:55:35Foi uma iniciativa
00:55:36da própria Meta
00:55:37logo depois
00:55:38das revelações
00:55:39do Cambridge Analytica
00:55:41e tal.
00:55:42Então foi uma forma
00:55:43da empresa
00:55:43cumprir com a sua
00:55:44responsabilidade social
00:55:45e melhorar
00:55:47a governança
00:55:48da moderação
00:55:49de conteúdo.
00:55:49Então foi aí
00:55:50que criou o Conselho.
00:55:51Agora, curiosamente,
00:55:52hoje a legislação europeia,
00:55:54o DSA,
00:55:55obriga que as empresas
00:55:56criem um sistema
00:55:58semelhante,
00:55:59um sistema
00:56:00de avaliação
00:56:01independente
00:56:02da moderação
00:56:02de conteúdo
00:56:03e várias outras empresas
00:56:05estão seguindo
00:56:05o mesmo caminho,
00:56:06dentre elas o Spotify,
00:56:08que criou um conselho
00:56:09também de segurança,
00:56:10do qual eu também
00:56:11faço parte.
00:56:12Eu faço parte
00:56:12do Conselho
00:56:13do Meta
00:56:14e faço parte
00:56:15do Conselho
00:56:15de segurança
00:56:16também do Spotify.
00:56:17Bom, fecha o parêntese,
00:56:18por favor,
00:56:19responda o Miceli
00:56:20para ele não ficar
00:56:21chateado comigo aqui.
00:56:22Miceli, vamos ver
00:56:23se eu vou lembrar
00:56:24da sua pergunta
00:56:25corretamente aqui.
00:56:27Mas é o seguinte,
00:56:30até, desculpa,
00:56:31resume ela em duas frases
00:56:35para mim, Miceli,
00:56:35só para eu te responder
00:56:36correto.
00:56:37Desculpa, Miceli,
00:56:37eu te atrapalhei.
00:56:38Não, eu que me atrapalhei,
00:56:39olha só como eu estou
00:56:40ruim da cabeça.
00:56:41Problema nenhum,
00:56:42eu quero saber
00:56:43sua opinião
00:56:43sobre a proposta
00:56:44de valor
00:56:45de uma True Social,
00:56:47por exemplo,
00:56:47a rede social do Trump,
00:56:48onde supostamente
00:56:49a gente pode produzir
00:56:50conteúdo
00:56:50conforme
00:56:52a nossa própria vontade.
00:56:53Perfeito.
00:56:53É, então,
00:56:54são dois polos extremos,
00:56:56né?
00:56:57Uma rede social
00:56:58que controla tudo,
00:56:59modera tudo e tal,
00:57:01que é altamente
00:57:02indesejável,
00:57:03absurda até, né?
00:57:05E no outro polo extremo,
00:57:07é a mesma coisa,
00:57:09é uma total ausência
00:57:10absoluta de controle,
00:57:12etc.
00:57:13Essa ausência
00:57:14de controle absoluto,
00:57:16uma das razões
00:57:17pelas quais
00:57:17ela não funciona,
00:57:19é exatamente
00:57:19porque a gente
00:57:20não tem
00:57:20a nossa identidade
00:57:21determinada online.
00:57:24Por isso que a proposta
00:57:25do Musk
00:57:26era tão interessante,
00:57:27que ele ia falar,
00:57:29fale quem você é,
00:57:30um cidadão,
00:57:30uma voz,
00:57:31saia do anonimato,
00:57:33e a partir daí
00:57:34eu vou baixar
00:57:35o sarrafo
00:57:37da moderação
00:57:37de conteúdo,
00:57:38e cada um
00:57:39é dono
00:57:39da sua própria voz,
00:57:40e responde
00:57:41na pessoa física
00:57:42ali por
00:57:43o que está dizendo.
00:57:45Teria sido
00:57:45um experimento
00:57:47muito interessante,
00:57:48eu adoraria
00:57:48ter acompanhado
00:57:49esse experimento,
00:57:50você entendeu?
00:57:51Agora,
00:57:52esse é o problema,
00:57:53é o princípio
00:57:54do filme do Homem-Aranha,
00:57:56com grande poder
00:57:57vem também
00:57:57grande responsabilidade.
00:57:59se você
00:58:01parte
00:58:02para um
00:58:03vale-tudo,
00:58:04com essa proposta
00:58:05de que mesmo
00:58:06pessoas e redes
00:58:08anônimas
00:58:08podem fazer
00:58:10o que elas quiserem,
00:58:11e etc.,
00:58:12infelizmente,
00:58:14a gente tem
00:58:15um espaço ali
00:58:16para o crescimento
00:58:18de, por exemplo,
00:58:19estados nacionais
00:58:21autoritários,
00:58:23que têm
00:58:23a possibilidade
00:58:24de mobilizar
00:58:24recursos
00:58:25vultuosos,
00:58:26para fazer
00:58:28uma comunicação
00:58:30maliciosa.
00:58:32Então,
00:58:33você entra ali
00:58:35num problema
00:58:35que é muito
00:58:36complexo.
00:58:37Por isso que
00:58:38eu gosto muito
00:58:40do estoicismo
00:58:41e da ideia
00:58:41de que a virtude
00:58:42está sempre
00:58:43no meio,
00:58:44ou próximo ao meio,
00:58:45às vezes está mais
00:58:46à direita,
00:58:47mais à esquerda,
00:58:48mas o meio
00:58:48é uma coisa,
00:58:50é um lugar interessante.
00:58:51É o centro,
00:58:52mas não é o centrão.
00:58:53Exatamente,
00:58:53não é o centro,
00:58:54nem é o blocão.
00:58:55Não confundir
00:58:57o centro
00:58:57com o centrão.
00:58:59Mas o ponto
00:59:00é que
00:59:01é isso,
00:59:02você entendeu?
00:59:03São duas propostas
00:59:05extremas,
00:59:05cada uma
00:59:06com uma sorte
00:59:07de problemas
00:59:08completamente distintos.
00:59:11E o meu medo
00:59:12é que
00:59:12também a liberdade
00:59:14absoluta,
00:59:15em vez de levar
00:59:16a uma anarquia
00:59:17no sentido
00:59:18cada um por si
00:59:19e a ausência
00:59:20de uma hierarquia
00:59:22superior,
00:59:24leve, na verdade,
00:59:24a dominância
00:59:25do mais forte.
00:59:27A dominância
00:59:27do mais forte,
00:59:28seja porque tem
00:59:29mais dinheiro,
00:59:30seja porque tem
00:59:30poder político,
00:59:32e aí a gente volta
00:59:33para a lei da selva.
00:59:35Então,
00:59:35também não é
00:59:36essa internet
00:59:37que a gente quer.
00:59:37Não bastava
00:59:38a oralidade,
00:59:39a gente também
00:59:39vai voltar
00:59:40para a lei da selva.
00:59:41e onde manda
00:59:43o mais forte.
00:59:44E não é isso,
00:59:45a gente tem
00:59:46que ter
00:59:47um equilíbrio
00:59:49entre o lugar
00:59:51onde a gente
00:59:52quer estar.
00:59:53Por isso que eu acho
00:59:54que o centro
00:59:54é um lugar interessante.
00:59:55É o vilarejo global,
00:59:58o vilarejo
00:59:59da Idade Média,
01:00:00né?
01:00:01A gente está
01:00:02virando o vilarejo
01:00:03da Idade Média.
01:00:04E a maioria
01:00:05das pessoas
01:00:06absoluta
01:00:06não detém
01:00:08nem dinheiro
01:00:09nem poder político.
01:00:10Então,
01:00:11elas vão ficar
01:00:12numa posição
01:00:13de subjugação
01:00:14completa.
01:00:15Quem vai olhar
01:00:16por elas?
01:00:17Entendeu?
01:00:17Agora,
01:00:18do outro lado também,
01:00:19você não precisa
01:00:19de um paternalismo
01:00:20em que você
01:00:21substitui tudo
01:00:22por um controle
01:00:23que seria
01:00:25supostamente esclarecido
01:00:27e decidiria
01:00:27o que é melhor
01:00:28para você.
01:00:29Por isso que eu acho
01:00:29que a gente tem
01:00:30que empoderar
01:00:32uma autonomia
01:00:33com responsabilidade.
01:00:35Por isso que eu gosto
01:00:36da proposta do Trump,
01:00:38que é assim,
01:00:38vamos empoderar
01:00:39o indivíduo,
01:00:40o indivíduo,
01:00:41ele é capaz
01:00:41de fazer escolhas,
01:00:42etc.,
01:00:43mas você tem que escolher
01:00:44com responsabilidade,
01:00:46porque a gente vive
01:00:46em comunidade,
01:00:47né?
01:00:47Eu não posso ter o direito
01:00:49de ir lá e sair matando
01:00:50um monte de gente
01:00:50ou de negar a existência
01:00:52de pessoas,
01:00:53religiões,
01:00:54grupos políticos,
01:00:55etc.
01:00:56Então,
01:00:56eu acho que
01:00:58esse experimento,
01:00:59espero que ele um dia
01:01:00aconteça.
01:01:01O Musk queria fazer
01:01:02e quem sabe
01:01:03alguém não aparece aí
01:01:04e consegue fazer ele
01:01:05em outro lugar,
01:01:06né?
01:01:06Vamos tentar.
01:01:07Quem sabe o antagonista
01:01:08não faz esse...
01:01:09Muito bem.
01:01:13Eu queria,
01:01:13eu queria a gente
01:01:14aproveitar a tua presença
01:01:17aqui,
01:01:17extrapolar um pouquinho,
01:01:19sair da questão
01:01:20da internet,
01:01:20avançar um pouquinho
01:01:21sobre tecnologia.
01:01:24Você,
01:01:25eu vi que você
01:01:28é entusiasta
01:01:30de várias questões
01:01:31que me interessam
01:01:33bastante,
01:01:34blockchain,
01:01:35por exemplo,
01:01:36toda essa questão
01:01:37da descentralização,
01:01:38de NFT,
01:01:40de cripto e tal,
01:01:42quer dizer,
01:01:42eu, por exemplo,
01:01:44costumo reiteradamente
01:01:47falar no meu programa
01:01:48que, assim,
01:01:49a gente podia
01:01:51melhorar muito
01:01:52a qualidade
01:01:53da nossa democracia
01:01:55e do nosso governo,
01:01:57do nosso...
01:01:57da governança
01:01:59de uma maneira geral
01:02:00com a tecnologia
01:02:01que está disponível,
01:02:02né?
01:02:02Então, assim,
01:02:03melhorar muito
01:02:04a vida do cidadão,
01:02:06né?
01:02:06Que hoje ainda tem que ir,
01:02:07vai lá,
01:02:08vendeu um carro,
01:02:09tem que ir lá no Detran,
01:02:10aí tem que ir lá
01:02:12no cartório
01:02:14para registrar
01:02:15um negócio
01:02:17imobiliário
01:02:18e você tem
01:02:19blockchain,
01:02:20você tem
01:02:20capacidade,
01:02:22tem tecnologia
01:02:22suficiente
01:02:23para
01:02:23colocar
01:02:24todos esses serviços
01:02:26na palma da mão
01:02:27do cidadão,
01:02:29né?
01:02:30O que você tem visto
01:02:30de experiência
01:02:31bem-sucedida disso
01:02:33nessa linha
01:02:34em outras partes
01:02:35do mundo?
01:02:37A gente estava comentando
01:02:38antes de começar o programa
01:02:39sobre PIX,
01:02:40né?
01:02:40PIX é a grande novidade
01:02:42no Brasil
01:02:42e tem lugar
01:02:45que isso já existe
01:02:46há mais de 10 anos.
01:02:48Sim, sim.
01:02:48Não,
01:02:49inclusive na África,
01:02:49né?
01:02:50Na África.
01:02:50A gente voltava
01:02:51do Quênia,
01:02:52o PIX deles
01:02:53foi inventado
01:02:54em 2007,
01:02:55né?
01:02:55Olha só.
01:02:57E você transfere
01:02:58dinheiro pelo celular,
01:02:59é tudo eletrônico
01:03:00e hoje o MPES
01:03:01é um monstro,
01:03:02né?
01:03:03Não só ele,
01:03:03mas todos os concorrentes,
01:03:05o Conta Fácil
01:03:06de Moçambique
01:03:07e vários outros.
01:03:09Então,
01:03:10o PIX
01:03:10para a gente
01:03:11é ótimo,
01:03:11que bom que deu certo,
01:03:13eu sou um grande fã
01:03:13do PIX,
01:03:14mas é uma solução
01:03:16que chegou tarde.
01:03:17Chegou tarde.
01:03:17Chegou tarde.
01:03:18E aqui vendem
01:03:18como se fosse
01:03:19uma grande novidade.
01:03:20O Bolsonaro
01:03:21vendendo na campanha,
01:03:22eu que inventei,
01:03:23aí os servidores
01:03:24do Banco Central,
01:03:25não,
01:03:25nós é que inventamos.
01:03:26Aí no final das contas
01:03:27é uma ideia velha,
01:03:28né?
01:03:28Então,
01:03:29não,
01:03:29a ideia é que,
01:03:30na verdade,
01:03:30demorou, né?
01:03:31Demorou,
01:03:31vocês demoraram.
01:03:32É o que eu falei,
01:03:33é uma ótima solução,
01:03:35vou criticando o PIX,
01:03:36então acho excelente.
01:03:37Só que,
01:03:38pô...
01:03:38Não tem nada de original
01:03:39e chegou atrasado.
01:03:41O M pesa do Quênia
01:03:42em 2007,
01:03:44mal existia iPhone.
01:03:45Meu Deus.
01:03:46Os caras já tinham
01:03:47o jeito de mandar dinheiro
01:03:48pelo celular.
01:03:49Fantástico.
01:03:49Então,
01:03:49é outra parada.
01:03:51Mas,
01:03:51de qualquer forma,
01:03:53eu sou um grande entusiasta
01:03:54dessa ideia de tecnologia
01:03:56governamental,
01:03:57chamado GovTech,
01:03:58GovTech.
01:04:00E eu acho que
01:04:01o Brasil
01:04:02é o lugar certo
01:04:03para isso,
01:04:04porque a gente é campeão
01:04:05de burocracia,
01:04:06né?
01:04:06Ninguém aguenta mais
01:04:07e até acho que houve
01:04:09avanços recentes e tal,
01:04:12mas a gente ainda é
01:04:14intratável, né?
01:04:16Você vai tentar abrir
01:04:17uma empresa,
01:04:17é um caos, né?
01:04:19Aí você olha para o Chile,
01:04:20para a Argentina
01:04:21e para o Uruguai
01:04:21e você abre empresa
01:04:22em um dia, né?
01:04:24Pela internet
01:04:25e de graça.
01:04:26De graça.
01:04:26Então,
01:04:27quando você olha isso,
01:04:28pô,
01:04:28por que que na Argentina
01:04:30é assim?
01:04:30Por que que no Uruguai
01:04:31é assim?
01:04:32Por que que no Brasil
01:04:32é desse outro jeito,
01:04:34entendeu?
01:04:35O Brasil ainda é cartorário, né?
01:04:37Tudo.
01:04:37Não só cartorário,
01:04:38mas o Brasil,
01:04:40ele tem uma capacidade
01:04:42de levar a burocracia
01:04:43para o digital, né?
01:04:45Então, por exemplo,
01:04:46isso é surreal.
01:04:48O nosso sistema
01:04:49de documentação,
01:04:51ele é um caos, né?
01:04:52Então, você tem
01:04:52a carteira de identidade,
01:04:54você tem a carteira
01:04:55de motorista,
01:04:55você tem o título
01:04:56de eleitor,
01:04:56você tem a carteira
01:04:57de trabalho.
01:04:58E no online,
01:04:59o que que passou a acontecer?
01:05:01Tem um aplicativo
01:05:02da carteira de trabalho,
01:05:03um aplicativo
01:05:04da carteira de motorista,
01:05:06um aplicativo
01:05:06aplicativo
01:05:07do título
01:05:08de eleitor.
01:05:09Vacinação.
01:05:11Um aplicativo
01:05:12da vacinação.
01:05:13Gente,
01:05:14que tal fazer
01:05:15um aplicativo
01:05:16e colocar
01:05:16tudo isso dentro,
01:05:18você entendeu?
01:05:18Em vez de fazer
01:05:19um para cada.
01:05:20Então,
01:05:21o Brasil,
01:05:21cara,
01:05:21é um lugar
01:05:22fascinante,
01:05:23assim,
01:05:23porque a gente
01:05:23tem uma criatividade
01:05:25para a preservação
01:05:26da burocracia,
01:05:27que é um negócio
01:05:27absurdo.
01:05:29Quem é a pessoa
01:05:30no Brasil hoje
01:05:31que vai instalar
01:05:3118 aplicativos
01:05:33governamentais
01:05:34no seu celular?
01:05:35Você tem 18 aplicativos
01:05:36no seu celular?
01:05:37Nem quero.
01:05:38Tem alguém aí,
01:05:39gente,
01:05:40que está nos assistindo,
01:05:41que tem 18 aplicativos
01:05:42no celular?
01:05:43Se tiver,
01:05:44escreve aqui
01:05:45para o Claudio
01:05:45e conta a sua história,
01:05:47porque é surreal.
01:05:49O pessoal estava agora,
01:05:50só abrindo um parênteses
01:05:51mais uma vez aqui,
01:05:52mas é porque tem tudo
01:05:53a ver com o que você
01:05:53está falando.
01:05:54Estavam questionando,
01:05:56falaram assim,
01:05:56poxa,
01:05:57fizeram o,
01:05:58sei lá,
01:05:59o título eletrônico,
01:06:01o e-título,
01:06:02e aí o que eu faço
01:06:04com esse negócio?
01:06:05Ele não deixa eu votar online,
01:06:07não deixa eu fazer nada,
01:06:08eu tenho que fazer
01:06:08o que com isso?
01:06:09Aí eu entrei em contato
01:06:10com o TSE,
01:06:11eu falei,
01:06:11para que serve o título?
01:06:12Não,
01:06:13para você saber
01:06:14onde é a sua zona eleitoral.
01:06:16Então,
01:06:16é surreal.
01:06:17Então tem que avisar
01:06:18o Tarcísio
01:06:19para ele instalar.
01:06:21Surreal,
01:06:22para saber onde é.
01:06:22Para saber
01:06:23onde ele tem que votar.
01:06:24O que é colado ali,
01:06:25é importante.
01:06:26Agora,
01:06:27veja que loucura.
01:06:29O certo,
01:06:30fazer igual a Estônia fez,
01:06:31você tem
01:06:32um aplicativo governamental
01:06:34e a partir dele
01:06:35se acessa
01:06:35todos os serviços.
01:06:37Por quê?
01:06:37Porque eles criaram
01:06:38uma identidade digital única.
01:06:41Então,
01:06:41em vez de ter
01:06:42a sua carteira de motorista,
01:06:43a sua carteira de trabalho,
01:06:45a sua carteira
01:06:45de vacinação,
01:06:48você tem
01:06:48um aplicativo
01:06:49que é a sua identidade digital.
01:06:51Pronto.
01:06:51Dentro dela,
01:06:52ela te diz
01:06:53você pode votar,
01:06:54você pode trabalhar,
01:06:55você pode dirigir,
01:06:56se você já foi vacinado,
01:06:57se você está matriculado
01:06:58na escola.
01:06:59Entendeu?
01:06:59É um negócio assim,
01:07:01na ideia...
01:07:02Dá para pagar multa.
01:07:04Na Estônia,
01:07:05você faz o que você quiser.
01:07:06As únicas duas coisas
01:07:07que você precisa fazer
01:07:08ainda fisicamente
01:07:09na Estônia
01:07:10é casamento
01:07:12e venda de imóveis.
01:07:14Isso eles ainda exigem
01:07:15que você vá
01:07:16pessoalmente.
01:07:17Até parece que o casamento
01:07:18eles estão querendo fazer
01:07:19agora eletrônico também.
01:07:21Você não vai precisar
01:07:22nem comparecer
01:07:23no dia do seu casamento.
01:07:24mas são as duas
01:07:26únicas coisas.
01:07:27Todas as outras,
01:07:28pagar multa,
01:07:29imposto,
01:07:30obrigações
01:07:31de encargos sociais,
01:07:33tudo que você imaginar,
01:07:34matricular,
01:07:35arrumar uma vaga
01:07:36num hospital público,
01:07:38é 100% online.
01:07:40Você entendeu?
01:07:40Então,
01:07:41isso já existe.
01:07:42Agora,
01:07:43no Brasil...
01:07:44Você não fica deprimido, não?
01:07:45Eu fico,
01:07:46total,
01:07:47porque eu vejo
01:07:47países muito mais pobres
01:07:49que o Brasil,
01:07:49por exemplo,
01:07:50cada Índia,
01:07:51que tem um nível
01:07:52de pobreza
01:07:53muito mais profundo,
01:07:54400 milhões de pessoas
01:07:56que são ainda
01:07:56muito abaixo
01:07:57da linha da miséria,
01:07:59tem hoje
01:08:00identidade digital
01:08:01universal.
01:08:02Cada uma
01:08:03daquelas pessoas,
01:08:04apesar de um grau
01:08:05de pobreza
01:08:06muito profundo,
01:08:07tem hoje
01:08:08a sua identidade digital,
01:08:09abre conta
01:08:10pelo celular,
01:08:11faz pagamento
01:08:12pelo celular,
01:08:13recebe benefícios
01:08:14quando necessário,
01:08:16por exemplo,
01:08:16na emergência
01:08:17da Covid,
01:08:18etc.,
01:08:18pelo celular.
01:08:19Então,
01:08:20eu vejo
01:08:21o Brasil
01:08:21e a gente
01:08:22perdendo
01:08:23uma oportunidade
01:08:23atrás da outra.
01:08:24É de ficar maluco,
01:08:25você entendeu?
01:08:26A gente estava
01:08:26discutindo
01:08:27que o
01:08:30bolsonarismo
01:08:30trouxe essa história
01:08:31de volta
01:08:32durante a campanha,
01:08:33que é o voto,
01:08:34a impressão
01:08:34do voto eletrônico.
01:08:36Ainda estou querendo
01:08:37dar marcha ré.
01:08:38Porra.
01:08:39Porra,
01:08:39com certificação digital,
01:08:41com tanta coisa,
01:08:42você podendo,
01:08:44sabe,
01:08:45ter ali
01:08:46o voto
01:08:47registrado
01:08:49e aquilo
01:08:50ser imutável,
01:08:51você vai
01:08:52na estrutura
01:08:52e bota isso
01:08:53numa estrutura
01:08:53de blockchain
01:08:54que ninguém
01:08:54muda mais
01:08:55e a gente
01:08:56discutindo
01:08:57impressão
01:08:57de voto.
01:08:58É surreal
01:08:59e assim,
01:09:00quem viveu
01:09:02para lembrar
01:09:03das eleições
01:09:04antes da urna
01:09:05eletrônica,
01:09:07sabe,
01:09:08contagem de voto
01:09:09no Brasil
01:09:10era surreal,
01:09:11era uma loucura.
01:09:12Tem vários amigos
01:09:13e amigas
01:09:14que foram mesados
01:09:14e contam
01:09:15as histórias
01:09:16mais estapafúrdas,
01:09:18você entendeu?
01:09:18Você ia no banheiro,
01:09:20a pilha de voto
01:09:21movia de lugar,
01:09:23entendeu?
01:09:24Mudava de tamanho,
01:09:26você entendeu?
01:09:27Aí tinha o negócio
01:09:28da recontagem
01:09:29de voto,
01:09:29aí recontava,
01:09:30aí o voto
01:09:30não dava o mesmo voto
01:09:31da primeira contagem.
01:09:33Então,
01:09:33eleição em papel
01:09:34era caótica.
01:09:37E essa proposta
01:09:38do voto impresso,
01:09:40ela é mais caótica ainda
01:09:41porque você tem
01:09:42o digital
01:09:43e o papel,
01:09:44aí você tem
01:09:44a complexidade dobrada,
01:09:46você tem as mazelas
01:09:47do papel
01:09:48com a complexidade
01:09:49do digital.
01:09:50É o que você estava falando,
01:09:51é a transposição
01:09:52da burocracia
01:09:53para o online,
01:09:54entendeu?
01:09:55Então, assim,
01:09:56é surreal.
01:09:58E outra coisa,
01:10:00essa é a minha área,
01:10:01você hoje
01:10:02fraudar a eleição
01:10:04atacando urna,
01:10:05eleição presidencial,
01:10:07é impossível,
01:10:08não é que a chance
01:10:09é pequena, não,
01:10:10é impossível
01:10:12de ser feita,
01:10:13você não consegue mudar
01:10:14o resultado
01:10:15de uma eleição presidencial
01:10:17atacando urna.
01:10:18Isso é surreal,
01:10:20qualquer pessoa
01:10:21achar que isso vai ser possível,
01:10:23que isso pode acontecer.
01:10:24Então,
01:10:25o nível de discussão
01:10:27hoje de tecnologia
01:10:28no ambiente público
01:10:29no Brasil
01:10:30é rudimentar,
01:10:31é rudimentar.
01:10:33E é isso,
01:10:33a gente tem uma grande capacidade
01:10:35de transpor
01:10:36a burocracia
01:10:39para o mundo online.
01:10:39o Brasil deveria ganhar
01:10:40um prêmio
01:10:41de criatividade
01:10:42por conseguir
01:10:43usar a tecnologia
01:10:45para recriar
01:10:46a burocracia
01:10:47do ponto de vista
01:10:49digital,
01:10:49só no Brasil,
01:10:51só no Brasil.
01:10:52É impressionante.
01:10:53Miceli.
01:10:53Rolal,
01:10:55eu quero ouvir de você,
01:10:57já que a gente está falando
01:10:57de Brasil,
01:10:59e curiosa
01:11:01essa avaliação
01:11:01da recriação
01:11:02da burocracia
01:11:03em ambientes digitais.
01:11:05A gente falou da Estônia,
01:11:06evidentemente,
01:11:07um país muito menor,
01:11:09referência para muita coisa,
01:11:10mas, claro,
01:11:11que nasceu
01:11:12há menos tempo
01:11:13também
01:11:13em termos de
01:11:15construção
01:11:17de legados.
01:11:18o legado tecnológico
01:11:21do Estado
01:11:22da Estônia
01:11:23é evidentemente
01:11:24menor
01:11:24do que o do Estado
01:11:25brasileiro,
01:11:26isso não justifica
01:11:26os nossos atrasos,
01:11:27mas explica
01:11:28parte
01:11:29da distância
01:11:30em que eles
01:11:32se encontram
01:11:32hoje em dia.
01:11:34E aí eu quero te pedir
01:11:35para avaliar
01:11:36o quanto,
01:11:37na sua opinião,
01:11:38a gente avançou
01:11:39nesses últimos anos.
01:11:40quando a gente fala
01:11:40do Gov.br,
01:11:42apesar desses
01:11:43diversos
01:11:45aplicativos
01:11:46que precisam
01:11:47ser instalados,
01:11:48enfim,
01:11:48a gente teve ali
01:11:49algumas consolidações,
01:11:50um início
01:11:50com o Luiz Felipe Monteiro,
01:11:52que era o secretário
01:11:53nacional de governo digital,
01:11:54depois algumas mudanças,
01:11:56enfim,
01:11:57quero te ouvir um pouco
01:11:57sobre o quanto
01:11:59a gente evoluiu
01:12:01nesses últimos anos
01:12:02em relação
01:12:02à utilização
01:12:04dos recursos digitais
01:12:05para o cidadão.
01:12:06Com certeza,
01:12:07e só lembrando,
01:12:08a Estônia,
01:12:08de fato,
01:12:09é um país muito pequeno,
01:12:10é um milhão
01:12:10e trezentos mil habitantes,
01:12:12mas eu gosto
01:12:12de lembrar o pessoal
01:12:13da Índia,
01:12:14por isso que
01:12:15a Índia é
01:12:16cinco vezes maior
01:12:17que o Brasil,
01:12:18é surreal,
01:12:20e no espaço
01:12:20de cinco anos
01:12:21eles criaram
01:12:22uma identidade digital
01:12:23similar
01:12:24à identidade estoniana,
01:12:26que é um sistema
01:12:27chamado ADAAR,
01:12:28que no idioma hindu
01:12:30significa fundação,
01:12:32e conseguiram fazer isso,
01:12:33mas como eu falei,
01:12:34pobre,
01:12:35muito mais pobre
01:12:35que o Brasil,
01:12:36muito maior que o Brasil.
01:12:37Então,
01:12:38não é só a Estônia,
01:12:39eu acabei de voltar
01:12:39de Moçambique,
01:12:41e lá também estão criando
01:12:42uma identidade digital,
01:12:43inclusive para refugiados,
01:12:45o país ainda tem resquícios
01:12:47da guerra civil ali
01:12:48na região norte,
01:12:49então tem muito refugiado
01:12:50naquela área,
01:12:52e esses refugiados
01:12:52são expropriados
01:12:54de tudo que eles têm,
01:12:55e aí estão exatamente
01:12:56criando uma identidade digital,
01:12:57usando blockchain,
01:12:59para que a pessoa
01:13:00não perca o registro
01:13:02de quem ela é,
01:13:02se ela tiver que fugir,
01:13:03mudar de país,
01:13:04e assim por diante.
01:13:05Então,
01:13:06o problema não acho
01:13:06que é tamanho,
01:13:07o problema não é riqueza,
01:13:10o problema não é dinheiro,
01:13:11não é recurso,
01:13:12o problema é vontade política,
01:13:14né?
01:13:14Então,
01:13:15assim,
01:13:16como você falou,
01:13:16Miceli,
01:13:18houve avanço,
01:13:19o Brasil criou o GovBR,
01:13:21o Luiz Felipe participou
01:13:23até do nosso seminário
01:13:24que a gente fez em 2017,
01:13:25chamado GovTech,
01:13:27aqui em São Paulo,
01:13:27onde a gente trouxe
01:13:29o ex-presidente da Estônia
01:13:31para cá,
01:13:31trouxemos o pessoal
01:13:32que fez o Adair
01:13:33da Índia para São Paulo,
01:13:35na época,
01:13:35todos os presidenciáveis
01:13:37participaram,
01:13:38menos o Bolsonaro,
01:13:39tá?
01:13:39O Alckmin participou,
01:13:41o Ciro participou,
01:13:43pelo que eu me lembro,
01:13:44ou seja,
01:13:46todo mundo estava,
01:13:47o Meirelles participou,
01:13:49e a ideia do GovTech,
01:13:52ela criou raízes ali,
01:13:54né?
01:13:54Naquele seminário.
01:13:55E o Luiz Felipe,
01:13:56que fez o GovTech,
01:13:57estava lá.
01:13:58Então,
01:13:59o Luiz Felipe,
01:13:59ele era um funcionário
01:14:01de carreira,
01:14:02ele era um funcionário
01:14:03estável,
01:14:04né?
01:14:04Da administração pública,
01:14:07se especializou
01:14:08nesse ramo
01:14:08de GovTech,
01:14:10trabalhou
01:14:10alguns anos ali
01:14:12muito importantes
01:14:13na criação
01:14:13desse sistema
01:14:14no Brasil hoje,
01:14:15que é o Gov.br,
01:14:16que justamente
01:14:17tenta fazer
01:14:18uma unificação
01:14:19dos serviços públicos
01:14:20num lugar só.
01:14:22Agora,
01:14:22o Luiz Felipe saiu,
01:14:23ele foi para a iniciativa
01:14:24privada,
01:14:26eu acho que ele tem
01:14:26um ótimo legado,
01:14:28e o Gov.br
01:14:29teve um avanço
01:14:30excelente,
01:14:32assim,
01:14:32não foi pouco,
01:14:33não.
01:14:33Agora,
01:14:34é um avanço suficiente?
01:14:35De jeito nenhum.
01:14:36A gente ainda está
01:14:37muito longe,
01:14:38né?
01:14:38Mas, por exemplo,
01:14:39só hoje de poder
01:14:40logar na Receita Federal
01:14:43sem usar
01:14:44o certificado digital,
01:14:46que, na minha opinião,
01:14:47é muito problemático,
01:14:48né?
01:14:49É o símbolo
01:14:50dessa recriação
01:14:51da burocracia
01:14:52do mundo físico
01:14:54no mundo digital,
01:14:55o Gov.br
01:14:56hoje permite
01:14:57que algumas pessoas
01:14:58acessem determinados
01:14:59serviços públicos
01:15:00importantes
01:15:01sem ter a necessidade
01:15:03de ter o certificado digital.
01:15:05Então,
01:15:05isso, para mim,
01:15:06é um grande avanço.
01:15:06E outra coisa,
01:15:07unificou, sim,
01:15:09o login
01:15:09de várias plataformas
01:15:11governamentais e tal.
01:15:13Agora,
01:15:13isso resolveu o problema?
01:15:14Não.
01:15:15O aplicativo
01:15:16da identidade
01:15:18ainda permanece,
01:15:19o aplicativo
01:15:19da carteira
01:15:21de motorista
01:15:22ainda é outro,
01:15:22o aplicativo
01:15:23da carteira de trabalho
01:15:24ainda é outro.
01:15:25Então,
01:15:25o que o Brasil
01:15:26ainda está devendo
01:15:27e que o Gov.br
01:15:29não resolve
01:15:30é a criação
01:15:31de uma identidade
01:15:32digital única,
01:15:34gratuita,
01:15:35para todos
01:15:36os cidadãos
01:15:37e cidadãs,
01:15:38né?
01:15:38Uma identidade
01:15:39em que
01:15:39eu tenho controle
01:15:41total sobre os meus dados,
01:15:43os dados são
01:15:44geridos
01:15:45e,
01:15:46inclusive,
01:15:47controlados por mim,
01:15:48eu decido
01:15:49qual órgão
01:15:50governamental
01:15:50tem acesso
01:15:51e deixa
01:15:52de ter acesso
01:15:53aos meus dados,
01:15:54ao meu comando.
01:15:55Esse sistema
01:15:56tem que ser
01:15:57descentralizado,
01:15:58de armazenamento
01:15:59de dados,
01:16:00porque se houver vazamento
01:16:01não vaza tudo,
01:16:03vaza só
01:16:03o pedaço
01:16:04que vazou.
01:16:06A metáfora aqui
01:16:07tem que ser
01:16:07igual o navio
01:16:09petroleiro, né?
01:16:10Antes o navio
01:16:10petroleiro tinha
01:16:11um compartimento único.
01:16:13Se tinha um furo,
01:16:14vazava o óleo inteiro.
01:16:15Hoje,
01:16:16ele é compartimentado.
01:16:17Então,
01:16:17se tem um furo,
01:16:18só vaza o óleo
01:16:19daquele compartimento.
01:16:21O armazenamento
01:16:22de dados
01:16:22no poder público
01:16:23tem que ser a mesma coisa.
01:16:24Você tem que ter
01:16:25compartimentos.
01:16:26Se vazar,
01:16:26vaza só
01:16:27daquele compartimento.
01:16:28E o cidadão
01:16:29tem que ter controle
01:16:30total do dado.
01:16:31Então,
01:16:32o Brasil,
01:16:33esse atraso,
01:16:34ele gera
01:16:35uma oportunidade.
01:16:36Se a gente tivesse
01:16:37que desenhar
01:16:37uma identidade
01:16:39digital
01:16:40única no Brasil
01:16:41hoje,
01:16:41a gente já poderia
01:16:42desenhar usando
01:16:43blockchain,
01:16:44coisa que a Índia
01:16:44não teve oportunidade
01:16:45de fazer,
01:16:46porque não tinha
01:16:46blockchain consolidado
01:16:48na época,
01:16:49e nem a Estônia,
01:16:50porque fez a
01:16:50identidade digital
01:16:5110,
01:16:5112 anos atrás.
01:16:53Então,
01:16:53o Brasil hoje
01:16:54poderia virar,
01:16:56assim como o Pix
01:16:56foi uma conquista,
01:16:58e outros países
01:16:59estão olhando
01:16:59o que a gente fez,
01:17:01líder também
01:17:02nessa área.
01:17:02Eu até
01:17:03acho que o Pix
01:17:05pode ser a origem
01:17:06de uma identidade
01:17:08digital
01:17:08no nosso país.
01:17:10Por quê?
01:17:10Porque o Pix
01:17:11é uma tecnologia
01:17:11aberta,
01:17:13ele é uma tecnologia
01:17:13que serve
01:17:16para outras
01:17:16aplicações,
01:17:18e ele já tem
01:17:19na sua ponta
01:17:20o banco
01:17:21que muitas vezes,
01:17:22na maioria,
01:17:23aliás,
01:17:23absoluta,
01:17:24checa a identidade
01:17:25do cliente
01:17:25para abrir a conta.
01:17:27Então,
01:17:28os bancos
01:17:29brasileiros
01:17:30poderiam dar
01:17:32um pontapé inicial
01:17:33para que o Pix
01:17:34virasse Pix
01:17:35identidade,
01:17:35de modo que
01:17:36se eu precisasse
01:17:37provar a minha
01:17:38identidade para você,
01:17:39eu te mando um Pix
01:17:40no valor zero,
01:17:41num transferido
01:17:42de M1,
01:17:43mas ao receber
01:17:44aquele Pix,
01:17:45confirmou que
01:17:46eu sou eu,
01:17:47entendeu?
01:17:47Você está falando
01:17:48com o Ronaldo
01:17:48e não com um robô
01:17:50com uma identidade
01:17:52falsa.
01:17:53Então,
01:17:53o próprio Pix
01:17:55poderia ser a origem
01:17:56de uma identidade
01:17:58digital brasileira
01:17:59que poderia ser usado
01:18:00não só para
01:18:01fazer transferências
01:18:02financeiras,
01:18:04mas para provar
01:18:05a identidade
01:18:06de quem está
01:18:06do outro lado.
01:18:07Isso seria genial,
01:18:08entendeu?
01:18:09Imagina se eu usar
01:18:10o Pix como login,
01:18:11se eu usar o Pix
01:18:12como forma de entrar
01:18:14em sites governamentais,
01:18:15de assinar um contrato,
01:18:17o Pix como forma
01:18:18de registrar uma empresa,
01:18:20o Pix como uma forma
01:18:21de matricular
01:18:22seu filho no colégio,
01:18:23o Pix como uma forma
01:18:24de dar entrada
01:18:26ou saída
01:18:26num hospital,
01:18:27muda a vida
01:18:29de todo mundo
01:18:30aqui no Brasil.
01:18:31Então,
01:18:31a bola está quicando,
01:18:33o que não dá
01:18:34é para ficar parado.
01:18:35E ninguém,
01:18:35você não vê,
01:18:36a gente em plena campanha
01:18:37política,
01:18:37você não vê ninguém
01:18:38falando disso.
01:18:39Ninguém.
01:18:39A gente vive realmente
01:18:42um abismo,
01:18:44um apagão.
01:18:46Um apagão.
01:18:47Tecnológico.
01:18:48É bizarro
01:18:49como tecnologia
01:18:50não está na pauta.
01:18:52Não está.
01:18:53E, Cláudio,
01:18:54me mostre
01:18:55um país
01:18:56no mundo de hoje
01:18:57que vai conseguir
01:18:58se desenvolver
01:18:59sem tecnologia,
01:19:00entendeu?
01:19:01Qual é o país
01:19:02do mundo hoje
01:19:02que pode se dar
01:19:03ao luxo de falar
01:19:04não,
01:19:04nós vamos crescer,
01:19:05enriquecer,
01:19:05gerar emprego,
01:19:06renda e educação
01:19:07para todo mundo
01:19:08sem pensar
01:19:09no componente
01:19:10tecnológico.
01:19:11Então,
01:19:11o Brasil,
01:19:12se quiser se desenvolver,
01:19:15ele vai ter que levar
01:19:16tecnologia a sério.
01:19:18Não tem
01:19:19alternativa.
01:19:21A consequência
01:19:22disso é,
01:19:23se não levar
01:19:24a tecnologia a sério,
01:19:26não se desenvolve.
01:19:27Nós vamos ficar
01:19:28parados.
01:19:29E eu,
01:19:30como eu te falei,
01:19:30eu acabei de voltar
01:19:31da África,
01:19:32fui gravar
01:19:33o meu programa lá,
01:19:34o Expresso Futuro,
01:19:35fui para a África
01:19:36mostrar inovação
01:19:38tecnológica
01:19:39nos países
01:19:41africanos.
01:19:43E nós estamos
01:19:43sendo ultrapassados
01:19:45por países
01:19:46muito mais pobres
01:19:47que a gente,
01:19:48com desafios
01:19:48muito mais profundos,
01:19:50mas que se posicionaram
01:19:51tecnologicamente
01:19:52de uma forma
01:19:54mais estratégica
01:19:55como o Brasil
01:19:55está se posicionando.
01:19:56Então,
01:19:57nós estamos
01:19:57sendo
01:19:58ultrapassados.
01:20:00eu até participei
01:20:01de uma maratona
01:20:02em Moçambique,
01:20:04na região norte
01:20:05do país,
01:20:05no Parque da Gorongosa,
01:20:07uma coisa extraordinária.
01:20:09Era uma maratona
01:20:10para a comunidade
01:20:11que vive em torno
01:20:11do parque,
01:20:13pessoas muito pobres,
01:20:14etc.,
01:20:14e 2.500 participantes.
01:20:17E eu falei,
01:20:17vou correr essa maratona,
01:20:18botei a camisa lá,
01:20:19fui correr,
01:20:21e falei,
01:20:21bom,
01:20:21vou dar o melhor,
01:20:22eu gosto de correr e tal,
01:20:24estou lá correndo
01:20:24energia máxima
01:20:27ali no meio
01:20:27da maratona
01:20:28quando eu me vejo
01:20:29sendo
01:20:29ultrapassado
01:20:31por um corredor
01:20:31que estava correndo
01:20:32de costas.
01:20:33Ah, não?
01:20:34Estou te falando.
01:20:35O cara estava
01:20:36descalço,
01:20:38correndo de costas,
01:20:39eu dando o máximo
01:20:40ali com o meu
01:20:41tênizinho
01:20:41acolchoado,
01:20:43e o cara correndo
01:20:44de costas,
01:20:45ainda me deu
01:20:45um tchauzinho assim,
01:20:47e eu vi o cara
01:20:47sumindo no horizonte.
01:20:50Aí,
01:20:50eu falei,
01:20:51caramba,
01:20:52isso aqui
01:20:52é a metáfora
01:20:54do que está acontecendo
01:20:55com o Brasil.
01:20:56Tem gente correndo
01:20:57de costas
01:20:58ultrapassando a gente,
01:20:59você entendeu?
01:21:00Então,
01:21:00é radical o negócio.
01:21:02Ronaldo,
01:21:02vende o teu peixe aí,
01:21:05o teu programa,
01:21:06quando que vai ao ar?
01:21:08Opa!
01:21:08A gente está chegando
01:21:10aqui no limite.
01:21:12Miceli,
01:21:13desde já,
01:21:14quero te agradecer,
01:21:15já passo a palavra
01:21:16para você também
01:21:17vender o seu peixe.
01:21:18Então,
01:21:19Ronaldo,
01:21:19o microfone é seu.
01:21:20Não,
01:21:20só convidar o pessoal
01:21:21para assistir
01:21:22no Expresso Futuro,
01:21:24o Expresso Futuro,
01:21:25o programa que eu faço
01:21:26no Canal Futuro.
01:21:28Está na sexta temporada,
01:21:29as duas primeiras
01:21:30gravadas nos Estados Unidos,
01:21:31a terceira na China,
01:21:32duas no Brasil,
01:21:33e agora a última
01:21:35que vai ao ar
01:21:36dia 6 de novembro,
01:21:37no Fantástico,
01:21:39vai ser no Fantástico
01:21:41dia 6 e dia 13,
01:21:43são duas semanas,
01:21:44e depois,
01:21:45a partir do dia 7 de novembro,
01:21:47ou seja,
01:21:47na segunda,
01:21:48imediatamente seguinte,
01:21:50oito semanas
01:21:51no Canal Futuro,
01:21:53com os episódios completos.
01:21:54Fantástico,
01:21:55vai só aquele
01:21:56creme de la creme,
01:21:58a nata,
01:21:59e está bem legal,
01:22:01e até nem é
01:22:02vender o peixe,
01:22:03porque é de graça.
01:22:05Quem quiser assistir,
01:22:06está tudo no YouTube,
01:22:07não precisa nem pagar
01:22:08Globoplay,
01:22:09nada disso,
01:22:10vai no YouTube,
01:22:10procura Expresso Futuro,
01:22:12estão as cinco temporadas lá,
01:22:14em breve,
01:22:14a sexta,
01:22:15vou colocar inteira também
01:22:16no YouTube,
01:22:17e é isso,
01:22:18o objetivo dessa série
01:22:20é dar um choque
01:22:22de desejo
01:22:24por desenvolvimento
01:22:25e tecnologia,
01:22:26para que quem assiste
01:22:27possa falar,
01:22:28caramba,
01:22:29eu também posso fazer isso,
01:22:30eu posso participar
01:22:31da economia do conhecimento,
01:22:34e para que a gente
01:22:34olhe para o que está acontecendo
01:22:35na África,
01:22:36e no mínimo,
01:22:37fique com vergonha,
01:22:38porque é isso,
01:22:39nós estamos sendo
01:22:39ultrapassados
01:22:40por países
01:22:41com muito mais dificuldades
01:22:42que a gente,
01:22:43entendeu?
01:22:43Não vai achar
01:22:44esse programa
01:22:44no TikTok,
01:22:45não.
01:22:45Olha,
01:22:46pior que vai,
01:22:47o canal do Futura
01:22:49no TikTok
01:22:51é super,
01:22:52ultra,
01:22:53bem visualizado,
01:22:54então pode procurar
01:22:56no TikTok também
01:22:57pelo canal Futura,
01:22:58que tem muita coisa
01:22:59do Expresso Futuro lá.
01:23:00Muito bem,
01:23:01a gente também aqui,
01:23:01a gente tenta
01:23:02com o nosso programa
01:23:03que dá esse choque,
01:23:04porque de fato
01:23:05é preciso despertar
01:23:06consciências.
01:23:07Michele,
01:23:08você também faz
01:23:09a tua parte
01:23:10para tentar
01:23:10dar esse choque.
01:23:13É,
01:23:13esse é o nosso
01:23:14trabalho,
01:23:15mas Technology Review,
01:23:16antes disso,
01:23:17que era abrir
01:23:17um pequeno parênteses
01:23:18e falar que eu compartilho
01:23:19de experiências traumáticas
01:23:21nas maratonas
01:23:22e que,
01:23:23assim como você,
01:23:24Ronaldo,
01:23:25já fui ultrapassado
01:23:26por diversos personagens
01:23:27que mais me marcou,
01:23:28era um cara fantasiado
01:23:29de árvore de Natal
01:23:30que não conseguia
01:23:31nem esticar a perna toda,
01:23:32mas me passou também
01:23:33com bastante facilidade.
01:23:35Então,
01:23:36eu te entendo
01:23:37perfeitamente.
01:23:38De costas,
01:23:39eu ainda não tive a oportunidade
01:23:40de ver ninguém me passar,
01:23:41mas simplesmente
01:23:41ninguém correu de costas.
01:23:44Isso me passariam também.
01:23:45Mas,
01:23:46quando eu falei da Estônia,
01:23:47eu simplesmente acho
01:23:48que esse é um ponto
01:23:49para explicar,
01:23:49e hipótese alguma,
01:23:50eu acho que é justificável
01:23:51o lugar
01:23:53onde a gente ocupa,
01:23:55até porque
01:23:55há uma falta
01:23:56de mão de obra
01:23:58no mundo
01:23:58que a gente poderia
01:23:59aproveitar
01:24:00enquanto fornecedor
01:24:01da mesma forma
01:24:02que a Índia
01:24:03tem aproveitado.
01:24:04Tem muita oportunidade
01:24:06para a galera
01:24:06se desenvolver
01:24:07e programar
01:24:08e trabalhar
01:24:09como designer,
01:24:09enfim,
01:24:10em todas as carreiras
01:24:11tem oportunidade
01:24:12para quem entende
01:24:13de tecnologia
01:24:13e eu espero
01:24:14que iniciativas
01:24:15como a que você tem feito
01:24:17gerem esse desconforto
01:24:19produtivo
01:24:20e que as pessoas
01:24:21aqui no Brasil,
01:24:23tanto os governos
01:24:24quanto as pessoas
01:24:24assumam um pouco
01:24:26desse protagonismo
01:24:27no sentido
01:24:27de buscar
01:24:28as oportunidades
01:24:29que são criadas.
01:24:30Lá na MIT Technology Review
01:24:31a gente tem o objetivo
01:24:34de trazer
01:24:35para o contexto brasileiro
01:24:37o conteúdo
01:24:38do MIT,
01:24:39a MIT Technology Review
01:24:40é a publicação
01:24:41oficial do MIT
01:24:42que acabou de ser eleito
01:24:43pelo 11º ano seguido
01:24:44a principal universidade
01:24:45do mundo
01:24:46e o que a gente faz
01:24:47é criar contexto local,
01:24:49entender justamente
01:24:50como a tecnologia
01:24:52se apresenta
01:24:52no Brasil.
01:24:53Vai ser um prazer
01:24:55ter todo mundo
01:24:56audiência
01:24:57do Dantas aqui,
01:24:59a sua audiência
01:25:00também, evidentemente,
01:25:01vocês são todos
01:25:01mais do que
01:25:02bem-vindos por lá.
01:25:04Um abraço
01:25:04para todo mundo
01:25:05e obrigado
01:25:05pelo espaço,
01:25:06pela oportunidade
01:25:07e pela conversa.
01:25:08Maravilha.
01:25:08André Miceli,
01:25:09muito obrigado.
01:25:10Ronaldo Lemos,
01:25:11agradeço mais uma vez.
01:25:13O programa permanece
01:25:14naturalmente aberto
01:25:15para futuras colaborações.
01:25:17Conte sempre conosco.
01:25:18E você,
01:25:19assistiu mais um
01:25:20CD Talks.
01:25:22Aqui a gente discute
01:25:23tudo,
01:25:24aquilo que interessa
01:25:25naturalmente.
01:25:26Até o próximo.
01:25:31Tchau,
01:25:39tchau.
01:25:40Tchau.
01:25:41Tchau, tchau.
01:25:42Tchau.
01:25:44Tchau.
01:25:44Obrigado.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado