Pular para o playerIr para o conteúdo principal
  • há 2 dias
Intitulado Política para vencer: A vitória começa com conhecimento e estratégia, o curso online tem como foco a qualificação de futuros candidatos e suas equipes para as eleições de 2026.
Transcrição
00:00:00Washington.
00:00:04Pessoal, boa noite.
00:00:05Nós estamos aqui com mais uma aula do curso de formação online
00:00:10para quem está organizando as campanhas ano que vem,
00:00:18campanha para vencer, política para vencer.
00:00:22E o tema de hoje é muito importante e é um tema difícil de definir.
00:00:27Liberdade de expressão.
00:00:29Liberdade de expressão, para muita gente, é a liberdade extrema,
00:00:35sem nenhum tipo de preocupação.
00:00:37Mas nós vamos ver com o professor André Rez,
00:00:40que é um querido amigo que eu tenho
00:00:43e um dos melhores profissionais do Espírito Santo,
00:00:47um dos melhores profissionais do Brasil.
00:00:49Foi diretor-chefe da Rede Gazeta no Espírito Santo,
00:00:54ocupou vários cargos importantes
00:00:56e esse currículo extenso dele,
00:01:02eu peço a ele para que fale um pouquinho da trajetória dele
00:01:06antes de começar a aula,
00:01:07mas eu vou passar logo a palavra para o professor André Rez,
00:01:10que vai falar sobre liberdade de expressão.
00:01:12O que é liberdade de expressão?
00:01:14O que não é liberdade de expressão?
00:01:16Como é que a gente deve se posicionar?
00:01:18É uma aula muito importante.
00:01:20Professor André, eu vou assistir toda a aula,
00:01:22eu às vezes desligo a câmara e fico aqui,
00:01:25mas eu fico a aula inteira prestando atenção,
00:01:27porque eu aprendo muito.
00:01:28Nós temos professores todos renomados,
00:01:31a aula passada foi sobre inteligência artificial,
00:01:35eu aprendi muita coisa,
00:01:36e com certeza vou aprender muito com a sua aula hoje.
00:01:40Então, passo a palavra para o André,
00:01:42já peço todo mundo para receber o professor André
00:01:44com a salva de palmas aí,
00:01:46nas reações,
00:01:49para que ele se sinta em casa,
00:01:51e nós vamos, então,
00:01:52passando a palavra para o André
00:01:54para que ele comece com a sua apresentação
00:01:57e depois desenvolva o tema com perguntas,
00:02:02e nós vamos encerrar precisamente a aula,
00:02:05às 20h30,
00:02:06porque é o horário de término da aula,
00:02:08a gente sempre cumpre esse horário.
00:02:10Tá bom?
00:02:10André, com a palavra,
00:02:12por favor, se apresente
00:02:13e manda bala aí no tema.
00:02:17Valeu, mestre.
00:02:18Obrigado, gente.
00:02:19Boa noite.
00:02:19Obrigado.
00:02:20Agradeço a Luciano,
00:02:21a Thaís pelo contato,
00:02:22pelo convite.
00:02:23Prazer estar aqui com você.
00:02:24Vamos fazer uma conversa.
00:02:25Eu pensei em dividir mais ou menos em três partes.
00:02:27Vou fazer uma breve introdução,
00:02:29falar um pouco sobre a minha história.
00:02:31Eu acompanhei essa questão de liberdade
00:02:33de expressão de imprensa a vida inteira.
00:02:36Vou falar sobre esse tema,
00:02:38discorrer,
00:02:38apresentar algumas referências,
00:02:40algumas ideias,
00:02:41alguns conceitos,
00:02:41algumas leituras,
00:02:43algumas sugestões de leitura.
00:02:44E depois eu vou fazer algumas dicas práticas no final
00:02:48de olho nas eleições do ano que vem.
00:02:51Deixa eu tentar compartilhar a minha apresentação aqui.
00:03:02Eu confesso que eu apanho com essa ferramenta aqui.
00:03:05Pera aí.
00:03:11Vocês estão vendo a apresentação?
00:03:24Sim, perfeito.
00:03:26Tá, beleza.
00:03:27Deixa eu começar aqui, então.
00:03:29Bom, falar um pouco sobre mim.
00:03:32Eu tenho 33 anos de profissão.
00:03:35Passei, como o Luciano falou,
00:03:36mais de 20 anos na Rede Gazeta,
00:03:39que é afiliada da Globo no Espírito Santo.
00:03:40e eu fui repórter, colunista de política, editor de economia, âncora da CBN, cheguei editor-chefe de uma redação integrada.
00:03:50E depois eu trabalhei na comunicação institucional da Federação das Indústrias do Espírito Santo.
00:03:58E agora eu tenho uma agência de comunicação, trabalho com políticos, com empresários, escritórios de advocacia.
00:04:03Eu tenho formação em direito também, e isso me ajudou muito ao longo do processo.
00:04:11Como editor-chefe, eu participava do Fórum de Editores da NJ, a Associação Nacional de Jornais.
00:04:18Isso significa que eu tinha reuniões a cada dois, três meses com diretores de redação dos principais veículos do Brasil inteiro.
00:04:25As reuniões eram em Brasília, principalmente, ou São Paulo.
00:04:28Às vezes, no Rio Grande do Sul, Recife, já foi em Vitória.
00:04:32Mas, assim, Estadão, Globo, Folha, Jornal do Comércio de Recife,
00:04:37eu conheço as principais redações e diretores de redação do país,
00:04:42algumas no exterior, nos Estados Unidos, Colômbia, Venezuela.
00:04:46Eu conheço muito redação, como é que funciona.
00:04:50Já fui alvo de cerca de 20 ações judiciais,
00:04:55inclusive ações movidas por desembargadores.
00:04:58e juízes, quando a gente é processado,
00:05:00quando a imprensa é processada,
00:05:02é porque alguém não queria que a gente publicasse algo,
00:05:05e a gente publicou.
00:05:06Eu falo a gente, eu não sou imprensa mais, mas, enfim.
00:05:09Então, só para dizer assim,
00:05:10que a vida inteira eu enfrentei, eu vivi esse debate.
00:05:15E qual é o grande debate?
00:05:19Essa discussão é a seguinte.
00:05:24Estou tentando voltar aqui para o...
00:05:28Para você, voltei aqui.
00:05:30Vocês estão vendo a tela?
00:05:32Sim.
00:05:33Estão vendo a segunda tela?
00:05:34Eu estou na dúvida aqui sobre a...
00:05:36Estamos.
00:05:37O que está aparecendo para vocês aí?
00:05:39Liberdade de expressão, imprensa e redes.
00:05:41É isso que está aparecendo?
00:05:44Está aparecendo a liberdade de expressão, tudo pode.
00:05:47A primeira página.
00:05:48Só a primeira página?
00:05:50Eu não estou entendendo porquê.
00:05:51Será que eu tenho que ir por tela?
00:05:52Eu não estou sabendo como...
00:05:56Com quem que a gente estava falando antes, Luciano?
00:05:57Eu vou pedir para alguém compartilhar,
00:06:00porque eu estou apanhando aqui com a ferramenta.
00:06:01Está na primeira tela.
00:06:02Tudo bem, eu vou abrir aqui, sem problemas.
00:06:05Pode deixar.
00:06:05Como é que eu faço para fechar essa primeira tela, então?
00:06:12Então...
00:06:13Pronto.
00:06:39Está na tela, André.
00:06:43Agora estou tentando voltar para a ferramenta,
00:06:45que não está aparecendo para mim aqui.
00:06:52É você que está controlando aí, então, não é?
00:06:56Isso.
00:06:56Você tem como passar para a segunda, então?
00:06:59Ou terceira, agora?
00:07:02Essa aí eu falei um pouco sobre mim.
00:07:05E essa é a tela que eu queria me referir, então.
00:07:09A grande tensão aí é o seguinte.
00:07:10É proteger...
00:07:12Qual é o grande debate?
00:07:13Você tem uma tensão entre proteger a livre circulação de ideias, de opinião,
00:07:19e você conter.
00:07:20Primeiro, para não ter crime, calúnia, injura, difamação.
00:07:23E depois, para você conter discurso de ódio, discurso de violência e desinformação.
00:07:28Esse debate, ele existe há 200 anos, desde o início do capitalismo, do início do que a gente chama de democracia liberal.
00:07:38Só que esse debate mudou muito nos últimos 20 anos por conta das plataformas digitais.
00:07:45Dá para a gente avançar aí?
00:07:47Na próxima tela.
00:07:49Falar um pouco sobre a diferença entre os critérios de publicação de imprensa e rede social.
00:07:58Bom, na imprensa você tem uma cadeia profissional, que tem editor, repórter, supervisores.
00:08:04Você tem um processo de apuração, de correção.
00:08:06Você tem manuais de redação, códigos eleitorais ou códigos editoriais.
00:08:11E critérios explícitos de publicação, o que buscam ser explícitos, a imprensa deve visar o interesse público.
00:08:21Ela sempre fornece um contexto, tem uma certa previsibilidade editorial ou uma linha editorial.
00:08:28Os erros são corrigidos.
00:08:30Como é que funcionam as redes?
00:08:31O conteúdo é gerado pelo usuário e as redes dizem que não tem responsabilidade sobre o conteúdo publicado.
00:08:37As redes fazem uma moderação que é automática, que é muito falha.
00:08:43Mas, em resumo, as redes dizem que não são responsáveis pelo que as pessoas publicam nas plataformas.
00:08:51E você tem todo tipo de publicação.
00:08:54Os algoritmos que orientam as redes, eles priorizam...
00:08:57Vocês tiveram aula de inteligência artificial, então vocês devem estar até mais informados do que eu sobre esse universo.
00:09:05Mas, os algoritmos, eles não priorizam a verdade.
00:09:10Eles priorizam o que dá engajamento.
00:09:13Com moderação automatizada, frequentemente você tem decisões comerciais prevalecendo e arbitrárias.
00:09:22Então, as redes não atuam com critérios claros, não tem transparência.
00:09:27Avança, por favor, o próximo.
00:09:28Sobre a gente falar de imprensa, primeiro eu queria fazer uma distinção entre imprensa e imprensa.
00:09:40Porque, hoje em dia, tudo é imprensa.
00:09:42Então, se você tem o espectro, vamos dizer assim, os bolsonaristas de um lado,
00:09:49os extremistas de esquerda e de outro, eles têm seus próprios veículos
00:09:54e um bolsonarista vai chamar Terra Brasilis ou Revista Oeste de imprensa.
00:10:01Não é.
00:10:02A imprensa tem que ser independente e tem essa definição do Carl Bernstein.
00:10:07É do caso Watergate, o caso que resultou na renúncia do presidente Nixon.
00:10:12Ele foi retratado no cinema como o Dustin Hoffman.
00:10:16Tem o filme Todos os Homens do Presidente, que é um clássico.
00:10:19Esse é um caso clássico em que a imprensa enfrentou o governo dos Estados Unidos e ganhou.
00:10:26Existem outros casos semelhantes, mas esse é um dos mais emblemáticos.
00:10:31E o Carl Bernstein diz o seguinte, jornalismo é a melhor versão possível da verdade.
00:10:37Tem muita gente que fala que jornalismo é o primeiro rascunho da história.
00:10:42Então, você tem um compromisso de buscar a verdade e de fazer esse registro.
00:10:47E esse registro é fonte de consulta histórica.
00:10:51Quem for estudar sobre escravidão ou era Vargas ou os dias de hoje no futuro
00:10:56vai consultar a imprensa e vai ver ali a tentativa de fazer o registro histórico,
00:11:00factual, objetivo do que aconteceu.
00:11:02Então, isso demanda independência editorial, quer dizer, a imprensa tem que ter independência
00:11:12financeira para ter independência editorial e eventualmente enfrentar o governo ou grandes
00:11:18empresas ou grandes anunciantes.
00:11:20Você tem a separação igreja-estado.
00:11:23A igreja-estado é como a gente, em comunicação, jornalismo, chama redação e comercial.
00:11:29Você tem que ter independência entre redação e comercial.
00:11:34É óbvio que a gente sabe que existem vasos comunicantes, que governos e grandes empresas
00:11:39sempre têm poder de pressão, mas o ideal é que você tenha isso o mais separado possível.
00:11:45E honestidade intelectual?
00:11:47Quer dizer, você vai...
00:11:48O repórter, desde a base, da primeira, o repórter iniciante, até o repórter ou editor-chefe
00:11:56ou o jornalista mais experiente, você tem um compromisso com o leitor de buscar a verdade.
00:12:05E honestidade intelectual é isso.
00:12:08Vamos para o...
00:12:09Pode passar para o próximo aí.
00:12:11Esse próximo é uma brincadeira que o velho ACM fazia.
00:12:15Ele dizia que tem três tipos de jornalista.
00:12:17O que quer notícia, o que quer emprego e o que quer dinheiro.
00:12:20E o político esperto é aquele que não troca as bolas.
00:12:23Não dá notícia para quem quer emprego, não dá dinheiro para quem quer notícia e tal.
00:12:27Pode passar, por favor.
00:12:30Esse livro que vai passar agora, Elementos do Jornalismo, é um clássico da literatura jornalística.
00:12:37Ele foi escrito em 97, a primeira edição.
00:12:41É o prefácio do Fernando Rodrigues, que é um grande jornalista, é do Poder 360.
00:12:45E os autores, eles já, quando lançaram o livro, você já tinha uma preocupação com a internet.
00:12:53A internet comercial surgiu no Brasil em 95, surgiu um pouco antes dos Estados Unidos,
00:12:58e em meados ou final dos anos 90 já havia uma preocupação com um grande volume de informação
00:13:03circulando, possibilitado.
00:13:06Não tinha redes sociais como a gente conhece ainda hoje,
00:13:09mas tinha já um volume crescente de informação em circulação.
00:13:13Lembrando que, até essa época, até os anos 90, qual era a dieta de mídia, vamos dizer assim,
00:13:20de um cidadão bem informado?
00:13:22Ele lia o jornal ou os jornais de manhã, e à noite ele assistia o noticiário na TV.
00:13:30Não tinha CBN, não tinha Globo News, não tinha o conceito de notícia 24 horas, não tinha redes sociais.
00:13:36Nesse ambiente dos anos 90, 97, quando o livro foi lançado, eles observaram o seguinte.
00:13:42Primeiro, à medida que os cidadãos encontram um fluxo cada vez maior de dados, de informação,
00:13:47eles precisam de mais, e não de menos, fontes identificáveis para verificar se aquela informação é verdadeira ou não.
00:13:56E o jornalismo, ele é a nossa cartografia moderna.
00:14:02Por que cartografia?
00:14:03Eles contam no livro que, na época das grandes navegações, século XV e tal,
00:14:09boa parte do mundo era conhecida, Europa, África,
00:14:14mas o Novo Mundo, a América, não era conhecida.
00:14:18Então, a cartografia era um ofício muito importante,
00:14:24e os grandes produtores de mapa, eles desenhavam com a maior precisão possível o mundo conhecido,
00:14:30e o mundo que não era conhecido, eles desenhavam monstros marinhos, faziam ilustrações,
00:14:36e aquilo virava meio obra de arte.
00:14:38Mas quem pegava o mapa para navegar sabia o que era verdade e o que era desenho.
00:14:42Então, o jornalismo, hoje, o objetivo seria ser a cartografia moderna,
00:14:48quer dizer, ele cria mapas para que os cidadãos naveguem através da sociedade.
00:14:53Essa é a sua utilidade e sua razão econômica de ser.
00:14:56O problema é que, ao longo dos anos, o jornalismo deixou de ser a agenda pública principal.
00:15:00O problema, você tem vantagens e desvantagens em relação a tudo, né?
00:15:06O jornalismo, junto com a democracia, como parte da democracia,
00:15:09ele também sofre uma crise de credibilidade muito grande.
00:15:16E, hoje em dia, a pessoa, para se informar, ela não abre mais o jornal como fazia há 30 anos.
00:15:22Com muita frequência, a principal fonte de informação dela é o quê?
00:15:25É o Facebook, é o Instagram, é o grupo de WhatsApp.
00:15:28Então, esse mapa, que continua sendo importante, continua sendo útil para a navegação,
00:15:35ele não é utilizado por todo mundo.
00:15:36Muita gente ignora esse mapa e vive em bolhas e passa a ter uma leitura completamente diferente da realidade.
00:15:44A gente está caminhando para uma crise da informação em que a gente pode...
00:15:52Quando você debatia, por exemplo, nos anos 90, se vai ter a emenda da reeleição ou não,
00:15:58ou se o país vai optar pelo parlamentarismo ou presidencialismo,
00:16:02ou mesmo antes, debate das diretas já...
00:16:05No debate público, você tinha divergências, mas você tinha um consenso mínimo.
00:16:09Hoje em dia, você está tendo divergências sobre questões fundamentais.
00:16:14Por exemplo, urna eletrônica.
00:16:16Eu cubro eleições, acompanho eleições há 30 anos.
00:16:19Eu sei que urna eletrônica funciona.
00:16:21Eu acompanhei voto de papel.
00:16:26Mas você tem lives no YouTube, canais no YouTube, você tem um monte de gente disseminando informação falsa sobre urna
00:16:34e tem um monte de gente que acha que a urna não funciona, que a eleição foi uma fraude.
00:16:39O que era a teoria da conspiração ganhou uma...
00:16:42E que era muito restrito, era uma coisa residual.
00:16:44Hoje não é tão residual assim.
00:16:47Pode passar.
00:16:50Bom, esse próximo slide é como funciona a redação.
00:16:54Eu acho que a gente pode passar batido também, senão a gente vai atrasar.
00:16:59São as funções internas.
00:17:03A imprensa e a democracia, então, elas surgiram...
00:17:06Não surgiram, mas elas amadureceram juntas ao longo dos últimos 200 anos.
00:17:12A imprensa, como a gente conhece hoje, ela é fruto do desenvolvimento do capitalismo industrial,
00:17:17da sociedade industrial, e ela utiliza como referência valores desenvolvidos no iluminismo,
00:17:26na Revolução Industrial, na Revolução Francesa, na Revolução Americana.
00:17:29Que valores são esses?
00:17:31Pode passar, por favor.
00:17:32Bom, esses valores são liberdade de expressão, livre de iniciativa, igualdade de oportunidade,
00:17:45tolerância, respeito ao próximo, um governo constitucional,
00:17:49separação igreja-estado, e aí sim, em sentido literal, igreja-igreja, Estado é laico,
00:17:55a separação dos poderes, o motês que é a ilustração, a divisão executiva, legislativa e judiciária,
00:18:01direitos humanos, direitos civis.
00:18:04Esse é o compromisso da imprensa, esses são os valores da democracia liberal.
00:18:11Agora, passando para o próximo slide, as redes sociais têm compromisso com o quê?
00:18:17As redes não têm compromisso com nada.
00:18:20A meta do Facebook, do WhatsApp, o Pedro Doria é um jornalista, ele foi do Globo,
00:18:26ele hoje é responsável pelo Mail, não sei se vocês conhecem,
00:18:30mas ele escreve no Globo regularmente, eu tive palestras com ele já,
00:18:34tive pessoalmente com ele aqui em Vitória, no Rio,
00:18:38e eu achei ele muito bom, achei ele uma referência nessa área.
00:18:41Esse artigo saiu em agosto, passa, por favor, para a gente ver.
00:18:44Teve uma denúncia da Frances Hogan, é uma executiva do Facebook,
00:18:51ela pediu demissão em 2021 e ela revelou documentos secretos e tal,
00:18:57e ela disse na época que ela tinha consciência de que adolescentes,
00:19:02a empresa, o Facebook, a meta, tinha plena consciência de que adolescentes vulneráveis
00:19:07eram expostos a conteúdos que os deixavam em pior estado,
00:19:11tanto no Instagram quanto no Facebook.
00:19:13e falava de jovens que se automutilavam,
00:19:16em casos extremos eram levados ao suicídio,
00:19:19a empresa tinha noção disso e não fazia nada.
00:19:22A meta também tinha conhecimento de assédio sexual contra menores de idade,
00:19:27100 mil vítimas de assédio por dia, todos os dias,
00:19:32e ela não fazia nada.
00:19:34Pode passar esses dois slides, por favor,
00:19:39porque é só detalhando também como que a empresa,
00:19:42o Facebook tem conhecimento do uso indevido de sua ferramenta e não faz nada.
00:19:49Esse livro, eu queria mencionar, pode passar o slide,
00:19:53eu estou acelerando um pouquinho para a gente terminar oito horas
00:19:56e ter pelo menos meia hora de conversa.
00:19:58Enquanto antes eu consegui correr aqui.
00:20:03Bom, esse livro é muito bom, quem não leu, eu recomendo com força,
00:20:07Engenheiros do Caos, de um cientista político italiano,
00:20:11o Juliano D'Ampoli,
00:20:13e ele descreve no livro como as fake news, as teorias da conspiração
00:20:16e os algoritmos estão sendo utilizados para disseminar ódio, medo e influenciar eleições.
00:20:22Então ele descreve como que os algoritmos são programados para atrair o usuário por mais tempo,
00:20:29recorrendo às suas aspirações e também aos sentimentos de medo e raiva,
00:20:34às emoções negativas.
00:20:36Os sentimentos que mais fazem a pessoa voltar a clicar no Instagram ou numa rede social,
00:20:43quer dizer, voltar para o celular, é o sentimento de raiva.
00:20:46O cara vê um post e fica com raiva, aí ele vai lá e comenta,
00:20:49aí depois ele quer voltar para saber se alguém rebateu.
00:20:52Os algoritmos identificaram que o sentimento de raiva e medo são os que mais engajam
00:20:57e eles exploram esses sentimentos.
00:21:00Só falando um pouco sobre o algoritmo, o Pedro Doria fala muito bem sobre isso.
00:21:05O que significa isso?
00:21:06Em 2010, 2012, eles começaram a ser mais utilizados.
00:21:11O que eles fazem, os algoritmos?
00:21:13Eles pegam o grande público que está nas redes
00:21:16e eles identificam áreas de interesse.
00:21:19Então, homens de 50 anos que gostam de rock,
00:21:23mulheres que correm maratona,
00:21:26gente que coleciona selo,
00:21:28eles vão dividindo,
00:21:29identificando esses gostos
00:21:31e também tendências políticas
00:21:34e eles vão direcionando o conteúdo.
00:21:37E isso leva àquela questão do Felca,
00:21:39que denunciou a questão da adultização.
00:21:42Por exemplo, os pais inocentes de uma criança na beira da piscina,
00:21:48eles postam uma foto de uma criança em trajes de banho de piscina,
00:21:53postam porque acham bonitinho.
00:21:55O algoritmo faz o favor de pegar esse post e direcionar para a pedofilia.
00:22:00Eu vou comentar um caso pessoal aqui.
00:22:04Eu navegando no TikTok,
00:22:07esbarrei por acaso,
00:22:08apareceu para mim,
00:22:09eu não sigo o perfil,
00:22:11mas apareceu para mim um vídeo em inglês
00:22:16com uma teoria da conspiração
00:22:18dizendo que o homem é mentira da NASA,
00:22:20o homem nunca pisou na Lua.
00:22:21Eu comecei a ver que era piada
00:22:22e continuei vendo.
00:22:24Então eles diziam que a bandeira
00:22:26não podia estar tremulando
00:22:28porque não tem vento,
00:22:29não tem atmosfera.
00:22:31Aí simulavam o que era um estúdio,
00:22:32o que a NASA mentiu ao longo desse tempo todo.
00:22:35Eu fui vendo aquilo,
00:22:36os caras estão falando sério.
00:22:37Aí botavam um cientista para falar
00:22:39que era mentira,
00:22:40um suposto cientista,
00:22:41suposto físico.
00:22:42Eu vi aquele vídeo todo,
00:22:43achei aquilo uma bobagem
00:22:45e segui minha vida.
00:22:47O que aconteceu?
00:22:48Logo depois começaram a surgir
00:22:49vários outros vídeos
00:22:51também dizendo
00:22:52que o homem nunca tinha pisado na Lua.
00:22:56Bom, eu tive que treinar o algoritmo
00:22:58para parar de me mostrar aquilo.
00:22:59Tive que começar a bloquear perfil
00:23:01e a passar batido muito rapidamente.
00:23:05Essa entra uma grande questão.
00:23:07O que os algoritmos deviam fazer?
00:23:10Você pode proibir alguém
00:23:11de postar que acha que a Terra é plana?
00:23:14Você pode até dizer que não.
00:23:17Se o cara acha isso,
00:23:18então deixa ele compartilhar.
00:23:19Agora, o algoritmo pegar um perfil
00:23:23obscuro que ninguém sabe o que é
00:23:26e pegar aquilo e distribuir
00:23:28porque ele sabe que aquilo dá engajamento
00:23:31e se você acha que a Terra é plana,
00:23:34você vai encontrar aqui
00:23:35o seu núcleo de audiência.
00:23:36Os veículos só buscam audiência.
00:23:39YouTube é assim,
00:23:41Facebook é assim,
00:23:42é cheio de teoria da conspiração.
00:23:44E isso é um problemaço.
00:23:50Segue a tela, por favor,
00:23:51a próxima tela aí.
00:23:53Esse livro, ele cita um estudo do MIT
00:23:56em que indica que uma informação falsa,
00:24:00uma pesquisa identificou,
00:24:02tem em média 70% mais probabilidade
00:24:05de ser compartilhada na internet
00:24:07porque geralmente ela é mais original
00:24:09que uma notícia verdadeira.
00:24:10A teoria da conspiração e as fake news,
00:24:13elas são mais, vamos dizer assim,
00:24:15interessantes do que a verdade.
00:24:18E aí tem uma frase do Mark Twain,
00:24:19um escritor, que ele fala
00:24:20uma mentira pode fazer a volta ao mundo
00:24:22no mesmo tempo em que a verdade calça os sapatos.
00:24:24Ele falou isso em 1850, por aí.
00:24:28Mas a verdade é menos interessante,
00:24:31vamos dizer assim.
00:24:32Tem esse outro livro,
00:24:34pode passar, por favor,
00:24:35do Harari, o Nexus.
00:24:37Eu li os três livros dele,
00:24:41o Sapiens,
00:24:43o Modeus e o Nexus.
00:24:46E leio tudo quanto é a entrevista
00:24:48que eu vejo dele.
00:24:49Eu não sei se vocês já leram,
00:24:50se conhecem.
00:24:51Ele é muito bom.
00:24:53Esse livro, ele fala sobre
00:24:55a história das redes de informação
00:24:57desde a Idade da Pedra
00:24:58até a Inteligência Artificial.
00:25:01E ele fala como que a nossa era atual,
00:25:03como que a nossa civilização está ameaçada
00:25:05por essa combinação de Inteligência Artificial
00:25:08com redes sociais.
00:25:10Ele cita um relatório interno do Facebook
00:25:12que vazou,
00:25:14que foi vazado,
00:25:15que revelou que 64% de todo,
00:25:18o próprio Facebook admitido,
00:25:1964% de todas as adesões
00:25:22a grupos extremistas
00:25:23se deve a ferramentas de recomendação.
00:25:27Recomendação é isso.
00:25:28O cara não segue uma página,
00:25:30mas o Facebook identifica
00:25:32que você tem ou pode ter interesse
00:25:34por aquilo e ele direciona para você.
00:25:36E o algoritmo naturalmente erra,
00:25:38porque eles me mandaram um vídeo
00:25:40dizendo que o homem não pisou na lua.
00:25:43Não sei o que levou eles a acreditar
00:25:45que isso me interessaria,
00:25:46mas enfim.
00:25:48Os nossos sistemas de recomendação
00:25:50exacerbam o problema.
00:25:52Eles sabem disso.
00:25:54Pode passar, por favor.
00:25:55Tem um outro trecho do livro
00:26:01que ele cita,
00:26:02é o mesmo memorando
00:26:04divulgado pela Francis Hogan,
00:26:08aquela executiva
00:26:08que o Pedro Doria mencionou também,
00:26:11e que é um documento interno
00:26:13do Facebook.
00:26:13Eles dizendo,
00:26:14temos provas de múltiplas fontes
00:26:16de que discursos de ódio,
00:26:18discursos políticos e sectários
00:26:19e desinformação no Facebook
00:26:22e em sua família de aplicativos,
00:26:24Instagram e tal,
00:26:26estão afetando sociedades
00:26:27no mundo inteiro.
00:26:29Também temos provas convincentes
00:26:30de que as principais mecânicas
00:26:32do nosso produto,
00:26:33como viralidade,
00:26:34recomendações e otimização
00:26:36com visibilidade ao engajamento,
00:26:38são parte significativa
00:26:40da razão pela qual
00:26:41esses tipos de discursos
00:26:42prosperam na plataforma.
00:26:44Bom, aí o foco central,
00:26:49pode mudar, por favor.
00:26:53O foco central do livro,
00:26:59na verdade,
00:27:00é o seguinte,
00:27:02a tese principal dele é o seguinte,
00:27:05pela primeira vez na história
00:27:06da nossa comunicação,
00:27:08ele fala que o homem,
00:27:12a tese dele inicial com o Sapiens
00:27:14é o seguinte,
00:27:14como é que o homem
00:27:15se diferenciou dos demais primatas?
00:27:17Por que o homem
00:27:18vive hoje tão diferente
00:27:20do que vive o chimpanzé
00:27:21e o gorila
00:27:21que estão até hoje
00:27:22do mesmo jeito?
00:27:23A chave disso,
00:27:25na visão do Harari,
00:27:27é a comunicação,
00:27:28a capacidade do homem
00:27:30de se comunicar
00:27:31e de criar um grande número
00:27:32de colaboradores
00:27:34em torno de uma mesma causa.
00:27:36Essa primeira causa
00:27:37foi a caça.
00:27:38Quanto mais gente caçando,
00:27:40mais gente pode ser alimentada.
00:27:42Bom, isso evoluiu
00:27:44para o controle da agricultura,
00:27:46para o surgimento das cidades
00:27:47e para a possibilidade
00:27:48de cooperação
00:27:49numa empresa
00:27:50com 100 mil
00:27:51trabalhadores
00:27:54ou numa nação
00:27:55com 200 milhões
00:27:55de habitantes
00:27:56como o Brasil.
00:27:57Você cria
00:27:58uma rede de valores,
00:28:00três grandes mitos,
00:28:02que é a religião,
00:28:02o governo
00:28:03e o dinheiro,
00:28:05e em torno
00:28:06desses consensos
00:28:07e desses mitos,
00:28:08você cria
00:28:09toda uma civilização.
00:28:10uma empresa,
00:28:11por exemplo,
00:28:12as 100 mil pessoas
00:28:12não se conhecem,
00:28:14mas elas conhecem
00:28:15a missão
00:28:16e valores da empresa,
00:28:17cada setor
00:28:19tem o seu planejamento
00:28:20estratégico
00:28:21e você bota
00:28:22100 mil pessoas
00:28:22para colaborarem
00:28:23numa mesma direção.
00:28:25Isso é comunicação.
00:28:27A comunicação
00:28:28sempre foi
00:28:29entre humanos.
00:28:30Então,
00:28:31pela primeira vez
00:28:31na história,
00:28:33nos últimos
00:28:33100 mil anos
00:28:34de Homo Sapiens,
00:28:36a comunicação
00:28:36entre humanos
00:28:37passa a interagir
00:28:38com um ente
00:28:39não humano,
00:28:40que é
00:28:40a inteligência artificial,
00:28:42que ela não é
00:28:42uma ferramenta,
00:28:43ela é um agente
00:28:44capaz de gerar
00:28:45conteúdo
00:28:46e de tomar decisões.
00:28:47Os algoritmos
00:28:48tomam decisões
00:28:49e a gente
00:28:52já está,
00:28:53pode passar a tela,
00:28:54por favor,
00:28:58a gente já está
00:28:59sofrendo
00:29:00essa ameaça
00:29:02da IA
00:29:02quando você
00:29:04começa a ter
00:29:05essa corrosão
00:29:06de verdades
00:29:07que possibilitam
00:29:08a convivência básica,
00:29:09que é a história
00:29:11da polarização
00:29:12afetiva.
00:29:13Mas a gente
00:29:14construiu
00:29:14essa rede
00:29:15de crenças
00:29:15e valores
00:29:16com base
00:29:17na confiança.
00:29:19A gente aceita
00:29:20uma nota
00:29:21de 100 reais
00:29:21porque a gente
00:29:22sabe o que
00:29:22ela significa.
00:29:23Não há uma
00:29:24suspeita
00:29:25de que a nota
00:29:26é falsa.
00:29:27Se pega na Argentina,
00:29:28eu não sei como é
00:29:28que está agora,
00:29:29mas eu estive lá
00:29:29há alguns anos,
00:29:31você tinha muita
00:29:31nota falsa
00:29:32e tinha
00:29:33desconfiança.
00:29:34se você pegar
00:29:35essa nota
00:29:35de 100 reais
00:29:36e apresentar
00:29:37em um país
00:29:37na África,
00:29:39não vai fazer
00:29:40o menor sentido.
00:29:41Então,
00:29:41a confiança
00:29:41é fundamental.
00:29:44Pode mudar,
00:29:46por favor.
00:29:47Tem um trecho
00:29:48do livro
00:29:48que ele fala o seguinte,
00:29:50o surgimento
00:29:50da IA
00:29:51instala um perigo
00:29:52mortal à humanidade,
00:29:53não por causa
00:29:54da malevolência
00:29:54dos computadores,
00:29:56mas por causa
00:29:58de nossas próprias falhas.
00:29:59A civilização humana
00:30:00está ameaçada
00:30:01por armas físicas
00:30:02e biológicas
00:30:02de destruição
00:30:03em massa,
00:30:04mas não só.
00:30:05Ela também pode ser
00:30:06destruída por armas
00:30:07de destruição
00:30:08social em massa.
00:30:10São histórias
00:30:11que corroem
00:30:12nossos vínculos.
00:30:13Quer dizer,
00:30:13uma IA desenvolvida
00:30:14em um país,
00:30:15ela pode ser usada
00:30:16para desencadear
00:30:16uma enxurrada
00:30:18de fake news,
00:30:19de dinheiro falso
00:30:20ou de falsos humanos,
00:30:22de tal forma
00:30:22que as pessoas
00:30:23em inúmeros outros países
00:30:24perderiam a capacidade
00:30:26de confiar
00:30:26em qualquer coisa
00:30:28ou em qualquer pessoa.
00:30:30A gente já está vendo
00:30:31o uso de IA
00:30:32com imagens
00:30:33que são perfeitas.
00:30:35Aparece lá,
00:30:35Donald,
00:30:36você deve ter visto
00:30:37Donald Trump
00:30:37beijando na boca
00:30:39do Netanyahu.
00:30:41A gente imagina
00:30:42que aquilo,
00:30:42a gente percebe
00:30:43que aquilo é fake,
00:30:44mas está chegando
00:30:45num ponto
00:30:45que vai ficando
00:30:46cada vez mais difícil
00:30:47definir o que é fake
00:30:49ou não.
00:30:51Bom,
00:30:52qual é um caminho,
00:30:53pode passar por favor,
00:30:55qual é um caminho
00:30:56para superar
00:30:58ou para tentar enfrentar
00:31:00essa situação?
00:31:01Bom,
00:31:01primeiro,
00:31:01regulamentação
00:31:02das redes sociais
00:31:03e regulamentação
00:31:04não é do usuário,
00:31:05porque a extrema direita
00:31:06quando você fala
00:31:07em regulamentação
00:31:07das redes,
00:31:09ela fala como se fosse
00:31:09tentativa de censura.
00:31:11A ideia não é calar
00:31:13quem acha
00:31:14que a terra é plana,
00:31:15não é calar
00:31:16quem acha
00:31:16que a urna
00:31:17é fraudada.
00:31:19A ideia é simplesmente
00:31:21você, primeiro,
00:31:22ter transparência.
00:31:24A regulamentação
00:31:24é você saber
00:31:25como é que funciona
00:31:26e você impedir
00:31:29que as redes
00:31:29peguem um conteúdo
00:31:31como elas fazem hoje,
00:31:32reconhecidamente falso
00:31:34e que elas lucrem
00:31:36com a disseminação
00:31:37desse conteúdo
00:31:38porque elas querem audiência,
00:31:39porque é isso
00:31:39que está acontecendo.
00:31:42Educação midiática,
00:31:44que é mais ou menos
00:31:45isso que a gente
00:31:45está fazendo aqui,
00:31:46mas que pode ser incorporada
00:31:47em currículo escolar,
00:31:49assim como a gente aprende
00:31:50a ler e escrever,
00:31:51a gente tem que aprender
00:31:52a navegar na internet
00:31:53para identificar
00:31:54o que é falso ou não.
00:31:56E diálogo,
00:31:57saber ouvir,
00:31:58recuperar a capacidade
00:32:00de ouvir um ponto
00:32:00de vista contrário,
00:32:02sem rotular,
00:32:04que hoje é muito difícil,
00:32:05você tem os dois lados,
00:32:08os dois extremos,
00:32:09tem um monte de frase
00:32:10pronta
00:32:11e quem se dispõe
00:32:12a ouvir,
00:32:13ao isentão,
00:32:15então o diálogo
00:32:15vai ficando difícil.
00:32:18Esses são os caminhos
00:32:19que a gente pode discutir
00:32:20mais depois
00:32:21para a gente enfrentar,
00:32:22porque a gente está
00:32:22enfrentando uma crise
00:32:24muito grande
00:32:25da informação,
00:32:27da democracia,
00:32:29da imprensa,
00:32:30mas da civilização mesmo.
00:32:34E aí eu vejo
00:32:35a imprensa
00:32:36como uma aliada,
00:32:37ela tem um monte
00:32:38de problema,
00:32:38a gente viu a BBC
00:32:39teve um problema agora,
00:32:41a imprensa erra,
00:32:42ela sofre processo,
00:32:43a imprensa tem um monte
00:32:44de problema,
00:32:45com o Supremo Tribunal Federal
00:32:47também tem problema.
00:32:47A solução não é
00:32:49acabar com a imprensa,
00:32:51nem fechar o Supremo,
00:32:52nem caçar ministro,
00:32:53é você,
00:32:54na minha visão,
00:32:55é ir aperfeiçoando
00:32:56as instituições,
00:32:58como a gente precisa
00:32:59aperfeiçoar
00:33:00as redes sociais,
00:33:01porque assim,
00:33:02como eu falei,
00:33:03a imprensa,
00:33:04ou a democracia
00:33:05e a imprensa juntos
00:33:06são uma evolução
00:33:07ao longo de 200 anos.
00:33:09As redes sociais
00:33:11em menos de 20 anos
00:33:13estão causando
00:33:15um estrago enorme
00:33:16e é muito difícil
00:33:18regulamentar,
00:33:19ainda mais agora
00:33:20que você tem um presidente
00:33:20de extrema direita
00:33:21nos Estados Unidos
00:33:22e quando você fala
00:33:23em regulamentar,
00:33:25sempre tem alguém
00:33:25para dizer que é censura,
00:33:26não é censura.
00:33:28Bom,
00:33:29a gente pode falar
00:33:29mais sobre isso,
00:33:30estamos caminhando
00:33:30para o encerramento,
00:33:32pode passar,
00:33:33por favor.
00:33:34Eu queria terminar
00:33:35dando algumas dicas
00:33:37práticas
00:33:38para vocês
00:33:40que vão disputar
00:33:41a eleição
00:33:42no ano que vem.
00:33:44Diante de tudo isso
00:33:46que eu falei,
00:33:46de todo esse cenário,
00:33:47algumas dicas práticas
00:33:48para lidar
00:33:50com isso
00:33:51nas eleições.
00:33:52Bom, primeiro,
00:33:53tem uma equipe
00:33:54que possa te garantir
00:33:57resposta rápida.
00:33:58Uma equipe
00:33:58no mundo ideal,
00:33:59ela deve ter
00:34:00gente da comunicação,
00:34:02do jurídico,
00:34:03de TI
00:34:03e do digital.
00:34:06Comunicação e jurídico
00:34:07tem que dialogar
00:34:08permanentemente.
00:34:11Aconteceu qualquer coisa,
00:34:12você tem que ter
00:34:12equipe pronta
00:34:13para agir.
00:34:14Antes de começar
00:34:15a campanha,
00:34:16na pré-campanha,
00:34:17você já tem uns kits
00:34:18de imunização.
00:34:20O que são esses kits?
00:34:21Você tentar antever,
00:34:24saber quais são
00:34:25os seus pontos vulneráveis,
00:34:27onde você pode ser atacado
00:34:29e preparar mensagens
00:34:31para esses ataques
00:34:32previsíveis.
00:34:34Pode passar,
00:34:34por favor.
00:34:35você tem que ter
00:34:40essas mensagens prontas
00:34:43e tem a hora certa.
00:34:45Algumas você pode
00:34:46começar a divulgar antes
00:34:47e outras
00:34:48só depois.
00:34:50Tem que definir a hora
00:34:51de explicar
00:34:52para o litorado.
00:34:54E se for
00:34:55antes do ataque,
00:34:56olha,
00:34:56vem aí um ataque,
00:34:57mais ou menos
00:34:58como o
00:34:59o Serginho Menegheli
00:35:01fez agora
00:35:01nas redes aqui
00:35:02no Espírito Santo.
00:35:02eu fiquei sabendo
00:35:04primeiro da resposta dele
00:35:06antes de saber
00:35:07do ataque.
00:35:08Ele imaginou
00:35:09ou soube
00:35:10que vinha um ataque
00:35:11e ele se
00:35:12antecipou.
00:35:14Você fala
00:35:15qual é o ataque,
00:35:16como que ele vai ser montado,
00:35:17o que vai ser dito
00:35:18e por que é falso.
00:35:19Outra dica importante
00:35:21é o seguinte,
00:35:22registrar e publicar
00:35:23documentos públicos.
00:35:25Se o candidato
00:35:25tem um site,
00:35:27vai colocando ali
00:35:28tudo que for público
00:35:29que possa ser utilizado
00:35:31como prova.
00:35:32Ata,
00:35:33contrato,
00:35:33nota fiscal,
00:35:34torna público,
00:35:36mas não para divulgar
00:35:37para todo mundo.
00:35:38Coloque em algum lugar
00:35:39que você possa
00:35:39acessar.
00:35:42Porque a transparência
00:35:43dificulta
00:35:44a calúnia.
00:35:46Pode passar,
00:35:47por favor.
00:35:47Essas mensagens,
00:35:50durante a campanha,
00:35:51um debate,
00:35:52entrevista,
00:35:52em 2026,
00:35:54essas respostas
00:35:56curtas e repetíveis,
00:35:58elas devem ser treinadas.
00:36:00Você tem uma mensagem
00:36:01principal,
00:36:03uma mesma mensagem
00:36:04pode ser postada
00:36:06nas redes sociais,
00:36:08pode ser uma nota
00:36:08para a imprensa
00:36:09e você tem que ter
00:36:11umas três ou quatro
00:36:13frases curtas,
00:36:14alguma coisa
00:36:14em 20,
00:36:1530 segundos
00:36:16que você possa
00:36:17repetir
00:36:17numa entrevista,
00:36:19num debate
00:36:21ou mesmo
00:36:22nas redes sociais.
00:36:24Para que essa mensagem
00:36:25possa ser replicada
00:36:26pelos seus apoiadores
00:36:27também.
00:36:28E tem a técnica
00:36:29de bridge também,
00:36:31de ponte.
00:36:32O cara,
00:36:32num debate,
00:36:33faz um ataque
00:36:34dentro de um debate
00:36:37sobre educação,
00:36:38por exemplo,
00:36:39ele vai e fala,
00:36:41te acusa
00:36:42indevidamente
00:36:43de ter desviado
00:36:44o recurso,
00:36:44que for,
00:36:45é você,
00:36:46olha,
00:36:46se é mentira
00:36:46e se ataque
00:36:47não é verdadeiro,
00:36:48a questão aqui
00:36:49é educação.
00:36:51Educação,
00:36:51acho que tem que ter
00:36:52escolha em ensino integral,
00:36:53você rebate
00:36:54e puxa
00:36:55para a questão
00:36:57original
00:36:58ou introduz
00:36:59uma questão,
00:37:00fala,
00:37:00olha,
00:37:00o importante aqui
00:37:01é isso,
00:37:02faz uma ponte
00:37:03para deixar
00:37:05aquele assunto
00:37:05de lado
00:37:06e migrar
00:37:08para um outro assunto.
00:37:10Pode passar
00:37:11para o outro,
00:37:12por favor.
00:37:13Outra questão
00:37:15importante também
00:37:16é você ter equipe
00:37:17de monitoramento
00:37:18para acompanhar
00:37:19e responder.
00:37:20Você tem várias
00:37:21ferramentas de monitoramento,
00:37:22tem alertas
00:37:23do próprio Google,
00:37:25tem empresas
00:37:25que fazem relatórios
00:37:26em tempo real
00:37:27de redes sociais,
00:37:29de grupos de WhatsApp,
00:37:30tem ferramentas
00:37:31de social listening
00:37:31para saber
00:37:32o que o pessoal
00:37:32está falando,
00:37:33para você mapear
00:37:35possíveis virais
00:37:36e influenciadores
00:37:37que acabam
00:37:38amplificando
00:37:39a mensagem.
00:37:42E você tem
00:37:43que registrar também.
00:37:44Apareceu
00:37:45alguma coisa,
00:37:47surgiu um post,
00:37:48um áudio,
00:37:48você faz o print,
00:37:51arquiva aquilo,
00:37:52guarda o link,
00:37:53tem aqueles timestamps
00:37:56ali onde tem
00:37:56um carimbo com data,
00:37:57hora,
00:37:58que aparece
00:37:58uma sequência
00:37:59de caracteres
00:38:00que indica.
00:38:01Documenta.
00:38:02Documenta tudo
00:38:03porque isso facilita
00:38:05a remoção,
00:38:06o pedido de remoção
00:38:07das plataformas
00:38:08e facilita processos,
00:38:11eventualmente,
00:38:11é o caso
00:38:12de processo judicial.
00:38:16Bom,
00:38:17ao próximo,
00:38:17por favor,
00:38:18então,
00:38:18o item 8 aí,
00:38:19tenha também
00:38:20procedimentos
00:38:21de remoção prontos.
00:38:24Alguém na equipe
00:38:25tem que ter
00:38:25o canal,
00:38:27tem que saber
00:38:27o caminho
00:38:28para você fazer
00:38:28o reporte
00:38:29para as plataformas
00:38:30com pedido de remoção
00:38:31e eventualmente
00:38:33até com representação
00:38:34à justiça eleitoral.
00:38:36E priorizar também,
00:38:38priorizar porque
00:38:39nem tudo vale a pena
00:38:41gastar energia,
00:38:42ainda mais a campanha
00:38:43aqui na reta final.
00:38:44O tempo é curto,
00:38:45tem muito coisa
00:38:45para fazer,
00:38:46às vezes,
00:38:46não vale a pena
00:38:48rebater.
00:38:51O próximo,
00:38:52por favor.
00:38:53Bom,
00:38:55um detalhe importante,
00:38:56nos debates e entrevistas
00:38:58é o seguinte,
00:38:58além de treinar
00:38:59aquelas respostas
00:39:00previsíveis,
00:39:02três frases fortes,
00:39:03é interessante
00:39:04você ter uma equipe
00:39:06de redes sociais
00:39:08monitorando
00:39:09o debate
00:39:10em tempo real
00:39:12para que,
00:39:13se no debate
00:39:14surgir
00:39:15alguma acusação
00:39:17infundada,
00:39:18previsível,
00:39:18que você até
00:39:19estava esperando,
00:39:21você,
00:39:21nas redes sociais,
00:39:23já começar a construir
00:39:24a narrativa
00:39:24de contra-ataque.
00:39:26Porque o debate,
00:39:29assim,
00:39:29mais importante,
00:39:32talvez,
00:39:32do que o debate
00:39:33são os cortes,
00:39:34as edições que você faz
00:39:35e a narrativa
00:39:36que você constrói
00:39:37em cima de sua participação
00:39:39no debate
00:39:39ou das falhas do adversário.
00:39:41Então,
00:39:42você vai ter
00:39:42a sua própria narrativa
00:39:43e aí você fortalece,
00:39:47na hora que o candidato
00:39:49falar alguma coisa
00:39:50que não é verdade,
00:39:51você já começar
00:39:51ao mesmo tempo
00:39:52nas redes
00:39:53a fazer
00:39:53esse contra-ataque
00:39:55e manter
00:39:56a calma,
00:39:57manter a calma
00:39:58na hora
00:40:00do ataque,
00:40:03porque é muito comum
00:40:04também no debate
00:40:04você ver provocação
00:40:05para desestabilizar
00:40:06o candidato
00:40:07e muitos candidatos
00:40:08acabam realmente irritados.
00:40:10Gente,
00:40:10eu dei uma corrida aqui,
00:40:13queria agradecer,
00:40:14eu acho que tem um tempo
00:40:15bom para a gente
00:40:16debater aí,
00:40:19eu queria agradecer
00:40:20mais uma vez,
00:40:21vocês têm o Luciano
00:40:24ou a Thaís
00:40:24e tem o meu contato
00:40:25se alguém depois também
00:40:26quiser conversar,
00:40:27bater um papo
00:40:28mais detidamente
00:40:29sobre alguma questão
00:40:30ou outra,
00:40:32fazer o meu merchandising
00:40:33aqui,
00:40:33eu trabalho com campanha eleitoral,
00:40:35posso ajudar algumas pessoas
00:40:37e estou aqui
00:40:38à disposição
00:40:39para a gente conversar,
00:40:42para ouvir vocês
00:40:43e eventualmente
00:40:45responder alguma pergunta.
00:40:48Para que nós possamos,
00:40:50primeiro,
00:40:50agradecer muito
00:40:51a exposição do André,
00:40:54foi muito útil,
00:40:55são informações
00:40:56que eu sugiro
00:40:58a todos
00:40:58que depois
00:41:00revisem,
00:41:02tomem nota
00:41:03porque
00:41:03na hora
00:41:05de montar
00:41:06suas campanhas
00:41:07isso vai ser
00:41:07muito importante
00:41:08para vocês
00:41:09e as perguntas
00:41:11vão ser feitas
00:41:11pela inscrição
00:41:12no chat.
00:41:13o Washington
00:41:15vai me ajudar
00:41:16aí,
00:41:18as pessoas
00:41:20que quiserem fazer
00:41:21perguntas
00:41:21vão lá no chat,
00:41:22coloquem
00:41:22eu quero fazer
00:41:23a pergunta
00:41:23e a gente
00:41:24dá a palavra
00:41:25para eles
00:41:25para poder
00:41:26evitar que vários
00:41:27microfones
00:41:28fiquem abertos,
00:41:29está certo?
00:41:32Enquanto o pessoal
00:41:34vai se inscrevendo,
00:41:35eu queria,
00:41:36para ajudar
00:41:36o debate,
00:41:38fazer
00:41:40uma reflexão
00:41:42e uma pergunta
00:41:43para o André,
00:41:45que é o seguinte,
00:41:46a resistência
00:41:50ao processo
00:41:52de responsabilização
00:41:54e transparência
00:41:55das redes sociais
00:41:57não teria
00:41:58relação
00:41:59com o nome
00:42:00muito mal aplicado
00:42:02de projeto
00:42:03de regulamentação
00:42:04de rede,
00:42:04não André?
00:42:05Porque na hora
00:42:06que você fala
00:42:06regulamentação
00:42:07de rede
00:42:07se remete
00:42:08à mordaça
00:42:10e se o nome
00:42:12desse projeto
00:42:13fosse
00:42:14transparência
00:42:15das redes
00:42:16em inglês
00:42:21tem um nome
00:42:22que é
00:42:22contability
00:42:23das redes
00:42:25alguma coisa
00:42:26assim,
00:42:27você não acha
00:42:27que esse
00:42:28termo
00:42:30na origem
00:42:30ele está
00:42:31equivocado,
00:42:32não?
00:42:33Acho
00:42:34e confesso
00:42:35que eu não tinha
00:42:35pensado nisso,
00:42:36porque realmente
00:42:37quando você fala
00:42:37em regulamentação
00:42:40da imprensa
00:42:40parece que você
00:42:42vai querer
00:42:42censurar
00:42:42e quando você
00:42:45fala em regulamentação
00:42:46de redes
00:42:47realmente não tinha
00:42:48pensado,
00:42:49você tem razão,
00:42:50eu acho que poderia
00:42:51mudar porque realmente
00:42:52pode parecer
00:42:54que é alguma
00:42:55tentativa
00:42:56de censura,
00:42:58talvez assim,
00:43:00o PL
00:43:00da transparência
00:43:01nas redes,
00:43:03eu acho que
00:43:04faz sentido.
00:43:06PL
00:43:06da transparência,
00:43:07PL
00:43:08da
00:43:09responsabilidade,
00:43:11uma coisa assim.
00:43:12É o PL
00:43:13da transparência.
00:43:15Porque ninguém
00:43:16pode ser contra
00:43:17a transparência,
00:43:19mas várias pessoas
00:43:20podem ser contra
00:43:21a regulamentação.
00:43:22Exatamente,
00:43:23você tem razão,
00:43:23eu concordo,
00:43:24Luciano,
00:43:25eu acho que
00:43:26eu não tinha
00:43:28pensado nisso não,
00:43:29mas você tem razão.
00:43:30Arrumar uma confusão
00:43:31de início
00:43:33com o nome
00:43:33mal colocado.
00:43:35É,
00:43:35e há uma desconfiança
00:43:37muito grande
00:43:37em relação
00:43:38aos políticos,
00:43:39de maneira geral.
00:43:42Então,
00:43:43quando se fala
00:43:43em regulamentação
00:43:44das redes,
00:43:45muita gente
00:43:45pode realmente
00:43:46pensar,
00:43:47é tudo muito
00:43:49recente
00:43:50e fica muito
00:43:50difícil a gente
00:43:51fazer uma conversa
00:43:52serena,
00:43:53ouvindo o outro
00:43:55lado e ponderando
00:43:56um ambiente tão
00:43:56inflamado,
00:43:57mas eu concordo,
00:44:00eu concordo sim.
00:44:01A Europa tem
00:44:02tentado,
00:44:03de vez em quando
00:44:03tem alguma multa
00:44:05e tal,
00:44:06agora o lobby
00:44:07das redes
00:44:07também é poderoso
00:44:08e elas têm
00:44:09a favor
00:44:10delas,
00:44:11elas têm
00:44:13no momento
00:44:14o governo
00:44:15dos Estados Unidos,
00:44:16que é o Donald Trump,
00:44:18que é muito favorável
00:44:20também a essa liberdade
00:44:21total.
00:44:22Tem outro,
00:44:23o Guilherme quer fazer
00:44:23uma pergunta também?
00:44:24Isso.
00:44:27Guilherme,
00:44:27boa noite.
00:44:28Sua cidade e estado,
00:44:29por favor.
00:44:31A vontade.
00:44:35Obrigado.
00:44:38pode ativar
00:44:39seu microfone,
00:44:40por gentileza.
00:44:43Está ouvindo agora?
00:44:45Tem.
00:44:46Boa noite,
00:44:47meu nome é Guilherme,
00:44:48eu sou de Rio de Janeiro,
00:44:50Campo Grande.
00:44:51Professor,
00:44:53se o senhor
00:44:54acabou de dar uma aula
00:44:56aqui para nós,
00:44:57o agarismo
00:44:59não trabalha
00:45:00com verdade
00:45:00e com engajamento,
00:45:01então nós temos
00:45:02um grande problema
00:45:03no nosso país.
00:45:08No mundo, né?
00:45:09No mundo.
00:45:10Porque o que acontece?
00:45:14As plataformas digitais,
00:45:16eles poderiam ter
00:45:17responsabilidade
00:45:19de tudo
00:45:19que é aquilo
00:45:20que o usuário
00:45:21coloca
00:45:22para os outros.
00:45:24Você vê,
00:45:24ele tinha que ter
00:45:24uma fiscalização
00:45:25para liberar.
00:45:28Que nem
00:45:28o senhor
00:45:29que um grupo,
00:45:30o senhor administrador
00:45:30de um grupo lá,
00:45:31eu peço
00:45:33para ser aceito
00:45:34lá,
00:45:35o senhor vai aceitar
00:45:35sim ou não?
00:45:36Está me ouvindo?
00:45:38Está te ouvindo.
00:45:39Então,
00:45:40o que acontece?
00:45:41Eu sou estudante
00:45:42de ciências políticas,
00:45:43estou no século
00:45:44período,
00:45:45já vim candidato
00:45:46duas vezes
00:45:46e a outra coisa
00:45:49é o seguinte,
00:45:50essa é a minha opinião,
00:45:51se eu estiver errado,
00:45:53quem sou professor
00:45:53são vocês,
00:45:54eu sou aluno.
00:45:56Todo
00:45:56candidato
00:45:58que viesse
00:45:59na sua campanha
00:46:00falando
00:46:00coisa
00:46:02que não desse
00:46:03para cumprir,
00:46:04ele tinha que já
00:46:05ser encerrado
00:46:06o registro dele
00:46:07como candidato.
00:46:08Porque
00:46:08quando eu costumo
00:46:10falar na sala
00:46:11de aula
00:46:11que o analfabeto
00:46:13político
00:46:13não é aquele
00:46:14que não sabe
00:46:14ler e escrever,
00:46:15é aquele que sabe
00:46:16ler,
00:46:17sabe escrever,
00:46:18sabe interpretar
00:46:19e finge que não sabe.
00:46:21E eu agradeço
00:46:22a oportunidade
00:46:23de fazer pergunta
00:46:25para o senhor.
00:46:28Não,
00:46:28legal.
00:46:29Bom,
00:46:29primeiro,
00:46:29as redes
00:46:34elas sabem
00:46:34e elas têm
00:46:36a capacidade,
00:46:37deixa eu contar
00:46:37um outro
00:46:39exemplo aqui,
00:46:40eu fui
00:46:41em um outro
00:46:41caso pessoal meu,
00:46:43eu fui numa exposição
00:46:43de Sebastião Salgado
00:46:44no Museu do Amanhã
00:46:45no Rio,
00:46:47era uma exposição
00:46:47sobre a floresta
00:46:48amazônica
00:46:49e você tinha a sensação
00:46:51de que era uma imersão
00:46:52na floresta,
00:46:52porque eram fotos
00:46:53lindíssimas,
00:46:55a música
00:46:56cambiente
00:46:56e tal,
00:46:58e eu levei o celular,
00:47:00podia fazer foto
00:47:01e tinham várias fotos
00:47:03de várias tribos
00:47:04indígenas
00:47:05e tinha uma família
00:47:06indígena,
00:47:09tinha uma família,
00:47:10casal,
00:47:12vários filhos,
00:47:13pessoas mais velhas,
00:47:14eu achei aquela foto
00:47:15muito bonita
00:47:16e fiz a foto,
00:47:16botei no Instagram
00:47:17nos stories
00:47:18e botei várias.
00:47:19Aquela foto
00:47:20foi apagada
00:47:21e eu recebi
00:47:22uma notificação
00:47:23do Instagram
00:47:24dizendo que eu tinha
00:47:24postado uma foto
00:47:25pornográfica.
00:47:28As pessoas
00:47:29estavam nuas,
00:47:30eram índios,
00:47:31estavam no meio
00:47:32da Amazônia,
00:47:33eu nunca,
00:47:34quando eu vi aquela foto,
00:47:35não tinha nada
00:47:36de erótico,
00:47:37de sensual,
00:47:38era uma família,
00:47:39só que era uma família
00:47:40de índio que estava
00:47:40sem roupa.
00:47:42O algoritmo
00:47:42entendeu
00:47:43como algo pornográfico
00:47:45e falou que eu tinha
00:47:47tanto tempo
00:47:47para contestar,
00:47:48e eu deixei para lá.
00:47:50Tempos depois,
00:47:50trabalhando com uma amiga
00:47:51que trabalha
00:47:52com redes sociais,
00:47:53ela foi pegar
00:47:53o meu perfil
00:47:54e transformar
00:47:55em perfil profissional
00:47:56e tal,
00:47:58e ela identificou,
00:47:59falou,
00:48:00olha,
00:48:00tem esse negócio
00:48:00aqui no Instagram,
00:48:01você tem que resolver
00:48:02isso aqui,
00:48:03sei lá,
00:48:05um ano e tanto depois,
00:48:07aquilo que ficou registrado.
00:48:08Quando eles querem,
00:48:10eles fazem,
00:48:11quando eles querem,
00:48:12eles fazem algum tipo
00:48:13de remoção.
00:48:16Então,
00:48:17é aquilo que o Luciano
00:48:18falou,
00:48:18eles têm que ter,
00:48:18eu vou até
00:48:19chamar atenção
00:48:21daqui para frente,
00:48:22parar de falar
00:48:22de regulamentação,
00:48:23falar de transparência.
00:48:25Eles têm que ter
00:48:25transparência
00:48:26dos critérios
00:48:27que utilizam.
00:48:28Com relação
00:48:28ao político
00:48:29que faz promessa,
00:48:30eu tenho dúvidas
00:48:31pelo seguinte,
00:48:32é o direito
00:48:33de sonhar
00:48:33e de viajar
00:48:34na maionese.
00:48:35O prefeito
00:48:35de Nova Iorque
00:48:36acabou de ganhar
00:48:36a eleição
00:48:37prometendo ônibus
00:48:38transporte gratuito.
00:48:40Eu acho
00:48:41que ninguém
00:48:41que votou nele
00:48:42acredita que,
00:48:43de repente,
00:48:43isso vai acontecer,
00:48:44mas assim,
00:48:44ele tocou em questão
00:48:45de moradia
00:48:46e transporte.
00:48:51Ele pode
00:48:52não cumprir,
00:48:53ou o cara
00:48:54pode achar
00:48:55que vai cumprir
00:48:57ou que pode cumprir
00:48:57uma coisa
00:48:58que é inexequível.
00:48:59Então,
00:49:00essa história
00:49:01de você saber
00:49:01se a promessa
00:49:02é execuível
00:49:04ou não,
00:49:04se a promessa
00:49:05é infundada
00:49:05ou não,
00:49:07eu acho
00:49:07mais difícil
00:49:09do que
00:49:11você exigir,
00:49:12por exemplo,
00:49:13transparência
00:49:13em algum critério
00:49:14ou compromisso
00:49:15com a verdade.
00:49:16Ok,
00:49:16o candidato
00:49:17tem que ter
00:49:17compromisso
00:49:18com a verdade,
00:49:19mas campanha eleitoral
00:49:20também é o momento
00:49:21de viajar na maionese,
00:49:23de sonhar.
00:49:24Mal comparando aqui,
00:49:27vamos falar
00:49:27do metrô
00:49:28de superfície,
00:49:28teve uma campanha
00:49:29que Vitória
00:49:30e o Luciano
00:49:30vai lembrar,
00:49:31a campanha
00:49:32falou em metrô
00:49:32de superfície,
00:49:33até hoje
00:49:34não tem metrô
00:49:35de superfície,
00:49:35mas o prefeito
00:49:36ganhou a eleição
00:49:37e fez um vídeo
00:49:38bonito de metrô
00:49:39de superfície.
00:49:40E Vitória,
00:49:41eu acho que
00:49:42talvez precise
00:49:43de metrô
00:49:43de superfície,
00:49:44mas...
00:49:45Então,
00:49:45acho que fazer
00:49:46uma promessa
00:49:47meio viajante
00:49:47faz parte
00:49:49do jogo.
00:49:55Pessoal,
00:49:56mais alguém
00:49:56gostaria de
00:49:57solicitar
00:49:58a pergunta.
00:50:04Rubens,
00:50:04gostaria?
00:50:09Rubens,
00:50:10boa noite,
00:50:11sociedade e estado.
00:50:11tem que abrir
00:50:22o microfone,
00:50:23Rubens,
00:50:23não sei se o microfone
00:50:24está aberto.
00:50:25Conseguiu?
00:50:26Chegou o áudio?
00:50:27Áudio.
00:50:29Tá.
00:50:29É mais uma reflexão
00:50:31do que uma pergunta,
00:50:32porque
00:50:32o que a gente vê
00:50:34hoje em dia
00:50:35na maioria
00:50:35das redes sociais
00:50:37é que essas redes sociais
00:50:38são mantidas
00:50:39por pessoas
00:50:40por pessoas
00:50:40que têm
00:50:40uma orientação
00:50:41em geral
00:50:41mais à direita
00:50:44do que à esquerda,
00:50:45vamos dizer assim,
00:50:45né?
00:50:45E se a pessoa
00:50:46tem uma orientação
00:50:47mais à direita,
00:50:48obviamente,
00:50:49que ela favorece
00:50:50situações
00:50:51que a direita
00:50:52favorece.
00:50:53Então,
00:50:54vamos dizer,
00:50:55ah,
00:50:55pornografia,
00:50:56né?
00:50:56então existe
00:50:57um falso moralismo
00:50:58que essas pessoas
00:51:00carregam,
00:51:01então aparece lá
00:51:02a foto do índio pelado,
00:51:03ele classifica você
00:51:04como um,
00:51:05sei lá,
00:51:06um fornecedor
00:51:07de pornografia,
00:51:08alguma coisa assim,
00:51:08e te bloqueia.
00:51:11Por outro lado,
00:51:12se você
00:51:13tenta pôr
00:51:14alguma visão
00:51:15política
00:51:16mais de esquerda
00:51:18ou sei lá o quê,
00:51:19você pode ser
00:51:19deslocado
00:51:20para só o grupo
00:51:21que tem essa visão
00:51:23ver,
00:51:23então você não
00:51:24tem a difusão
00:51:25das suas ideias
00:51:27de uma forma aberta
00:51:29e nem mesmo aberta
00:51:31para um contraditório,
00:51:32né?
00:51:32Alguém chegar
00:51:33e falar para você,
00:51:34não,
00:51:35eu discordo
00:51:36por causa disso
00:51:36ou concordo
00:51:38por causa daquilo
00:51:38e você ter a oportunidade
00:51:40de crescer
00:51:40as suas ideias.
00:51:41Então,
00:51:42dentro desse contexto
00:51:43de uma rede
00:51:43social,
00:51:46enfim,
00:51:46que tem
00:51:47um certo
00:51:48viés político
00:51:49e que
00:51:50acaba fazendo
00:51:52com que
00:51:53as pessoas
00:51:53de um viés
00:51:55só vejam
00:51:55aquele viés
00:51:56e o outro viés
00:51:56só vejam
00:51:57o outro viés,
00:51:58você acaba
00:51:59tendo
00:52:00uma rede
00:52:01social
00:52:02que praticamente
00:52:03não tem utilidade,
00:52:04porque você vai estar
00:52:05conversando sempre
00:52:05com iguais.
00:52:07Então,
00:52:08eu não sei,
00:52:10como eu disse,
00:52:11não é bem uma pergunta,
00:52:12é mais uma reflexão.
00:52:13Eu não vejo
00:52:14dentro
00:52:15das redes sociais
00:52:17um veículo
00:52:18adequado
00:52:19para você fazer
00:52:20qualquer
00:52:21atividade
00:52:22política,
00:52:23porque ela,
00:52:24na verdade,
00:52:24não favorece,
00:52:26não traz nada,
00:52:27não acrescenta nada
00:52:28para você.
00:52:29Não sei se...
00:52:30As redes
00:52:32criam bolhas,
00:52:33inclusive
00:52:33por esses
00:52:35algoritmos.
00:52:37A tendência
00:52:38é você criar
00:52:39bolhas.
00:52:43Agora,
00:52:44quando você faz
00:52:45um conteúdo
00:52:46patrocinado
00:52:47no Instagram,
00:52:48por exemplo,
00:52:49você consegue
00:52:50sair da sua
00:52:51bolha
00:52:51e tentar
00:52:52chegar
00:52:52em outras
00:52:54bolhas.
00:52:56Eu acho
00:52:57assim,
00:52:57com todos
00:52:58os defeitos,
00:52:59as redes
00:53:00têm coisas
00:53:00fantásticas.
00:53:02É uma
00:53:03ferramenta
00:53:03que precisa
00:53:04ser bem
00:53:04utilizada.
00:53:05Eu não estou
00:53:05torcendo contra
00:53:06a tecnologia
00:53:07em si.
00:53:08Eu estou
00:53:08torcendo contra
00:53:09a irresponsabilidade
00:53:11ou a ganância
00:53:12das plataformas
00:53:13que não
00:53:14assumem
00:53:15nenhum tipo
00:53:16de responsabilidade
00:53:18com a
00:53:20disseminação
00:53:20de teorias
00:53:23da conspiração.
00:53:26Mas,
00:53:27assim,
00:53:27elas são um
00:53:27canal muito
00:53:28eficiente.
00:53:29As redes
00:53:29são um canal
00:53:30eficiente
00:53:31para você
00:53:31conversar
00:53:32com o seu
00:53:33público.
00:53:35O que
00:53:35acontece?
00:53:37Antigamente,
00:53:38antes das redes
00:53:38sociais,
00:53:40a grande agenda
00:53:41pública,
00:53:43o grande
00:53:43debate era
00:53:44feito
00:53:44pela imprensa,
00:53:45pelos jornais.
00:53:47Nos artigos
00:53:48de opinião,
00:53:49nas reportagens,
00:53:50aí saiu uma
00:53:51manhã,
00:53:51saiu outra
00:53:52depois de amanhã.
00:53:54O debate
00:53:55era feito,
00:53:55o debate
00:53:55público
00:53:56era feito
00:53:57pela imprensa.
00:53:58A agenda
00:53:58pública,
00:53:59quem pautava
00:54:00o que era
00:54:02relevante
00:54:02ou não
00:54:03era a imprensa.
00:54:04Hoje em dia,
00:54:05as redes
00:54:05são um canal
00:54:06de comunicação.
00:54:06Você tem
00:54:07no Brasil
00:54:08200 milhões
00:54:09de canais
00:54:09de comunicação.
00:54:10Todo mundo
00:54:11pode ser um
00:54:12canal de
00:54:12comunicação,
00:54:13e isso
00:54:14gera um ruído
00:54:14muito grande.
00:54:16Agora,
00:54:17eu acho
00:54:18que entra
00:54:19a imprensa
00:54:20um mapa
00:54:22que ajuda
00:54:22a navegar
00:54:23nesse ruído
00:54:23todo.
00:54:24Mas na
00:54:24política,
00:54:26o político
00:54:27precisa,
00:54:28na minha visão,
00:54:29se comunicar
00:54:30através da imprensa,
00:54:32mas ele precisa
00:54:32ter o seu próprio
00:54:34canal de informação
00:54:35também.
00:54:36Esse canal
00:54:37são as redes
00:54:39sociais.
00:54:40é importante
00:54:41que,
00:54:42aliás,
00:54:42tem alguns
00:54:43políticos
00:54:43que fazem
00:54:44o contrário.
00:54:45Só se
00:54:46voltam
00:54:46para as redes
00:54:46e ignoram.
00:54:47Bolsonaro ganhou
00:54:48em 2018
00:54:48batendo na imprensa
00:54:49o tempo todo.
00:54:51Ele ignorou
00:54:52solenemente
00:54:53a imprensa
00:54:54e ganhou
00:54:55a eleição.
00:54:55agora,
00:54:58eu acho
00:54:58que a imprensa
00:54:59teve um papel
00:55:00muito empurrado.
00:55:00A imprensa
00:55:01tem momentos
00:55:01ruins
00:55:02e momentos
00:55:02positivos
00:55:03como
00:55:03qualquer instituição.
00:55:06Para compartilhar
00:55:07com vocês,
00:55:08fazendo,
00:55:08um meia-culpa
00:55:09que eu estava
00:55:10na redação
00:55:11na época,
00:55:12eu acho
00:55:12que a cobertura
00:55:13da Lava Jato
00:55:13na imprensa
00:55:14de maneira geral
00:55:15foi muito falha.
00:55:16Porque chegou
00:55:17um ponto
00:55:17em que estava
00:55:18na cara,
00:55:18que os caras
00:55:19estavam comentando
00:55:19um monte de abuso
00:55:20e a imprensa
00:55:22não retratou
00:55:23esses abusos
00:55:23como deveria
00:55:24na época.
00:55:24depois,
00:55:26sim.
00:55:27Então,
00:55:27a cobertura
00:55:27da Lava Jato
00:55:28não foi
00:55:28uma cobertura
00:55:29exemplar,
00:55:31na minha opinião.
00:55:33Agora,
00:55:33a cobertura
00:55:34da pandemia,
00:55:35eu acho
00:55:36que foi exemplar.
00:55:37A imprensa
00:55:37eu acho
00:55:37que foi
00:55:38muito importante.
00:55:39Você tinha
00:55:39um governo
00:55:40que recomendava
00:55:41as pessoas
00:55:42não usarem
00:55:43máscara,
00:55:43não tomarem vacina.
00:55:44Um governo
00:55:45na época
00:55:45que negava
00:55:46que os hospitais
00:55:47estavam lotados,
00:55:48estimulava as pessoas
00:55:50a invadir o hospital
00:55:51para fazer imagem.
00:55:52Algumas pessoas,
00:55:53deputados,
00:55:54invadiram o hospital
00:55:54para tentar mostrar
00:55:57que não estava
00:55:58super lotado,
00:55:59enfim.
00:56:02Então,
00:56:03eu acho
00:56:03que a comunicação
00:56:05ideal,
00:56:05na minha cabeça,
00:56:06de um político,
00:56:07ela deve se complementar.
00:56:08Você deve se comunicar
00:56:09com a imprensa
00:56:10e deve ter o seu canal
00:56:11nas redes também.
00:56:13porque é um canal
00:56:15eficiente
00:56:16de comunicação.
00:56:18As redes,
00:56:19todo mundo está,
00:56:21todo mundo
00:56:21entre aspas,
00:56:22mas assim,
00:56:22é uma ferramenta
00:56:23eficaz
00:56:24para você divulgar
00:56:25a sua mensagem
00:56:26e para você
00:56:26captar voto.
00:56:28E você patrocinando
00:56:30os posts,
00:56:31você consegue
00:56:32furar a bolha.
00:56:34Agora,
00:56:34é como você falou,
00:56:35a reflexão está certa.
00:56:37quem fica
00:56:40só na bolha
00:56:40e quem está
00:56:42muito nos extremos
00:56:43acaba só se alimentando.
00:56:46Tem até um meme,
00:56:47um cartum
00:56:47que eu vi uma vez,
00:56:50que era mais ou menos
00:56:51assim,
00:56:52o senhorzinho,
00:56:53o pai,
00:56:54vendo alguma coisa
00:56:55no celular,
00:56:56aí a filha chega
00:56:57e fala,
00:56:57pai,
00:56:58isso é mentira.
00:56:58Mas como que é mentira?
00:56:59Isso é isso que eu penso.
00:57:00A pessoa
00:57:02pensa que a urna
00:57:05eletrônica
00:57:05foi fraudada,
00:57:06que a eleição
00:57:06foi fraudada
00:57:07e pronto.
00:57:10Ela não quer,
00:57:11entendeu?
00:57:12Enfim,
00:57:12concordo com a sua reflexão aí.
00:57:15Ok.
00:57:16Mas eu acho que
00:57:16as redes são importantes.
00:57:17Eu falei muito mal
00:57:18das redes sociais aqui,
00:57:20mas elas são
00:57:23uma ferramenta importante.
00:57:24Eu só acho que
00:57:24não pode ter...
00:57:25O Zuckerberg,
00:57:27que é o dono da meta,
00:57:29ele é um cara
00:57:30que está com 41 anos hoje.
00:57:33O Facebook tem...
00:57:34É de 2004.
00:57:35O Facebook tem 21 anos.
00:57:36Ele montou essa rede
00:57:37com 20 anos de idade.
00:57:39Ele construiu um império
00:57:40e ele comprou
00:57:42o Instagram.
00:57:44Ele comprou
00:57:44o WhatsApp.
00:57:46Tem uma revista,
00:57:48a revista inglesa
00:57:50The Economist,
00:57:51que é uma revista
00:57:51muito conceituada.
00:57:52Ela fez uma reportagem
00:57:54tem alguns poucos anos,
00:57:56que é muito interessante,
00:57:58que ela defende o seguinte.
00:58:00Big Data.
00:58:03A capa era Big Data.
00:58:04Os dados,
00:58:06a quantidade de informação
00:58:07que a gente coloca
00:58:07nas redes
00:58:08sobre a gente,
00:58:10hábitos de consumo,
00:58:12o que a gente gosta
00:58:13de fazer,
00:58:14viagem,
00:58:15restaurante,
00:58:16roupa.
00:58:16A gente coloca
00:58:17todas as nossas informações
00:58:19nas redes.
00:58:21E as redes usam isso
00:58:22para ganhar dinheiro.
00:58:24porque se ela identifica
00:58:26que você gosta
00:58:27de viajar,
00:58:28ela vai te oferecer
00:58:29passeios para
00:58:30o sul da Bahia e tal.
00:58:34A Economist fez uma matéria
00:58:35mostrando o seguinte.
00:58:36No início dos...
00:58:37Há 100 anos,
00:58:381920,
00:58:39poucos,
00:58:39década de 20 nos Estados Unidos,
00:58:41com o início
00:58:42da indústria automobilística,
00:58:44a indústria do petróleo,
00:58:46ela começou a ficar
00:58:47um gigante.
00:58:49tinha uma grande empresa
00:58:50chamada Standard Oil.
00:58:52A Standard Oil
00:58:53era uma potência,
00:58:55o orçamento da empresa
00:58:56estava chegando
00:58:57perto do orçamento
00:58:58dos Estados Unidos
00:58:59na época.
00:59:00O Congresso americano
00:59:02falou,
00:59:02cara,
00:59:02você não pode ser
00:59:03desse tamanho,
00:59:04você vai ter que se dividir,
00:59:05porque ela dominava
00:59:06vários setores
00:59:08da exploração,
00:59:09refino,
00:59:10distribuição.
00:59:11Era uma superpotência.
00:59:12A economia dos Estados Unidos
00:59:14ia ficar na mão
00:59:14de uma empresa.
00:59:16Aí houve um debate
00:59:17acalorado,
00:59:18há 100 anos,
00:59:18nos Estados Unidos,
00:59:19porque queriam dividir
00:59:20a empresa
00:59:21e os parlamentares
00:59:24mais liberais.
00:59:26Diziam,
00:59:26não,
00:59:26porque é livre iniciativa,
00:59:27porque o capitalismo
00:59:28e outros diziam,
00:59:29cara,
00:59:30esse pessoal
00:59:32vai engolir
00:59:32o governo dos Estados Unidos.
00:59:34Eles vão dominar
00:59:35o mundo.
00:59:36A indústria do petróleo,
00:59:38se não for contida,
00:59:38vai dominar o mundo.
00:59:40Bom,
00:59:40dividiram o Standard Oil.
00:59:41Ela foi dividida na época.
00:59:43O poder dela
00:59:43foi reduzido.
00:59:45A Economist
00:59:46dizia o seguinte,
00:59:47o Facebook
00:59:49não pode ser dono
00:59:50do Instagram
00:59:51e do WhatsApp.
00:59:53As empresas
00:59:54não podem ter
00:59:54esse tamanho
00:59:55porque nunca vai haver
00:59:57livre concorrência.
00:59:58Qualquer ideia
00:59:58boa
00:59:59que surja,
01:00:01que ameace,
01:00:02eles vão comprar,
01:00:03como fizeram com o Instagram.
01:00:04Eles monitoram.
01:00:06Então,
01:00:06eles vão ficar
01:00:06cada vez maiores.
01:00:08O Facebook,
01:00:09a meta hoje,
01:00:10ela controla
01:00:11mais da metade,
01:00:1270%
01:00:14do tráfego
01:00:15digital
01:00:16com o WhatsApp,
01:00:17com o Instagram
01:00:17e com o Facebook.
01:00:19Ela controla
01:00:20essa informação toda.
01:00:21E o Facebook,
01:00:23a meta
01:00:23e o YouTube
01:00:24juntos,
01:00:25eles ficam com
01:00:26mais da metade
01:00:26da verba publicitária
01:00:28digital no mundo.
01:00:29É muito dinheiro
01:00:30e muito poder
01:00:31na mão
01:00:32de muito pouca gente.
01:00:34Então,
01:00:34assim,
01:00:34eu acho que o Facebook
01:00:35tinha que ser desmontado.
01:00:37Cara,
01:00:37é um gênio.
01:00:38É um pica...
01:00:39Não sei se vocês viram
01:00:40aquele filme,
01:00:40na rede, né?
01:00:41O Facebook foi criado,
01:00:42ele roubou a ideia
01:00:43de dois irmãos russos,
01:00:46foi processado,
01:00:47ele deu tombo
01:00:48no brasileiro,
01:00:49Edward Sabren,
01:00:50que é um brasileiro
01:00:51que hoje mora
01:00:52em Singapura,
01:00:53que foi indenizado,
01:00:54estima-se que
01:00:54mais de um bilhão de reais.
01:00:56Era o único amigo dele.
01:00:57No filme,
01:00:57o cara fala,
01:00:57cara,
01:00:58eu sou o único cara
01:00:58que gostava de você.
01:00:59Ele deu tombo
01:01:00no amigo dele,
01:01:01na criação do Facebook,
01:01:02tirou o cara
01:01:03do Facebook,
01:01:05o brasileiro
01:01:06entrou na justiça
01:01:07e ganhou.
01:01:09Quer dizer,
01:01:09esse Zuckerberg
01:01:10é um picareta.
01:01:11É difícil
01:01:12pegar um cara
01:01:13e rotular
01:01:14como picareta
01:01:14porque ele também
01:01:15é um gênio,
01:01:15mas é um picareta.
01:01:16Ele cresceu
01:01:18dando tombo
01:01:18nos outros, né?
01:01:20E esse cara
01:01:21não tem escrúpulo.
01:01:22Ele tinha
01:01:23alguma moderação.
01:01:25O Sérgio Denícoli,
01:01:26amigo nosso,
01:01:26acho que já fez
01:01:27palestra pra vocês aqui,
01:01:29eles faziam
01:01:31uma moderação
01:01:32mais profissionalizada.
01:01:34Com a posse
01:01:34do Donald Trump,
01:01:35o Denícoli
01:01:36fez um artigo
01:01:36sobre isso,
01:01:38o Zuckerberg
01:01:39falou,
01:01:39acabou a moderação,
01:01:41liberdade total.
01:01:42Ele faz um jogo
01:01:43que tiver que fazer
01:01:43pra poder crescer.
01:01:46É claro
01:01:47que ele,
01:01:48por conta dele,
01:01:49não vai se autolimitar.
01:01:51Quer dizer,
01:01:51quem tem que fazer isso
01:01:53é o governo
01:01:53dos Estados Unidos
01:01:54e a União Europeia,
01:01:55é o Brasil,
01:01:55é a América Latina.
01:01:57Vocês devem se lembrar
01:01:58de um executivo
01:02:00do Facebook
01:02:00que foi preso
01:02:02aqui no Brasil
01:02:03porque era
01:02:04uma ação judicial,
01:02:05isso tem alguns anos,
01:02:06eu não vou lembrar
01:02:06de muitos detalhes,
01:02:07tinha uma audiência
01:02:08se não me engano
01:02:08em São Paulo,
01:02:09a juíza tinha intimado
01:02:10o Facebook
01:02:12pra se manifestar.
01:02:13O Facebook
01:02:14respondeu com
01:02:15uma carta
01:02:16em inglês,
01:02:17tipo assim,
01:02:17não sei do que se trata,
01:02:18não tem nada a ver
01:02:19com isso,
01:02:20respondeu em inglês
01:02:20pra juíza,
01:02:22a juíza viu aquilo
01:02:23na audiência
01:02:24e foi,
01:02:24manda prender,
01:02:25é tipo assim,
01:02:26essa empresa
01:02:28desrespeitou
01:02:28uma lei judicial,
01:02:30eu mandei os caras
01:02:31me prestarem
01:02:31esclarecimentos
01:02:32e informação
01:02:32e me responderam
01:02:33em inglês,
01:02:34prenderam o executivo
01:02:35no aeroporto,
01:02:35que não sabia
01:02:36o que estava acontecendo,
01:02:36ele estava embarcando
01:02:37e foi levado
01:02:39perante a juíza,
01:02:40ficou preso,
01:02:40detido,
01:02:41uns dois a três dias,
01:02:43porque essas empresas
01:02:45elas são
01:02:47extremamente arrogantes
01:02:49e pouco transparentes.
01:02:51Estou falando
01:02:52sozinho demais aqui,
01:02:53vamos para a próxima,
01:02:53Marcos Dias,
01:02:54inscrito.
01:02:55Marcos Dias,
01:02:56boa noite.
01:03:05Marcos.
01:03:07Olá, Marcos.
01:03:14Mas essa ideia
01:03:15de dividir a meta
01:03:17eu achei muito boa,
01:03:18muito boa,
01:03:20porque eles usam
01:03:21os nossos dados
01:03:23e a gente,
01:03:25assim,
01:03:25a gente entrega
01:03:26os nossos dados todos
01:03:27e eles usam isso
01:03:29e a gente não sabe
01:03:31como,
01:03:32e a gente não sabe
01:03:33como.
01:03:33O Austin,
01:03:36tem alguém aí
01:03:37na fila
01:03:38para fazer pergunta?
01:03:38Tem o Marcos aqui.
01:03:42Oi, Marcos.
01:03:47Tem que abrir
01:03:48o microfone dele.
01:03:55Marcos,
01:03:56desconecta o seu fone.
01:03:58Acho que é melhor
01:03:58com o microfone
01:03:59do smartphone.
01:04:03Estão me ouvindo agora?
01:04:06Sim.
01:04:06Pode falar mais alto,
01:04:07por favor.
01:04:08Boa noite.
01:04:09Uma excelente noite
01:04:10para vocês todos.
01:04:13Eu acho que
01:04:14esse é um tema
01:04:15bem interessante
01:04:15sobre
01:04:16liberdade,
01:04:18que
01:04:18o que eu vejo
01:04:19no bolsonarismo
01:04:20hoje
01:04:21é que eles não querem
01:04:21liberdade
01:04:22nas redes sociais.
01:04:24Eles querem
01:04:25uma palavra
01:04:26que eu gosto
01:04:26de chamar,
01:04:27eu sou daqui da Bahia,
01:04:28a gente chama
01:04:30quando a pessoa
01:04:31quer uma coisa
01:04:32que ultrapassa
01:04:32o direito
01:04:33da liberdade,
01:04:34libertinagem,
01:04:36ou seja,
01:04:36algo que
01:04:37vai prejudicar
01:04:39as outras pessoas.
01:04:41No mundo real,
01:04:42no mundo físico,
01:04:44quando eu falo
01:04:45alguma coisa
01:04:45inadequada
01:04:47e que tem
01:04:48um teor criminoso
01:04:50ofensivo
01:04:51contra outra pessoa,
01:04:52ela pode
01:04:52ir me processar
01:04:55e requerer
01:04:56uma indenização
01:04:57moral
01:04:58pelas minhas
01:05:00más palavras.
01:05:01Mas o que eu vejo
01:05:02nas redes sociais
01:05:04é que virou
01:05:05uma terra,
01:05:06eles querem
01:05:07que seja
01:05:08uma terra
01:05:09sem lei,
01:05:10sem princípios,
01:05:12sem
01:05:12limites.
01:05:16E nós
01:05:16vemos
01:05:16o resultado
01:05:17honesto
01:05:18e perverso
01:05:20das mentiras
01:05:22do bolsonarismo
01:05:23foi justamente
01:05:24mais de 700 mil
01:05:25vítimas
01:05:26nessa pandemia
01:05:27de covid-19
01:05:29onde
01:05:30eles utilizaram
01:05:31as redes
01:05:32sociais
01:05:33a rodo
01:05:34para
01:05:35disseminar
01:05:36várias
01:05:37fake news,
01:05:38as fake news
01:05:39mais,
01:05:40vamos dizer assim,
01:05:41descabidas
01:05:42como
01:05:42terraplanismo,
01:05:45antivacina,
01:05:47essas coisas
01:05:48todas que vocês
01:05:49sabem muito bem.
01:05:52Eles colocaram
01:05:53e até hoje
01:05:54tem gente
01:05:55que acredita
01:05:55e tem isso
01:05:56como verdade.
01:05:57Então eu acredito
01:05:58que
01:05:58a mentira
01:06:00ela
01:06:01tem um preço
01:06:05muito alto.
01:06:06Ela é uma
01:06:06mercadoria muito
01:06:07valorizada
01:06:08por aqueles
01:06:09que gostam
01:06:10de prejudicar
01:06:11os outros,
01:06:11gostam de tirar
01:06:12vantagens,
01:06:15mas
01:06:15o preço
01:06:16da gente
01:06:17ter acreditado,
01:06:19da gente não ter
01:06:19combatido as mentiras,
01:06:21as fake news
01:06:22do que o
01:06:22bolsonarismo
01:06:23implementou
01:06:24em nosso país
01:06:25nas redes sociais,
01:06:27é justamente
01:06:27700 mil vítimas
01:06:29da covid-19,
01:06:31milhões de
01:06:31sequelados aí,
01:06:32né?
01:06:33Então,
01:06:34as redes sociais
01:06:36elas têm que ser,
01:06:38têm que ter limite,
01:06:39ou seja,
01:06:40nós temos que ter
01:06:41responsabilidade,
01:06:42sermos responsabilizados
01:06:44por aquilo
01:06:44que falamos
01:06:46também
01:06:47nas redes sociais.
01:06:48Pois é,
01:06:49uma excelente
01:06:50noite aí
01:06:50para todos.
01:06:58Eu me concordo,
01:07:00a ascensão
01:07:02da extrema-direita
01:07:03no Brasil,
01:07:05nos Estados Unidos,
01:07:06na Itália,
01:07:08na Hungria,
01:07:11quer dizer,
01:07:12a ascensão
01:07:13da extrema-direita
01:07:13está muito ligada
01:07:15ao papel
01:07:16das redes,
01:07:17e é isso que você falou,
01:07:18é o negacionismo,
01:07:19é a antivacina,
01:07:21essas teorias
01:07:23conspiratórias,
01:07:24né?
01:07:28E que causam
01:07:29estragos até hoje,
01:07:30você teve
01:07:31problema de queda
01:07:32de vacinação,
01:07:33de sarampo,
01:07:35você teve,
01:07:35enfim,
01:07:37essa extrema-direita
01:07:38conseguiu gerar
01:07:39uma desconfiança
01:07:40na vacina.
01:07:42Aí tem gente
01:07:43que até hoje,
01:07:44às vezes a pessoa
01:07:45tem um infarte
01:07:47ou tem alguma coisa,
01:07:48ah,
01:07:48foi por causa
01:07:48da vacina,
01:07:49da Covid,
01:07:50até hoje tem gente
01:07:51achando que
01:07:52a vacina da Covid
01:07:54causa algum mal.
01:07:59André,
01:07:59é um desafio
01:08:01que está na nossa mão
01:08:02
01:08:02nos próximos anos,
01:08:06e essa ideia
01:08:06do Luciano,
01:08:07isso,
01:08:07cara,
01:08:07alguém tem que levar,
01:08:08quem for candidato
01:08:08a deputado
01:08:09federal,
01:08:11aí tem que levar
01:08:12isso para o Brasil,
01:08:12hein?
01:08:13Essa questão é boa,
01:08:14de mudar o nome,
01:08:15realmente,
01:08:15é da lei da transparência,
01:08:17regulamentação
01:08:17vai remeter
01:08:19a ser mais...
01:08:22Controle?
01:08:24Controle.
01:08:25André,
01:08:26eu estava olhando aqui
01:08:27o valor de mercado,
01:08:31está todo mundo
01:08:32me ouvindo?
01:08:33Sim.
01:08:33O valor de mercado,
01:08:36o valor de mercado
01:08:37das sete magníficas
01:08:38que são
01:08:38Meta,
01:08:41Google,
01:08:42Facebook,
01:08:43Google,
01:08:44Apple,
01:08:45Amazon,
01:08:46Tesla,
01:08:47NVIDIA,
01:08:50dá 15 trilhões.
01:08:52Só dois países
01:08:53têm o PIB
01:08:54maior do que 15 trilhões,
01:08:55China e Estados Unidos.
01:08:57Só para você ter uma ideia
01:08:58da concentração
01:08:58de riqueza.
01:09:00Sete empresas
01:09:01têm o valor de mercado
01:09:03de todos os países
01:09:04do mundo,
01:09:06exceto
01:09:07Estados Unidos e China.
01:09:09É impressionante.
01:09:11Olha esse dado
01:09:12que você falou,
01:09:13quer dizer,
01:09:13essas empresas todas
01:09:14que você falou
01:09:15são empresas
01:09:15que têm no máximo
01:09:1630 anos,
01:09:17não é isso?
01:09:18É.
01:09:19É Apple.
01:09:20Quer dizer,
01:09:21é muito dinheiro
01:09:22e muito poder
01:09:23em muito pouco tempo
01:09:24com uma capacidade
01:09:26de desestabilizar
01:09:28o mundo.
01:09:29É.
01:09:30Você tem,
01:09:30por exemplo,
01:09:31o Elon Musk,
01:09:34ele detém
01:09:35o controle
01:09:35de satélites
01:09:36do planeta.
01:09:38Qualquer ação
01:09:41que ele faça
01:09:42de desligar
01:09:43os satélites
01:09:43pode inviabilizar
01:09:44qualquer ação
01:09:46de um país inteiro.
01:09:48É um negócio
01:09:48impressionante.
01:09:49É muito maior
01:09:51do que esse fenômeno
01:09:52da Standard Oil.
01:09:53Muito maior.
01:09:54É isso multiplicado
01:09:55por 100.
01:09:57É.
01:09:57É um negócio
01:09:59impressionante
01:09:59o poder.
01:10:01Pessoal,
01:10:03nós estamos chegando
01:10:04ao fim
01:10:05da nossa
01:10:05atividade.
01:10:09Quero saber
01:10:09se tem mais
01:10:10alguém aí
01:10:10inscrito.
01:10:11Deixa eu olhar
01:10:12aqui no chat.
01:10:13Acho que não.
01:10:15Mas,
01:10:16se alguém quiser
01:10:17fazer alguma pergunta,
01:10:18é só levantar a mão aí
01:10:20ou escrever no chat.
01:10:22Caso contrário,
01:10:23nós vamos encerrar
01:10:24a atividade de hoje,
01:10:27mas eu sempre gosto
01:10:28de falar que nós
01:10:28não estamos encerrando
01:10:29o contato com o professor André.
01:10:32Qualquer pergunta,
01:10:33qualquer solicitação,
01:10:35qualquer informação,
01:10:37é importante
01:10:37que seja importante.
01:10:39É só passar
01:10:39para nós
01:10:40da FAP
01:10:41que a gente
01:10:41faz chegar o André
01:10:43para que ele possa responder.
01:10:45Eu queria...
01:10:46Foi um prazer.
01:10:46Eu queria agradecer
01:10:47mais uma vez
01:10:48o Luciano,
01:10:49a Thaís.
01:10:50Foi um prazer
01:10:50estar aqui com vocês.
01:10:52Conta comigo aí.
01:10:53Obrigado mesmo.
01:10:54Pois é.
01:10:56E eu queria,
01:10:57como uma pessoa
01:10:58que já participou
01:10:59de várias eleições,
01:11:01dizer que
01:11:02essa área
01:11:04da montagem
01:11:06de uma campanha,
01:11:07a comunicação,
01:11:07a leitura de redes,
01:11:08é fundamental.
01:11:10Porque isso dá estratégia,
01:11:12isso dá a capacidade
01:11:13de lidar
01:11:14com o conflito
01:11:16de ideias
01:11:17e isso pode levar
01:11:19uma campanha
01:11:20ao sucesso
01:11:21ou fracasso.
01:11:22Então,
01:11:22muita atenção.
01:11:23O professor André
01:11:24está aí à disposição
01:11:25para trocar ideia,
01:11:26para dar orientações.
01:11:27Muita atenção
01:11:28com esse tema
01:11:28para que vocês
01:11:29possam ter sucesso
01:11:29absoluto.
01:11:31A FAP
01:11:31agradece carinhosamente
01:11:33o professor André
01:11:34e todo mundo já sabe
01:11:35o que nós vamos fazer agora.
01:11:36Nós vamos colocar
01:11:37um monte de palminha aqui
01:11:38para ele ficar super feliz,
01:11:39para ele sair daqui
01:11:40se sentindo homenageado.
01:11:43As palminhas subindo aí.
01:11:44Quero que todo mundo
01:11:44que estiver na aula
01:11:45faça a gentileza
01:11:46de bater essas palminhas
01:11:48aí para o André
01:11:48que deu uma aula
01:11:49para a gente
01:11:50de forma voluntária,
01:11:51carinhosa.
01:11:52O André é um dos profissionais
01:11:53mais requisitados
01:11:55no país
01:11:55e está aqui
01:11:56de forma carinhosa
01:11:57atendendo a todos nós.
01:11:58Muito obrigado,
01:11:59boa noite a todos
01:12:00e na próxima
01:12:02terça-feira
01:12:04às 19 horas
01:12:05nós seguimos
01:12:05concurso da FAP
01:12:06com mais um tema
01:12:07importante
01:12:08para a montagem
01:12:08das campanhas.
01:12:09Obrigado a todos
01:12:10e boa noite.
01:12:11André,
01:12:12de forma carinhosa,
01:12:13muito obrigado.
01:12:14Um abraço
01:12:15na Renata,
01:12:16na sua família,
01:12:16no Ricardo,
01:12:17tá bom?
01:12:18Obrigado a todos.
01:12:19Um abraço, gente.
01:12:20massa, obrigado.
01:12:21Foi um prazer.
01:12:21Boa noite a todo mundo.
01:12:22Tchau, tchau.
01:12:23Tchau, tchau.
01:12:23Tchau, tchau.
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado