Pular para o playerIr para o conteúdo principal
No Em Off, Jean Wyllys abre o jogo sobre o peso psicológico de ter sua imagem destruída e ser visto como "vilão" devido a anos de fake news. Em um desabafo profundo, ele analisa a toxicidade do ambiente digital e faz um alerta contundente, comparando a dependência e a manipulação das redes sociais ao vício em tabagismo.

Siga o canal da "JP Entretenimento" no WhatsApp:
https://whatsapp.com/channel/0029VaeCbOCDjiOZ3gtYeh3R

Kwai:
https://www.kwai.com/@jovempanentrete

Threads:
https://www.threads.net/@jovempanentretenimento

Inscreva-se no nosso canal:
http://www.youtube.com/jovempanentretenimento

Entre no nosso site:
http://jovempan.com.br/

Siga no Facebook:
https://www.facebook.com/JovemPanEntretenimento/

Twitter:
https://twitter.com/JovemPanEntrete

Instagram:
https://www.instagram.com/jovempanentretenimento/

Siga no TikTok:
https://www.tiktok.com/@jovempanentrete

#JovemPan
#JovemPanEntretenimento #EmOff

Categoria

😹
Diversão
Transcrição
00:00Ele já foi o namoradinho do Brasil.
00:02Hoje, parte da população o vê como o mal personificado.
00:06Mas ele ficou famoso, foi vencendo um reality.
00:08E viu a sua realidade ameaçada quando entrou na política.
00:12Após um exílio forçado, ele está de volta.
00:14O escritor, político e artista visual, Jean Wyllys.
00:18Seja muito bem-vindo ao Inoff.
00:20Muito obrigado. Muito obrigado, Mari.
00:23Eu acho importante que a gente converse, né?
00:26Que eu venha. Eu acho que muita gente deve estar achando estranho.
00:30Eu na Jovem Pan.
00:32Mas eu acho importante vir pra gente conversar.
00:34O diálogo nunca foi importante.
00:36E a gente pode começar com essa conversa, né?
00:39A ideia do mal personificado.
00:41Eu sou psiano com ascendência em aquário.
00:44Eu acho que eu conheço pouca gente no mundo
00:48que seja uma pessoa tão boa quanto eu sou.
00:50Eu sou uma pessoa boa de coração.
00:52Eu nunca fiz mal a ninguém na minha vida.
00:54Eu venho de uma realidade...
00:56Eu venho da extrema pobreza.
00:58E eu cheguei aqui com competência, decência,
01:02sem pisar em ninguém.
01:04Então, é curioso.
01:06Alguém me vê como um mal encarnado
01:08é porque é uma pessoa desinformada
01:10e bombardeada pela desinformação, pela mentira.
01:14De onde vem isso, você acha?
01:15Eu acho que vem do fato...
01:17Primeiro porque o Brasil entrou numa onda de polarização em 2018,
01:21a partir de 2018.
01:23Uma polarização muito construída nas mídias sociais,
01:26a partir das mídias sociais,
01:29onde eu fui alvo de uma campanha difamatória muito pesada.
01:33Então, muita gente sem escrúpulos,
01:35sem decência humana básica,
01:37me atribuiu coisas que eu nunca fiz na vida.
01:39Por exemplo, me associar à pedofilia,
01:42dizer que eu sou contra os evangélicos,
01:44inventar que eu queria mudar a Bíblia,
01:47dizer que eu queria aprovar o casamento entre pessoas e homossexuais.
01:51Ou seja, uma série de mentiras, Mari,
01:53que qualquer pessoa com dois neurônios,
01:56que fizesse uma sinapse entre dois neurônios,
01:59concluiria que não poderia ser verdade.
02:00Porque sendo uma pessoa pública, como eu sou,
02:03e politicamente exposta,
02:05eu jamais defenderia essas coisas.
02:06Mas nas mídias sociais,
02:09as pessoas são bombardeadas pela desinformação,
02:12elas acreditam imediatamente naquilo,
02:14e elas não vão em busca da verdade.
02:16E quando elas entram em contato com a verdade,
02:20elas sentem uma vergonha,
02:21e elas não compartilham a verdade.
02:23Elas compartilham a mentira,
02:25mas não a verdade.
02:27Elas ficam envergonhadas com o próprio ato delas
02:29de fazerem isso.
02:31E a gente está vivendo um problema grave
02:33de falta de empatia,
02:35se colocar no lugar do outro.
02:36Você hoje é uma apresentadora de televisão,
02:39você está, portanto,
02:40politicamente exposta como eu.
02:42Você, eu tenho certeza absoluta,
02:44que você é uma pessoa correta,
02:46por isso eu estou no seu programa.
02:47Mas como uma pessoa politicamente exposta,
02:50por inveja,
02:51porque alguém quer lhe derrubar do seu lugar,
02:53podem fazer circular uma mentira sobre você na internet,
02:57contra a qual você não pode fazer nada.
02:59Porque a disseminação, ela é viral.
03:02É como um vírus mesmo.
03:03Vai se espalhando e as pessoas vão acreditando.
03:06Acho que tem a ver com o fato de eu ser gay.
03:09A gente vive num país muito homofóbico ainda,
03:12muito machista.
03:14Você vê agora os índices alarmantes de feminicídio,
03:17de ódio às mulheres.
03:19Esse caso recente do pai que decidiu matar dois filhos
03:23para poder culpar a própria mulher dele.
03:27Então, num país machista,
03:29em que se odeia mulheres e se odeia gays,
03:32é muito fácil acreditar em mentiras contra gays.
03:36E na própria televisão,
03:38na própria imprensa,
03:40que deveria seguir um certo rigor ético.
03:44Eu sou jornalista de formação.
03:46Trabalhei dez anos na imprensa.
03:48Trabalhei num jornal de direita,
03:49chamado Correio da Bahia,
03:51que pertence à família de Antônio Carlos Magalhães,
03:54por exemplo.
03:55Trabalhei dez anos nesse jornal,
03:57sendo um homem de esquerda.
03:59Eu nunca, nunca publiquei uma matéria
04:02que os fatos não estivessem apurados.
04:03Eu nunca acusei ninguém de algo
04:05que aquela pessoa não era.
04:07Então, eu acho que a própria televisão,
04:09a partir de 2018,
04:10determinados canais,
04:11foram perdendo o senso ético.
04:14Você acha que tem um antídoto eficaz contra isso?
04:17Porque a gente está falando um pouco
04:19da responsabilidade dos grandes veículos.
04:21Mas, na medida em que as pessoas hoje têm voz
04:24a partir das redes sociais,
04:26e a coisa viraliza,
04:27não importa muito se você é o Estadão,
04:29a Jovem Pan,
04:30ou se é a Mariana ou o Jean Wyllys
04:33que está falando,
04:34eventualmente você pode viralizar.
04:37Podemos.
04:38Podemos, porque é isso.
04:40Houve uma mutação nos meios de comunicação.
04:43Se eu estiver falando um pouco complicado,
04:45você me dá um toque,
04:47porque eu sou professor,
04:48e eu sou professor da área de comunicação.
04:50Era professor de teoria da comunicação
04:52na universidade.
04:53Então, pode ser que, às vezes,
04:54eu caia um pouco nesse papel de professor.
04:56Mas os meios de comunicação
04:58passaram por uma transformação.
05:00Saímos dos meios de comunicação de massa
05:03para os meios digitais.
05:05Os meios digitais democratizaram.
05:07Todo mundo agora pode fazer um programa com celular.
05:10Tem um canal no YouTube, né?
05:12E aquela ética,
05:13aquele rigor ético
05:15que os meios de comunicação seguiam
05:18e eram obrigados a seguir,
05:19porque podiam ser responsabilizados judicialmente,
05:23isso se perdeu na internet,
05:25nesses novos meios,
05:26e esse comportamento nefasto
05:29contaminou a própria TV de massa.
05:31Entendeu?
05:32Então, a partir de 2018,
05:35nós vimos muitas pessoas
05:36com irresponsabilidade com a informação pública.
05:39Gente que estava ocupando lugares
05:42em TVs de prestígio, por exemplo.
05:45Eu não vou citar nomes,
05:46mas tem uma pessoa
05:47que é um apresentador de programas de televisão
05:50numa TV que é a segunda maior TV do país,
05:54que disse que o PT pintou
05:56as ciclovias de vermelho
05:59para poder fazer uma propaganda comunista.
06:01Pelo amor de Deus,
06:02as ciclovias são vermelhas,
06:03isso é um código no mundo.
06:06As ciclovias são sempre vermelhas
06:08em qualquer lugar do mundo.
06:09Então, não é...
06:10Não é porque você está fazendo uma propaganda...
06:12É uma questão de segurança também,
06:13de contato da landa, né?
06:14Óbvio,
06:14mas aí você vê um apresentador de programa
06:17caindo nesse tipo de estupidez.
06:19Sim.
06:20E isso é muito sério.
06:21Então, por causa dessa mentira,
06:24talvez essa frase que você usou
06:26tenha sentido,
06:27porque eu sou mal encarnado
06:29a partir da mentira.
06:30Mas veja,
06:32sem querer taçar nenhum,
06:33nenhuma comparação minha
06:34com outras figuras
06:35da história que foram,
06:37sofreram injustiças,
06:38como o Nelson Mandela,
06:40que ficou 20 anos preso,
06:41o Pepe Mujica,
06:42que foi presidente do Uruguai.
06:45E se a gente for mais atrás,
06:47eu não estou me comparando mesmo,
06:48atenção,
06:49audiência,
06:49eu não quero comparar.
06:50Só quero dizer que mesmo pessoas boas,
06:53e absolutamente boas,
06:55como foi Jesus,
06:57por exemplo,
06:58que era uma figura movida
07:00pelo amor ao próximo,
07:02acabou sendo crucificado,
07:04insultado,
07:05e trocado por um bandido comum.
07:07Então,
07:08as pessoas cometem injustiça.
07:10As pessoas cometem injustiça,
07:12e as pessoas têm vergonha
07:13das injustiças que cometem,
07:16e de pedir desculpas.
07:17Mas voltando ao ponto,
07:18você vê alguma solução,
07:20ou alguma forma
07:21da gente dirimir um pouco
07:23esse fenômeno que é
07:26espalhar mensagens falsas
07:27que acabam,
07:28enfim,
07:29não só prejudicando pessoas,
07:31mas também,
07:31muitas vezes,
07:32acabam com vidas,
07:34com a vida das pessoas.
07:35Com vidas.
07:36No Guarujá,
07:38aqui em São Paulo,
07:39teve uma mulher
07:39que foi linchada,
07:41porque espalharam
07:42uma notícia,
07:43uma informação falsa,
07:44de que ela fazia sacrifício
07:46de criança.
07:47E fizeram com base
07:49essa acusação mentirosa,
07:51com base no fato
07:52de que ela é adepta
07:55de uma religião
07:55de matriz africana.
07:57Então,
07:57juntaram esse preconceito
07:59para espalhar uma mentira
08:00que despertou o ódio
08:01das pessoas,
08:02e as pessoas foram lá
08:03e cometeram essa barbárie.
08:06Então,
08:06esse é o tema
08:07do meu doutorado.
08:08Eu tenho estudado
08:09as fake news,
08:10esse processo
08:10de desinformação.
08:12Acho que o caminho
08:13é uma regulamentação
08:16das big techs.
08:17Elas precisam
08:18ser responsabilizadas.
08:21O X,
08:22o antigo Twitter,
08:23ele não pode
08:24colocar
08:25em funcionamento
08:27uma ferramenta
08:28em que alguém
08:29vai lá
08:29e dá
08:30um simples comandos
08:31e constrói
08:33uma cena
08:34de pornografia infantil
08:35com a menina.
08:37Perfeito.
08:37Não pode deixar.
08:38Perfeito.
08:39Eu diria
08:40que o elixir,
08:42o que move
08:43a audiência
08:43hoje
08:44da internet
08:45são
08:46uma coisa
08:47que o filósofo
08:48espinosa
08:49chama de
08:49afetos tristes,
08:52que é
08:52o ódio,
08:54a inveja,
08:55o ressentimento.
08:56Posso puxar o ganjo
08:57para falar
08:58de dois livros seus
08:59para você explicar
09:00um pouquinho?
09:01Um deles
09:01é o
09:02Falsolatria,
09:03que passa um pouco
09:04por esse tema.
09:05E você tem um livro
09:06agora novo,
09:07se não me engano.
09:08me corrija
09:09se eu estiver errada,
09:10o anonimato
09:10dos afetos escondidos.
09:12Isso.
09:12É um pouco por aí.
09:13É o Falsolatria
09:14principalmente.
09:15Eu conheci esse...
09:17Na verdade,
09:18eu estava fazendo
09:18a minha tese
09:19de doutorado,
09:20escrevendo,
09:21e faltava a mim
09:22um conceito
09:23que cristalizasse,
09:27que materializasse
09:29esse momento
09:30que a gente está vivendo.
09:31E Márcia Tiburi,
09:32que é uma filósofa
09:33muito interessante,
09:34minha amiga,
09:35ela me deu
09:36esse conceito.
09:37Falsolatria.
09:38Então,
09:38a gente está vivendo...
09:39O que é a Falsolatria?
09:40É o culto coletivo
09:42à mentira
09:43a partir
09:46desse ambiente
09:47que é a internet.
09:48A internet,
09:49ela é
09:50um ambiente
09:51tecnológico,
09:52quer dizer,
09:52ela não é
09:53em si mesmo
09:54uma tecnologia,
09:55mas ela é
09:57um ambiente
09:58para onde
09:58convergiu
09:59todas as tecnologias.
10:01a internet
10:02engoliu
10:03o rádio,
10:04engoliu
10:05a televisão,
10:06engoliu
10:06o cinema.
10:08Ela é hoje...
10:09Todas essas
10:09tecnologias
10:10que existiam
10:11fora dela,
10:12hoje existem
10:12dentro dela,
10:13de maneira
10:14muito mais acessível
10:15e muito mais barata.
10:17Só que
10:17os aplicativos
10:20que
10:20operam
10:22na internet,
10:22eles atuam
10:24a partir de
10:24comandos matemáticos
10:25que a gente chama
10:26de algoritmo.
10:27Esses algoritmos
10:28são criados
10:29por pessoas
10:30e os algoritmos
10:31dos aplicativos
10:33das mídias sociais,
10:34eles são desenhados
10:35para primeiro
10:37capturar sua atenção,
10:38manter você
10:39o maior tempo
10:40possível ali.
10:42Então,
10:42tem gente,
10:42por exemplo,
10:43que começa a olhar
10:44o Instagram
10:44e quando vê,
10:46passaram-se duas horas
10:47ela ali rolando
10:49o Instagram
10:49vendo o perfil
10:50das pessoas.
10:52Então,
10:52o algoritmo
10:53é desenhado
10:53para capturar
10:54sua atenção
10:54e ele é desenhado
10:57para
10:59interpelar você
11:00naquilo que você
11:01tem de pior.
11:03Então,
11:04a inveja,
11:05aí você vê
11:05uma série de perfis
11:06de influencers
11:07mostrando uma vida
11:08de rico,
11:09café da manhã,
11:10a maquiagem,
11:11aí você fica ali
11:12porque você
11:13tem uma inveja,
11:14você quer ser
11:15como aquela pessoa,
11:17essa inveja
11:18muitas vezes
11:18desperta uma coragem
11:20que a pessoa
11:20não tem pessoalmente.
11:22Então,
11:22você está linda,
11:23belíssima aqui,
11:24você faz,
11:25aí alguém vai ver você
11:27em vez de ela
11:27dizer o elogio
11:29assim,
11:29a Mari está linda,
11:31ela vai lá
11:31e vai encontrar
11:32um defeito em você
11:33porque a sua
11:35simples presença,
11:37a sua felicidade,
11:39a apresentação
11:40da sua felicidade
11:41ou a ostentação
11:42que a gente está
11:43vivendo agora
11:44nas mídias sociais
11:45desperta esse lugar
11:46das pessoas.
11:48Então,
11:48o caminho,
11:49como você me perguntou,
11:50é uma regulamentação,
11:51a gente precisa
11:52regulamentar.
11:53Eu disse
11:54em uma entrevista
11:55recente
11:55que o vício
11:57nas mídias sociais
11:58é o novo
11:59tabagismo.
12:01A gente enfrentou
12:02a indústria do tabaco,
12:03o mundo inteiro
12:04enfrentou
12:05a indústria do tabaco
12:06que pagava
12:08valores exorbitantes
12:09para passar
12:10um comercial.
12:11Você é muito nova,
12:13eu tenho 51 anos,
12:14eu sou um homem velho,
12:15então eu sou da época
12:16em que
12:17a Souza Cruz
12:20pagava,
12:22montava,
12:22fazia um comercial
12:23do cigarro Hollywood
12:24que associava
12:26o cigarro
12:26a esporte,
12:28a uma vida saudável,
12:29quando o cigarro
12:30na verdade
12:31fazia o contrário.
12:32A gente enfrentou
12:33isso,
12:34a gente proibiu
12:35o cigarro,
12:36quer dizer,
12:36que você fume
12:37em ambientes fechados,
12:38você proibiu
12:39que crianças
12:40tenham acesso
12:41a cigarro,
12:42a gente colocou
12:42uma informação
12:43na embalagem
12:45dizendo que
12:45cigarro pode causar
12:47disfunção erétil,
12:48câncer,
12:49cegueira,
12:49a gente enfrentou
12:50a indústria do tabaco.
12:51A gente também
12:52pode enfrentar
12:53as big techs,
12:54porque as big techs
12:56elas são responsáveis
12:56não só
12:57pelo comércio,
12:59por exemplo,
13:00de pornografia infantil,
13:01pela venda de armas,
13:03pela formação
13:04de grupos
13:05masculinistas,
13:07mas ela é responsável
13:08pela depressão
13:09e pela ansiedade.
13:10Recentemente
13:11teve só um ponto
13:12aqui pra gente
13:13trocar rapidamente
13:14sobre esse assunto,
13:15recentemente
13:16nos Estados Unidos
13:17houve uma decisão
13:20de prosseguir
13:21com o julgamento
13:22de um caso
13:23onde uma moça
13:24alega que ela
13:25passou 15 anos
13:26da vida dela,
13:27da adolescência
13:27e da juventude dela
13:28sendo exposta
13:29a redes sociais
13:29e pela primeira vez
13:31uma juíza aceita
13:32a denúncia
13:33que é oferecida,
13:34enfim,
13:35aceita seguir
13:36com o caso
13:36e levar a julgamento
13:37pelo júri popular
13:40as big techs
13:41que sempre se amparavam
13:42num determinado
13:44uma lei,
13:46num artigo,
13:46num artigo específico
13:47que limitava ali
13:50a possibilidade
13:50de responsabilização
13:52das big techs
13:53e o que é bacana
13:56e o que me lembra
13:56um pouco
13:57do que você está falando
13:58é que no processo
13:59a advogada dela
14:01faz duas colocações,
14:03duas analogias interessantes.
14:05A primeira é justamente
14:05com o tabaco
14:06que é
14:07não adianta você
14:08como big tech
14:09dizer, olha,
14:10eu posso ser omisso
14:12porque você sabe
14:14e você entende
14:15que o algoritmo
14:17que está sendo desenhado
14:18ali é potencialmente
14:21aditivo,
14:22aditivo, enfim.
14:23E o outro
14:24ela faz com jogos de azar
14:26porque ela diz
14:26você faz um algoritmo
14:28que é como se fosse
14:29uma máquina de caça níquel
14:30porque a máquina
14:31de caça níquel
14:31você joga ela
14:32e ela já está pronta
14:33para fazer você perder.
14:34Ela é viciada.
14:35E ela é viciada.
14:36Exato.
14:37Então, da mesma forma
14:38ali o algoritmo
14:39ele também trabalha
14:40com isso, né?
14:42Perfeito.
14:43O algoritmo
14:43ele é desenhado
14:44para isso.
14:45Ele é desenhado
14:46para...
14:47Primeiro assim,
14:48essas tecnologias
14:49elas estão
14:50extraindo
14:51dados nossos
14:52que
14:53nós não estamos dando
14:55eles estão extraindo
14:56de maneira compulsória
14:59compulsoriamente
15:00que é tirar
15:02sem seu consentimento.
15:06Então, digamos
15:06cada informação
15:08cada pesquisa
15:10que você faz
15:10cada busca
15:11cada busca
15:11que você faz
15:12no Google
15:13cada site
15:14que você acessa
15:15cada
15:16mídia social
15:17que você frequenta
15:18cada like
15:19que você dá
15:20cada comentário
15:21que você deixa
15:22todas essas informações
15:24são passadas
15:25para as Big Techs
15:26eles guardam
15:27essa informação
15:27então eles vão
15:28traçando
15:29uma espécie
15:30de mapa
15:30psíquico
15:31do que você é
15:32e a partir daí
15:34ele vai dirigindo
15:35para você
15:35produtos
15:36que ele sabe
15:37que você gosta
15:38e vai dirigindo
15:40ideias
15:41que confirmam
15:42os seus preconceitos
15:43então por isso
15:44mas isso é o que a gente
15:45já sabia
15:46que a mídia é direcionada
15:47que o produto entregue
15:49é direcionado
15:49mas o que a gente
15:50às vezes passa
15:51batido é
15:52alguns conteúdos
15:54ainda que conteúdos
15:55que sejam agressivos
15:56que sejam
15:58prejudiciais
15:58à saúde
15:59também são direcionados
16:00e não porque
16:02tem um anunciante
16:03pagando para expor
16:04aquele produto
16:04mas porque eu quero
16:05te viciar
16:06porque se eu te mantenho
16:07viciado
16:08ainda que o conteúdo
16:09seja terrível
16:10você está ali
16:11você está ali
16:12com uma audiência
16:13só que tinha uma diferença
16:14quando você assistia
16:15a televisão
16:16antes da internet
16:17antes dessa revolução
16:19dessa mutação
16:21nos meios
16:21dessa revolução digital
16:22quando você assistia
16:24uma televisão
16:24a televisão
16:25não roubava nada
16:26de você
16:26e você tinha o tempo
16:28de assistir televisão
16:29quando você ia
16:30para o trabalho
16:31você não carregava
16:32a televisão no bolso
16:33até porque a televisão
16:34ela tinha um tamanho
16:36quer dizer
16:37o próprio hardware
16:41impedia que você
16:42seguisse no fluxo
16:44de informação
16:46ou desinformação
16:47com essas transformações
16:48o que acontece
16:49a televisão hoje
16:50está no bolso
16:51é o celular
16:53então
16:54essa nova tecnologia
16:55ela mantém você
16:58você não tem mais
16:59você não desconecta
17:00mais dela
17:00na televisão
17:01você desconectava
17:02ia trabalhar
17:03voltava
17:03ligava a televisão
17:04a televisão
17:05não roubava
17:06nada de você
17:06enquanto você
17:07assistia o Jornal Nacional
17:08ou você assistia
17:10o seu programa
17:12aqui na
17:12Jovem Pan
17:13não estava sendo
17:15extraído
17:15nenhuma informação
17:16de você
17:17quando você usa
17:18o celular
17:20o tablet
17:20tem uma informação
17:22extraída
17:22olha
17:23vou te dizer uma coisa
17:24que as pessoas
17:25não sabem
17:25a câmera
17:27frontal
17:27dos tablets
17:29e dos aparelhos
17:30celulares
17:31parecem que elas
17:32elas foram feitas
17:33parece que essa câmera
17:35foi feita
17:35para tirar selfie
17:36não é verdade
17:38essa câmera
17:39ela foi feita
17:39para medir
17:40quanto tempo
17:41sua retina
17:42se demora
17:42no informação
17:43quando você
17:44está olhando ali
17:45o algoritmo
17:46calcula que você
17:47demorou tanto tempo
17:48nessa informação
17:49sobre maquiagem
17:50então ela sabe
17:51que lhe interessa
17:51ela capturou
17:52essa informação
17:53a partir daí
17:54você começa a receber
17:56publicidade de maquiagem
17:57que você nem imaginava
17:59que você diz assim
18:00nossa
18:00eles leram
18:01meu pensamento
18:02eles estão lendo
18:03nosso pensamento
18:04dessa maneira
18:05então essa é a diferença
18:07e isso é muito grave
18:08Mari
18:08é muito grave
18:09principalmente
18:09para as crianças
18:10por exemplo
Comentários

Recomendado