Na estreia do 'Na Real', Sheylli Caleffi, referência na erradicação da violência sexual online contra crianças, e Yuri Castiglione, promotor de Justiça de São Paulo, debatem os desafios e riscos de expor os filhos na internet. Sheylli alerta que a adultização infantil é um dos maiores problemas da atualidade. O debate inclui como a falta de educação digital por parte dos pais pode expor seus filhos a criminosos, uma realidade assustadora no mundo digital.
Baixe o app Panflix: https://www.panflix.com.br/
Inscreva-se no nosso canal:
https://www.youtube.com/c/jovempannews
Siga o canal "Jovem Pan News" no WhatsApp:
https://whatsapp.com/channel/0029VaAxUvrGJP8Fz9QZH93S
Entre no nosso site:
http://jovempan.com.br/
Facebook:
https://www.facebook.com/jovempannews
Siga no X:
https://x.com/JovemPanNews
Instagram:
https://www.instagram.com/jovempannews/
TikTok:
https://www.tiktok.com/@jovempannews
Kwai:
https://www.kwai.com/@jovempannews
#JovemPan
#NaReal
Baixe o app Panflix: https://www.panflix.com.br/
Inscreva-se no nosso canal:
https://www.youtube.com/c/jovempannews
Siga o canal "Jovem Pan News" no WhatsApp:
https://whatsapp.com/channel/0029VaAxUvrGJP8Fz9QZH93S
Entre no nosso site:
http://jovempan.com.br/
Facebook:
https://www.facebook.com/jovempannews
Siga no X:
https://x.com/JovemPanNews
Instagram:
https://www.instagram.com/jovempannews/
TikTok:
https://www.tiktok.com/@jovempannews
Kwai:
https://www.kwai.com/@jovempannews
#JovemPan
#NaReal
Categoria
🗞
NotíciasTranscrição
00:00Olá, boa tarde, tudo bem? Eu sou Marcia Dantas e começamos agora o primeiro episódio do podcast Na Real.
00:07E o tema é adultização de crianças e adolescentes, um problema que se espalha na internet,
00:12impulsionado por algoritmos e também silenciado por interesses.
00:16As denúncias recentes escancararam um submundo perigoso,
00:20onde a infância é exposta, explorada e transformada em conteúdo monetizável.
00:26Este é o primeiro episódio do nosso novo podcast aqui na Jovem Pan.
00:30E eu estou muito feliz de estar debatendo um tema tão importante,
00:34porque a gente vai abordar sempre, na real, na cara, esses temas que repercutem nas redes sociais,
00:40sempre de uma forma muito leve, de uma forma, claro, também, sempre que vai tirar suas dúvidas.
00:46Você pode participar, inclusive, aqui no YouTube, mandando a sua mensagem.
00:51E hoje, para essa nossa estreia, eu vou receber duas figuras muito importantes para discutir esse tema.
00:57A primeira é a Sheili Kalef, que é comunicadora e referência na erradicação da violência sexual online
01:03contra crianças e adolescentes.
01:05E Yuri Castiglione, que é promotor de justiça da infância e juventude de São Paulo,
01:11pesquisador e autor de vários artigos científicos sobre pedofilia, abuso sexual,
01:15exploração sexual infantil aqui no nosso país.
01:18Com eles, a gente vai investigar como acontece esse fenômeno,
01:22quem está se beneficiando desse fenômeno e também o que está sendo feito ou não para impedir.
01:28E, é claro, o nosso papel como pais, como mães e como sociedade para tentar diminuir esse tipo de problema.
01:35Vamos destrinchar também o caso Ítalo Santos, que é o que está todo mundo comentando nas redes.
01:40As prisões aconteceram no último dia 15.
01:42Eles acabaram de ser transferidos para uma penitenciária.
01:46Imagens acabaram de circular nas redes sociais que Ítalo saiu da delegacia chorando junto com o marido.
01:53Então, a gente vai também trazer informações exclusivas hoje sobre essa investigação.
01:58Muito bem-vindos.
01:59Muito obrigada por estarem aqui, Sheili e Yuri.
02:02Obrigada mesmo, viu?
02:03Obrigada a você.
02:03Tô honrada, né?
02:04Obrigada, né?
02:05É um primeiro episódio.
02:06É, e um tema tão difícil também, né?
02:09Foi importante.
02:10Ai, importante e que deixa a gente paz também com uma situação assim, o que eu faço a partir de agora?
02:16Eu queria começar com a Sheili, para a gente entender qual a definição de adultização.
02:23Precoce na rede social ou ela pode ser não só na rede social?
02:26A adultização é um fenômeno que pode acontecer na nossa sociedade, tá acontecendo já, né?
02:32A gente faz isso dentro da nossa própria casa.
02:35Acho que a gente pode diferenciar um pouco.
02:36A adultização é você colocar uma criança numa situação que não corresponde à idade do desenvolvimento que ela tá naquela fase.
02:44Então, quando eu falo, ai, as namoradinhas pro meu filho de seis anos, oito anos, eu tô adultizando.
02:52Porque namoro não é uma coisa de criança.
02:53Quando no ultrassom, eu tô lá vendo, às vezes o pai olha e vê lá que vai ser um menino e fala,
03:00olha aí, meu filho, vai ser um garanhão.
03:02Essas piadinhas.
03:03Tem gente que tem a mania de beijar a parte íntima da criança, cheirar.
03:08Tudo isso é um jeito de adultizar, porque você tá erotizando, você tá colocando.
03:13Às vezes não é a intenção da família, mas você tá reduzindo, muitas vezes, o menino à parte íntima dele.
03:19Então, a gente tem a adultização, que é até o trabalho infantil.
03:22Tudo isso é adultização, e a gente precisa de leis pra combater.
03:26E a gente tem a erotização, que é um tipo de adultização.
03:29Que é colocar a criança dentro de qualquer situação ou ambiente relacionado.
03:33Tem a ver com roupa, figurino, tudo?
03:36Tudo.
03:36Maquiagem, gente.
03:37Nós temos uma pesquisa que mostra que 28% das meninas de quatro anos,
03:42quatro anos, gente, está insatisfeita com o corpo.
03:46Isso é assunto pra uma menina de quatro anos, que mais de 50% das meninas entre nove e dez anos
03:52querem fazer dieta.
03:55Isso é um assunto pra uma menina de nove, dez anos?
03:57Hoje a gente tem um monte de meninas se maquiando.
03:59Maquiagem é algo pra uma criança de cinco anos?
04:02Vídeos, né?
04:03Influenciando, passando maquiagem, né?
04:05Né?
04:06Isso não é do universo infantil.
04:08Então, existe essa adultização há bastante tempo.
04:10Essa exploração do corpo das meninas e do corpo das mulheres há muito tempo.
04:14Dos meninos pequenos também.
04:16E o que mais preocupa?
04:17É a normalização desse conteúdo, na sua opinião?
04:20Tem uma recomendação específica?
04:22Que você acredita que as famílias podem tentar fazer algo pra não…
04:27Ai, tem várias.
04:29As famílias…
04:30A normalização é o que mais assusta.
04:32É o que mais tem.
04:33Ai, todo mundo fala, ah, mas eu dancei na boquinha da garrafa.
04:36Isso já tinha na minha época.
04:37Mas eu acho tão diferente com a internet.
04:39Eu acho muito diferente.
04:40É muito diferente, né?
04:41Porque você não tinha 170 milhões de pessoas, que é mais ou menos os acertos num dia no Brasil, vendo aquilo, né?
04:49Você não sai…
04:50O que eu recomendo pros pais é que nós temos que lembrar que a criança é um ser humano com direitos.
04:56Nós não somos donos do corpo da criança.
04:57Nós não somos donos da imagem da criança.
04:59Nós estamos cuidando da criança até que ela tenha a idade adulta.
05:03Então, quando você vai decidir expor o seu filho numa rede social, mesmo que seja uma foto comum, gente…
05:10Uma foto da criança brincando de qualquer coisa.
05:12Você tem que se perguntar se realmente é necessário.
05:17Porque ele não tem como consentir que você tá expondo essa imagem.
05:21E a maioria das imagens que criminosos, que exploram crianças usam…
05:25E isso ficou bem mostrado no vídeo do Felca, nos vídeos que eu faço, são imagens que os pais postam.
05:31Algumas imagens são produzidas, como no caso do influenciador denunciado.
05:35Mas muitas são as que os pais postam.
05:37Então, primeira coisa, cuidado com o que você vai mostrar na rede.
05:40Porque rede social é um local de comércio, não é um álbum de foto.
05:44Você não sai no meio de um shopping com a foto do seu filho falando…
05:46Olha como meu filho é lindo, olha como meu filho sabe dançar.
05:48Olha ele começou os primeiros passinhos.
05:50Olha ele de fralda, que fofura.
05:51Pra pessoas totalmente desconhecidas.
05:53E a gente tem que… A minha geração, que é 40 a mais, tem que lembrar…
05:57Tô chegando ali nos 40 também.
05:59Que não é um álbum de foto, porque era, né?
06:01Não podia nem escrever no Instagram.
06:02Então, cuidado com o que você posta, mesmo que a criança não tenha redes.
06:05E a partir do momento que você der acesso a ela, pra que ela entre nos ambientes digitais…
06:10Aí tem muitos cuidados que tem que existir.
06:13E a gente pode ir falando sobre eles, né?
06:15Combinado.
06:16Eu vou dar agora a palavra ao doutor Yuri.
06:18Porque a gente recebeu, né, das suas pesquisas, dados alarmantes, né?
06:22Que cada vez mais cedo, no nosso país, a gente tá dando acesso às nossas crianças, às redes sociais e ao celular.
06:30Isso é muito preocupante.
06:31Vamos colocar alguns dados que o doutor Yuri trouxe pra gente, por favor, já na tela?
06:35O primeiro deles é a idade que as crianças têm acesso.
06:38Antigamente, elas tinham acesso um pouquinho mais ali, né?
06:41Perto da adolescência.
06:43Tá cada vez mais cedo, mais precoce, doutor.
06:46Olha só, o dado vai aparecer na tela agora, que a gente preparou uma arte.
06:52Crianças usuárias de internet.
06:54Há quase 10 anos, em 2015, de 0 a 2 anos, eram apenas 9% das crianças.
07:00De 3 a 5 anos, 26%.
07:03E de 6 a 8, 41%.
07:05Olha o salto em 2024.
07:07De 0 a 2 anos, 44%.
07:11Dois anos, meu Deus do céu.
07:1371% de 3 a 5 e 82% de 6 a 8.
07:18Qual o perigo dessa exposição precoce, doutor?
07:21Bom, o primeiro ponto que é importante a gente destacar é um princípio que rege, né,
07:27toda criança adolescente, pela nossa lei, pela nossa Constituição, pelo Estatuto da Criança e Adolescente,
07:32é considerado uma pessoa em desenvolvimento.
07:35Então, o que significa isso?
07:36O que quer dizer quando a lei vem e classifica toda a criança e adolescente como pessoa em desenvolvimento?
07:43Significa o quê?
07:44Que ele ainda não tem o critério.
07:46Aqui não é um critério moral, não é um critério religioso, não é um critério de valores,
07:52mas sim é um critério biológico.
07:54Por quê?
07:54O lóbulo frontal da criança e adolescente, ele ainda não está completamente formado.
07:58Em razão disso, ele ainda não tem condição de compreender plenamente aquilo que ele está fazendo,
08:05aquilo que ele está sendo exposto, aquilo que ele está expondo.
08:09Então, isso, se nós formos analisar, pegar historicamente, né,
08:13se a gente for pegar no período medieval, crianças e adolescentes, eles eram considerados o quê?
08:18Adultos em miniatura.
08:19Desde logo, quando já conseguiam andar, conseguiam se desenvolver, conseguiam fazer alguma coisa,
08:26eles já eram equiparados a adultos.
08:28E isso, ao longo da história, a gente teve o quê?
08:31Teve uma evolução disso.
08:32E até que vieram esses princípios, considerando a criança como pessoa em desenvolvimento,
08:37que ela não tem capacidade de entender tudo o que ela pratica.
08:40Então, nós já vivemos isso lá atrás, na história.
08:43E hoje, nós estamos voltando para os mesmos erros.
08:48Que houve uma evolução disso, houve uma análise da sociedade em cima disso,
08:54que modificou a forma como é considerada, a forma como é conceituada a criança,
08:59de modo a considerá-la o quê?
09:00Uma pessoa em desenvolvimento.
09:01E até cientificamente, doutor, né, muitos estudos na nossa ciência avançaram do cérebro da criança,
09:07de mostrar as dificuldades que uma criança exposta à violência desde cedo,
09:11ela tem problemas sérios ao longo da vida.
09:14Cientificamente, nos artigos, a gente tem isso também.
09:16Então, não é só algo social, né?
09:18É algo físico também, né?
09:20E preocupante.
09:21Isso justifica...
09:21Por que, por exemplo, uma criança não pode votar?
09:24Por que uma criança, por exemplo, não pode vender um imóvel?
09:26Então, ela não pode vender um imóvel, mas ela pode divulgar a imagem dela na internet,
09:31eventualmente uma imagem que pode comprometer a sua dignidade, a sua intimidade.
09:37E isso fica marcado na rede, fica para a vida toda dela.
09:41Quando ela for adulta, né?
09:42Hoje, as empresas vão fazer uma contratação, eles pedem hoje, você pede o quê?
09:47Pede perfil.
09:48Qual é o seu perfil na rede social?
09:50E aí vai ficar no histórico daquela criança ou daquele adolescente que ele já teve esse tipo de conduta.
09:55Então, isso acaba prejudicando, maculando, lá na frente, quando ele for um adulto e tiver consciência dos seus atos,
10:02o que ele está fazendo.
10:02Só para finalizar, um exemplo que, uma vez, eu gosto de dar quando eu falo sobre esse tema.
10:10Imagina só um avião.
10:11Um avião está pronto.
10:13Quando a gente pega um avião pronto, imagina só que esse avião é feito por alunos de engenharia.
10:19Não é feito ainda por engenheiros formados.
10:22Por fora, você olha aquele avião, parece um avião perfeito.
10:25Aí eu pergunto para você, Márcia, você entraria nesse avião e decolaria nele,
10:30sabendo que ele foi feito por alunos e não foi revisado ainda pelo professor?
10:34Lógico que não, não dá.
10:35Por que não?
10:36Porque é rigoroso, ele está em teste.
10:39Em desenvolvimento.
10:40Exatamente, a mesma coisa criança.
10:41Ela pode até, uma adolescente, pode até parecer com um adulto.
10:45Pode até ter aquela casca por fora, parece um avião pronto.
10:49Só que ainda não está pronto.
10:50Da mesma forma que nós não entraríamos num avião que ainda não está finalizado,
10:55mas por fora ele parece pronto, também a gente não pode expor nossas crianças,
10:59nossos adolescentes a um conteúdo adulto.
11:02A um conteúdo que pode prejudicar toda a sua vida e todo o seu desenvolvimento e formação.
11:08E aí, onde é que é crime e onde que não é, doutor?
11:11Porque eu acho que tem uma coisa, como a Shelly falou.
11:13Ah, eu posto a foto do meu filho ali brincando e tal.
11:17Pode ser perigoso, como a gente já falou aqui.
11:19Mas não é crime.
11:22Aí, quando que é essa medida do crime e do que ainda não é uma exposição maléfica?
11:29Porque eu queria entender a nossa legislação mesmo.
11:31Para saber até que ponto a gente pode ir, sabe, como pais.
11:35Bom, quando a gente divulga um conteúdo.
11:37Uma coisa é divulgar um conteúdo, por exemplo.
11:39O que é perigoso?
11:41Isso.
11:42Perigoso seria, por exemplo, a gente vai postar um vídeo,
11:45uma fotografia da nossa filha fazendo um balé.
11:51E aí ela está lá com as roupas colãs, roupas apertadas, decote.
11:57Isso não é crime.
11:59Mas é perigoso.
12:00Mas é perigoso que essa imagem, ela pode ser usada com outros fins.
12:04Por outro lado, se você posta uma imagem erotizando uma criança,
12:09ela ali fazendo, por exemplo, uma cena tipicamente erótica.
12:15Se você ofere lucro com isso, isso pode ser considerado um tipo de pedofilia.
12:21Tudo vai depender da conduta que for praticada.
12:23Então, uma coisa é expor as nossas crianças a comportamentos,
12:27a imagens que podem ser perigosas e usadas inadequadamente por pessoas mal intencionadas.
12:33Outro ponto é erotizar imagens de crianças ou colocar crianças numa situação erotizada,
12:41numa situação sexualizada, com fins pornográficos, por exemplo.
12:45Esse é o exemplo mais claro e nítido para diferenciar o que é crime
12:50do que é perigoso, mas não é criminoso.
12:53Perfeito.
12:53Temos mais uma arte de uma das pesquisas que o doutor mandou para a gente.
12:57Vamos colocar no ar, por favor?
12:59Que seria também em relação ao uso de celular.
13:02Porque não é só o acesso à internet,
13:04porque o celular na mão é mais perigoso ainda, né, gente?
13:07Porque nem sempre, por exemplo, no computador,
13:09você consegue, pelo menos, o adulto está ali do lado do celular,
13:11ele está na cama com a criança, está em qualquer lugar,
13:14até na escola, né, agora é proibiram.
13:16Então, ó, crianças que possuíam celular próprio,
13:19de 0 a 2 anos em 2015, 3%,
13:226% de 3 a 5 anos e 18% de 6 a 8 anos.
13:26E de 0 a 2 anos, olha como cresceu também.
13:295% em 2024, 20% ali de 3 a 5 anos e 36% de 6 a 8 anos.
13:36Que é aquela idade que o senhor falava que é uma idade muito difícil, assim,
13:40que não tem como você, né, a criança não está preparada para nada.
13:43E até estudos dizem que aquela dopamina de ficar passando, né,
13:47aquela adrenalina que dá na cabeça,
13:49vicia de uma forma como se fosse...
13:51Vicia os adultos.
13:52Vicia adultos e ainda mais uma criança.
13:54E tem crianças tendo que fazer tratamentos psiquiátricos psicológicos
13:58com remédios para a ansiedade por conta do uso de telas.
14:02E esse foi o motivo que foi proibido o celular nas escolas.
14:05Sim, doutor.
14:06Porque tem uma série de repercussões para o desenvolvimento como um todo da criança, né.
14:11Não é só a questão de expor uma situação de crime,
14:13mas sim influencia no desenvolvimento dela, né,
14:16naquela necessidade de satisfação de prazer imediato da dopamina, né.
14:20Toda vez vem um vídeo, um novo vídeo, né,
14:23e aqueles algoritmos calculando para você ficar preso ali na tela,
14:26deixando de praticar esporte, deixando de ter uma atividade saudável,
14:29de ter contato com outras crianças, né, a vida social, que é tão importante, né.
14:33Agora a gente entra no nosso segundo bloco,
14:35que é exatamente sobre o que o senhor já começou a falar.
14:38Algoritmos, responsabilização.
14:40Vamos começar com você, Xelica, eu sei que você está por dentro disso.
14:43De forma didática, como é que o feed aprende a empurrar conteúdo sexualizado
14:49e por que que isso é diferente de conteúdo adulto, né, que é um conteúdo…
14:55Como é que a gente sabe que o algoritmo está entrando,
15:00geralmente, nesse debate que é perigoso?
15:02Foi o que o Felca colocou na denúncia dele,
15:04que a gente pode, nós como adultos, a gente incentiva,
15:08vendo aquele tipo de conteúdo, a entregar mais para pedófilos e tudo.
15:11Como é que isso funciona?
15:13O próprio algoritmo, o algoritmo, ele está treinado…
15:16Eu gosto de falar das pessoas que configuraram,
15:18que você não parece que ele é uma entidade.
15:20Não, são pessoas que estão lá fazendo aquilo.
15:21Tem gente por trás.
15:23Tem gente, tá bom.
15:24Ele é configurado para te agradar.
15:26Então, você gosta, você está fazendo reforma,
15:29você vai ver um monte de vídeo de reforma.
15:31Num TikTok da vida, você vai ver vídeos tão legais,
15:34você vai ficar quatro horas e vai ter ideias geniais para reformar a sua fala.
15:37Eu estava fazendo meu roteiro para a Itália, apareceu só a Itália.
15:40Você vai ficar lá absorvida, né?
15:43Sim.
15:43Mas outras coisas, além daquilo que você gosta,
15:46muita gente fala assim, não, mas só aparece o que a gente gosta, mais ou menos.
15:49Quando você é um adolescente, já tem pesquisa disso,
15:51de alguns jornalistas que se passaram por adolescentes
15:53para ver o que aparece para eles.
15:55Então, mesmo sem clicar em nada,
15:57só observando o que aparece, curtindo uma ou outra coisa,
16:00em 12 dias eles estavam vendo assassinato.
16:02Que nem deveria ter nas redes.
16:05Essa é uma pesquisa que aconteceu.
16:06O que eles veem?
16:07Aí eu fiz a pesquisa, uma amiga minha também,
16:09criamos o perfil, vamos lá, né?
16:11Um menino adolescente, ele vê ostentação,
16:16pornografia ou erotização,
16:18é entregue, mesmo ele sem fazer nada, gente.
16:21Ele não escolheu nada, está sendo oferecido para ele.
16:24Então, e violência e misoginia, né?
16:26Ódio contra a mulher, disfarçado de piada.
16:30Então, mesmo que ele não queira ver aquilo,
16:33aquilo aparece para ele.
16:34E aí tem uma coisa muito perversa,
16:36porque coisas que chamam violência, chama atenção.
16:38E não quer dizer que ele gosta necessariamente,
16:42mas ele fica olhando de curiosidade,
16:44e por ele passar mais tempo vendo aquilo,
16:47o algoritmo entende que ele gostou e entrega mais.
16:50Então, conteúdos que geram ódio,
16:51que geram fortes emoções,
16:53a coisa da sexualidade no adolescente está florando,
16:55vai fazer ele prestar atenção,
16:57independente se ele gosta ou não.
16:58Ele assistiu, o algoritmo entende que ele gostou
17:00e vai entregar mais.
17:01Então, é diferente o algoritmo para adulto e para criança.
17:04Claro que o algoritmo para criança e adolescente
17:06deveria, identificando que é um adolescente,
17:09não entregar nada disso.
17:10Mas não acontece.
17:11Só que se o adolescente...
17:13Aí eu vi alguns advogados,
17:14tem um filme que saiu agora nos Estados Unidos,
17:17eles representam 4 mil crianças e adolescentes
17:19que sofreram alguma lesão ou morreram
17:22por causa das redes sociais, em desafios e tal.
17:24E aí um deles diz o seguinte,
17:26tinha um menino que entrou,
17:27é um menino que está lesionado,
17:28porque ele se auto-infligiu um tiro.
17:30E ele estava lá na rede social.
17:35E aí esse menino, o que aconteceu?
17:36Ele estava mal, porque ele tinha terminado um namorinho,
17:38ele tinha, sei lá, 15, 16 anos.
17:41Se ele entrar na rede social
17:43e começar a procurar conteúdo sobre isso,
17:44e vier conteúdo super legal do tipo,
17:46não, vai passear, vai andar de bicicleta,
17:47ele vai sair da rede social.
17:49O algoritmo tem um único objetivo,
17:51que você fique lá muito tempo.
17:53Então, se ele começa a falar de tristeza,
17:55se ele começa a falar de suicídio,
17:57se ele começa a falar de morte,
17:58e tem muitos vídeos que induzem ao suicídio nessas plataformas.
18:01Eu nunca tinha visto,
18:02um dia eu perguntei para os meus seguidores,
18:04uma menina me mandou vários.
18:05São vídeos escuros, com frases marcantes,
18:08quando eu não estiver mais aqui.
18:09São coisas horrorosas.
18:10Esse menino foi entrando num looping e se machucou.
18:13Então o algoritmo, ele tem um objetivo,
18:15fazer você ficar lá.
18:16Seja te mostrando coisas absurdas,
18:18que vão fazer você ficar lá.
18:19Nojo também deixa muito as pessoas.
18:21Até o Mark Zuckerberg teve que pedir desculpa,
18:24mundialmente outro dia.
18:25Porque de repente, todo mundo começou
18:26naqueles vídeos sugeridos no Instagram.
18:29Aí vem umas coisas nojentas.
18:30Sabe umas coisas estranhas?
18:30Tipo aquela espremer espinha?
18:32Sim.
18:32As coisas esquisitas.
18:34E todo mundo recebendo ao mesmo tempo,
18:35ele falou que foi sem querer.
18:36Foi sem querer que mostraram pra todo mundo.
18:38Mas é um tipo de conteúdo que a pessoa de curiosa vai lá.
18:41Então ele quer que você fique lá pra vender coisas pra você.
18:44Tem um outro livro, encerrando,
18:46chamado Careless People, que saiu agora,
18:48de uma ex-executiva da Meta.
18:50Onde ela mostra,
18:52ela conta, né, pra todo mundo,
18:54que se uma menina posta uma selfie
18:56e depois de uns minutos ela deleta,
18:59porque adolescentes fazem isso.
19:01Tipo, se eu posto, ninguém curtiu,
19:03eu fico insegura, eu tiro.
19:04Eles entendem que ela está insegura
19:06e enviam propaganda de maquiagem.
19:09Nossa!
19:10Isso é perfilamento das crianças
19:13pra enviar uma propaganda.
19:16É uma isca.
19:17Como se fosse uma isca.
19:18Pra adultos fazem isso.
19:19Mas é o que a gente não quer no país, né?
19:20A gente quer leis que parem esse tipo de coisa,
19:23porque não tem como um pai controlar isso.
19:26Você pode ser o pai mais zeloso do mundo,
19:28vai ser muito difícil.
Comentários