Pular para o playerIr para o conteúdo principal
Baixe o app Panflix: https://www.panflix.com.br/

Inscreva-se no nosso canal:
https://www.youtube.com/c/jovempannews

Siga o canal "Jovem Pan News" no WhatsApp:
https://whatsapp.com/channel/0029VaAxUvrGJP8Fz9QZH93S

Entre no nosso site:
http://jovempan.com.br/

Facebook:
https://www.facebook.com/jovempannews

Siga no Twitter:
https://twitter.com/JovemPanNews

Instagram:
https://www.instagram.com/jovempannews/

TikTok:
https://www.tiktok.com/@jovempannews

Kwai:
https://www.kwai.com/@jovempannews

#JovemPan
#SociedadeDigital
Transcrição
00:03Sociedade Digital no ar a ponte
00:09aérea mais tecnológica do rádio,
00:10da TV e da internet. Nós vamos
00:13juntos nesta próxima meia hora
00:15informando sobre tecnologia,
00:17sobre o mundo digital. Vamos
00:18falar, por exemplo, sobre como o
00:20serviço de imigração dos Estados
00:22Unidos, o ICE, tem usado
00:24tecnologia pra rastrear os
00:27imigrantes. A gente já falou
00:28sobre essa polêmica há algum
00:29tempo, mas o Eliseu Caetano vai
00:31contar pra gente, em detalhes, a
00:33versão mais atualizada dessa
00:35história, como a polícia tá usando a
00:37tecnologia pra rastrear pessoas.
00:40Nós vamos falar também sobre o
00:42ECA Digital, tema importante, uma
00:45legislação focada na criança e no
00:47adolescente, com foco em internet,
00:50inteligência artificial. O
00:51Estatuto da Criança e do Adolescente,
00:53versão 2026. Entra em vigor agora
00:56e a gente vai receber uma especialista
00:58aqui pra explicar mais e melhor
01:00sobre isso. Você vai ficar sabendo
01:02sobre muito mais a respeito do mundo
01:05da tecnologia, é só ficar comigo aqui
01:07no Sociedade Digital.
01:09Vamos começar, então, com essa
01:11polêmica, porque o serviço secreto,
01:13o Serviço de Imigração e Alfândega
01:16dos Estados Unidos, que é o chamado
01:18ICE, ele divulgou um relatório no
01:23final de janeiro, mostrando como a
01:25tecnologia tem sido um suporte importante
01:27pra que os oficiais, os agentes
01:30dessa, desse serviço, possam trabalhar.
01:33Eu pedi pro meu amigo Eliseu Caetano
01:35investigar mais e melhor essa história
01:38e contar pra gente como é que a
01:39tecnologia tem auxiliado este grupo
01:42polêmico, o ICE, lá nos Estados Unidos.
01:46Uma mudança recente na legislação
01:49americana transformou o Serviço de
01:51Imigração e de Alfândega dos Estados
01:53Unidos, o ICE, na agência de aplicação
01:56da lei mais bem financiada do país.
01:59E esse aumento no orçamento tem sido
02:01convertido em um arsenal tecnológico
02:03cada vez mais sofisticado, usado para
02:06localizar, monitorar e prender imigrantes
02:09em todo o território americano. O
02:11Departamento de Segurança Interna, ao
02:13qual o ICE é subordinado, divulgou um
02:15relatório anual, revelando que a agência
02:17expandiu e de forma significativa o uso
02:20de reconhecimento facial, inteligência
02:23artificial e de ferramentas avançadas de
02:25vigilância digital em suas operações.
02:28Um dos principais recursos é o
02:30reconhecimento facial móvel, um novo
02:32aplicativo chamado Mobile Fortify, que
02:34permite que agentes façam escaneamentos de
02:37rostos e impressões digitais diretamente
02:40nas ruas. Essas informações são
02:42comparadas, em tempo real, com grandes
02:44bancos de dados do governo, que
02:46incluam em status imigratório e dados
02:48biográficos dos indivíduos abordados.
02:51Especialistas em direitos civis alertam
02:53que a expansão dessas tecnologias levanta
02:55preocupações sobre privacidade, vigilância
02:58em massa e possíveis abusos, enquanto o
03:01governo defende o uso das ferramentas
03:03como essencial para reforçar a segurança e o
03:07controle migratório.
03:08Nos Estados Unidos, Eliseu Caetano, para o
03:12Sociedade Digital.
03:14Obrigado, Eliseu. Olha só, é interessante
03:17essa história envolvendo tecnologias de
03:19reconhecimento facial e várias tecnologias
03:24adjacentes, complementares a esse recurso.
03:27Houve uma polêmica alguns anos atrás, porque a
03:29polícia de alguns estados, polícias em alguns
03:31estados norte-americanos, estavam utilizando e
03:35lá atrás havia o que a gente conhece no mundo
03:38da tecnologia como bias, que é o viés de
03:40máquina. E havia uma busca indiscriminada por
03:44perfis étnicos, perfis específicos, que
03:49beiravam a perseguição ou levavam a pessoas que
03:52não tinham rigorosamente nenhum tipo de
03:54questão com a justiça a serem identificadas
03:56como nocivas, como criminosos ou criminosos em
04:00potencial. Se a gente for atualizar essa discussão
04:02para hoje, o que esse serviço faz é mais ou
04:06menos o mesmo caminho. Ele vai buscar por
04:09estereótipos, vai buscar por padrões de
04:11reconhecimento ou até usando um banco de
04:13dados para identificar essas pessoas. O que não
04:16muda o fato de que para parte dos especialistas, este é
04:20um problema que precisa ser enfrentado. A gente,
04:23claro, aqui em São Paulo, por exemplo, tem o
04:25Smart Sampa. É um princípio muito parecido. A gente
04:28usa para combater o crime, mas de maneira
04:31indiscriminada, acaba se tornando invasivo para a
04:33vida da maior parte das pessoas. E é sobre esse
04:36limite que agora os especialistas se debruçam
04:39para encontrar uma equação, uma razão sobre como
04:43operacionalizar essa questão. De todo modo, o que a
04:47gente tem visto nos Estados Unidos é uma evolução
04:48bem importante das tecnologias, assim como aqui no
04:51Brasil, no Carnaval, por exemplo, foi amplamente
04:54utilizado para identificar no meio da multidão
04:56criminosos. Mas é óbvio, a gente não precisa nem tanto ao
05:00céu, nem tanto ao inferno. É preciso ter razoabilidade no
05:03uso dessas tecnologias. E a gente vai continuar falando
05:08sobre A, porque ela avança cada vez mais e à medida que esse
05:11avanço acontece, o que a gente vai buscando é alternativas. E as
05:16empresas têm explorado as inúmeras possibilidades da
05:20inteligência artificial. A Júlia vai contar para a gente
05:23agora um pouquinho de uma iniciativa de uma startup.
05:27Conta para a gente, Júlia.
05:29Hoje em dia, com o avanço das inteligências
05:31artificiais, está cada vez mais difícil diferenciar o que é
05:35real do que é falso na internet. Vídeos, fotos e áudios são
05:38facilmente alterados com o uso dessas ferramentas.
05:41A plataforma Descartes é um exemplo disso. Uma pessoa pode
05:45mudar desde a cor do cabelo até a voz, corpo, altura, cenário e
05:49se tornar uma pessoa completamente diferente, se
05:52passando por atores, cantores, políticos e até mesmo
05:55familiares e amigos. Mas a falsificação de imagem pode
05:59interferir na vida de muitos, criando e propagando notícias
06:02falsas. Vídeos, fotos, transmissões ao vivo e longas
06:06produções estão cada vez mais suscetíveis às mudanças das
06:09inteligências artificiais.
06:18Seguindo aqui com o nosso Sociedade Digital, vamos falar sobre
06:22um assunto que é novo, porém não é tão novo assim. Calma, eu
06:27explico. Nós vamos falar sobre o ECA Digital. É o Estatuto da
06:32Criança e do Adolescente, só que com um recorte específico, com um
06:37olhar específico, uma atenção para algo que caminhou quase que ao
06:43mesmo tempo em que o ECA se desenvolveu, se consolidou e ganhou
06:48espaço como algo que a legislação brasileira acolhe e que trabalha em
06:55benefício das crianças e adolescentes, dos jovens de maneira geral, só que
07:00ficou perdido no tempo e espaço justamente por ter nascido ao lado da
07:05internet. O ECA é lá do começo dos anos 90, a internet também começa a se
07:10popularizar a partir da década de 90, são duas instituições que crescem e
07:17caminham paralelamente sem nunca ter se cruzado e agora só em 2026 a gente tem
07:23a entrada em vigor do ECA Digital. É um avanço importante, uma
07:29movimentação aguardadíssima por todos nós que trabalhamos com o ambiente
07:37digital e sobre a qual a gente vai conversar aqui com a minha amiga
07:41Alessandra Borelli, ela que é advogada, especialista em direito digital, uma das
07:45grandes referências no assunto aqui no Brasil, especificamente quando a gente
07:51fala sobre a criança e o adolescente. Eu acho que de todo mundo que eu conheço,
07:56que trabalha com esse assunto, aquela pessoa que tem o olhar mais cuidadoso e
08:02atento dentro do direito para este recorte específico é a Alessandra.
08:09Alê, obrigado por estar aqui com a gente, assunto importante e mais do que
08:14aguardado este o ECA. E aí eu queria começar te perguntando o seguinte,
08:20o que é que nós temos como desafio em comum a partir da entrada em vigor do
08:28ECA Digital? Bom, um dos principais desafios consiste em justamente sair desta
08:35lógica de autodeclaração de idade para aferição, para verificação etária,
08:42encontrando aí um mecanismo que seja robusto o suficiente para garantir que
08:47crianças e adolescentes não frequentem ambientes que não foram preparados para
08:53elas, sem que essa medida ela acabe expondo, por exemplo, a privacidade de crianças e
09:02adolescentes. Inclusive, hoje saiu oficialmente um relatório desenvolvido pelo
09:09Ministério da Justiça, juntamente com a Senacom, trazendo aí alguns caminhos técnicos para que
09:19esse processo de verificação de idade se dê da melhor forma possível.
09:24E aí eu queria que você explicasse para nós e para quem está em casa nos acompanhando,
09:32efetivamente o que muda. Porque o ECA veio passando também por processos de
09:37amadurecimento, novas interpretações à luz também da evolução, a sociedade não é
09:43estanque a despeito de que o que está escrito na lei esteja ali parado no tempo, mas as
09:49interpretações e a maneira como outros códigos vão sendo colecionados vai mudando e
09:56evoluindo com também o avanço da sociedade. Mas só que esse olhar, esse recorte específico
10:02para aquilo que é um risco ou para aquilo que é um direito no ambiente digital, vem
10:08com muito mais força materializado no ECA digital. Eu queria que você explicasse para
10:13a gente quais são as mudanças fundamentais.
10:16Como você muito bem colocou aqui no começo, o Estatuto da Criança e Adolescente é da década
10:20de 90. É claro que, assim como a Constituição Federal, ele traz ali a necessidade da proteção
10:26integral da criança e do adolescente e uma série de questões relacionadas aos seus
10:30direitos e deveres da sociedade como um todo de fazer com que crianças e adolescentes
10:36tenham os seus direitos, a sua saúde, a sua segurança protegidos. No entanto, com os avanços
10:42das tecnologias digitais, novos riscos, novos desafios surgiram e com isso a necessidade de
10:49se normatizar, de se tratar de forma específica das responsabilidades dos direitos e garantias
10:56considerando os riscos inerentes ao ambiente digital e todos aqueles que fazem parte deste
11:02ecossistema. A começar, por exemplo, pelas próprias plataformas digitais, as Big Techs,
11:08que é onde as crianças e adolescentes hoje interagem, onde se divertem, onde socializam,
11:15onde também fazem suas pesquisas, etc. E tal. Dito isso, todos aqueles direitos já
11:22previstos no Estatuto da Criança e do Adolescente se expandem, então, para o ambiente digital,
11:27trazendo aí uma responsabilidade mais coerente, mais direta, mais objetiva com relação a todos
11:33que, de alguma forma, fazem parte desta relação das crianças com o ambiente digital.
11:37E a gente está falando, nesse caso, especificamente aqui, de uma opção de atores e não só a
11:45plataforma, porque a gente teve episódios, por exemplo, o marco civil da internet, a
11:49responsabilização da plataforma e etc. Aí a gente fala da LGPD, o detentor dos dados e
11:56aquela coisa. Tem sempre o mediador tecnológico como uma figura que é quase que um alvo marcado
12:04ali para a gente mirar. No caso da criança e do adolescente, isso é muito mais amplo,
12:10porque você tem responsabilidades objetivas ali dos pais, ou dos responsáveis.
12:16Eventualmente, em alguns ambientes, você vai ter os educadores, você tem o ambiente escolar
12:21e essa coisa toda, e também as plataformas. Mas a gente está falando de um processo que,
12:29talvez, e aí, eu gosto muito dessa discussão, eu me lembro que nós, você me convidou uns
12:34anos atrás a participar de um evento na Fiesp, em que falávamos sobre isso, e a síntese ali
12:40do painel foi justamente essa, a de que a responsabilidade por educar no ambiente digital, ela não passa
12:49única e exclusivamente por quem está conectado. Ela é, sobretudo, por quem está no entorno.
12:55Neste caso, o peso maior não recai sobre as plataformas, mas para as responsabilidades
13:01daqueles que estão guiando essa molecada no ambiente digital. Porque, muitas vezes,
13:07há essa coisa do pai que coloca o iPad ali para a criança ver um filme ou interagir
13:13em uma rede social, dar um celular para uma criança pequena. Ah, ele não está brigando,
13:17não está gritando, olha, está ali, distraído. A terceirização de uma responsabilidade,
13:21que é o objetivo. O pai, ele tem que saber o que está acontecendo, porque ele tem que orientar.
13:27Isso vem com muita força também, com essa noção modificada a partir de agora, né?
13:33Olha só, o Estatuto Digital da Criança e do Adolescente, ele não hierarquiza dano e nem hierarquiza
13:39responsabilidade. Não tem quem é mais ou menos responsável. Exatamente, e nem quem é mais ou menos
13:45arriscado. Então, assim, é lógico que as big techs, elas acabam, elas acabam tendo uma complexidade
13:51maior no processo de adequação, tendo em vista a sua capacidade de escala e até mesmo a complexidade
13:57do seu ambiente. Mas a lei, ela não é restrita às plataformas digitais pensando em big techs,
14:04mas a qualquer empresa, qualquer plataforma digital, qualquer empresa que possua uma plataforma digital
14:09de provável acesso por crianças e adolescentes. Para além disso, sim, a lei, a nossa legislação
14:16brasileira, ela privilegia a responsabilidade compartilhada. Empresas, aí entram também
14:22as big techs, famílias, escolas, sociedade de uma forma geral e o poder público, atuando
14:30no processo de fiscalização, no processo de monitoramento, as famílias com o seu dever
14:36de orientação, de supervisão parental, reiterando o que já prevê o próprio Código Civil, que
14:41é os pais cumprem o dever de criar e dirigir a educação dos filhos e a escola com o letramento
14:45digital, com orientação, com direcionamento. Então, veja, estamos aqui falando de responsabilidade
14:51compartilhada. Sobretudo porque as plataformas, por exemplo, né, as plataformas digitais, aqui
14:56eu trago de uma forma geral, aquelas que propiciam, por exemplo, interatividade, elas precisam
15:01prover mecanismos de supervisão parental, o que significa dizer que se ela prover o
15:07mecanismo para a supervisão parental, de fácil customização e etc., quem tem que
15:11supervisionar precisa, então, customizar essa ferramenta e exercer ali o seu papel.
15:17Plataformas, portanto, precisam saber como elas vão identificar que trata-se de uma criança,
15:24criar um ambiente protegido para aquela navegação. Quando a gente diz protegido é das
15:31interações e também de conteúdos que são nocivos para crianças. E ir com uma penalização
15:41para os casos em que isso não for respeitado. Mas aí, neste caso, o pai é um partícipe no
15:51processo, porque o que a gente mais viu, e eu sempre gosto de trazer esse exemplo, é pais criando perfis
15:59para crianças em rede social, Facebook da vida, Instagram da vida, e como é um alto
16:04preenchimento, vai lá e coloca a idade com 18 anos e está tudo bem.
16:09Eu estou enganando a plataforma neste caso. Eu estou criando, eu estou gerando um risco,
16:16expondo ali aquela criança a um risco. É diferente do princípio do YouTube Kids, por exemplo,
16:22em que você cria um ambiente confinado, os conteúdos são todos curados ali para você
16:27não ter um problema. Nesses casos em que o próprio usuário se coloca em risco ou coloca
16:34a criança em risco? O que pode acontecer? Tudo vai ser levado em consideração. Então,
16:39assim, naturalmente, a gente não tem como falar em 100% seguro no ambiente digital. A gente não
16:44tem como falar que uma ferramenta de supervisão parental vai garantir que crianças não sejam
16:50submetidas a situações de riscos. Aliás, softwares de controle parental são ferramentas
16:56acessórias. Mas é claro, da mesma forma que crianças e adolescentes hoje burlam com
17:01autodeclaração, existirão outras formas de crianças e adolescentes acessarem conteúdos
17:07que não sejam adequados à sua idade se não houver uma supervisão parental. E na hipótese
17:12de acontecer algum tipo de incidente, tudo isso vai ser levado em consideração. E veja,
17:16nesse processo preliminar de processo de adequação ao ECA digital, a Agência Nacional de Proteção
17:23de Dados, que é a autoridade que é a fiscalizadora e também a autoridade que vai aplicar as medidas
17:33sancionatórias, ela já se posicionou no sentido de não esperamos que todas as providências sejam
17:39100% adotadas até março, que é o início de vigência previsto da legislação. Mas que essas
17:46plataformas, que todos os ambientes digitais já estejam no processo de diligência. Então,
17:51esse processo de já iniciar o processo de adequação, de evitar que esses riscos, e quando a gente
17:57fala de riscos digitais, de plataformas digitais, a gente pode resumi-los em cinco, né? Conteúdo,
18:03contato, conduta, contrato e também comércio, né? Inclusive o perfilamento de dados, ele passa
18:10a ser proibido no âmbito dessa nova legislação. Então, assim, se todo esse processo de diagnóstico
18:16de risco e mapeamento de acesso provável por crianças e adolescentes já estiver no radar das
18:21empresas, que possuem plataformas digitais, isso já é uma maneira de comprovar a diligência. Porque,
18:26afinal de contas, como a gente disse aqui, a gente está diante de uma responsabilidade
18:29compartilhada.
18:29A gente vai falar muito mais ainda aqui no Sociedade Digital sobre o ECA Digital. Só que eu acho que
18:38antes da gente evoluir nessa conversa, e nós vamos tratar desse assunto ao longo desse ano, se você achou
18:44que eu falei muito sobre LGPD, você não viu nada. Nós vamos falar muito sobre o ECA Digital, porque
18:49esse é um assunto fundamental. Antes da gente entrar no mérito do detalhamento técnico, e vamos deixar lá
18:58para o começo do processo, quando a gente dá entrada em vigor, nós vamos voltar a falar, a Alessandra vai
19:03voltar aqui, nós vamos falar muito sobre esse assunto. Eu acho que a gente precisa falar sobre o nosso papel
19:09enquanto nós adultos, enquanto responsáveis pela proteção dos jovens, das crianças e dos adolescentes
19:21neste mundo novo. E há um risco elevado aqui, talvez menor do que há 10 anos atrás, mas ainda um
19:29risco
19:30elevado, porque existe um descompasso entre o quanto as crianças são preparadas, ou mais bem adaptadas
19:37para o mundo digital, do que é nosso. Dê um aplicativo na mão
19:41de uma criança, dê o celular na mão da criança, e veja que ela faz o diabo.
19:45Pegue você e tente fazer as mesmas coisas, você não vai conseguir.
19:49Alessandra é autora de um livro, junto do meu amigo Léo Freiman,
19:53já foi nosso colunista aqui na PAN, fazia com o Oliveira Andrade
19:57o jornal de serviço, falando sobre educação,
20:01que fala sobre o uso seguro e consciente das novas tecnologias.
20:05É uma leitura que eu recomendo demais, porque é quase que como um guia, sim,
20:13para você conseguir se nortear e você entender por onde passam os desafios
20:20que não são individuais. Não é só você em casa.
20:24É um desafio coletivo. Todo mundo vive os mesmos dilemas.
20:29E aí, para fechar esse nosso papo aqui hoje, eu queria falar sobre isso.
20:35O que mudou, sei lá, dez anos atrás, quando a gente conversava
20:39sobre um gap geracional, em que nós tínhamos pais que nasceram analógicos
20:46e que tentavam, de alguma maneira, guiar os seus filhos
20:50numa caminhada digital,
20:53para esta geração agora,
20:55que foi educada por pais analógicos,
20:59mas já nasceu digital e tem filhos ainda mais conectados.
21:05A gente renovou esses desafios,
21:08a gente superou alguns deles e tem menos hoje em dia.
21:13Qual que é a sua leitura sobre este cenário?
21:16Bom, primeira velocidade, né?
21:18Quando os pais aprenderam a usar um aplicativo,
21:21acordaram, surgiram mais dez novos aplicativos.
21:26Segundo, o fato de que, apesar de muito mais informados,
21:31paradoxalmente, temos tido mais casos de crianças e adolescentes
21:35envolvidos em crimes ilícitos cibernéticos,
21:38seja na condição de vítima, seja na condição de infrator.
21:41Precisamos falar mais sobre isso.
21:43E terceiro, porque os próprios pais também
21:46estão cada vez mais voltados para os seus olhos nas telas.
21:52E aqui não é um julgamento,
21:54aqui é alguém que entende isso perfeitamente, né?
21:59Principalmente depois do período pandêmico,
22:01em que o home office, ele foi,
22:03ele passou a fazer parte das nossas vidas.
22:06Então, não existe mais momento de trabalhar,
22:09momento de ficar offline.
22:11Então, assim, nós adultos também precisamos revisitar
22:15a nossa relação com as telas
22:17e até mesmo o nosso comportamento no ambiente digital.
22:20Temos visto muito a respeito disso
22:23durante períodos eleitorais,
22:26durante campeonatos de futebol e por aí vai.
22:32Então, acho que essas são as minhas,
22:33as minhas três principais preocupações
22:37com relação a esse processo de formação
22:39e de direcionamento das nossas crianças e adolescentes
22:42para o uso mais ético, consciente
22:44e responsável das novas tecnologias.
22:46Alessandra Borelli, advogada,
22:49especializada em direito digital,
22:52com um olhar atento para esse processo de educação,
22:56o cuidado com o jovem, com o adolescente,
22:59uma liderança importante em várias frentes,
23:01em várias instituições.
23:03Ale, quero te agradecer por esse papo aqui no Sociedade Digital
23:05e já garantir que você vai voltar em breve
23:09para a gente avançar mais alguns pontos,
23:12chegando mais perto da entrada em vigor,
23:14a gente faz um aquecimento para entrar mais
23:16num detalhamento de desafios,
23:18ajudar a orientar,
23:19porque deve ter um mundo desconhecido
23:21com impactos para as empresas,
23:23para as escolas, enfim,
23:24tem muita mudança para acontecer
23:26e a gente poder falar sobre isso.
23:28Obrigado, até a próxima.
23:29Muito obrigada a você pelo convite,
23:31sempre um prazer conversar com você,
23:33muito gostoso
23:34e obrigado também a todos que nos assistem aqui.
23:36E para a gente fechar este Sociedade Digital,
23:39eu quero convidar você para um giro rápido,
23:42vamos ver o que está acontecendo no mundo da tecnologia?
23:46Giro de notícias
23:50Imagina ter um robô humanoide capaz de te ajudar
23:53com tarefas comuns, corriqueiras,
23:56como carregar compras, arrumar casa,
23:58coisa de filme, não?
23:59Essa realidade vem se tornando cada vez mais próxima.
24:03Tem uma empresa chinesa chamada Honor,
24:06e ela vai lançar um produto num evento agora,
24:09o Mobile World Congress,
24:10que é a MWC,
24:13um grande evento de tecnologia
24:14que dá largada no ano em Barcelona.
24:18E esse lançamento faz parte de um plano dessa empresa
24:20de investimento em algo em torno de 10 bilhões de dólares
24:25em um programa de inteligência artificial.
24:27A ideia é que esse tipo de robô
24:30comece a trabalhar e seja inserido
24:32no contexto cotidiano da vida das pessoas.
24:36Aliás, a MWC se tornou,
24:38ao longo dos últimos anos,
24:39um evento focado basicamente em novidades da robótica,
24:43do mundo da inteligência artificial,
24:45com aplicações para interface humana.
24:48Os dispositivos móveis foram perdendo
24:51cada vez mais o espaço no evento.
24:55E, óbvio, a gente vai mostrar tudo aqui
24:56no Sociedade Digital.
24:58Nem todas as músicas que escutamos
25:01são produzidas ou pensadas por humanos.
25:04É uma pesquisa divulgada pela Deezer,
25:06uma plataforma de streaming de música,
25:08mostra que somadas 13 milhões de músicas
25:12contendo IA em 2025,
25:16já foram identificadas na plataforma.
25:18Em janeiro de 2026,
25:20faixas com intervenção de tecnologia
25:22já somam 39% do conteúdo da plataforma.
25:29Com um detalhe muito interessante.
25:31Boa parte das músicas agora
25:34usam a métrica viral.
25:36São trechos de 15 a 30 segundos específicos,
25:41pensados em cada música
25:43para que eles sejam virais.
25:44E de que maneira virais?
25:46São os trechos em que a máquina calcula
25:48para que você possa usar especificamente
25:51na sonorização das trends,
25:54dos vídeos que são produzidos
25:55por Reels e TikTok.
25:57A indústria da música
25:58não compõe mais grandes histórias.
26:00Ela produz agora trechos
26:02para serem virais nas redes sociais,
26:05com a ajuda grande da IA.
26:08E a internet ganhou uma nova rede social.
26:11É a Motebook.
26:13Só que ela é diferente.
26:15Ela opera apenas agentes de IA,
26:19que são máquinas que desempenham tarefas automaticamente.
26:24São programas, promptes de IA
26:27setados para interagir entre si.
26:29E a gente, como humano,
26:32só pode observar nessa rede social.
26:35Ela já nasceu com muita polêmica, aliás,
26:37porque tem manipulação humana,
26:39tem gente ali orquestrando esses agentes.
26:42Mas, de todo modo,
26:43as conversas ali dentro da rede
26:45que foram monitoradas no início da operação
26:48são frugais, por assim dizer.
26:51Elas vão desde alertas
26:52entre uma inteligência artificial e outra
26:54e até debates sobre autonomia e liberdade.
26:58O grande ponto é que existe um perigo
27:01em uma configuração como essa proposta
27:04por uma plataforma como o Motebook,
27:07que é o fato de que...
27:09Aquilo que eu comentei no comecinho do programa,
27:11o bias, passe a ser aplicado por ali.
27:13E o IA começa a replicar problemas de outras.
27:16Isso vire uma questão incontrolável.
27:19O Motebook já também gerou discussões,
27:21porque em alguns fóruns
27:23identificou-se manipulação humana
27:25nas interações.
27:27Alguém tentando mover,
27:28nortear o debate por ali.
27:31De todo modo,
27:32é um fenômeno curioso
27:34para a gente acompanhar
27:35o fato de que uma rede social,
27:37pela primeira vez,
27:38foi operada não exclusivamente,
27:40mas majoritariamente
27:42pela inteligência artificial.
27:44Eu que tenho preguiça,
27:45acho ótimo que a inteligência artificial
27:47interaja no meu lugar,
27:49lá na rede social.
27:51Assim, eu posso gastar tempo
27:52com coisa muito melhor.
27:55Esse foi o nosso giro de notícias
27:57aqui no Sociedade Digital,
27:59que fica por aqui.
28:01Meia hora, ó, voa.
28:02A gente se encontra novamente
28:04aqui na programação da Jovem Pan
28:06para discutir o mundo digital
28:08e como cada vez mais
28:09a nossa vida conectada
28:11sofre alterações
28:12a partir de pequenos detalhes,
28:15como, por exemplo,
28:17a inteligência artificial
28:18e o ECA que entra em vigor.
28:21Atenção sobre esse assunto,
28:22tema importante,
28:23a gente vai voltar a falar
28:24sobre ele aqui.
28:25A gente se encontra aqui
28:26na programação da Pan,
28:28nas nossas plataformas
28:29digitais
28:29todos os dias
28:31ou mais especificamente
28:33na semana que vem.
28:34Um grande abraço.
28:35Tchau, tchau.
28:40Sociedade Digital
28:43A opinião dos nossos comentaristas
28:45não reflete necessariamente
28:47a opinião do Grupo Jovem Pan
28:49de Comunicação.
28:54Realização Jovem Pan
28:56Jovem Pan
28:58Obrigado.
Comentários

Recomendado