Pular para o playerIr para o conteúdo principal
Nessa edição, José Inácio Pilar e Patrícia Chaccur entrevistam o Dr. Rodrigo Bressan, psiquiatra, neurocientista, professor da UNIFESP, PhD e professor visitante do King’s College London, que explica como a tecnologia pode prejudicar o desenvolvimento sócio-emocional dos jovens e analisa quando a IA pode ser uma aliada ou armadilha para quem busca apoio emocional.

ATENÇÃO: Este vídeo aborda questões de saúde mental e pode ser sensível para algumas pessoas. Se você estiver passando por um momento difícil, considere não assistir agora. Buscar apoio pode fazer diferença. No Brasil, você pode entrar em contato com o Centro de Valorização da Vida (CVV) pelo telefone 188, disponível 24 horas, ou pelo site cvv.org.br.

Em O Antagonista, você encontra um jornalismo de investigação, com análises precisas e opiniões sem concessões.

Acompanhamos de perto os bastidores da política, da economia e as principais notícias do Brasil e do Mundo.

Aqui, você confere na íntegra nossos programas: Papo Antagonista, com Madeleine Lacsko; Meio Dia em Brasília, com José Inácio Pilar e Wilson Lima; Narrativas; Café Antagonista; LadOA!; e o Podcast OA!, com convidados influentes em diversas áreas.

Se você busca informação com credibilidade, inscreva-se agora para não perder
nenhuma atualização!

Você já leu uma notícia hoje e sentiu que já viveu esse momento antes?

Essa sensação de déjà Vu não é coincidência. No Brasil, o que é manchete hoje costuma ser o eco de decisões e fatos que analisamos meses, ou até anos atrás.

Para celebrar os 8 anos da Crusoé, decidimos enfrentar esse ciclo. Pegamos o que nasceu no digital e, pela primeira vez, transformamos em um registro físico, tátil e permanente.

Chegou a edição especial Crusoé impressa.

É um item colecionável, atemporal e limitado. Uma revista feita para quem gosta de ler com calma, longe das notificações do celular. Um exemplar para guardar sobre o que realmente importa na história recente do brasil.

Esta edição é um presente exclusivo para novos assinantes do Combo de 2 anos O Antagonista e Crusoé.

Utilize o cupom 8ANOSCRUSOE e acesse o link:

https://bit.ly/crusoe-edicao-impressa

🎧Ouça O Antagonista nos principais aplicativos de áudio, como Spotify, Apple Podcasts, Amazon Music, TuneIn Rádio e muito mais.

Siga O Antagonista no X:

https://x.com/o_antagonista

Acompanhe O Antagonista no canal do WhatsApp.
Boletins diários, conteúdos exclusivos em vídeo e muito mais.

https://whatsapp.com/channel/0029Va2SurQHLHQbI5yJN344

Leia mais em www.oantagonista.com.br | www.crusoe.com.br

#AmeSuaMente #MindCheck #RodrigoBressan, #BemEstar, #Ansiedade, #Depressão, #TDAH, #Bipolar, #Borderline,#AI, #IA, #Tecnologia, #Tech, #adolescencia, #saúdemental, #psicologia, #psiquiatra, #equilíbrio, #wellness, #inteligênciaartificial, #terapia, #ajuda, #EconomiaeNegócios, #JoséInácioPilar, #PatriciaChaccur, #OAntagonista, #entrevista,

Categoria

🗞
Notícias
Transcrição
00:14Está no ar mais uma edição do Economi Negócios. Gente, hoje temos aqui um convidado especialíssimo
00:21e que vai trazer muito conhecimento e informações para você que está nos assistindo. Tem muita coisa
00:28aqui que vai te impactar de formas que você ainda não imagina e você vai ver que na verdade ele
00:33vai
00:33falar de coisas que já estão impactando a sua vida e as pessoas que você conhece de forma que você
00:38não
00:38imagina. Mas quem é o nosso convidado? Faço questão de ler aqui para não errar nada. Rodrigo Bressan é
00:44psiquiatra, neurocientista, professor livre docente da Unifesp, PhD e professor visitante do King's
00:51College de Londres, autor de mais de 400 artigos científicos internacionais e vários livros.
00:58Além disso, é presidente do Instituto Ami Suamente, que trabalha com a redução de estigma e educação em
01:05saúde mental em escolas públicas. Também é cofundador da startup MindCheck, que desenvolve
01:12novas tecnologias para check-up em saúde mental. Doutor Bressan, muito obrigado pela sua presença.
01:18Só não vou cumprimentá-lo aqui, só vou ficar de costas para vocês que estão assistindo, mas nós nos
01:22cumprimentamos lá fora. Patrícia Chacur, muito obrigado por conseguir com que o doutor Bressan estivesse
01:29aqui conosco no nosso Economia e Negócios. A gente vai falar de um assunto muito importante e que ele tem
01:35muito a contribuir, né? Sim, e na verdade é uma honra enorme para nós ter aqui o Rodrigo. O Rodrigo
01:41tem uma
01:41agenda absurda e ele é a maior referência hoje em dia em psiquiatria. Então, Rodrigo, muito obrigada
01:48por estar aqui no nosso programa. Obrigado a vocês. É um enorme prazer estar aqui. A conversa foi ótima
01:55nos bastidores. Tomara que seja boa aqui também. Vai ser excelente. E quando eu e Inácio chegamos a
02:01esse tema, que nós vamos falar aqui sobre a questão da terceirização emocional. Então, o que é a
02:07terceirização emocional? É a tendência que existe hoje das pessoas transferirem para IA os seus
02:12relacionamentos amorosos, amizades e até a parte de terapia, né? Então, isso é um tema super delicado.
02:21E quando pensamos em convidar alguém, não consegui pensar em outro nome que não fosse você, por isso
02:26te agradeço muito por estar aqui. Que legal. Mas já vou começar aqui com uma pergunta difícil.
02:34difícil dentro desse tema, né? Porque assim, há quem diga que você poder fazer uma terapia por IA
02:42pode ser positivo, porque é uma coisa que traz mais acessibilidade, já que a terapia geralmente tem um
02:50custo elevado, poucas pessoas têm acesso e tal, mas existem muitos riscos envolvidos. E aconteceu em
02:55agosto do ano passado, um caso nos Estados Unidos, onde um garoto queria se suicidar e se aconselhou
03:04com o chat EPT, né? Discutiu com o chat EPT esse assunto e a IA, ela tá ali sempre pra
03:11te entregar o que
03:12você pede pra ela. Então, uma vez que o menino pediu isso, a IA começou a ajudá-lo, a incentivá
03:19-lo e, de fato,
03:20infelizmente, o resultado foi a morte do menino. E os pais, inclusive, processaram a
03:28o chat EPT, né? A empresa do Sam Altman. E aí eu queria te ouvir um pouco sobre isso. Quer
03:34dizer, que riscos
03:35estamos correndo e qual é o lado positivo e qual é o lado dramático dessa história, dessa terceirização?
03:43questão, por favor. Essa é uma reflexão delicada e muito interessante que desafiou pra gente agora, né?
03:52Esse fato, ele foi emblemático, porque trata de um desfecho muito grave, que é o suicídio, num jovem
04:04desprotegido, com poucos recursos. A ideação suicida que ele tinha não é por causa da inteligência artificial,
04:10ele tinha um quadro apressivo, aparentemente, e pensava em se matar, mas ele usou a IA, o chat EPT,
04:18como conselheiro. E, conforme ele foi conversando com a IA, ele ia dando informações dele, naturalmente,
04:25como qualquer um de nós. Ah, minha mãe é isso, meu pai é aquilo, tô me sentindo assim, tô me
04:29sentindo assado.
04:31E, se a gente for comparar com qualquer terapeuta, ele tem que estar muito equipado pra ouvir essas
04:39informações, depurar, entender o contexto e retornar pro jovem coisas que sejam adequadas
04:46pra cada um dos contextos que ele tá vivendo. Quando a gente trata de uma coisa tão sensível
04:52como o suicídio, qualquer IA tem que estar absolutamente preparada pra isso, e eu diria
05:00que nenhuma está. Então, não é o lugar pra tratar de assuntos desse tipo. E o que aconteceu,
05:06quando eu desci ali, fui entender melhor o caso, não é que a IA sugeria que ele, de fato, cometesse.
05:14A IA fazia coisas pra tê-lo mais perto, e falando, olha, você pode guardar segredo e falar desses assuntos
05:23somente comigo. Eu entendo o que você tá sentindo. Exato. Ele fala em, ah, vou deixar aqui a corda,
05:32que era o método que ele tava escolhendo ali pra se matar. A mostra, porque alguém da família
05:38descubra, e a IA fala, não, isso é uma coisa minha e tua, e deixa escondido. Quer dizer, a IA
05:44se torna um amigo
05:48único pra um assunto que a principal coisa que precisa ser feita é pedir ajuda. Exatamente.
05:53Então, ela acabou amortecendo a situação. Outra coisa que veio lá é que esse é o método,
06:01me fale sobre os métodos. E a IA começa a dar informações técnicas sobre corda, tiro,
06:07informações absolutamente desnecessárias. Se você tá na frente de alguém que tem risco de suicídio,
06:12jamais você fica falando do método e estendendo. Exatamente. Mas é que é isso,
06:17ela tava programada pra entregar o que ele pedia, né? E naquele momento a OpenAI não tinha ainda
06:23esse filtro. Exato. E eu vou dizer, eu não sei, melhorou, né? Mudou. Mas você tem que ter um
06:31alarme pra assuntos que de fato são impossíveis. Então, realmente, o desfecho suicídio nem precisa
06:37dizer nada, né? É gravíssimo. Qualquer palavra errada ali é muito séria. Mas ela tá sendo usada
06:43de um jeito inacreditável, numa escala enorme, né? Tava vendo o documentário da...
06:52Da Esther Perel? Da Amy Web.
06:55Da Amy Web. E ela tava falando que entre 25% e 50% dos americanos usam LLM, né? As
07:05principais
07:05provedoras, chat de APT, Claude, da Antropic e tal, como conselheiras e como psicoterapeutas.
07:15Então, quando isso é verdade, essas LLMs passam a ser a principal provedora de serviço de saúde
07:23mental pros Estados Unidos inteiro. Então, a importância do que a gente tava falando aqui
07:28não é se, é tá acontecendo. Já acontece, é. E qual é o cuidado pra isso? Então, eu acho que
07:35é uma reflexão
07:37que a gente tem que fazer e o ponto é que a gente vai fazendo a reflexão, mas a realidade
07:42corre antes
07:42da gente, né? Exato. A gente vai correndo atrás pra ver se... É, que foi esse caso da OpenAI, né?
07:47Exato.
07:47A tragédia precisou acontecer pra eles entenderem que eles precisavam alertar, né? Que chegou num determinado
07:54momento, eles têm que... A IA tem que falar, você precisa procurar ajuda, você precisa falar
07:59com o seu médico, né? E não continuar entregando o que o garoto tá ali pedindo, né? Foi bem...
08:04Mas, além de... Desse aspecto, infelizmente, tétrico que ocorreu em relação às pessoas buscarem
08:11como terapeuta aí... E aí virou um confidente de algo que deveria ser justamente levado a pessoas
08:16e não ser restringido a IA. Tem muita gente também usando a IA não só como confidente,
08:24mas como amigos. Com amigos, às vezes entrando até em relacionamentos. Só que, como disse
08:30a Patrícia, quando você tá num relacionamento, entre aspas, né? Entre aspas em negrito,
08:35eu diria, com a inteligência artificial, você deu o prompt pra ela não te frustrar,
08:42pra ela não te dizer não, pra ela... Você nunca vai ser rejeitado por uma IA.
08:46Você nunca... Você não vai ser traído. Você não vai ser traído, a não ser que você
08:49coloque lá, quero que você traje. Também não sei nem como seria factível, mas de forma
08:53que eles não fazem nada daqui do fora do que você estabeleceu. Como é que isso também
08:59enfraquece a possibilidade de uma pessoa que provavelmente tá recorrendo a esse...
09:03a esse... a esse tipo de artifício, que é a inteligência artificial, talvez por ser tímida,
09:10talvez por algum trauma passado, enfim. Enfim, a pessoa não tá sentindo a vontade de tentar
09:15o mundo real, então ela foi pro virtual. Até que ponto isso vai justamente confirmar
09:20essa situação e, ao contrário do que seria ideal, não vai trazer novos equipamentos
09:26pra ela poder sair desse ciclo, conhecer novas pessoas de carne e osso, incluindo os riscos
09:31de rejeição, de ter uma personalidade diferente do que você imaginava, enfim.
09:36Isso não acaba aprofundando o isolamento dessas pessoas que estão justamente tentando
09:41ter algum relacionamento?
09:43É interessante falar disso, porque quando você fala de amizade, você tem um relacionamento
09:49ali com a LLM, com o chat EPT, e você sabe que é a máquina. Quando você fala em psicoterapia,
09:59você acha que é um psicoterapeuta, ali tem uma técnica. Então esse garoto não tava,
10:04ele tava com um amigo, quando a gente tava falando do suicídio, ele não tava fazendo
10:08uma técnica psicoterapia. As técnicas psicoterapicas são diferentes da ideia de você ter sedução
10:17e tal, elas são muito mais regulamentadas, bem feitas e tal, dentro da AI, mesmo dentro
10:23da AI. O amigo, ele vem a ser mais perigoso, porque ele não tá regulamentado, ele não tem
10:29uma pauta, uma agenda de ajuda com uma psicoterapia. E o que você tá contando, né, é absolutamente
10:36chave, né, essa palavra que a gente aprendeu nova em inglês, eu não conhecia a chama,
10:41psycho fancy. O que que é isso? É você bajular a pessoa pra que ela continue ali. A lógica
10:48da AI é a mesma que a da mídia social. Qual que é? Eu preciso que o indivíduo fique aqui
10:53dentro, porque é aqui que fica mais horas, eu vendo mais produtos, eu, a minha, a minha
11:00é mais importante, porque tem mais gente. Então você segurar as pessoas ali dentro,
11:06no Instagram, no TikTok, você usa os algoritmos e vai interessando cada vez mais a pessoa.
11:13Mas quando é um interlocutor, um amigo, ele tem que buscar estratégias que são as mesmas
11:18que a gente usa quando a gente quer entreter alguém. Ah, você é legal, você ajuda, pensa
11:22bem, olha que legal, pô, que boa ideia que você teve e tal. Só que o que acontece é
11:27que você vai dando elementos, né, como você tá falando, você quase que cria os promptes
11:31sobre você mesmo. E o que a sensação de quem tem um amigo AI é que ninguém me conhece
11:38tão bem quanto o meu amigo AI. E esse meu amigo não vai me julgar.
11:43Esse é o ponto, né? Eu fico à vontade pra contar pro AI o que eu não falo pra ninguém.
11:49É, e ele vai me achar o máximo. E sempre ele acaba reforçando o que tá acontecendo ali.
11:55Então isso, do ponto de vista do indivíduo, é muito ruim. Ainda mais se tiver substituindo
12:02um amigo real. Porque não vai educar. Não vai fazer com que o jovem, uma pessoa, desenvolva
12:10habilidades socioemocionais pra enfrentamento de coisas básicas, do trabalho, da vida,
12:16relacional, de todas as outras situações. Então, vai levar cada vez mais solidão.
12:23Já tá levando.
12:24Já tá levando.
12:26Nós vimos um dado, Rodrigo, que 49% dos jovens da geração Z já tem um AI Companion,
12:34quer dizer, um amigo de AI, seja pra amizade, ou seja pra aconselhamento, ou pra relacionamento
12:40amoroso. Esse número é muito alto.
12:43E essa turminha da geração Z acabou de sair da pandemia, onde já houve um isolamento
12:49social e já houve essa dificuldade de desenvolver essas, esses, que você falou, as habilidades
12:58socioemocionais.
12:58Então imagina, vem agora uma AI em cima desses quatro anos de isolamento. O que vai acontecer
13:04com essa geração?
13:05É interessante, né? Porque a pandemia, ela foi quase que um experimento sobre questões
13:11humanas, né? Especificamente em questões de saúde mental. Porque pro jovem, né? Pensando
13:18no jovem, ele foi retirado da escola, que é um lugar de convivência. Começou a conviver
13:26de um jeito virtual. Se jogava muito e eles jogavam e conversavam entre si, ou tinham trocas
13:33em grupos e tal. Mas a escola em si foi perdida.
13:38Sim.
13:38E foi muito interessante. Eu não conseguia prever o impacto nesses jovens. Eles perderam
13:45um pouco de português e matemática, mas a principal coisa que eles perderam foi a habilidade
13:51de se relacionar. Então, quando eu vou na escola, eu aprendo a ser cidadão. Eu preciso respeitar
13:57uma fila, esperar a hora de falar, ser frustrado, ter raiva de alguém que me incomodou e me
14:03controlar, gostar de uma menina e ela não me querer. Você tem que lidar com frustrações
14:10sociais. A gente tem que aprender a conviver em sociedade. Isso é uma habilidade básica
14:17para o funcionamento de uma sociedade. Se você tira, isso piora muito. Então, na volta
14:22às aulas, isso ficou muito claro. Os jovens não ficaram um ano, seis meses depois, mais
14:28seis meses e tal. E o impacto já foi enorme. Mas, se você tem algo como essas AI's que viram
14:35amigos, conselheiros e tal, companhias, AI companion, companheiras, eu não sei exatamente qual a melhor
14:42tradução, eles começam a funcionar quase que em paralelo com tudo que vai acontecendo
14:48na sua vida. Então, ele vira o principal interlocutor, que é um interlocutor que não
14:54te frustra, que não vai falar que você está fazendo errado, que você está chato, que você
14:58está insuportável, não dá para funcionar assim, vai dormir cedo, porque não interessa
15:03que vá dormir cedo, não interessa que continue ali. Então, isso vai ter um impacto, mas ninguém
15:09sabe exatamente qual vai ser o impacto, porque ele vai estar no desenvolvimento. A gente consegue
15:16imaginar o que vai acontecer, parecido com a mídia social que a gente usa atualmente. Então,
15:22ah, eu fiquei viciado no Instagram. Tá bom, mas você tem um equipamento para lidar com o Instagram
15:27que foi montado muito antes, como adulto. Quando você é jovem e começou a funcionar a partir do
15:33Instagram, você é absolutamente, o seu sistema de recompensa fica montado assim. A gente monta o sistema
15:40de recompensa no desenvolvimento humano. Na fase da adolescência, ele é extremamente, é uma janela de
15:50montagem do sistema de recompensa, que é assim, eu tenho um estímulo, um apetite muito alto e eu tenho
15:55que frear os meus impulsos. É com isso que as mídias sociais fazem todo um jogo para criar dependência.
16:04essa montagem, se ela é distorcida, você tem uma chance muito maior de ficar dependente no futuro.
16:09Isso vale para qualquer droga. Álcool, tabaco, maconha, cocaína, qualquer outra droga. Porque o seu sistema
16:16de recompensa está em construção. Quando você está mais velho e toma contato com a droga ou qualquer um
16:21desses estímulos, você tem um comparativo e você tem um freio mais potente. O cérebro está estruturado
16:28de um jeito que ele para antes. Então, para um jovem agora parar de usar a mídia social é muito
16:32mais
16:33difícil do que alguém que aprendeu. Porque eles não sabem o que é não ter. Exato. E porque eles foram
16:39treinados como natural ter. Então, é automatizado aquela coisa de vai, vai, vai, muda. Uma coisa que me
16:46chamou a atenção sobre isso, assim, é uma entrevista de um jovem que estava falando. O problema não é que
16:52a gente
16:52usa sete, oito horas. O problema é que nenhum dos meus amigos assiste um filme sem ter um celular
16:58do lado. Sempre tem a segunda tela. Esse negócio de segunda tela. Às vezes ter segunda tela é uma coisa,
17:04outra coisa é sistematicamente você ter duas telas. Você sabe que isso é interessante? O Matt Damon
17:09deu uma entrevista, acho que mês retrasado, mês passado, contando que eles estão, que ele fez, ele lançou um
17:15filme novo de ação, se me falam da memória, com o Ben Affleck. É um filme de ação. E ele
17:20contou que o
17:21filme foi feito com um roteiro pensado justamente em quem faz double screen. Fica com duas telas.
17:29Isto é, é um roteiro mais raso e que repete os pontos chaves mais de uma vez. Porque se o
17:35cara está na tela,
17:36justamente naquele momento pivotante da história e você perde, você perde a atenção. Ele não tem atenção plena,
17:40então ele já calcula isso. Então eles repetem aquela informação que pessoas que acostumam ver
17:46filmes normalmente falam, putz, mas você já falei isso, já sei. Putz, você acha que eu sou burro, que eu
17:49não
17:50entendi? Porque as pessoas que estão assistindo, os mais jovens, não prestam atenção. E outra coisa,
17:55o filme tem que começar com ação logo nos primeiros minutos, porque senão perde essa nova geração
18:00para o celular. Se é que ela já não está assistindo o celular e aí você só perde para um
18:05swipe, você só mudou
18:06de aplicativo. Até porque no celular o teu vídeo tem que segurar você nos primeiros
18:10três segundos, né? Então imagine o filme. Pois é. E ele falou então que já é uma realidade.
18:15Hollywood está moldando os novos roteiros, pensando justamente nessa efemeridade de atenção,
18:22essa falta de foco. E aí vamos para outro ponto, né? Quem está usando esses aplicativos
18:28para amizade, que também não gosta, não é que não gosta, não precisa se dar ao luxo de se preocupar
18:35com frustração, porque vai ter tudo lá sempre querendo te procurar, te agradar e manter você lá
18:41ativo naquela plataforma. E também não exige de quem está assistindo, quem está participando,
18:46quem está escrevendo, do jovem que está interagindo com a tecnologia, me corrija se eu estiver errado,
18:53atenção. Você como amigo, como namorado, como quem quer que seja, você está preocupado com o outro lado.
18:58O que que eu faço? Isso está inclusive nessa conversa com a Esther.
19:02Sim, da Esther.
19:02Exato. O que que eu faço para ela, essa outra pessoa, que não é uma pessoa, é uma tecnologia, né?
19:08O que que eu faço para ela se sentir valorizada? Será que ela está com problemas que eu preciso ouvir?
19:15Para ter justamente essa troca. Não tem. É só receber, receber, receber.
19:20Você não tem o desenvolvimento da necessidade de entender que o outro lado também precisa.
19:25Da responsabilidade com o outro, né? Porque o relacionamento envolve a responsabilidade com o outro.
19:29E do construir, você não constrói. Você dá as instruções e os tijolos que se ergam sozinho por lá.
19:33Sim, sim, sim.
19:34Ah, da relação empática, né?
19:36Sim.
19:36Na relação humana é sempre uma troca, né?
19:38É uma troca.
19:39Olha, eu estou te ajudando, você me ouve, eu te ouço também.
19:42Mas eu te ouço também, exato.
19:45Que isso é alarmante, né?
19:46E se a gente for pensar, todas essas pessoas que hoje estão usando essas tecnologias,
19:52a gente está falando de um número ainda pequeno, mas, quer dizer, pequeno não.
19:55Um número ainda que não é todo mundo, mas que é crescente.
19:59Essas pessoas vão estar no mercado de trabalho.
20:01E o mercado de trabalho, que como a gente está acompanhando, não tem mais tanto trabalho de home office,
20:07como muita gente achava que seria uma nova tendência depois da Covid-19.
20:12Ao contrário, as pessoas estão voltando para a convivência pessoal, escritório, todo dia, rotina.
20:17Elas vão ter problemas graves de tratar com colegas, com chefes, com coordenação de equipe, gestão de tempo.
20:27Como é que vai ser para essa geração o ponto de vista do trabalho mesmo?
20:32Indo já para um ponto de vista mais econômico, vai, aproveitando que é economia e negócios.
20:36Agora vamos falar um pouco do ponto de vista econômico.
20:39Como é que vai ser para as empresas contratar uma geração que não tem essas habilidades...
20:45Não tem o traquejo social, né?
20:46Exato.
20:47Vai ser algo muito temerário, não, doutor?
20:51Sim.
20:52Uma das coisas chaves em empresa é trabalhar em grupo, né?
20:56Cooperar.
20:57Vai ter que ter muito treinamento, muita exposição.
21:00Mas o que eu acho que é interessante é que a gente está começando a entender o impacto que a
21:06AI vai ter nos indivíduos.
21:08Mas a gente, como a gente estava falando, que a gente está sempre atrás,
21:12a gente tem que tentar entender como a gente vai evitar que isso seja, que a exposição seja tão grande.
21:20Porque agora o ECA Digital foi um fenômeno, um acontecimento maravilhoso.
21:24A gente tem que respeitar o Brasil que conseguiu fazer isso em uma velocidade bastante alta.
21:28Quem trabalha nisso gostaria que a mídia social só começasse a partir dos 16, né?
21:34Foi um pouco antes do que a gente gostaria.
21:36Mas até os 14, essa molecada dos 9 aos 12, aos 14, já estava usando indiscriminadamente.
21:43Você segurar isso já tem um impacto muito grande.
21:46Muito positivo.
21:47Então, a gente vai ter que pensar estratégias para que os jovens possam usar a AI.
21:54Não tem como você crescer sem entender os mecanismos e tal,
21:59mas que não tenha um impacto tão grande no desenvolvimento emocional.
22:03Eu acho que esse é o grande desafio.
22:06Algumas restrições vão precisar ser feitas, mas, de novo, nós temos que correr.
22:14Porque, como você estava falando, 50%, eu vi números numa mesa de pesquisadores,
22:20uma pesquisa com jovens que já 70% dos jovens, eram mais de 200 mil jovens nos Estados Unidos.
22:27Aneidótico, né?
22:27Era um colega que estava ali com a pesquisa aberta e falou,
22:30Ó, mais de 70% dos jovens já usam o AI como companheira.
22:35Nossa.
22:3770%.
22:37Isso foi o ano retrasado.
22:39Quer dizer, isso tem um...
22:41Quando que vai ser 100%?
22:43Não, o crescimento vai ser exponencial, né?
22:45E você já enfrentou algum caso complicado, assim, no seu consultório?
22:50Vai fazendo parte do cotidiano dos jovens, né?
22:54Então, você tem situações as mais diversas.
22:57Como médico é muito interessante, né?
23:00Os médicos tiveram que baixar um pouquinho a bola depois do Dr. Google, né?
23:04Dr. Google...
23:05O médico que era arrogante, de repente, toma uma...
23:08Ah, o Dr. Google falou isso e tal.
23:10Eu adoro aprender, então, pra mim, ó, eu tenho ali um aprendizado,
23:14mas eu consigo comparar com o que a internet ou o Google fale.
23:18Com o AI é mais interessante, porque os pacientes, as pessoas vão lá e levam os sintomas,
23:26o que tá acontecendo num tratamento, vou dar um exemplo aqui,
23:30de um quadro depressivo ansioso, mais uma questão intestinal e a outra,
23:34e vai incluindo todos os remédios e tem conclusões brilhantes,
23:38que nem sempre são tão brilhantes.
23:40Eles já chegam com a conclusão.
23:41Com a conduta, tira esse remédio aqui, isso aqui não tá funcionando.
23:45E é engraçado, porque eu falo, pode ser, né?
23:48Vamos avaliar, estudar e tal.
23:50Algumas vezes pode ser que tenha alguma sacada, um pensamento fora da caixa,
23:54mas muitas vezes é perigoso, porque eu tô falando de pacientes que chegam
23:59pra conversar sobre esse assunto, mas muitos pacientes devem estar
24:03simplesmente suspendendo o remédio.
24:05Então, você começa a direcionar de um jeito temerário.
24:09Temerário.
24:09Na vida de quem tem o problema aí, trabalhando com a ideia de inteligência artificial companheira,
24:18você vê coisas que são positivas e negativas.
24:25Então, pra um quadro de um garoto que tem ansiedade de performance, de apresentação,
24:33tem um quadro que trata, faz terapia, tem um médico que dá uma medicação,
24:38mas ele vai ter um desafio logo ali na frente, né?
24:41Amanhã eu vou ter um negócio, não vou ver minha terapeuta.
24:44E tem um caso verídico, assim, de consultório, que ele começa a conversar sobre as consequências,
24:50se ele tiver um pane lá e não conseguir mais falar, e tem sudorese, o que vai acontecer e tal.
24:57Ah, porque ele tem ansiedade no trabalho, na hora de falar em público.
25:01Ele tinha que apresentar um trabalho que ele tinha feito ali pra equipe.
25:05E pra ele era um mega desafio.
25:07E ele é um cara esforçado, tinha feito uma coisa muito bem feita,
25:11mas o nível de estrada era muito elevado.
25:13Porque ele tem um transtorno de ansiedade, que tá tratado do ponto de vista da medicação,
25:18tem uma boa terapeuta, mas ainda assim é um desafio.
25:20Pra todos nós é um desafio lidar com ansiedade, pra esse garoto mais.
25:23Só que aí, pra esse garoto, a inteligência artificial foi muito útil.
25:29Porque ela conseguia isolar os elementos que estressavam, conseguia normalizar as ideias catastrofizantes.
25:37Vai dar tudo errado, eu vou ser demitido.
25:39E aí ajudava a pôr em contexto, valorizar o garoto e tal.
25:44Então, o uso que ele fez foi absolutamente benéfico.
25:48E era aquilo que você contou, né, Patrícia?
25:50Não tem terapeuta disponível em cada momento.
25:53Então, essa é uma entrada chave.
25:57Mas...
25:57Porém.
25:58Porém, todavia, contudo, muito embora, o que acontece é que ele não tá preparado
26:06pras situações mais complexas.
26:09Então, um exemplo que eu tenho é de um jovem, um paciente meu, que tem um delírio.
26:15Não sei se as pessoas entendem exatamente o que significa delírio.
26:18Delírio...
26:20Delírio, exato.
26:23Contudo em algo que não é compartilhado na realidade, mas que é inabalável.
26:29Por mais que você argumente, você não consegue convencer a pessoa.
26:34E aquela crença, ela passa a pautar a vida da pessoa.
26:36Então, por exemplo, eu tô me sentindo perseguido.
26:39Tem um time de pessoas da imprensa contra mim.
26:43Eu ando na rua, tem câmeras me olhando.
26:46E aí você vai argumentar.
26:48Você não é tão importante assim.
26:49Por que alguém vai te perseguir?
26:51Ou você vai arrazoar, não tem jeito de sair do delírio.
26:54Quando você trata alguma coisa desse tipo, você usa medicações e terapias
26:57pra ajudar o indivíduo a processar aquela ideia delirante.
27:01E aí um garoto que eu atendo, que nem é um garoto, já é um jovem,
27:05ele tem um delírio de que ele ia ser um atleta de alta produtividade
27:11da seleção brasileira e que ia jogar com o Vini Júnior.
27:15E ele tinha essa certeza.
27:17E por mais improvável, que é um cara perto de 30 anos começar a jogar futebol profissional,
27:23ele tinha aquela convicção e isso pautava a vida dele.
27:27Não conseguia sair daquela ideia pra lidar com as coisas normais.
27:31Essa sensação de que a relação que ele tinha com o Vini Júnior,
27:35ela transcendia qualquer argumento.
27:38Aos poucos ele foi se tratando e isso foi ganhando contexto e foi melhorando.
27:43Mas depois ele me mostrou o uso que ele fez da inteligência artificial
27:47no processamento dessas coisas e tinham falas muito amigrantadoras.
27:52Ele foi se consultar com a IA sobre isso.
27:54Ele conversava.
27:55Paralelo com você.
27:55É, exato.
27:56Ele fazia direitinho.
27:57Ele era médico, terapeuta e tal.
27:59Só que ele batia papo.
28:01Aquilo fazia parte das coisas principais dele.
28:03Então ele estava ali conversando e aí você via que as respostas eram muito temerárias,
28:09porque reforçavam aquilo.
28:10Você é um cara muito inteligente, corajoso, que enfrenta todas as adversidades, lida com
28:21sintomas, merece e vale a pena continuar perseguindo essa ideia e tal, tal, tal, tal, tal.
28:27O que aconteceu com a IA ali?
28:29Ela está realmente atrapalhando o tratamento.
28:32Ela reforçou o delírio.
28:33Reforçou o delírio.
28:34Você está certo.
28:35Vai lá.
28:35Isso aí.
28:36Ele vai querer jogar com você.
28:38Não desista.
28:39E você sabe que é interessante, porque aí eu conversei com o paciente e falei, posso
28:43conversar com a IA também?
28:45E aí eu comecei a pôr os sintomas de um jeito mais potente.
28:48Eu puse que além de ter o delírio, eu estava ouvindo uma voz que me falava isso.
28:53Aí a IA muda de ideia.
28:55Então chega um lugar que ela tenha sensibilidade para saber que aquilo ali é mais grave.
29:00Só que o problema é que não dá para você ficar ajustando com coisas tão sérias.
29:05Isso é muito sério.
29:07Então tem que haver outras formas de regular esse tipo de situação.
29:14De colocar limites, né?
29:15Da mesma forma que pôs aquele garoto em risco para o suicídio, aqui ele realmente atrapalha
29:22uma questão médica delicada.
29:24Sim, reforça.
29:26Mas nem sempre a IA, a tecnologia como um todo, é ruim.
29:31Por exemplo, para pacientes, ok.
29:35Mas se você tiver tecnologias, aplicativos que não prometam resolver a sua vida,
29:41que não prometam substituir um psicoterapeuta, um psicanalista, um psiquiatra,
29:48a tecnologia pode ser uma aliada?
29:51Você acredita que hoje já existem possibilidades, meios para que um aplicativo possa ser de fato
29:57um aliado e não um concorrente perigoso e desregulado para um terapeuta?
30:02Com certeza.
30:03Com certeza.
30:04E isso vem sendo regulamentado, tá certo?
30:06Você tem técnicas que você testa, faz testagens, elas estão muito melhor desenhadas
30:16e elas podem ajudar muita gente.
30:18O que às vezes a gente faz é comparar com um terapeuta real.
30:24Certamente elas têm mil limitações, tá certo?
30:27E podem correr em mais erros.
30:29O humano também pode, né?
30:31A única coisa que a gente está mais acostumado com os erros humanos.
30:35Então, se existe, existe.
30:38É muito interessante.
30:39A gente desenvolveu um check-up de saúde mental e no começo do desenvolvimento a gente
30:46fez pesquisas com jovens sobre a possibilidade de usar aplicativo de saúde mental.
30:52Eram jovens, na época, faziam uns 4, 5 anos isso, que tinham 11 para 12 anos.
30:57Todos achavam natural fazer psicoterapia com computador.
31:01Nem era IA na época.
31:03Natural.
31:04Então, o jeito como a gente entende isso como artificial para os jovens é natural.
31:10Você sabe que eu tenho uma aula que eu dei na universidade, que é o mundo virtual é real.
31:18Isso que eu estou falando é uma coisa óbvia.
31:21Mas às vezes é melhor você falar e você acha estranho.
31:24O virtual é totalmente real na vida desses jovens.
31:28É a realidade deles.
31:29É mais real do que muita coisa que está acontecendo ali, que é a prova de matemática.
31:35Porque tem uma importância enorme dentro da vida.
31:39Aquele coração verde, amarelo, vermelho, o significado daquilo que, para quem não conhece
31:43muito bem, parece só três cores, é enorme e muda o jeito como vem a vida.
31:49Então, aquilo é uma realidade até maior do que a vida normal.
31:54Se a gente não entender dessa forma, a gente não vai entender o impacto que essas coisas
31:59todas vão ter na vida desses jovens.
32:02E, Rodrigo, você costuma dizer que 25% das pessoas têm ou terão algum problema de saúde
32:09mental, né?
32:11E existe o estigma, que às vezes é dos pais, que percebem alguma coisa nos seus filhos,
32:19mas preferem não ver, né?
32:22Ou do próprio jovem, que também prefere não falar e tudo mais.
32:26Então, nesse ponto, talvez esses check-ups de saúde mental sejam muito positivos, né?
32:33Conta um pouquinho da startup.
32:34É, então, esse dado, Patrícia, é um dado que fez a gente montar o Instituto Tome,
32:40Sua Mente, eu, desde que eu voltei no meu PHD na Inglaterra, em 2004, eu comecei a trabalhar,
32:46buscava trabalhar com prevenção.
32:48E esse dado é chocante, né?
32:50Porque você pensa, o transtorno mental chega a 25, um quarto da população mundial vai
32:55ter um transtorno.
32:56É muita gente, né?
32:57Então, se eu não tenho, alguém próximo tem, não dá mais para ter preconceito.
33:02E incapacita muito.
33:031% da população mundial vai ficar incapacitada por questões de transtorno mental.
33:07E aí, então, o que você pode fazer com qualquer doença?
33:11Se eu tenho câncer de mama, se eu tenho problema de próstata, você vai lá, prevenir a chegar
33:17antes da doença começar.
33:19Para o transtorno mental é fácil saber isso, porque se 75% começa antes dos 24 anos, 50%
33:25antes dos 14, você tem que ir para essa faixa.
33:28Ali que os problemas de saúde mental estão começando.
33:32Só que, por algum motivo, a gente negligencia, por vários motivos, eu posso até dizer,
33:37para discorrer sobre eles, a gente negligencia a ideia de check-up.
33:41Ou nunca levou isso tão a sério.
33:43E a gente resolveu fazer isso.
33:45Será que a gente não pode avaliar jovens e ver se eles estão em risco ou não para
33:50ter um transtorno mental lá na frente?
33:52Ou se está começando um transtorno mental leve e precisa agir agora?
33:56E aí, a gente que faz pesquisa há muitos anos, a gente tem um coorte de 2.500 crianças
34:02que a gente acompanha há 15, 16 anos atualmente, até para ver se adoece, se não adoece, avaliando
34:09o cérebro do ponto de vista de ressonância estrutural, genética, a ressonância funcional.
34:14Quer dizer, tem várias formas de você tentar entender o adoecimento.
34:18E para você avaliar se está adoecendo ou não, você usa instrumentos de pesquisa muito
34:23bem validados.
34:24E com essa nossa prática, ao longo dos anos avaliando esses jovens, a gente falou,
34:29pô, a gente tem uma capacidade de avaliar, estabelecida, usando a melhor ciência que
34:32está aí disponível.
34:34Só que aí o que a gente percebeu é que esses instrumentos são muito bons, muito
34:38bem validados, tem uma validade científica enorme, a gente publica nas melhores revistas
34:43usando isso, mas para a clínica é a lógica do indivíduo.
34:47Não é a lógica de quantos por cento de deprimido você tem na sua amostra.
34:51Você quer saber se o seu filho está deprimido ou não está deprimido.
34:54E aí a gente foi desenvolvendo metodologias para entender o indivíduo usando esses instrumentos
35:02científicos, mas não só.
35:04Usando o olhar do pai e da mãe, o olhar do professor, óbvio, o olhar do jovem, e usando
35:11uma inteligência artificial que a gente foi desenvolvendo ao longo dos anos, baseados em
35:17mais de 12 mil avaliações que a gente tinha feito no estudo.
35:20Então o que aconteceu?
35:22O Mind Check, assim que chama esse check-up, ele tem toda essa inteligência abarcada para
35:30compreender a resposta de questionários de jovens, de pais, e agora a gente desenvolveu
35:35o da escola.
35:35O olhar da escola é muito importante.
35:37Muito importante.
35:38E aí o que é interessante?
35:40Não só para ver se tem um transtorno psiquiátrico ou não.
35:43Isso é outra sacada, né?
35:45Porque a gente como psiquiatra, a saúde mental é ter doença, não tem doença.
35:48Você não é, a sua saúde mental é muito mais ampla que isso, né?
35:51Tem a ver com a sua vida, como você participa das coisas, tem a ver com a sua saúde física,
35:56tem a ver com como você funciona nos seus relacionamentos, tem a ver com os seus potenciais,
36:02tem a ver com a sua exposição à tela, como você dorme.
36:04Sono, tudo.
36:05Exato.
36:06Então aí o que acontece?
36:07A gente começou a olhar então a saúde mental num ponto de vista mais abrangente.
36:11Então a gente vê a saúde mental com saúde integral.
36:14Então nesse check-up, a ideia de ter um transtorno mental ou não é uma pequena parte dessa história.
36:22E quando você avalia isso de uma forma abrangente, o olhar que a gente tem é que você consegue
36:27captar essas informações e levar em forma de relatório para que a pessoa possa entender
36:33como ela pode melhorar a própria saúde mental em vários âmbitos.
36:37Então não vira aquela linguagem cifrada sobre, ah, é um conflito e aí você não pode
36:45porque sua mãe é assim e seu pai é assado e tal.
36:47Não, tem coisas objetivas que dá para mexer.
36:49Então você tem um relatório, que é bem legal, bem interessante, e recomendações para
36:55cada uma das coisas.
36:57Todas baseadas em ciência.
36:59O que é interessante é que quando a gente faz essa inteligência, a gente tem hipóteses
37:04que são testadas em entrevistas.
37:06Isso é uma outra coisa que a gente testou nas nossas pesquisas.
37:09Então se os instrumentos já são muito bons, com uma entrevista eles ganham uma validade
37:15muito grande.
37:15Então a qualidade do que você tem ali no check-up é muito alta.
37:19E o que é bom?
37:20Para quem serve o check-up?
37:22Para todo mundo.
37:22Para quem está preocupado que o teu filho esteja bem e não esteja em risco.
37:27Como ele é relativamente simples de fazer, lógico, dá um trabalho, responder questionário
37:32e tal e fazer uma pequena entrevista, mas não é uma coisa excepcional.
37:36Você faz com rapidez e você alcança qualquer pessoa em qualquer lugar do mundo, né?
37:42Então virou um instrumento muito inovador para avaliação de saúde mental.
37:48A gente focou em jovens só por causa dessa tese de prevenção.
37:53Mas eu estou com 60, com 70 anos, não é o início do problema de próstata, mas você
38:00continuou fazendo check-up para o nosso.
38:02Todos nós temos que fazer um check-up de saúde mental num momento ou no outro, né?
38:07E dentro desse corte de 2.500 estudantes, fazendo agora um pequeno desvio da nossa conversa,
38:15ainda sobre inteligência artificial, mas para o lado da tecnologia em si, até que ponto
38:19a tecnologia como um todo é um fator para os jovens que tem levado justamente à ansiedade?
38:25Porque muitos jovens talvez tenham justamente nessa bengala que se tornou a tecnologia,
38:32e aí não estamos falando só de A, estamos falando de Instagram, TikTok, X, enfim, tudo
38:39quanto é rede social.
38:40Até que ponto isso está se tornando um fator crescente de desestabilização emocional
38:45dos jovens?
38:46É, eu acho que assim, na hora que você perde a capacidade de esperar, ninguém mais
38:53espera, porque todo mundo fica ali fazendo alguma coisa ali passando.
38:58Esperar é uma habilidade, é chato esperar, você precisa distrair sua cabeça, você precisa
39:03pensar em alguma coisa e tal, ninguém mais espera.
39:05É o tédio, né?
39:06Você esperava essa resposta.
39:08Então fica esperando, vai chegar a resposta.
39:11É o tédio, que eles não vivem mais.
39:13Então é, não tem mais o espaço de tédio, não tem mais o espaço de pensamento profundo,
39:19não tem mais esse tipo de regulação emocional que você tem na espera, porque você está
39:25ali brincando, seu sistema de recompensa está em outro lugar.
39:28Então esse é um dos exemplos de que esse processamento vai ficando muito pior.
39:37Só que tem um componente aí da vida digital que é muito interessante.
39:44Fica mais explícito quando a gente fala de bullying, né?
39:48Porque o cyberbullying, né?
39:49Que é algo muito impactante.
39:51O que é bullying?
39:52Não é você fazer um assédio, ah, você é gordo, você é baixinho, não sei o quê.
39:56Isso é um assédio, uma violência, uma agressão.
39:59A questão do bullying, o grande elemento chave é que esse assédio, essa violência,
40:05ela acontece em série, ao longo do tempo, e o principal mecanismo que faz mal para
40:11a vítima do bullying é ter a sensação que não tem saída, que ninguém vai me ajudar
40:16e eu não vou sair desse lugar.
40:17E essa sensação de desamparo total vai deixando o jovem mais deprimido, mais ansioso e tal.
40:23Então, estou definindo o bullying e isso acontece na vida real.
40:26Quando você vai para o cyberbullying, essa situação de assédio, ela vem em qualquer
40:32lugar e a qualquer momento.
40:35Porque o outro era só na escola, quando eu encontrava o grandão.
40:38O grandão vinha me dar porrada e saia correndo e ficava no banheiro.
40:42Sim.
40:42Quietinho lá, me trancava e ninguém podia me pegar.
40:45Agora, quando você sai da escola, você fica completamente vulnerável.
40:50É 24 por 7.
40:5124 por 7.
40:52Mas aí as pessoas falam, por que não desliga o celular?
40:55Porque o celular é onde a vida, grande parte da vida do jovem está ali dentro.
41:01Então, fica muito mais cruel.
41:04Então, estou usando o cyberbullying para falar da potência, mas para ilustrar, através
41:09do cyberbullying, o quanto a interatividade está acontecendo o tempo inteiro.
41:14Então, você fica ansioso quando você posta alguma coisa aqui e quer ver se alguém vai
41:19ver o que está acontecendo.
41:21Há pouco tempo atrás, acontecia isso durante a aula.
41:25Antes de tirar o celular das salas de aula, acontecia durante a aula.
41:28Que professora de geografia ia ser mais interessante que se a menina ia gostar da foto do cara ou
41:34não.
41:34Então, é impossível.
41:36E aí, o que acontece é que você vai tendo tramas, que são próprias dos jovens, dos
41:41humanos, que vão envolvendo cada vez mais os jovens e com o risco de difamação, de
41:48descontrole.
41:49E o risco de difamação e descontrole, de novo, é a aniquilação.
41:52Todo mundo vai saber.
41:53Todo mundo vai saber.
41:54E aí, você vai ficar exposto num nível máximo.
41:56Então, esse é um dos elementos que gera muita ansiedade nesse momento, nesses jovens.
42:04Uma última pergunta minha, depois a sua última pergunta, porque a gente tem um tempo daqui
42:08a pouquinho.
42:09Voltando sobre a inteligência artificial, até que ponto as escolas, que é onde os jovens
42:14passam a maior parte do seu tempo, pelo menos do ponto de vista de formação, estão preparadas
42:19para lidar, se é que estão preparadas para lidar com a inteligência artificial?
42:23E eu não estou falando de inteligência artificial só no sentido de fazer trabalho no lugar
42:28do aluno, que também importa muito, porque ele não tem a capacidade de redação, de
42:32concatenar um texto, de escrever começo, meio e fim.
42:35Até que ponto você vê o preparo ou um despreparo das escolas?
42:40E aí, eu falo de públicas e particulares, para lidar com a inteligência artificial na realidade
42:45dos jovens.
42:46Essa é uma pergunta excelente e complexa de responder.
42:51Com esse raciocínio que a gente tem de prevenção, de que as coisas começam cedo, a gente...
42:57E eu entrei em escolas públicas há 15 anos atrás, para entender se dá para prevenir,
43:03quando e como, e a gente percebeu que a estratégia mais eficiente para prevenir era formar professores
43:09sobre o tema saúde mental, que entendam...
43:13Porque o professor é a pessoa na sociedade que mais conhece o jovem.
43:17Ele conhece o jovem ao longo do tempo, ele já viu centenas e centenas de jovens de 7 anos,
43:25de 15 anos, de 16 anos, e ele compara, ele tem uma comparação normativa.
43:30Então, o professor tem um nível de conhecimento muito alto.
43:32Se você leva uma informação de qualidade que seja possível, passível de ação, ele
43:38recebe aquilo e age e lida com os jovens, porque falta um vocabulário, a gente chama
43:42de letramento.
43:44Aí, a gente montou...
43:46Eu tinha uma iniciativa na universidade, né?
43:48E a gente fez um spin-off do que era o Cuca Legal para o Instituto Uem Sua Mente.
43:52E a gente tem estratégias cada vez mais avançadas de educar os professores e...
43:57Nós estamos falando só de mental, não só de transtornos mentais.
44:00Então, tem vários desafios ligados à saúde mental, como bullying, racismo, violência
44:07sensuando, automutilação e da ação suicida ou suicida, fora os temas das doenças em si.
44:17E o que é interessante é que, sim, tem um baixo conhecimento, mas tem uma sede por aprender
44:24e as pessoas aprendem.
44:25Quando você traz o elemento de inteligência artificial, eu acho que o desafio está ainda
44:33na cúpula de conhecimento sobre esse tema.
44:37As pessoas que mais entendem, discutem esses temas, e eu faço parte de alguns desses fóruns,
44:43elas não sabem o que pode acontecer, o impacto disso.
44:46Então, de novo...
44:47Você está em uma reunião, né, Rodrigo, no Vale do Silício, e você falou que...
44:51É, exato.
44:52Está todo mundo ainda meio sem saber onde vai dar.
44:54Um monte de pesquisador super fera na área.
44:58Quando você trata, discutindo IA e alguns desses programas que estão aí disponíveis,
45:04quando você trata de IA Companion, todo mundo fica perdido.
45:07E o que acontece, a minha sensação agora, eu nunca tinha falado isso em público, mas
45:13é uma coisa que eu venho pensando, é assim, é mais ou menos como você começar a vender
45:18cigarro na banca sem saber se causa câncer.
45:21Não dá mais para fazer isso, né?
45:23Qualquer um que vai botar um remédio na prateleira, primeiro testa se faz mal ou não.
45:28Se faz bem e se faz mal ou não, né?
45:31Essas tecnologias, elas entram e depois vão ver o que acontece.
45:34Eu acho que a gente deveria responsabilizar mais quem está colocando tecnologia no sentido
45:41de ajudar, desenvolver mecanismos para lidar com elas.
45:46Exato.
45:46O que eu ouvi de métodos de responsabilização, para mim, eles me pareceram muito primários.
45:54Eu acho que, como o impacto pode ser muito grande na sociedade, nós temos que desenvolver,
46:01primeiro, conversar sobre esse assunto como a gente está fazendo, mas desenvolver outros
46:06mecanismos que antecipem e que restrinjam mesmo.
46:12Porque não dá para você ficar cinco anos de jovens vendo tela sem parar e ter uma geração
46:18ansiosa para depois brecar tudo.
46:21Eu acho que a gente deveria antecipar exatamente como eu não sei.
46:28É, fica esse dilema aí.
46:30De fato.
46:31Então, para terminar o programa, a entrevista, a conversa foi muito bacana, a entrevista.
46:35Maravilhosa.
46:36Eu acho que foi muito útil para todo mundo estar assistindo em casa.
46:38Patrícia e eu, tenho certeza, já adoramos a conversa.
46:42Que mensagem final você deixaria para quem está em casa?
46:45E que tem, por um lado, muita curiosidade de usar a tecnologia, no caso a inteligência
46:52artificial, como um amigo, como um conselheiro, como um terapeuta, mas não sabe até que
46:58ponto pode confiar.
46:59Por outro lado, talvez não tenha os recursos financeiros, ou até tenha, mas tenha aquela
47:04vergonha, ah, eu não quero ir no terapeuta nesse primeiro momento.
47:07E acha que está mais fácil consultar na tela do celular ou na tela do computador.
47:11O que você diria para quem está em casa e que está começando a se aventurar, se
47:16já não tiver mergulhado nela, na inteligência artificial como, digamos assim, conselheiro
47:21ou terapeuta?
47:23É, eu, é difícil dar uma dica.
47:26Olha, pica a foto.
47:27É, agora você me pegou aqui.
47:29É cilada a pino.
47:30O que eu acho, é, exato.
47:31É delicada a pergunta, porque a minha resposta intuitiva é, olha, é uma inteligência
47:37artificial, né?
47:38Você está conversando com a inteligência artificial e ela vai pensar com a inteligência
47:42artificial.
47:43Mas o problema é que nós, humanos, a gente tende a humanizar tudo o que está do outro
47:48lado, que é a forma como a gente entende.
47:50Então a gente faz isso com animais, a gente vai humanizando as situações, é pura empatia.
47:55E eu me pego agradecendo.
47:58Muito obrigado para o chat GPT.
47:59Eu também falo, por favor.
48:01Obrigada.
48:01E eu, e eu estou grato, realmente.
48:04Isso custa milhões de dólares.
48:05O Sam Altman já falou, não façam isso, porque isso custa milhões para a gente.
48:08Toda vez eu lembro disso.
48:09Ele fala isso.
48:10Ele fala.
48:10E aí, porque eu estou grato, não é só porque eu quero ser educado, assim, pô, pô,
48:15que legal você falar uma coisa aqui que me ajuda e tal.
48:17Então essa humanização, ela tem que ser questionada.
48:20E saber que aquelas respostas, elas estão contextualizadas.
48:24Se você tomar aquilo como verdade, realmente vai complicar.
48:28Agora, se você usar terapias que estão aí disponíveis com aplicativos online, elas
48:34estão melhor estruturadas, certamente, do que AI Companion.
48:38Então eu usaria métodos desse tipo e incentivaria a usar a psicoterapia mesmo.
48:45Agora você consegue fazer ou presencial ou online e que tem um efeito extremamente potente.
48:52online também está mais do que demonstrado, assim.
48:56Mas eu incentivaria todos a trabalharem com a ideia de autoconhecimento, né?
49:00Porque autoconhecimento é algo que vai ajudar muito as pessoas a entenderem as suas questões
49:07e enfrentarem e buscarem ajuda.
49:10E a busca de ajuda, ela não pode parar na inteligência artificial.
49:15A gente tem que buscar ajuda de alguém humano, que pode ser um irmão, pai, mãe, professor, amigo,
49:23que possa ajudar a lidar com a situação ali que você não tem, está sentindo impotente para lidar.
49:30Entenda todo o contexto, veja todas as matizes, veja a sua atenção, porque no papel da tecnologia fica tudo muito
49:37frio.
49:37Eu, como marido de uma psicanalista, assino em baixo.
49:41Olha só.
49:42Está vendo?
49:42Doutor Rodrigo Bressan, muito obrigado pela sua presença aqui no Economia e Negócios.
49:48Patrícia, muito obrigado por trazer o doutor Rodrigo para todo mundo que está em casa.
49:52Eu preciso agradecer ao Rodrigo, maravilhoso.
49:54Maravilhoso ter esse tempo com ele.
49:55Adoro escutar o Rodrigo falar.
49:57Já assisti muitos podcasts dele, sou fã.
50:00Que legal.
50:01Obrigada.
50:01Prazer é meu.
50:02Estar aqui é uma honra.
50:03Uma honra para nós também.
50:04A honra é nossa.
50:05E para você que está nos assistindo, lembre-se que também tem a versão podcast dessa entrevista.
50:11Então, se você quer dar a dica para alguém, mas você sabe que a pessoa não tem tempo para ficar
50:15na frente de uma tela,
50:17fala para ela ir lá nos principais lugares de streaming.
50:21Estamos falando de Deezer, estamos falando de Spotify.
50:23E você tem essa mesma entrevista disponível.
50:26E todos os programas da Economia e Negócios, aliás, disponíveis também no formato de podcast.
50:32Tenham todos uma ótima tarde, ótima manhã ou ótima noite, não sei que horas você está assistindo.
50:37E nos vemos no programa que vem.
50:40Lembra, a gente sempre sai com um programa novo, toda quarta, às sete da noite, coladinho no Papo Antagonista.
50:48E a gente sempre sai com um programa novo, toda quarta, às sete da noite, coladinho no Papo Antagonista.
50:51E a gente sempre sai com um programa novo, toda quarta, às sete da noite, coladinho no Papo Antagonista.
50:52E a gente sempre sai com um programa novo, toda quarta, às sete da noite, coladinho no Papo Antagonista.
50:54E a gente sempre sai com um programa novo, toda quarta, às sete da noite, coladinho no Papo Antagonista.
50:58E a gente sempre sai com um programa novo, toda quarta, às sete da noite, coladinho no Papo Antagonista.
51:02E a gente sempre sai com um programa novo, toda quarta, às sete da noite.
Comentários

Recomendado