Pular para o playerIr para o conteúdo principal
Eu não sei se acharam uma lâmpada mágica no estúdio, mas o maior gênio da economia chegou para realizar os sonhos da audiência em Pânico! Samy Dana trouxe a novidade do mercado de embriões: lá vem o “Bebês Geniais 3: A Altura Agora é Outra”? Só acho que tenho o dever de lembrar aos pais telespectadores: se todo mundo for alto, ninguém vai ser alto, tá bom? Mas a loucura não para por aí: o Robocop está vivo, mas ele virou o Robodog. A Boston Dynamics tem um cão policial de R$ 100 mil. Em quem o robô atira? Quem o carro autônomo atropela? Pra que time o androide torce? Que série o autômato está assistindo? Ainda bem que o nosso economista favorito não incentiva a inteligência artificial, né?... Né?!

Assista ao Pânico na íntegra:
https://youtube.com/live/IE011f1iB-M?feature=share

Canal WhatsApp Entretê:
https://whatsapp.com/channel/0029VaeCbOCDjiOZ3gtYeh3R

Baixe o app Panflix: https://www.panflix.com.br/

Inscreva-se no nosso canal:
http://www.youtube.com/panicojovempan

Entre no nosso site:
http://jovempan.com.br/

Facebook:
https://www.facebook.com/programapanico/

X (Twitter):
https://x.com/programapanico/

Instagram:
https://www.instagram.com/programapanico/

TikTok:
https://www.tiktok.com/@programapanico

Threads:
https://www.threads.net/@programapanico

Kwai:
https://kwai.com/@ProgramaPanico

#JovemPan
#Pânico

Categoria

😹
Diversão
Transcrição
00:00Professor, é isso?
00:01Faca, foca, foca!
00:03Tá nervoso?
00:05Tá todo mundo nervoso hoje.
00:09O vampeta tá impossível.
00:10Muito obrigado, tudo bem?
00:11Daqui a pouquinho, o Carlos Viana, hein?
00:12Carlos Viana, relator da CPMI do INSS.
00:17Ele é relator.
00:17Tá parecendo coalhada hoje.
00:19Vamos lá, seguinte.
00:21Olha só.
00:22Núcleos Genomics.
00:24É uma empresa, Emílio, que tá fazendo o seguinte.
00:27Tem várias empresas que estão nesse caminho.
00:28E aí, eu trago pra ver a opinião de vocês.
00:32Você pode fazer a fertilização de um bebê in natura.
00:37Do jeito como nossos antepassados.
00:40Como os persas faziam, que é o caso do Dani.
00:43Ou você pode fazer in vitro.
00:47Certo.
00:47Você pode fazer com técnicos.
00:49E aí pega o quê?
00:50Pega o óvulo da mulher, pega o espermatozoide.
00:54Faz um embrião.
00:56Isso.
00:56Muito bem.
00:57Uma empresa, chamado Núcleos Genomics, está falando que se você extrai os óvulos e os espermatozoides,
01:07tem vários embriões, eles conseguem dar 40 características genéticas, como altura, QI, riscos de saúde mental.
01:17Uma empresa americana.
01:19E volta a discussão se a tecnologia não está cruzando uma fronteira ética.
01:26Por quê?
01:27Porque se fizer isso, você vai ter super bebês.
01:30Você vai ter bebês mais bonitos, mais altos, mais fortes, mais inteligentes, com uma saúde mais forte.
01:38E aí, o que que fazemos?
01:40Nós proibimos isso ou deixa rolar e a vida é assim, Emílio?
01:46Super bebês.
01:48Não sei.
01:48Admirável mundo novo.
01:50Você sabe que algumas clínicas...
01:51Isso aí é muito...
01:53É uma discussão muito...
01:55Mas no Brasil, isso é proibido.
01:57Sim.
01:58Nos Estados Unidos, isso...
02:00Então, mas aí que tá.
02:01Uma coisa...
02:02Veja.
02:03Uma coisa é eu pegar e fazer uma mutação no gene...
02:06Sim.
02:07Para criar um super bebê.
02:09O que eles estão falando lá, que não é isso.
02:12Você tem vários embriões, você escolhe...
02:15Tem 40 embriões.
02:16Você vai escolher o que você achou melhor.
02:20Porque vários bebês acabam não nascendo.
02:23Então, você meio que foca naqueles que parecem com uma probabilidade maior.
02:31Outros aplicativos pegam o parceiro, a parceira, fazem um...
02:35Aquele negócio que a gente fazia na pandemia, pegava o cotonete na...
02:38BCR lá.
02:39É, não é?
02:40É o Suab, né?
02:41Suab.
02:42É.
02:42E aí você mostra as probabilidades.
02:45Isso é outra coisa.
02:46Mas a IA tá indo pra essa área.
02:49Eu acho perigoso, mas também acho inevitável.
02:52Escuta, nos Estados Unidos já pode fazer isso.
02:54Você deve saber que você pode escolher, né?
02:55Estou em Harvard.
02:56Não, não.
02:57Não, não.
02:57Isso é outra coisa.
02:58Isso é outra coisa.
02:59Isso é outra coisa.
02:59Não, não.
02:59Parece a mesma coisa.
03:00Não, não.
03:01Não tem nada a ver.
03:01Você vai numa clínica e escolhe como você vai querer o pai, a mãe.
03:04Você pode escolher...
03:05Você mexe geneticamente.
03:06Ah, genética.
03:07Uma coisa é mexer geneticamente.
03:09A outra coisa...
03:10Aquele que ganhou o prêmio Nobel, ele editava.
03:13Sim.
03:13Ele editava o gene.
03:14E ele conseguia...
03:16Pode ser genético.
03:16Ele conseguia salvar de doenças e tal.
03:19Isso é proibido.
03:21É.
03:21Mas o que eu tô falando é um meio termo, que é o seguinte.
03:25Põe 40 lá, 40 embriões, e você tem o raio-x.
03:30Esse tem maior chance de ter QI alto, esse não sei o que lá.
03:33E você escolhe disso.
03:34Então, quer dizer, você não tá mutando o gene.
03:36Você só tá fazendo várias fertilizações controladas em laboratório
03:43para escolher o melhor bebê pra você.
03:46Perigoso, perigoso.
03:47Você teria?
03:48Mas é o que tá acontecendo.
03:50Perigoso.
03:50É o que tá acontecendo.
03:51Logo, logo vai virar mercado isso.
03:53Você é a favor ou contra a eutanásia?
03:55Interrogação.
03:56A favor.
03:57A favor.
03:57A favor.
03:58Eu acho que a pessoa tem a liberdade de escolher se quer viver ou não.
04:02É.
04:03É.
04:03Também é outro tema polêmico.
04:05É, são...
04:05Mas aqui é uma coisa que já está acontecendo.
04:08É uma empresa aberta.
04:10É uma empresa que está operando nos Estados Unidos com isso.
04:13Outra coisa...
04:14E hoje eu tô...
04:15Foca polêmica.
04:16Foca na polêmica.
04:17Robocop.
04:17É.
04:18Zezinho polêmica.
04:19O Robocop virou realidade.
04:21Meu Deus.
04:22Você tem agora um cão da Boston Dynamics.
04:25Custa 100 mil dólares.
04:26E já é usado em 60 forças policiais dos Estados Unidos e no Canadá.
04:32Qual que é a questão?
04:33Hum...
04:35Ele não aponta só...
04:37Ele não aponta só o crime ou não.
04:40Ele intervém.
04:41Caramba, o cachorrinho?
04:42O cachorrinho.
04:43Dá tiro.
04:44Aí dá tiro.
04:44Ah, isso eu vi.
04:45Isso eu já vi.
04:46Aí estão falando que tem um risco que o Emílio deve lembrar, mas eu não lembrava,
04:52que tem uma discussão se a polícia deve ser militarizada ou não.
04:55A polícia virar um órgão militar, ela passa a usar outras estratégias.
05:03Até foi nessa questão do problema que teve lá no Rio.
05:07Esse foi um dos...
05:09Muita gente acusou a polícia de agir de forma militar.
05:13Agora, uma questão é que normas o robô vai usar?
05:21Como que o robô vai julgar?
05:22Mas eu sou...
05:23Ah, mas é sozinho?
05:24Não fica ninguém?
05:25Não fica ninguém.
05:26Não tem um controle?
05:27Não tem alguém operando o robô?
05:29Pode ter, pode não ter.
05:30O robô, ele tem uma inteligência.
05:32Ele toma a decisão?
05:33Ele pode...
05:33Arbítrio pro robô?
05:34Aí, meu amigo, aí é...
05:35É loucura.
05:36É o robô cópia.
05:38Não, eu sou a favor.
05:40Você é a favor do robô?
05:41Porque o ser humano erra, mas o robô erra menos.
05:44Eles trouxeram aqui, era um cara mexendo ali no...
05:47Escondido.
05:48Mas isso aqui...
05:49O cara fica escondido, com controle remoto.
05:51Não, não.
05:52Aí...
05:53Não, se for sozinho, tem fogo amigo, caramba.
05:56Você vai fazer uma operação contra uma facção criminosa.
06:02Sim.
06:03Um crime organizado.
06:04Você poupa várias vidas policiais colocando um robô disso.
06:08Como drone.
06:08Mas tem que ter um cara, um humano controlando ali.
06:11Então, pode ter, pode não ter.
06:14Pode ter essa questão.
06:15Tipo, inclusive, a turma do amor aí, que defendeu os bandidos, pode até ter esse lance.
06:20Porque, assim, se chega o robô e fala...
06:23Se renda.
06:24Como que o robô fala?
06:25Entrega a droga.
06:26Se renda.
06:27Largue tudo.
06:28E aí, assim, não tem aquele risco dele reagir.
06:31Porque, assim, se o cara levantar a arma e o robô não atirar, não vai ter a perda do policial.
06:36E se o ladrão roubar o robô?
06:40Começar a produzir o robô.
06:41Começar a produzir.
06:41Mas não tenha dúvida que se a polícia...
06:43E se você deixar o robô sozinho, ele for compara e encher a casa.
06:47Vale para os dois lados.
06:48Mas se você proibir a polícia de usar, não proíbe o ladrão de usar.
06:52Exatamente, exatamente.
06:53Não proíbe.
06:53Só você não vai estar usando.
06:55Bom, enfim, a última...
06:57É...
06:57Polêmico.
06:58Vocês estão achando que a vida vai ser fácil proibir?
07:00É, igual a nada.
07:01Mais uma da hora.
07:02Que é a história que você está falando agora, que é o dilema do trem.
07:06Do trem.
07:07Sim, o dilema do trem.
07:09Que esse dilema do trem...
07:11O trem, ele está desgovernado.
07:12Certo.
07:13Aí ele vai matar cinco pessoas.
07:15Não, de um lado tem cinco pessoas.
07:16Isso.
07:17Está presa no trilho.
07:18Tem cinco presos ali.
07:19Isso.
07:19E aí você tem a alavanca do trem.
07:22É isso.
07:23É, eu acho que você tem...
07:24Eles têm várias variações, mas o paradoxo é o seguinte.
07:27Ou você desvia...
07:28E mata uma pessoa...
07:30Mata uma pessoa...
07:31Ou mata cinco.
07:32Ou mata cinco.
07:33É, é isso aí.
07:33Ou você deixa como está e mata uma, ou você desvia...
07:37O dilema do trem é assim.
07:39Você está de...
07:39Você é um maquinista.
07:41Certo.
07:41E aí tem cinco pessoas...
07:43Se não fizer nada, cinco vão embora.
07:44Cinco vão morrer.
07:45Certo.
07:46E você pode mudar a alavanca pra matar uma pessoa.
07:49Certo.
07:49Quem você mata?
07:50Uma pessoa?
07:52Ou você mata as cinco pessoas que estão lá?
07:53Você tem que lembrar que...
07:54Você pode mudar...
07:55Você fez uma ação pra matar uma.
07:58Isso.
07:58Mas o Tesla foi criticado, o carro autônomo tem essa crítica.
08:02Tá, e se eu tiver que atropelar alguém, como que ele vai calcular o dano?
08:06Sim.
08:06Um velhinho vale mais ou menos que um dano?
08:09Vale cinco pontos.
08:10Que é também o que...
08:12É o dilema também que está acontecendo com esses carros autônomos.
08:15Exato.
08:16Como é que ele vai...
Seja a primeira pessoa a comentar
Adicionar seu comentário

Recomendado