- há 7 horas
Categoria
🤖
TecnologiaTranscrição
00:00A coluna Fala Aí está de volta depois da pausa entre final de 2025 e comecinho de 2026
00:07e o assunto desta edição é justamente o Grock. Solta a vinheta!
00:17O Roberto Pérez Spinelli, colunista do Olhar Digital News, físico, especialista em inteligência artificial,
00:23não está ao vivo conosco, mas você não fica sem a análise dele e hoje ele fala justamente sobre o Grock,
00:28a inteligência artificial de Elon Musk. Fala Pena, boa noite!
00:32Boa noite, Bruno! Tudo bem? Eu aqui estou voltando de férias, o ano mal começou e a gente já tem aí polêmicas com a inteligência artificial,
00:42já temos aí notícias quentes e também controversas, conturbadas envolvendo a inteligência artificial.
00:49Nesse caso, a bola da vez é o X, o X, que tem o modelo que roda lá dentro, o modelo de A, chamado Grock,
00:58que agora está permitindo com que qualquer usuário vá e peça para o Grock editar, manipular,
01:05fazer uma versão de uma imagem postada na rede pedindo coisas diversas.
01:11Por exemplo, altera essa imagem colocando um objeto na mão dessa pessoa, coloque ela numa posição diferente ou tire a roupa dessa pessoa.
01:20Então, isso que acabou chamando muito a atenção, essa possibilidade descarada de qualquer usuário manipular imagens dali.
01:28Então, o que está acontecendo exatamente?
01:29Digamos que eu, o Pena, vai lá e coloco uma imagem minha, feliz, olá, um momento legal, sei lá, do ano novo.
01:38E aí, qualquer usuário, qualquer usuário da rede simplesmente pode falar assim,
01:42ah, troca-se, coloca aí na mão desse cara aí uma arma, coloca aí, sei lá, ele fazendo um gesto obsceno,
01:52ou, pior, e principalmente contra as mulheres, pedindo para tirar a roupa das pessoas.
01:57E ainda pior, tem mais um agravante, tirando roupa também de crianças, o que configura pedofilia, né?
02:04É um crime também grave, tudo isso é crime, gente, tudo isso é crime.
02:09Então, primeira coisa, para ser crime, a gente tem que, o Brasil, a gente tem várias proteções contra isso
02:16e configura crime quando não há consentimento.
02:21Então, primeiro, tem ou não tem consentimento?
02:23Não tem, não tem, não tem nenhuma maneira de você afirmar que você permite que façam isso com as suas imagens
02:31ou que você não permite, tá?
02:33Não tem, você entra nas configurações e você não tem nenhum jeito de dizer,
02:37olha, não quero que isso aconteça com as minhas imagens,
02:39porque às vezes essas redes sociais, elas colocam novas features, novas coisas para você fazer,
02:46mas tem um jeito de você retirar.
02:47Ah, assim, já vem habilitado de cara, mas tem algum jeitinho de você falar,
02:52você não quer que isso aconteça?
02:53Entra aqui e clica ali.
02:55Simplesmente não tem esse jeito, tá?
02:57Então, ou seja, não há consentimento.
02:59Então, se não há consentimento, é crime?
03:01Essa é a primeira, essa é a segunda pergunta.
03:03E sim, então, vamos, a lei brasileira, desde a Constituição, no artigo 5º da Constituição,
03:09ela já garante a inviolabilidade da imagem, da sua intimidade, da sua honra.
03:17E mais explicitamente, se a gente vai olhar para a LGPD, a Lei Geral de Proteção de Dados,
03:22ela garante que você tem que ter consentimento direto, explícito.
03:28Não basta ser aquela coisa, ah, dá para subentender que você faz parte da rede, você já sub...
03:34Não, você tem que autorizar o uso explícito da sua imagem
03:39para tanto manipulação, edição ou geração da sua imagem quando ela é identificável.
03:46Se isso não acontece, é cabível de processo.
03:50É um crime, né?
03:51Se a pessoa se sentir de algum jeito ultrajada, constrangida, violada,
03:56ela pode sim entrar na justiça porque configura um crime.
04:00Então, aí temos ainda mais um detalhe.
04:04A gente tem uma lei de 2025, a Lei 15.123,
04:08que ela gera um agravante no caso de violência psicológica contra a mulher,
04:15no caso de uso de IA ou tecnologia para manipular voz ou imagem
04:21com o objetivo de causar constrangimento ou coerção.
04:25Então, sim, temos, assim, dá para claramente usar até esse agravante no caso.
04:31Então, é cabível, sim, de crime.
04:34Então, obviamente, as pessoas que estão sendo vítimas disso,
04:37principalmente mulheres e crianças que estão, obviamente,
04:40colocando em posições fragilizadas, ficam...
04:44se sentem acuadas, constrangidas com o uso da própria imagem,
04:48elas podem, sim, caber recurso.
04:51Mas a terceira pergunta...
04:53Veja, são muitas perguntas que estou trazendo aqui.
04:54A terceira pergunta é quem é o responsável?
04:56Você vai processar quem?
04:58O usuário que pediu para fazer o nude ou a empresa que permite,
05:04que coloca uma ferramenta dessa à disposição de qualquer um sem controle?
05:09Então, esse é que é, talvez, o dilema maior.
05:13Porque as outras duas perguntas estão claras.
05:15É sim, é cabível de crime.
05:17E sim, você, nesse caso, não tem nenhum jeito de você dizer
05:20que não quer que façam isso com a sua imagem.
05:22Então, não há consentimento.
05:24Agora, a dúvida é, quando o Elon Musk foi questionado sobre isso,
05:29ele disse que a culpa é total do usuário.
05:31Ele falou, não, é o usuário que pediu, é o usuário que faz o uso.
05:35Simplesmente eu dei a ferramenta.
05:38E, claro, que isso é até uma posição defensável.
05:41A gente já pode questionar se o fato de qualquer usuário,
05:45veja, em redes sociais você pode ter muitos usuários
05:47que não são facilmente identificáveis e rastreáveis.
05:51Então, uma plataforma que permite uma pessoa anônima fazer isso,
05:55ela está permitindo um crime anônimo.
05:57Então, assim, ela não está nem dando recursos
06:00para que alguém possa processar.
06:01Se você não sabe quem está fazendo isso,
06:04obviamente a responsabilidade tem que recair sobre a empresa.
06:07Então, de fato, até o Ex mudou a política
06:10para só permitir alguns tipos de manipulação,
06:13como essas de tirar roupa, só para usuários registrados.
06:15Não que resolvam todos os problemas, veja,
06:19porque qualquer tipo de manipulação que causa constrangimento
06:22já é passível de responsabilidade.
06:26Então, veja, ainda hoje, qualquer usuário não registrado
06:30pode acabar pedindo manipulações.
06:33Mas, enfim, o Willow Manse que está tentando dizer assim,
06:35a culpa é total do usuário, a gente só deu a ferramenta.
06:38Mas eu gostaria de fazer uma analogia aqui.
06:41Imagina, vamos pensar aqui, Bruno e telespectador.
06:45Imagina um cenário hipotético onde simplesmente
06:48uma pessoa vai lá, pega uma arma,
06:51coloca na cabeça de várias pessoas,
06:53faz todo um aparato, um mecanismo,
06:55tudo complexo, coloca na internet um vídeo disso
06:58e diz o seguinte,
06:59gente, qualquer um que digita aí no chat,
07:02tiro, a arma dispara.
07:04Agora, é claro que se alguém for lá editar tiro
07:07e arma disparar e matar alguém,
07:09essa pessoa também é responsabilizável,
07:13porque ela está lá consciente da ação
07:15e mesmo assim foi lá e editou.
07:16Mas veja que o facilitador de tudo isso,
07:19a pessoa que pegou a arma, colocou ali,
07:21colocou a outra pessoa, colocou o ambiente
07:23que preparou tudo isso, também é responsável,
07:26porque ela deixou aquilo de um jeito muito fácil
07:30para qualquer pessoa poder realizar aquele crime.
07:33e eu acho muito difícil você dizer que não,
07:35essa ferramenta que está ali disponível,
07:38super acessível para poder fazer aquilo.
07:41Então, eu acho muito difícil essa empresa se eximir.
07:46E eu fico, na verdade, muito triste
07:47quando eu vejo isso, um mau uso tão grande de ar,
07:50a gente aqui tentando prosperar como sociedade
07:54e de repente está vendo um uso desse.
07:57E veja, gente, a questão aqui não é moralista, não.
07:59Não estou falando que o problema é tirar roupa,
08:03de compartilhar nudes.
08:05O problema não é nudes, o problema é consentimento.
08:08Se você consente, se você aprova,
08:10se você fala, tire minha roupa, é legal,
08:12eu não tenho problema com isso,
08:13eu quero postar meus nudes,
08:15perfeito, não tem problema.
08:16Mas o problema é quando você não autoriza,
08:19quando você não quer,
08:20quando você se sente constrangido com alguém pegar a sua imagem
08:23e colocar numa situação que você não aprova.
08:25Isso é o crime e isso é um absurdo
08:27que uma IA esteja sendo usada para isso.
08:30Então, é muito triste que eu fico
08:32quando eu vejo uma notícia dessa,
08:34ainda mais numa empresa grande,
08:36uma das maiores redes que a gente tem.
08:39Então, enfim, espero de verdade
08:41que a gente não tolere isso,
08:44que as pessoas processem,
08:46que as pessoas vão atrás dos seus direitos,
08:48porque é só assim pelo jeito
08:49que a gente vai conseguir alguma coisa
08:51dessa situação.
08:53Mas eu quero falar de uma outra situação também, Bruno,
08:56uma mais feliz do que essa,
08:58que tem a ver com a USP,
09:00um projeto da USP,
09:01um projeto brasileiro,
09:02que está fazendo uma fábrica de chips
09:06aqui no Brasil, na USP.
09:07Um projeto muito legal,
09:09então eles estão criando o PocketFab.
09:11Basicamente é uma fábrica de chips.
09:15Chips, vocês sabem,
09:16são os processadores que estão
09:17em todos os aparelhos hoje em dia,
09:19que permitem inteligência artificial.
09:21Virou um recurso muito valioso, Bruno, hoje.
09:25Até porque está em falta no mercado,
09:27existe uma corrida contra chips.
09:29Tem uma questão de soberania nacional,
09:30da gente não ficar na mão,
09:32uma soberania tecnológica,
09:34porque, imagina,
09:35a gente pode acabar ficando na mão
09:36de empresas estrangeiras,
09:38porque a gente não consegue produzir
09:41os nossos chips.
09:41Então, é muito legal ver
09:43que a USP está criando esse projeto.
09:45Então, como que funciona?
09:46A ideia é ser um PocketFab,
09:48é uma fábrica pequena.
09:50Então, assim,
09:51por 12 por 12 metros,
09:53você já consegue instalar essa fábrica.
09:56Então, ela é versátil,
09:57ela é modular,
09:58ela tem alguns benefícios
10:03por conta disso,
10:03de não ser aquela fábrica super grande,
10:05que precisa de um investimento gigantesco.
10:07Ainda assim,
10:08precisou de um grande investimento.
10:09São 89 milhões de reais
10:11que foram investidos.
10:12O maior projeto particular,
10:15um projeto sozinho,
10:17que a USP investiu.
10:18Então, é muito legal ver essa iniciativa,
10:21mas ainda assim,
10:21é uma fração muito pequena
10:22comparado com uma instalação gigantesca.
10:25E o que ela vai fazer?
10:26Ela vai conseguir gerar 60 milhões.
10:29Inicialmente,
10:29ela vai conseguir gerar
10:30até 60 milhões de microchips por ano.
10:34E o mais legal não é esse.
10:36Quer dizer,
10:36isso já é super legal.
10:38A gente vem numa iniciativa brasileira
10:39trazendo chips feitos aqui no Brasil
10:42para a soberania nacional,
10:44para atender uma demanda de mercado.
10:46Mas,
10:47mais legal é porque
10:48também é um laboratório.
10:50Um laboratório que permite
10:51pessoas serem treinadas,
10:53mão de obra especializada.
10:55E isso também é um recurso
10:56muito valioso.
10:57Então,
10:58a gente não só vai produzir os chips,
11:00mas vai produzir,
11:01criar,
11:02capacitar as pessoas
11:04que vão poder desenvolver isso.
11:05Então,
11:06o Brasil ganha muito nisso.
11:08Eu estou muito contente
11:09com essa iniciativa.
11:11E, especialmente,
11:13mais porque
11:13eu estou fazendo
11:15pós-graduação
11:16lá na USP,
11:17na Poli,
11:18especificamente,
11:18na engenharia.
11:20E lá,
11:20no nosso projeto,
11:21a gente basicamente coloca
11:22inteligência artificial embarcada
11:24em robôs,
11:24robôs móveis,
11:25robôs que se movem.
11:27E a gente precisa de microchips
11:28para poder capacitar isso.
11:30É sempre difícil
11:31conseguir importar,
11:32trazer de fora,
11:33não tem.
11:34Quando tem,
11:35é um preço caríssimo.
11:35Quem sabe nós,
11:36nosso projeto,
11:37tantos outros,
11:38vão poder ser agraciados
11:39já com essa produção
11:40que vai vir.
11:41Então,
11:41eu estou super entusiasmado.
11:43Quero mandar um abraço
11:44para o meu orientador,
11:45Tiago Martins,
11:46porque a gente,
11:47quem sabe,
11:48já vai poder fazer o uso
11:50dessa tecnologia brasileira.
11:52É isso.
11:52Então,
11:52para terminar
11:53esse dia aqui,
11:54esses comentários
11:55com uma notícia
11:56contente,
11:56uma notícia bacana
11:57do mercado nacional
11:59de inteligência artificial.
12:01Um abraço!
12:03O nosso querido Roberto
12:04Pena Spinelli
12:05está de volta
12:06na semana que vem.
12:08Valeu, Pena!
Seja a primeira pessoa a comentar