- há 8 minutos
Categoria
🤖
TecnologiaTranscrição
00:00Como hoje é terça-feira, é claro que vamos repercutir esse assunto na nossa coluna da semana.
00:07Fala aí!
00:14E vamos receber ao vivo Roberto Pena Spinelli, que é físico pela USP, especialista em Machine Learning por Stanford
00:23e colunista do Olhar Digital. Vamos lá, deixa eu encontrar o Pena por aqui.
00:29Olá Pena, muito boa noite querido, seja bem-vindo a mais um Olhar Digital News aqui com a nossa coluna
00:37Fala aí.
00:38Tudo bem Marisa, bom estar com você de novo para mais uma semana de coluna de Fala aí.
00:44Qual que é a novidade de hoje Marisa?
00:46Pois é, toda semana é uma novidade, a gente está sempre falando sobre algo muito novo.
00:51Agora vamos falar sobre essa nova palavra que é a inferência.
00:56O que significa na prática, Pena, essa transição para a inferência e como isso pode alterar o papel das Big
01:04Techs no ecossistema da IA?
01:07Bom, a gente sabe que esses modelos de IA, eles precisam ter uma fase de treinamento, como foi contado na
01:13matéria,
01:14e depois que ele está treinado, que ele aprendeu a falar e a entender o mundo, aí que você começa
01:21a usar.
01:22Então a inferência é quando a gente usa ele de fato, ele não está mais aprendendo.
01:27Quando a gente está conversando com os nossos modelos de linguagem, chat EPT, de Minai, etc.,
01:32ele não está mais mudando as conexões neuronais dele.
01:36Ele está congelado no tempo, ele já treinou.
01:39Claro que o contexto que você passa e o prompt que você passa muda a resposta, ele pode aprender pelo
01:45contexto.
01:46Mas de fato ele não está mais treinando, ele não está mais, digamos, ele já saiu da faculdade.
01:50Ele já se formou, tudo que ele sabe já foi antes.
01:54E agora ele não faz mais nenhum curso, ele aprende ali basicamente com o que você só passa para ele.
02:01Então, Marisa, antes o custo da universidade, da faculdade era altíssimo.
02:06Quer dizer, ainda é, você realmente, assim como com humanos, se a gente fizer essa analogia,
02:11que você tem que gastar muitos anos lá, primeiro você vai para a escola,
02:14depois você vai para o ensino médio, depois você vai para a faculdade,
02:18depois desse processo gigante, aí você vai, digamos, no mercado de trabalho, usar o seu aprendizado,
02:24era mais ou menos assim também com a IA.
02:26O custo de treinar a IA era muito maior do que de fato na hora que você usa ele.
02:33Você gasta às vezes meses inteiros, grandes data centers, treinando ali,
02:38passando aquela base de dados milhares e milhares de vezes.
02:41Só que agora a gente chegou num ponto de maturidade.
02:43O que que quer dizer?
02:44A gente está começando já a usar em larga escala a IA,
02:48a ponto de que mesmo o uso que é mais barato, que é esse uso de inferência,
02:53esse uso de você fazer uma pergunta e receber uma resposta,
02:56que é bem mais barato o token do que no treinamento,
03:00esse uso ele já está ganhando em termos de investimento.
03:04Porque o que está mostrando?
03:05Que as pessoas já estão usando suficientemente,
03:08já está tão disseminado aí no mundo a IA,
03:10que já esse custo operacional é maior do que o custo de treinamento.
03:15Então, mostra que de fato, o que eu interpreto disso?
03:19Que de fato agora a gente não tem mais como dizer que essa IA não está,
03:23que é só uma tecnologia ali que vai vir e vai embora,
03:27que as pessoas não vão usar, porque acho que agora é isso,
03:31a gente está vendo que a gente está no estágio 2,
03:34a gente já está numa maturidade do uso da IA.
03:36As pessoas estão encontrando uso nas suas vidas,
03:38não estou dizendo que isso está perfeito,
03:40que não tem um monte de pessoas que estão se arrependendo eventualmente,
03:44não estou dizendo isso, mas parece, o que está apontando é,
03:48olha, agora a gente já está usando tanto essa inteligência artificial,
03:52a ponto de que os investimentos para o uso já superam,
03:56já estão superando os investimentos para treinar a IA.
04:01Interessante isso.
04:02Agora, Pena, eu queria mudar um pouquinho de assunto
04:04para falar um pouquinho sobre a ByteDance,
04:06não é que é a dona do TikTok.
04:09Ela pausou o lançamento mundial do Cidance 2.0,
04:13que é o seu novo modelo de geração de vídeos com IA,
04:17por conta até da disputa de direitos autorais
04:20com grandes estúdios de Hollywood e plataformas de streaming.
04:25Pena, cria-se aí um cenário.
04:27Como que você enxerga o futuro desse tipo de ferramenta nesse caso?
04:33Então, olha só, Marisa,
04:34para mim, o que a gente está vendo é justamente o vácuo
04:37deixado pela ausência de regulação da IA,
04:40que a gente sempre fala por aqui.
04:41A IA tem um potencial gigantesco aí no mundo,
04:44mas não tem nenhuma regulação,
04:46não tem nada dizendo o que pode e o que não pode.
04:48Então, vamos lá.
04:49A ByteDance lançou o Cidance,
04:52que causou bastante, impressionou muito a gente
04:56pelo tipo de vídeo que gerava,
04:58realmente impressionante, cinematográfico.
05:00Mas também a gente viu pessoas conseguindo gerar
05:05imagens de atores famosos ou personagens.
05:10Então, e aí, como é que entra o direito autoral,
05:14o direito de proteção aos direitos?
05:18Então, vários estúdios começaram,
05:21Netflix, Paramount, Warner, a Disney,
05:27mandaram uma carta para a ByteDance,
05:29dizendo assim, olha, você tem que parar imediatamente
05:32ou a gente vai entrar com um processinho.
05:35É isso que eles disseram.
05:36Pare agora, está errado.
05:38E agora, a questão, Marisa, que a gente pode entrar
05:41é o que exatamente pode ou não pode,
05:45qual que é o problema e qual não é o problema.
05:46Existem dois caminhos para você,
05:49possíveis ilegalidades.
05:51Eu digo possíveis porque ainda existe esse vácuo,
05:54ninguém sabe exatamente o que vale.
05:56A gente não criou ainda essa jurisprudência,
05:59muito menos talvez uma legislação.
06:00Mas o primeiro caminho é você falar o seguinte,
06:03olha, você está usando um material
06:05para treinar a IA, já que a gente falou de inferência e treinamento.
06:08Então, para treinar a IA, você está usando um material protegido
06:12e você não pode fazer isso.
06:14Olha, esse material aí é um material
06:18que não é um material de domínio público.
06:20Você não pode usar isso para treinar a IA.
06:22Mas as empresas já falam assim,
06:23ué, por que eu não posso?
06:25Assim como se você compra um livro,
06:28Os Seres Humanos, vai,
06:30compra um filme e assiste o filme.
06:32Uma vez que você assistiu o filme,
06:34você se inspira.
06:35Imagina um artista que assistiu,
06:37imagina um artista,
06:38para ser um artista,
06:39ele deve ter visto um monte de obras.
06:41Um cineasta, para se tornar um cineasta,
06:44assistiu quantos filmes?
06:45Milhares, talvez, de filmes na sua vida,
06:48para ele ganhar repertório,
06:50para poder se tornar um cineasta.
06:52E ninguém está cobrando,
06:53quando um cineasta faz um filme,
06:57você não fala assim,
06:57você tem que pagar por todos os filmes
06:59que você assistiu aí,
07:00porque você não poderia ter assistido esses filmes.
07:03É mais ou menos isso que as empresas já falam,
07:06olha, eu só treinei.
07:08Essas imagens de treinamento não estão,
07:10não tem um banco de dados por trás.
07:12Não está armazenado isso na IA.
07:13Ela só aprendeu a reconhecer padrões
07:16com o seu material.
07:17Não estou infringindo, em princípio, nada.
07:19Então, esse é um caminho,
07:20que aí vale ou não vale?
07:22Mas claro que aí tem ainda um pulo do gato, Marisa.
07:25Porque um humano poderia assistir filmes
07:27e poderia, tranquilamente,
07:28ninguém vai processar ele
07:29porque ele assistiu filmes e se inspirou.
07:32Mas o problema é,
07:33você tem que pagar pelo consumo.
07:35Então, você não pode consumir material pirata.
07:38Você não pode assistir filmes pirata.
07:40Quer dizer, se você fizer isso,
07:42você está cometendo crime.
07:43Você não deveria fazer isso.
07:44Então, o que essas empresas estão dizendo?
07:46É o seguinte,
07:46você deve ter usado material pirata
07:49para treinar suas IA's.
07:50Só que ninguém sabe.
07:52Porque você não...
07:53Tem como olhar lá dentro e falar assim,
07:54será que teve material pirata?
07:55Então, eles ameaçam.
07:56Dizendo assim,
07:57claramente,
07:58para você chegar nesse nível de reprodução,
08:00você deve ter usado toneladas
08:01dos nossos materiais,
08:03dos nossos personagens,
08:04das coisas que a gente gerou.
08:07Não tem como você fazer sem.
08:09Então, você pagou por isso?
08:11Se você não me mostrar
08:12que você realmente pagou
08:13por todos esses filmes
08:15que você ingestou aí na sua IA,
08:17você está infringindo...
08:20Está incidindo aí em crime.
08:22Como se prova isso?
08:23É complicado.
08:24Como é que eu provo?
08:25Agora, o segundo passo,
08:26que talvez seja bem mais fácil de provar
08:28e de, inclusive, processar,
08:30é plágio.
08:31Aí é fácil, Marisa.
08:32Se o seu modelo de IA
08:34gerou um personagem,
08:37alguma pessoa
08:38que está protegida por direitos,
08:40um ator famoso
08:41que não autorizou a sua imagem,
08:43um personagem,
08:44um Homem-Aranha,
08:45se você quiser falar o que for,
08:47aí é claro,
08:47você está fazendo plágio.
08:48É igual um ser humano
08:49que foi lá e desenhou
08:50o Homem-Aranha e vendeu.
08:52Ou, mesmo que não tenha vendido,
08:53distribuiu uma revistinha
08:54do Homem-Aranha,
08:55ele não pode fazer isso
08:57porque é um material protegido.
08:59E é tão fácil,
09:00porque basta você pegar um print,
09:02pegar um arquivo gerado pelo modelo
09:04e falar assim,
09:04está aqui, claramente.
09:05Você pôs a cara do Brad Pitt aqui
09:07e ele não autorizou.
09:10Mas a pergunta é,
09:12por que não se processa
09:14por plágio apenas?
09:15Eles querem processar
09:17por questão de treinamento.
09:20Porque a questão do plágio
09:21é mais fácil de você consertar.
09:23Você fala,
09:24tá bom,
09:24vou pôr um filtro aqui
09:25no meu modelo e não vai,
09:26mas nunca mais mandar
09:27um Homem-Aranha.
09:28Não tem como gerar
09:29o Homem-Aranha.
09:30Mas ele continua existindo,
09:32eu só bloqueio algumas opções.
09:34Agora, se você processar
09:36e vencer na questão do treinamento,
09:38todo o seu modelo de ar
09:40está automaticamente inviável.
09:43Ele já está,
09:43ele não pode existir,
09:45porque ele foi treinado
09:46com material de uso protegido.
09:48Então, você tira,
09:50digamos, pela raiz.
09:51Você inviabiliza todo,
09:52no caso, o Cidense.
09:54Você teria que tirar ele
09:54do ar inteiro.
09:56Então, Marisa,
09:56é um negócio muito complicado, né?
09:59As pessoas aí do direito,
10:01da legislação,
10:02estão de cabelo em pé
10:03tentando entender como encaixa.
10:04Porque, até agora,
10:05a gente não tem
10:06uma legislação pensada
10:08para IA,
10:08para dizer quem é responsável,
10:09pode ou não pode treinar,
10:11como que funciona,
10:12quem que, no final,
10:13que tem que pagar por isso.
10:15Esse é o nosso problema.
10:16Pois é,
10:16e é um problema gigante mesmo.
10:18Como você disse,
10:19fica difícil mesmo
10:20de você distinguir.
10:21Obviamente,
10:22que se é um elemento
10:23muito famoso,
10:24você pode dizer,
10:25ah, é plágio, né?
10:26Mas e aquele treinamento?
10:28Ou seja,
10:28não existe um Mickey genérico, né?
10:31Tem lá um Mickey
10:32e foi inspirado no Mickey, né?
10:33Não existe isso do Mickey genérico.
10:35Bom, enfim,
10:36mas realmente é uma boa discussão.
10:37Enquanto não tiver a legislação,
10:39vai ser bem difícil mesmo
10:40chegar a um consenso, né, Pena?
10:42Agora, Pena,
10:43assim como
10:43novas tecnologias,
10:45novos produtos fazem,
10:49surgem também
10:49novas necessidades, né?
10:53Empresas agora
10:53do setor de seguros
10:56começaram a oferecer
10:57apólices
10:58voltadas para riscos
10:59associados
11:00ao uso de sistemas
11:01de IA.
11:02Ou seja,
11:03tradicionalmente,
11:04as seguradoras
11:05cobriam falhas humanas,
11:06não é?
11:06Mas agora
11:07já tem o que muda,
11:08não é?
11:09A partir, então,
11:11da IA
11:11e como que pode
11:13realmente causar danos,
11:14como a IA
11:15pode causar danos
11:16no nosso mundo físico
11:17e as seguradoras
11:19responsabilizarem-se,
11:20ou seja,
11:21ressarcir
11:21por danos
11:22causados pela IA.
11:24Esse também
11:25é outro problema,
11:26talvez por conta
11:27da falta de regulação.
11:29Então,
11:30muitas...
11:31E o problema
11:32começa de uma maneira
11:32bem interessante,
11:33Marisa.
11:35Conforme essas IAs
11:36que a gente está usando
11:37começam a ter
11:38problemas de alucinação,
11:40vão lá,
11:40inventam umas coisas
11:41que não existem
11:42e as pessoas estão
11:43colocando elas
11:44para operar
11:45e tomar decisões,
11:46a gente já tem sistemas
11:47operando com modelos
11:49de linguagem
11:49por trás ali
11:51e as falhas
11:52acontecem,
11:53estão acontecendo.
11:54Só que as seguradoras
11:55tradicionalmente
11:56que protegeam
11:56com falhas técnicas,
11:58veja,
11:59já existiam
12:00esses seguros
12:01de falhas técnicas,
12:02então você é uma empresa
12:03muito grande
12:04que sabe que vai estar
12:05exposto a algum tipo
12:06de problema,
12:06você faz esse seguro,
12:07você prefere fazer o seguro
12:08caso aconteça algum dano,
12:10alguma coisa,
12:11pelo menos você tem
12:12já segurado,
12:13você vai ter ali
12:14uma ajuda
12:14para cobrir
12:15esses custos.
12:17Só que agora
12:18as empresas
12:19de seguro
12:19falam assim,
12:20peraí,
12:21essa IA aí
12:21eu não posso mais segurar
12:22porque o tipo
12:23de dano
12:24que ela pode causar
12:25é muito maior
12:26e ninguém
12:27está supervisionando mais.
12:29Então elas começaram
12:30a falar assim,
12:30olha,
12:31eu cubro
12:31com problemas técnicos
12:33tirando problemas
12:34de IA.
12:36E aí gerou um alerta
12:37porque essas empresas
12:38que gostariam
12:39de estar cobertas
12:40pelo seguro
12:40falaram assim,
12:40mas agora eu não vou
12:41mais estar coberto,
12:42como é que eu faço?
12:43Então aí surgiu
12:43uma nova categoria
12:44de seguros,
12:45já que as empresas
12:47querem muito
12:48se proteger
12:48contra os problemas,
12:49já surgiu uma nova
12:50categoria de seguros
12:51que é justamente
12:51para cobrir
12:52os danos de IA
12:53que eu imagino
12:53que deve ser
12:54bem mais caro
12:55do que só
12:55os custos técnicos.
12:57Eu não sei
12:57exatamente as cifras,
12:58eu não tenho
12:59uma empresa gigante
13:00para ver,
13:00para orçar,
13:01para saber quanto custa
13:02esse tipo de seguro,
13:03mas eu imagino
13:04que o da IA
13:04vai ser mais caro
13:05justamente pelo
13:06fator 1.
13:07A IA,
13:08ela tem alguma coisa
13:09de imprevisível,
13:11novamente,
13:11ela é uma caixa preta,
13:13por mais que ela se comporta
13:14bem hoje,
13:14você treina,
13:15você testa,
13:15você usa,
13:17pode ser que amanhã,
13:18dependendo do prompt,
13:19dependendo do contexto,
13:19ela vai lá e fala
13:20um absurdo
13:21ou vai lá
13:22e toma uma decisão
13:24absurda
13:24e você não sabe
13:25porque ela tomou.
13:26E aí,
13:27quem é o responsável?
13:29Será que você,
13:30que tem uma empresa
13:30que está usando IA
13:31para ofertar um produto,
13:33você é responsável
13:34por tudo que a sua IA
13:35fala ou não?
13:36Ou será que a empresa
13:37que você está contratando
13:38porque essa IA
13:39que você possivelmente
13:40está usando
13:40vem de terceiro,
13:41vem da OpenAI,
13:42vem da Google,
13:44quem no final
13:44é responsável
13:45por essa cadeia
13:48de dano
13:49que pode acontecer?
13:50Não existe,
13:51ninguém sabe,
13:52então as seguradoras agora
13:53entendendo que tem um problemão
13:55e ninguém sabe
13:55exatamente quem
13:56no final é processável,
13:57por quê e como vai,
13:59então elas estão tentando
13:59falar assim,
14:00olha, beleza,
14:01eu vou oferecer aqui
14:02um outro tipo de seguro
14:03e aí se a sua IA
14:04fez alguma bobagem,
14:05não interessa aí,
14:06quem fez,
14:07a gente cobre você,
14:09claro que vai cobrar por isso.
14:11Então, Marisa,
14:11a gente está já nesse mundo
14:13talvez um pouco maluco,
14:15a gente está tirando
14:17pela primeira vez,
14:18talvez a gente está tirando
14:19essa questão de seguro
14:21só de pessoas
14:22ou uma questão técnica
14:23para a IA se tornar
14:25um agente,
14:26um ente nesse mundo
14:28que precisa ser segurado.
14:31Certeza,
14:31bom,
14:31realmente são novidades
14:33que tem que ser realmente
14:35regulamentadas,
14:35né, Pena?
14:36Mais um questionamento aí
14:38com relação ao uso de IA.
14:40Bom, Pena,
14:40como sempre o nosso quadro
14:41fala aí,
14:42é sempre assim,
14:43com novidades
14:44atrás de novidades.
14:45Semana que vem
14:46teremos mais assuntos
14:47com certeza
14:48para discutir por aqui.
14:50Muitíssimo obrigado
14:51e uma excelente semana
14:52para você.
14:53Obrigado, Marisa,
14:54um abraço para todo mundo,
14:56até semana que vem.
14:58Até, Pena,
14:58boa noite.
15:00Está aí, pessoal,
15:01Roberto Pena Spinelli
15:02em mais uma coluna
15:03Fala aí
15:04para vocês.
15:05Interessante, não é?
15:06Essas discussões todas?
15:08Bom,
15:08o Roberto Pena Spinelli
15:10é físico pela USP,
15:11especialista em Machine Learning
15:13e por Stanford
15:14e colunista aqui
15:15do Olhar Digital.
15:16Semana que vem
15:17temos mais temas
15:18para trazer para vocês.
15:20para vocês.
15:20Obrigado.
Comentários