- há 5 meses
Categoria
🗞
NotíciasTranscrição
00:00Magalu Cloud, impulsionando a competitividade do Brasil através da tecnologia.
00:15Bem-vindo, bem-vinda a mais um Revolução IA, o programa do Nelfid que aborda o uso da inteligência artificial no mundo dos negócios.
00:24Quem me acompanha é Rodrigo Elzer, nosso especialista no assunto. Bem-vindo, Rodrigo.
00:28Obrigado, Letícia. É um prazer estar aqui com vocês.
00:31Hoje a nossa convidada é a doutora Patrícia Peck, especialista em Direito Digital. Vamos conhecer um pouquinho mais sobre ela.
00:38Com mais de 50 livros publicados, Patrícia Peck é advogada especialista em Direito Digital, proteção de dados e segurança cibernética, inteligência artificial e propriedade intelectual.
00:52Patrícia é doutora pela USP e tem mais de 25 anos de experiência no mercado. Também é membro titular da Comissão Nacional de Segurança Cibernética e da Comissão de Proteção de Dados do Conselho Nacional de Justiça.
01:07Patrícia, seja bem-vinda. Obrigada, Letícia, pelo convite. Ótimo estar aqui com você e com o Rodrigo.
01:13Bem-vinda, Patrícia.
01:15Patrícia, vamos começar falando sobre regulamentação, né? A gente teve um plano brasileiro de inteligência artificial aprovado recentemente, tem marco regulatório em discussão na Câmara e eu queria saber a sua opinião.
01:28Para você, quem que deve definir as diretrizes éticas a respeito da inteligência artificial?
01:35São os legisladores? São as empresas? É a própria sociedade?
01:41Bem, Letícia, acredito que o tema da inteligência artificial, como nós vemos com outras tecnologias que chegam mais disruptivas, acaba envolvendo uma complexidade que necessita de envolvimento multidisciplinar.
01:53multidisciplinar. Então, não é só o legislador, não é só o mercado, nem só a sociedade civil, mas sim, é um grupo que precisa conversar, dialogar, para que a gente possa encontrar a melhor forma de regulamentação da tecnologia.
02:06Lembrando que quando a gente pensa em leis, leis que versam sobre tecnologia, já nascem com prazo de expiração, já nascem com a possibilidade de ficar obsoletas muito rápido.
02:17E é por conta dessa dinâmica que é tão importante você poder ter um olhar da estratégia, que é o que você comentou, que é o Pebia, que traz ali uma visão estratégica de como o Brasil quer se colocar dentro dessa corrida robótica da inteligência artificial no mundo.
02:35E, do outro lado, quais são as regras mínimas? O que é um requisito que tem que vir de fábrica, que já precisa ser cumprido pelo desenvolvedor?
02:43O que vai ser um papel daquele que é um contratante e o usuário final?
02:47Então, esses três atores acabam envolvidos em escopos distintos de cada um, que vai determinar direito, obrigação, responsabilidade.
02:59E a pauta da ética, com toda certeza, ela é aquela pauta de início, de origem, que depois, como é que a gente corrige isso lá na frente?
03:08Então, até para evitar perdas de investimento, refações e o timing mesmo que a tecnologia exige.
03:17E, Patrícia, trazendo para o contexto corporativo, como que você define o uso ético de IA?
03:21E onde que você vê que as empresas mais erram e por onde começar?
03:25Acho que são três perguntas em uma aqui.
03:27Sabe, Rodrigo, a gente tem feito muitos testes, a gente tem um lab lá no escritório para testar não só soluções de IA, mas também robôs.
03:37E o que a gente percebe é que o primeiro passo do lado corporativo, e nós fizemos isso no escritório, foi quem vai treinar a IA no nosso código de ética?
03:47As próprias regras estabelecidas dentro daquele ambiente corporativo, que sempre tem visão, missão e valores, que, assim como uma equipe humana tenha que seguir, uma equipe IA também deveria seguir.
03:59Então, você pode olhar a IA apenas como ferramenta, acho que esse foi o olhar inicial, ainda mais quando você começa o uso da tecnologia, mas a IA vai muito além disso.
04:08E agora, como a gente entrou na fase de agentes e como as pessoas passam a ter vários agentes, a regra que vai ter que pautar a IA, ela vem ali da governança corporativa, ou seja, qual é o código de ética que a empresa já tem?
04:24E a gente chama isso de Lex Dataset, ou seja, é um conjunto de dados de treinamento da IA que passam a ter que ter um padrão ali de definição de até onde ela vai, quando ela pede ajuda de um humano, o que ela não pode tratar, às vezes linguagens.
04:41E, logicamente, se esse treinamento vem um pouco de fábrica, pensando uma ética geral, sabe, quase voltando aos filósofos, vamos a Sócrates, Aristóteles, e dizer assim, não é ético mentir, isso é base, não é ético enganar, ludibriar, não é ético fingir ser um humano, sem ser humano.
05:04Então, a ética vai muito em linha com transparência. Então, acho que hoje as empresas têm que pensar, que tipo de IA eu gostaria?
05:12Com toda certeza, a IA está sob o guarda-chuva de governança ética daquela corporação. Então, se não bater ali de fábrica que o que ela vem treinada já atende,
05:24então nós mesmos temos que treinar a IA nas políticas e nas condutas que são esperadas.
05:29Perfeito. E onde você vai ver que as empresas estejam, talvez, mais errando nesse sentido, nessa direção?
05:36Provavelmente, eu não sei se é errando ou se é uma questão de etapas.
05:42Então, hoje, quando você vai testar uma tecnologia, você vai criar ali um MVP, um POC, você faz algo em ambiente teste.
05:49Mas quando você começa a popularizar, a massificar esse uso, ou mesmo quando vai usar para um nível executivo mais elevado,
05:57uma diretoria ou conselho, você já começa a precisar que aquela tecnologia siga alguns controles,
06:04mecanismos de controles, de gestão de risco.
06:07Então, o que eu acredito é que a gente avançou tão rápido na adoção da IA que atropelou a etapa de definição de padrões éticos,
06:16de como que ela deve seguir. Então, hoje, o que as empresas estão tentando é correr atrás desse prazo,
06:22viu que a IA já está solta dentro da empresa, e aí agora trazer um código de conduta,
06:28uma política geral de dúzia e dontes de uso ético da IA, uma palestra ou um treinamento que faz parte do letramento de IA,
06:36para que as equipes também estejam orientadas, pelo menos nessas condutas mais gerais,
06:40do que eu deveria ou não fazer com o uso da IA.
06:43Não vai usar para uma deepfake, por exemplo, sabe, questões assim,
06:47que se não tiver documentado, escrito e orientado,
06:50depois se a pessoa agir errado ou a IA agir errado com ou sem a ajuda da pessoa,
06:55a empresa aqui é responsável.
06:57Então, digamos que o empregador é responsável por má conduta de seus empregados e das suas IAs.
07:03Como você disse, Patrícia, a coisa está avançando muito rapidamente, né?
07:08E as empresas estão tendo que correr atrás de legislar sobre isso, né?
07:13De definir regras.
07:15Mas isso é uma prioridade para as empresas brasileiras, na sua visão?
07:19Ou as empresas estão esperando aparecer o problema para depois correr atrás da diretriz ética?
07:26Olha, Letícia, eu gosto de dividir pelo menos em dois grupos, né?
07:30Existe um grupo de empresas que passou pela fase testes e agora está até com meta.
07:35Então, quando você participa de reuniões que dizem assim,
07:39como vamos fazer mais uso da IA, o que mais podemos trazer de IA.
07:43Então, isso já virou uma meta dos executivos ter que implantar a IA.
07:47E aí, essas estão já para um nível de maturidade de pensar,
07:51gente, e como que fica a governança disso, os controles, o código de ética?
07:56E temos uma outra camada, às vezes até não só pequenas empresas,
08:00mas profissionais liberais que ainda estão naquela etapa da experimentação,
08:06de todo dia aparece na mídia social mais uma IA, mais uma solução.
08:12Qual que eu uso?
08:13Aí tem quem vai experimentando aquilo que já está embarcado,
08:16tão fácil de você usar.
08:18Tem os que estão buscando treinamento, tem os que estão querendo aprender prompt.
08:21Então, esse grupo que ainda não está com práticas de governança mais maduras
08:26ou ainda não passou essa etapa de uma escolha, de uma seleção do que eu vou fazer com a IA,
08:33esse está, sim, mais atrasado para essa definição da pauta de ética.
08:37Mas, lá mesmo, nós temos trabalhado muito com isso,
08:41nós implantamos mais ou menos em 50 clientes,
08:44clientes, mais 50 projetos diferentes, já código de conduta, política,
08:49organizar o comitê de ética.
08:52Mas, um exemplo disso é por setor.
08:54Então, tem setores que ficam mais preocupados,
08:57mas tem setores que não estão ainda tão atentos ou priorizando a ética.
09:03Posso resumir dizendo assim, primeiro coloca a IA para dentro,
09:07vamos usar, porque eu não quero ficar para trás com relação aos meus concorrentes,
09:10com relação ao mercado, porque existe esse time to market,
09:13e aí a gente vai pensando como é que arruma depois o contrato,
09:17a licença, a política, a ética.
09:19É mais ou menos assim que está acontecendo.
09:22Antes da gente continuar falando sobre o uso da inteligência artificial
09:26e a ética no ambiente corporativo,
09:28eu queria chamar a mensagem do nosso patrocinador.
09:31Meu nome é Otávio, eu sou um sócio e CTO do Icazei,
09:36uma empresa que nasceu há 17 anos,
09:39para resolver as necessidades do mercado de casamento.
09:41Uma das principais questões que a gente nota,
09:44que a Magalu trouxe para a gente,
09:47foi realmente uma segurança na questão financeira.
09:51Um dos problemas que a gente tem,
09:52acho que toda empresa nacional tem,
09:55é exatamente a questão da moeda, da cotação, do dólar,
09:58que a gente fica muito preso.
10:00E a Magalu trouxe realmente não só a cobrança em real,
10:03mas a aclimatação desses valores para o mercado nacional,
10:08o que faz com que seja muito mais fácil para a gente se planejar.
10:12Você está acompanhando o Revolução IA,
10:17programa do Nelfeed que aborda o impacto da inteligência artificial no mundo dos negócios.
10:23Nossa convidada é a doutora Patrícia Peck, especialista em Direito Digital.
10:28Patrícia, como a gente estava falando sobre o uso da inteligência artificial no ambiente corporativo,
10:32como que diz a lei, o que você acredita,
10:37qual a responsabilidade de um funcionário que usa alguma LLM na experimentação,
10:45mas que acaba colocando na rede dados que são sensíveis,
10:51dados sigilosos da sua companhia.
10:53Por exemplo, um assessor de um juiz que trabalha em alguns processos,
10:59ela quer usar a LLM, o chat de PT, um de psique para ganhar mais eficiência.
11:05Como é que fica essa ética e essa responsabilidade?
11:10Eu acredito que tudo começa a gente entendendo qual vai ser a solução e para que eu vou usar.
11:17Então, qual solução e qual caso de uso, para que eu usar,
11:22é que vai dar esse parâmetro do quanto que eu posso utilizar com informações internas
11:29ou que eu preciso ter um cuidado maior.
11:32Então, as soluções que são hoje ofertadas de forma mais gratuita
11:36e mesmo as que não são gratuitas, já são pagas.
11:39Quando você olha a licença, já pude avaliar pelo menos umas 70 licenças,
11:45dá para ver que parece que a gente voltou do tempo.
11:47Essas licenças hoje trazem uma isenção de responsabilidade do desenvolvedor,
11:54daquela IA e colocam a responsabilidade completa em cima do usuário.
12:00Então, eles chegam a mencionar questões de alucinação,
12:04chegam a mencionar questões de viés discriminatório,
12:07de comportamento inadequado, linguagem inapropriada e vazamento de dados,
12:14questões que envolvem até discussão de sigilo, segredo de negócios e outros,
12:19mas diz que cabe ao usuário essa cautela.
12:23Então, faz-se ressalvas ali, fica parecendo o começo da internet,
12:27como se eu não preciso garantir nada e sabemos que não é isso.
12:33Então, se for essa solução com esse tipo de licença,
12:37não é recomendável colocar uma documentação que tenha uma informação sigilosa,
12:42confidencial, dados pessoais, dados pessoais sensíveis,
12:45ali no prompt para IA, porque, em geral, ela não só vai devolver
12:50aquilo que está sendo solicitado, quer dizer, faz parte, né,
12:53na saída do prompt, ela atender, tentar atender da melhor forma o usuário,
12:59mas ela também vai usar aquele conteúdo para retroalimentar a sua aprendizagem.
13:04Então, não é nem que fique armazenado, né, a gente sabe que é uma lógica em tokens, né,
13:09existe quase que uma certa tendência à prediction, à adivinhação, sabe,
13:14é um modelo preditivo, é um modelo estatístico e por isso que volta e meia pira, né,
13:20ou seja, a gente usa o alucinar, né, e bota alguma coisinha ali no meio
13:24só para preencher a lacuna, se não encontrar a resposta.
13:28Mas subir documentos mesmo para fazer resumos, que é o que muita gente tem feito,
13:33tem que olhar essa classificação e entender, olha, hoje eu tenho sim soluções
13:39com mais compromisso de segurança, normalmente são soluções pagas e um formato mais fechado, né,
13:46acho que isso daí diferencia bastante a experiência do usuário.
13:50Esse exemplo que você colocou, às vezes é puxadinho de IA, né,
13:55e aí puxadinho de IA, como IA começa com dados, vira puxadinho de dados,
13:59quando vê aonde foi parar aquela informação.
14:02E outras palavras, cautela e talvez use o próprio agente para resumir os termos
14:08e você entender onde é que você está pisando.
14:09Exatamente, Rodrigo, com certeza.
14:12Não dá para achar que eu posso usar qualquer IA para tudo e qualquer informação e documento.
14:18É isso que não dá o match, sabe, exato.
14:22E, Patrícia, se a gente estivesse num board ou num comitê digital,
14:26o time de produtos e tecnologia apresentando as suas iniciativas em IA.
14:33Que três perguntas que você faria para eles?
14:36Olha, pensando que estou sentada aqui na cadeira, né, do regulatório, da ética e da regra,
14:43acho que a primeira seria se eles fizeram testes relacionados aos riscos principais da IA, né,
14:52então, envenenamento de dados, alucinação, viés discriminatório e cibersegurança, assim,
15:00coisas que a área técnica consegue testar muito bem.
15:04Não vou entrar no mérito de discussões depois de propriedade intelectual,
15:09porque aí não é necessariamente a área técnica só que vai conseguir observar.
15:14Segundo é qual é a licença, né,
15:16então as mesmas perguntas de licença e caso de uso para bater qual é a regra do jogo,
15:22né, temos um contrato que a gente consegue customizar, né,
15:26esse conteúdo que estiver sendo alimentado na IA pelo lado da empresa vai ficar restrito só para nós?
15:33Fica só do nosso lado para que não retroalimente, não apareça como saída igual ou similar
15:39para outros solicitantes externos à empresa?
15:43Acho que essa é uma pergunta para um conselheiro, é fundamental, né,
15:47e acho que a terceira é, se a IA sair do controle, acontecer alguma coisa,
15:53qual é o nosso protocolo de resposta de incidentes?
15:56Temos uma política de consequência, dá para puxar da tomada, quer dizer,
16:00então, acho que assim, andando tudo bem, né,
16:03então, o que a gente já testou, qual é a regra do jogo
16:06e qual é o nosso protocolo de incidente de sala de crise da IA?
16:11Muito bom.
16:11E quais são os principais riscos que você acredita que são subestimados pelas empresas?
16:16O que você vê na prática?
16:19Eu acredito, Letícia, que o primeiro risco principal é que é um modelo experimental ainda,
16:26né, a IA está sendo aperfeiçoada,
16:28então, se a gente fala hoje de como nós temos, por exemplo, a IA generativa,
16:32ela já evoluiu muito comparado a um ano atrás
16:35e mais ainda comparado a dois anos atrás, né,
16:38então, eu acredito que assim, o encarar que você não está diante de uma tecnologia completamente,
16:45que já alcançou um estágio de equilíbrio, assim,
16:51ela ainda tem seus picos, seus ups and downs conforme a experimentação,
16:55então, isso é um ponto que eu acho que é importante,
16:58que é um risco que às vezes a gente não considera.
17:01O outro, existe o lado de risco que a gente pode dividir, né,
17:06então, aquela parte de riscos, todos das bases de treinamento e de saída da IA.
17:11Então, ali vai ter risco de propriedade intelectual, risco de privacidade, risco de cibersegurança, né,
17:19então, mas dentro disso, acho que já temos seguido um pouco mais de testes e alguns modelos.
17:26Aí vem o risco comportamental humano, o usuário que está usando,
17:30e aí, para isso, nós continuamos sempre precisando de treinamento, né,
17:35o letramento em IA e a definição de regras claras acaba sendo algo que a gente não pode negligenciar,
17:42ou seja, não pode desconsiderar o grau de importância.
17:46Então, hoje tem um recurso financeiro elevado, né,
17:49é um modelo de negócios que pode ficar muito caro no futuro,
17:53da forma como é oferecida a IA mais corporativa hoje,
17:57então, esse risco de eu ficar refém no futuro de uma solução de um fornecedor,
18:04num modelo de preço que ele pode mudar a qualquer momento unilateral e como que eu fico,
18:09eu acho que também é um ponto importante quando a gente estuda novos negócios,
18:13ainda mais baseados em IA.
18:15Ainda para a gente olhar essa questão de risco e como que isso tramita na justiça, né, hoje em dia,
18:21no caso de um incidente, né, relacionado a IA, quem é o culpado, né,
18:27é o funcionário, a empresa, é o desenvolvedor,
18:30e qual é o tamanho da multa, né, das punições relacionadas a isso?
18:37O que você tem visto?
18:39É, bem, não só Brasil, né, mas fora do país,
18:42acredito que a Europa foi uma das primeiras a começar a ter decisões,
18:47considerando questões aí voltadas para a inteligência artificial,
18:51mas acho que a primeira premissa é a IA não responde por ela própria,
18:54então você tem sempre uma divisão.
18:56Eu, a minha tese de doutorado, fiz o estudo lá na Alemanha, no Max Planck,
19:01depois nos Estados Unidos, na Columbia University,
19:03e eu estudei alguns casos de uso, entre eles o carro autônomo, por exemplo, né,
19:08e já havia um debate, desde 2017, ali na Alemanha mesmo,
19:14de quem poderia acessar a black box, né,
19:18que é a caixa preta de um carro inteligente autônomo,
19:21para fins de tentar entender o que aconteceu naquele acidente.
19:26E já havia essa divisão, quer dizer,
19:28existe uma parte de responsabilidade do que tem que vir programado de fábrica,
19:31ou seja, quando eu vou lançar aquela tecnologia,
19:34um carro autônomo não pode parar num país sem ter sido treinado
19:38no código de trânsito daquele país, né.
19:41Depois existe um aprendizado social.
19:45Estamos em São Paulo.
19:47Apesar de dizer que a gente tem que parar no semáforo vermelho,
19:50dependendo do horário e da noite,
19:52já não seria recomendado se você pensar na segurança daquele usuário.
19:56Então, você vai reduzindo, vai devagarzinho, devagarzinho, até passar.
19:59Então, isso já é aprendizagem social.
20:01Não é só baseada na regra pura, mas na aplicação dentro daquela localidade, né.
20:07E, logicamente, quando você vai olhar essa questão,
20:11você percebe que as multas hoje, ou os casos,
20:16eles primeiro estão indo em cima de infração de direitos autorais,
20:20esses são os que mais começaram nos países, né,
20:23discutir propriedade intelectual da base de aprendizagem, da IA.
20:26A segunda discussão hoje maior é em cima de...
20:31Não é um misbehavior, um comportamento inadequado,
20:34mas é o uso da IA para uma finalidade ilícita.
20:37É eu usar IA para fazer alguma coisa ilícita.
20:41E é isso devido ao aumento da fraude, golpes, deepfake.
20:45Então, muitos países, mesmo menores de idade,
20:48envolvidos com o uso de IA para fazer uma deepfake,
20:52para disseminar ali uma imagem não autorizada.
20:55Aí ela é meio, né, não foi ela necessariamente que fez,
20:59mas foi usando a inteligência artificial, né.
21:03Então, o que vem de fábrica, né,
21:05quando a gente pensa no desenvolvedor, existe uma responsabilidade ali.
21:09Mas, até agora, o princípio da responsabilidade que mais acomete,
21:14mesmo aí a outras tecnologias, é que a coisa perece para o dono.
21:18Quando alguém é dono de algo, e se algo faz uma coisa errada,
21:22o primeiro a responder é esse proprietário, seria quem está licenciando, né.
21:27Eu posso ter alguém usando aquilo que é de minha propriedade, né.
21:30Então, emprestei meu carro para alguém, por exemplo, tem um usuário,
21:35e eu tenho que poder demonstrar que houve um vício oculto naquele desenvolvimento.
21:40Então, aí eu puxo responsabilidade do desenvolvedor.
21:43Estava com defeito?
21:45Venho adequado?
21:46Por isso que a regulamentação hoje tem sido tão discutida.
21:49Como é que eu digo se tem defeito ou não?
21:51Como é que eu divido bem esse perímetro de responsabilidade da E.A.
21:55se eu não souber o que precisa já ser considerado by design,
22:00considerado a partir do fabricante, né.
22:03Porque, normalmente, é assim quando nós lançamos produtos.
22:06Eles não saem 100% já direto de fábrica.
22:09Na indústria de software, menos ainda, né, porque a gente aprendeu a conviver com atualizações.
22:15Tudo é uma atualização que é um nome chique para quando tem o bug, né,
22:18que é um nome interessante de defeito, né.
22:22Outras indústrias têm que fazer recall, traz aqui para eu arrumar.
22:26Não, na de software eu mando uma atualização.
22:28Acho que o desafio na da E.A. é como é que eu saio dessa cultura
22:33que a gente se acostumou nos anos 80 para cá, praticamente,
22:36de uma indústria de software e qualquer coisa eu atualizo
22:39para a E.A. que ela já vai para um nível que soma hardware com software
22:44e ainda soma o comportamental, né.
22:46Então, não é assim, vai deixando fazer e qualquer coisa depois remoto eu conserto
22:50porque também você não retreina a E.A. nessa velocidade,
22:54você não apaga uma coisa de dentro da E.A.,
22:57que, às vezes, é até um desconhecimento das autoridades.
22:59Então, manda retirar isso aí da E.A., não é como você desindexar um link
23:04num buscador, não é dessa maneira o aprendizado, né.
23:08Então, acho que esses que estão sendo os nossos desafios atuais.
23:12Mas a gente já vê casos, né, que tentam responsabilizar.
23:17Patrícia, acho que até para uma educação nossa,
23:20os debates regulatórios você tem nos Estados Unidos,
23:24com algumas premissas, princípios, Europa e China.
23:30É.
23:31Qual o fio condutor, assim, os principais princípios e premissas
23:38que você vê que diferem esses três polos de debate
23:41pelo que você vem acompanhando?
23:43Perfeito.
23:44Acho que vou começar pelos Estados Unidos.
23:46Ali há uma adoção de uma abordagem mais liberal.
23:49E não é só para a pauta da E.A.,
23:51é para a pauta de proteção de dados pessoais,
23:53qualquer pauta de você regular inovação e livre iniciativa privada.
24:01Então, há sempre um cuidado de se tentar trazer uma regra mínima necessária
24:07e se utilizar todo um mecanismo que já possui fiscalização setorizado
24:13para você poder ter regras também mais específicas voltadas ao caso de uso,
24:17que é aquele setor que está utilizando a tecnologia.
24:21Então, usar agências que já regulam setores econômicos
24:26como sendo o principal instrumentalizador de regras,
24:31sabe que códigos de melhores práticas, aplicação de ISO,
24:36isso pode vir independente de ter que sair o marco legal.
24:39Então, ao mesmo tempo, existe uma dinâmica,
24:42mas ela é mais verticalizada.
24:44Os Estados Unidos não costumam ficar produzindo legislações federais
24:51com esse tipo de efeito,
24:53porque sabem que depois a lei vai ficar obsoleta muito rápido.
24:57Já a Europa, agora indo para outro eixo,
25:00é quase como uma queda de braço ali com o eixo americano.
25:03Ela está na outra ponta.
25:05Existe uma premissa, e acho que a gente tem que entender história,
25:09de se tentar verificar o quanto que uma tecnologia pode vir depois a afetar humanidade,
25:16sustentabilidade.
25:18Então, essa preocupação hoje e futuro, ela é muito presente na União Europeia.
25:24E aí, pensando que ali eles querem promover livre economia entre os países,
25:30eles costumam ter que estabelecer guidelines, ou seja, regras, para que todos sigam.
25:34Porque senão, como é que eu consigo fomentar isso se cada um dos países da União Europeia fosse pensar diferente?
25:41Então, pelo fato deles terem essa dinâmica, já de multilateralidade de países,
25:49eles já começam sempre querendo estabelecer uma diretriz, ou uma legislação.
25:54Então, ou é uma diretriz geral, que depois cada país absorve ali, em termos de legislação,
26:00ou eles já saem mesmo com um regulamento, que nem foi feito com o GDPR,
26:05e agora eles fizeram com a inteligência artificial.
26:07Mas o problema é, você burocratiza.
26:12Você tenta ter uma previsibilidade de tudo possível.
26:16De um assunto muito desconhecido.
26:17De um assunto muito desconhecido.
26:19E aí, é por isso que próprios países da União Europeia já começam a dizer,
26:24gente, se eu adotar tudo que está previsto,
26:26dessa forma como a gente previu, que parecia uma boa ideia alguns anos atrás,
26:32nós não vamos conseguir implementar a inteligência artificial e nem acompanhar a evolução dela.
26:40Então, esse está sendo o desafio da Europa.
26:42Porque o modus operandi, e que vem desde a Constituição da União Europeia, é sempre esse.
26:48Então, a IA está precisando fazer, repensar o modelo como eles estabelecem essas regras e esses equilíbrios.
26:56O check and balances entre os países.
26:58E a China?
26:59Bem, a China já adotou desde o início, quer dizer, há vários anos atrás,
27:06estimular o desenvolvimento tecnológico.
27:08E querer ter tecnologia chinesa.
27:11Então, vou mandar o pessoal aprender nos outros países,
27:14ver o que puder e traz para a China.
27:16Ou vou fazer parcerias do governo chinês com empresas privadas,
27:20para que eu possa desenvolver essa tecnologia aqui também.
27:23Então, você vem para cá, você põe sua fábrica aqui,
27:26mas eu, que sou o governo chinês, também estou vendo tudo, estou olhando tudo.
27:31E aí, por isso, enxergou que se IA precisa de dados,
27:36precisa que ela aprenda com os rostos que nós temos,
27:40com toda a informação que tem,
27:41mas sempre é um regime controlado.
27:45Então, eles possuem regulamentação voltada para a inteligência artificial,
27:49mas dentro de um modelo que você está sempre sócio do governo chinês,
27:55e ele pode acessar e ver.
27:57Então, quando você olha os três, você diz,
27:58quem é que avançou, está avançando muito rápido?
28:01Bem, a China consegue avançar muito rápido.
28:04Porque não há um debate em cima do acesso a bases de dados
28:07que fiquem legitimadas dentro de uma parceria
28:10que o próprio governo traga ali para viabilizar isso.
28:14Eu escutei, me corrija se eu estiver com entendimento errado,
28:19que quando a gente vai para a China,
28:20você tem uma centralização dos ativos estratégicos.
28:23Então, por exemplo, a parte de banco de dados facial,
28:26já que isso está centralizado em um ativo governamental,
28:30e aí é uma liberdade de exploração dos casos de uso na ponta maior,
28:34trazendo a legislação muito mais pelo efeito,
28:36consequência daquele produto novo na sociedade,
28:40do que um estilo mais americano nesse sentido,
28:44do que um estilo mais europeu.
28:46Estou certa nessa leitura?
28:47Rodrigo, você está certo, e a gente tem que pensar também
28:50que lá não é uma escolha.
28:53Os ativos vão estar centralizados no governo.
28:56Mas é muito bom que se eu tenho um ativo centralizado confiável,
29:00eu consigo testar e avançar a tecnologia
29:02sem cada um precisar ficar investindo
29:04para construir aquela mesma base.
29:06O progresso vem mais rápido nesse sentido.
29:08Vem mais rápido e a gente corre menos risco
29:11de ter que ter tantas bases e tantas referências distintas.
29:17Então, nos Estados Unidos, como dado é poder,
29:20dado envolve modelos econômicos,
29:24e você já acaba vendo que os próprios desenvolvedores de tecnologia
29:28que foram desenvolvendo bancos de dados,
29:30cada um quer ter o seu, quer fazer da sua maneira,
29:33e aí, logicamente, fica ali o governo americano orquestra,
29:38mas ele dá muito mais liberdade para essa iniciativa privada,
29:41mas não é uma iniciativa privada que se une
29:43num consórcio, necessariamente,
29:46para daí todos utilizarem aquele modelo.
29:50E aí, aqui no Brasil, a gente tem um desafio de confiança.
29:53Como nós não alcançamos ainda um nível de cibersegurança adequado,
29:57não alcançamos um nível ainda de proteção de dados adequado,
30:02e aí você pensa o balcão público,
30:04quem é que vai querer centralizar os dados todos
30:07num ambiente público, que é o ambiente talvez mais suscetível
30:11para ataque, para vazamento, como é que vai ficar protegido.
30:14Mas que seria muito bom poder ter um conjunto ali de dados,
30:19que eu pudesse testar rápido a tecnologia,
30:21sem toda hora a gente ficar trabalhando diferente,
30:24seria também, o Brasil tem uma dimensão populacional
30:28que nos permitiria um protagonismo.
30:31Até porque aqui, diferente talvez até de China e Estados Unidos,
30:34eu acredito que o Brasil é o país de mais diversidade.
30:37Quando a gente pensa em miscigenação,
30:39em capacidade de você ter todos os tipos de rosto,
30:42foi até um dos motivos pelo qual o próprio passaporte brasileiro
30:45era tão desejado para quadrilhas, para fraude,
30:48porque qualquer pessoa em qualquer lugar do país,
30:50se tivesse um passaporte brasileiro,
30:52poderia ser um brasileiro,
30:53porque nós representamos praticamente todas as nacionalidades
30:57aqui dentro do nosso país.
30:59Quando você vai para a China,
31:01a capacidade de você ter ali um problema de acurácia,
31:05questões de rostos, mesmo no Canadá,
31:08mesmo coisas treinadas muito,
31:09que eles chamam do norte branco,
31:12em termos de tecnologia,
31:14e que não tem tanta experimentação,
31:16tanto com diversidade de gênero, racial e assim por diante,
31:20que é algo que a IA precisa.
31:21Então, se a gente conseguir chegar num modelo
31:24que não é centralizar no Estado,
31:27mas também não é pulverizar demais,
31:31e aí a gente não consegue desenvolver,
31:34eu acho que o Brasil tem a chance de criar um modelo brasileiro
31:38que possa funcionar bem.
31:40Agora, Patrícia, indo para uma esfera mais pessoal,
31:44a gente viu Zuckerberg anunciando modelos que simulam amigos,
31:51a gente vê casos de pessoas usando o chat GPT como psicólogo,
31:57e eu te pergunto,
31:57qual é o perigo de uma inteligência artificial que simula emoções humanas?
32:03Sabe, Letícia,
32:05que é um dos assuntos que eu gosto de ler,
32:08refletir bastante,
32:10e eu acho que o ser humano,
32:14nós estamos vivendo um momento
32:16que talvez, não tenho certeza,
32:19sim, a gente corre o risco de um humano preferir uma IA do que um humano,
32:23mas tem motivo para isso.
32:24Então, a IA está ali disponível,
32:28ela vai estar sempre simpática,
32:30não tem um problema de oscilação hormonal,
32:33de oscilação de humor,
32:35nada disso.
32:36Mas o nosso risco maior
32:38é não conseguir mais discernir realidade fantasia.
32:44Então, é lógico que eu posso preferir um agente,
32:46eu quero conversar com a IA,
32:48ela pode estar ali representando um papel
32:50de amigo,
32:53de namoro,
32:55de especialista em termos de alguma matéria,
32:59mas ela não é,
33:01ela está representando.
33:03Então, desde que a gente consiga deixar claro
33:05que aquilo ali é diferença de uma fantasia,
33:09uma realidade,
33:10eu acho que seria bom.
33:12Se você olhar influenciadores sintéticos hoje na mídia social,
33:17é quase que uma concorrência desumana,
33:19porque um influenciador sintético
33:21é maravilhoso,
33:23consegue rapidamente responder sobre várias pautas,
33:28não envelhece,
33:29não desliga,
33:30não dorme,
33:31não tira férias,
33:32nada.
33:32Então, assim,
33:33a gente tem que conseguir deixar claro
33:35que esse é um influenciador sintético.
33:37Então, se aquela pessoa acha
33:38tudo bem,
33:39vou seguir um sintético
33:40versus seguir um biológico,
33:42sabe,
33:42a gente vai começar a ter situações
33:44que a gente vai dizer
33:44isso é sintético ou é biológico.
33:46e querer permitir experiências
33:50por escolha,
33:52que a escolha tem que ser do indivíduo.
33:54Acho que a gente não pode pensar
33:55com a nossa cabeça de hoje
33:56ou de ontem
33:56o que pode acontecer daqui a 10, 20 anos.
33:59Em termos de escolha,
34:00pode ser muito melhor
34:01eu ter um suporte
34:02de um professor sintético
34:04para reforçar uma matéria
34:06e um idioma
34:06e falar com o professor biológico
34:09coisas de experiência,
34:10gerar uma experiência diferente.
34:12Então, talvez,
34:14a gente está sempre tendo
34:15que lidar com essa transição,
34:16mas a clareza
34:18e a transparência,
34:20se é um sintético
34:20ou se é um biológico,
34:22se aquilo foi feito
34:23até em conjunto,
34:24biológico mais sintético
34:26para dar um resultado,
34:27desde que eu não esteja
34:28enganando,
34:30ludibriando,
34:32eu acho que faz sentido,
34:33mas que a gente vai ter
34:34situações
34:35que a gente vai precisar
34:37enfrentar,
34:38como se a gente olhar
34:38no passado,
34:39é quando a gente
34:40trouxe todo
34:42um acolhimento
34:43dos pets.
34:45Talvez, se você olhar
34:45a sociedade de 30,
34:4740 anos atrás,
34:48iria dizer,
34:48nossa,
34:49mas como assim
34:50o pet friendly
34:51que tem que ter o pet,
34:53que está sempre com o pet,
34:54mas como assim
34:54que a pessoa não vai ter um filho
34:55e ela prefere um pet?
34:57São as escolhas
34:58da sociedade,
34:59mas esse pet
35:00segue
35:00um código de conduta,
35:03se ele entrar no shopping,
35:04no restaurante,
35:04tem o que você espera
35:06de um comportamento
35:08que precisa ser aceitável
35:10ali,
35:10mas você sabe
35:11que é um pet,
35:13então,
35:14será que a gente vai conseguir
35:15continuar tendo discernimento
35:16e saber,
35:17ah,
35:17é uma e a?
35:18Porque o que eu percebo
35:19é que as pessoas hoje
35:20têm bastante dificuldade
35:22de diferenciar
35:23o feito por e a
35:24versus o fato humano,
35:26ou seja,
35:26o feito por humano
35:27e se é e a
35:29ou se é humano,
35:31é aí que mora
35:32o maior perigo.
35:34Exatamente.
35:35A gente tem um impacto
35:36anunciado aí do
35:38ver para crer
35:39não ser mais algo
35:43realmente válido,
35:44né,
35:44na sociedade,
35:45porque eu posso estar
35:46vendo algo,
35:47acreditando,
35:48mas aquilo não existiu.
35:50E nada daquilo existiu,
35:51aquele lugar não existe,
35:52aquela pessoa não existe,
35:54aquela comida não existe,
35:55não quer dizer que
35:56naquele processo
35:57de apresentação,
35:59claro,
36:00mesmo que fantasioso,
36:02não tenha cumprido
36:03um papel,
36:03então a pessoa
36:05só não pode
36:06realmente achar
36:07que aquelas coisas
36:08existem daquela maneira
36:10e talvez nosso
36:11senso crítico
36:12sobre beleza,
36:14sobre as expectativas
36:17vão ficar ainda mais
36:18acirradas,
36:19porque existe um mundo
36:20perfeito da IA
36:21e já existia
36:22uma promessa
36:23do mundo perfeito
36:24nas mídias sociais.
36:25E o que isso trouxe
36:26para nós humanos?
36:27Uma série de consequências,
36:29efeitos colaterais,
36:30envolvendo saúde mental,
36:32envolvendo uma série
36:33de questões,
36:34então a gente tem que
36:36com esse aprendizado
36:37olhar assim,
36:37olha,
36:38essa oferta,
36:39essa promessa,
36:39tudo tão bem feito
36:41assim pela IA,
36:43é o que a gente
36:43costuma dizer
36:44que aí vai parecer
36:45que se tiver um pouquinho
36:46de defeito,
36:47uma pequena imperfeição,
36:49ah,
36:49então aí é que teve
36:50o humano envolvido,
36:52é que ainda está
36:52sendo aprimorada,
36:54mas a gente vai chegar
36:55nesse patamar.
36:56É engraçado,
36:57porque a gente vai
36:58começando a traçar
37:00comportamentos
37:02que a gente relaciona
37:03à IA,
37:03né?
37:04Recentemente teve,
37:06foi descoberto
37:07que a IA usava
37:08muito travessão
37:09por usar
37:11para treinamento
37:12dos textos,
37:13textos jornalísticos,
37:16de jornais
37:17formais,
37:19e quem usa
37:20travessão,
37:21por exemplo,
37:21eu amo usar travessão
37:22nos meus textos,
37:24e eu fico assim,
37:24não vou usar
37:25muito travessão,
37:26porque senão vão achar
37:27que é uma IA,
37:28assim como emojis,
37:30né?
37:30Elementos figurativos
37:32para poder resumir
37:33um texto,
37:35então a gente começa
37:35a dizer assim,
37:36ah,
37:36como é que eu percebo
37:37se foi com o uso da IA?
37:38E não quer dizer
37:39que não poderia ser,
37:41né?
37:41O uso de IA,
37:42mas às vezes você quer
37:43uma opinião,
37:44você gostaria da opinião
37:46daquela pessoa,
37:47então se vier uma opinião
37:49pela IA,
37:50o quanto é,
37:52né?
37:52No processo de trabalho
37:53que eu comecei colocando
37:55a minha opinião
37:56no prompt
37:57para daí a IA trabalhar,
37:58para daí a gente chegar
37:59juntos num resultado melhor,
38:01é diferente de uma pergunta
38:02aberta genérica
38:03em que ela já traz
38:04uma opinião,
38:05então já existe
38:06um direcionamento,
38:07então aí aquele
38:08que está usando o prompt
38:09ele está sendo convencido
38:10pela IA,
38:11ou seja,
38:12ele já gostou
38:12da primeira sugestão
38:14de opinião
38:15e no final
38:16era a opinião dele,
38:18e quando nós vamos
38:20para censo jornalístico,
38:21para quem escreve,
38:22para redatores,
38:23para autores de livros,
38:25de obras,
38:26isso vai ficando
38:27ainda mais latente,
38:29então no final assim,
38:30esse consumo,
38:32né?
38:32Ou essas relações sociais,
38:34a palavra-chave
38:35que a gente vai vivenciar
38:36que tem a ver com ética,
38:37na IA,
38:38vai estar relacionado
38:39à transparência,
38:40né?
38:41Aproveitando que a gente
38:42está falando de jornalismo,
38:44né?
38:44A gente viu alguns embates
38:46entre jornais estrangeiros,
38:48New York Times
38:49e grandes empresas
38:51de LLM,
38:52porque os textos jornalísticos,
38:54as matérias,
38:55elas são usadas
38:55para o treinamento
38:56e muitas vezes
38:58elas são usadas
38:58como resposta
38:59nas perguntas
39:01das pessoas,
39:02né?
39:02O que acaba
39:03derrubando a audiência
39:04desses veículos.
39:06Como que você enxerga
39:07essa discussão?
39:09Olha, Letícia,
39:10eu acho essa
39:11uma das discussões
39:12mais relevantes
39:14atualmente,
39:16porque,
39:16de um lado,
39:17é lógico que a IA
39:18precisa aprender,
39:19ser treinada,
39:20e existe um princípio
39:21quando você fala
39:22mesmo no fair use,
39:23no uso justo,
39:24dela poder ter lido
39:25muita coisa,
39:26visto muitos rostos,
39:27porque eu quero
39:28uma IA com maior acurácia,
39:30eu quero que ela fale
39:30coisas corretas,
39:32eu quero que ela identifique
39:33adequadamente uma pessoa,
39:35então,
39:36isso dentro do princípio
39:37do big data,
39:38que é o princípio
39:38do exaustão,
39:39ela precisa saber
39:40o máximo em cima
39:41daquele dado,
39:42daquela informação,
39:43então,
39:44isso é input,
39:44isso é entrada
39:45da base de dados,
39:46é treinamento,
39:47é diferente de saída,
39:48então,
39:49na hora que ela,
39:50ao retornar uma saída,
39:52começa a usar textos
39:53que estavam no jornal,
39:55textos que estavam em livros,
39:57que não seja apenas
39:58um trecho
39:58e uma referência,
40:00mas,
40:00de fato,
40:01misturando,
40:01e às vezes misturando demais
40:03uma coisa com a outra,
40:04que você já não sabe mais,
40:05um pedaço é do Rodrigo,
40:06um pedaço é da PEC,
40:06um pedaço é da Letícia,
40:08aquela mistura,
40:09aí você já começa
40:10a comprometer
40:11propriedade intelectual,
40:13porque você passa,
40:14não só,
40:15a afetar direitos
40:16autorais,
40:18você está editando,
40:19mexendo,
40:19mesclando,
40:21sem até,
40:21às vezes,
40:22a gente conseguir entender
40:22que parte de texto
40:23é de quem,
40:24porque no final,
40:24citar só as referências
40:25não quer dizer
40:26que eu sei qual parte
40:27daquilo saiu da onde,
40:29e dizer para aquele usuário,
40:31consulte agora
40:31todas as referências
40:32para ver de onde
40:33que vem cada um
40:34dos pedacinhos,
40:35aí seria
40:36uma tarefa desafiadora,
40:38mas a gente vai entrar
40:39na discussão
40:40de concorrência desleal,
40:42eu tenho escrito muito
40:43sobre concorrência desleal
40:44algorítmica,
40:45e a concorrência desleal
40:46tem a ver com desvio
40:47de clientela,
40:48então esse modelo
40:48de audiência,
40:49que alguém precisa
40:50de uma informação,
40:51buscaria na internet,
40:52eu buscaria até em clipping,
40:54em quem quer que seja,
40:55e alguém te dá
40:55só um pedaço do todo,
40:57para você depois
40:58buscar o todo,
40:59foi o modelo
40:59que a gente conseguiu
41:00ter até aqui,
41:02que assim,
41:02eu não estava comprometendo,
41:04eu não estou fazendo
41:05desvio de clientela,
41:06sempre vai ter alguém
41:07que vai se satisfazer
41:08só com a chamada,
41:09só com um parágrafo,
41:11mas aquilo sendo
41:13uma parte tão mínima
41:14do todo,
41:15o ideal seria o estímulo
41:17a você poder acessar
41:19aonde está aquela fonte,
41:21por isso essa referência,
41:23essa fonte,
41:23ela é essencial,
41:24a IA não começou
41:25citando a fonte,
41:26isso foi depois
41:27de já ter começado
41:28os primeiros casos,
41:30inclusive nos Estados Unidos,
41:32mas quando a gente olha
41:33para a frente,
41:34para o futuro,
41:35nós já sabemos
41:36que mesmo em redação,
41:38jornalistas,
41:38eles já começam
41:39a usar a IA também,
41:40para poder ajudar,
41:42para poder apresentar
41:43aquele texto
41:43de várias formas,
41:44para poder encaixar
41:45de repente melhor
41:46num formato de mídia social
41:47versus o jornal impresso,
41:49para públicos diferentes
41:50e tal,
41:51então existe uma parceria,
41:52então a gente tem que chegar
41:53num ponto de equilíbrio,
41:54quando eu estou usando a IA
41:55dentro do meu modelo
41:56de negócios,
41:57eu vou receber por isso,
41:59porque eu estou ainda
42:00mantendo aquela audiência,
42:01mas a IA,
42:02ela não pode virar
42:03uma trapaça,
42:05um atalho
42:06para um conteúdo completo
42:08que você passa por cima
42:10de quem seria
42:11o legítimo dono,
42:12aí essa coisa
42:13do cheat,
42:14da trapaça,
42:15do jogo,
42:16é que eu acho
42:17que a gente volta
42:17na ética,
42:18não pode ser trapaça.
42:21Vou te fazer
42:21uma pergunta
42:22nessa linha,
42:23Patrícia,
42:24evitando dar o nome
42:25do santo,
42:26para não expor ninguém,
42:27eu sou uma empresa
42:30hoje,
42:30e como a gente tem
42:31falado bastante
42:31aqui no programa,
42:32eu quero criar
42:34um hub
42:34de inteligência artificial,
42:36para os meus colaboradores,
42:40de forma que
42:41meus dados
42:42estão dentro
42:43desse hub
42:43e eu crio a gente
42:44sobre meus dados
42:45com uma forma segura,
42:46já tudo conectado
42:47bonitinho,
42:49tem uma série
42:49de ferramentas
42:51de mercado
42:52que estão oferecendo
42:53a tecnologia
42:54para ser plataforma
42:55desse hub.
42:59Pois bem,
43:00uma dessas empresas
43:01que oferece essa plataforma,
43:03muito forte
43:03no setor do CRM
43:04e principalmente
43:06de chat corporativo,
43:09ela decidiu
43:09algumas semanas atrás
43:11a fechar
43:12o acesso
43:14de empresas
43:14terceiras
43:15aos seus dados
43:17dentro dessa plataforma.
43:19Então,
43:20se eu trabalho
43:21com um fornecedor
43:22que pega
43:24meus dados
43:24transacionados
43:26nessa plataforma
43:26e passa
43:27por esse fornecedor
43:31para entregar
43:31um benefício,
43:32eu não posso mais
43:33fazer isso,
43:33eu só posso fazer
43:34com fornecedores
43:35que estejam homologados
43:35no ecossistema
43:36dessa ferramenta.
43:40Ela está,
43:40de alguma forma,
43:41te proibindo
43:42de usar
43:42o seu próprio dado.
43:44É,
43:44ela limita,
43:45né,
43:45o seu uso de dados.
43:46Limitando você
43:46a usar o seu próprio dado.
43:48E aí,
43:48essa empresa,
43:50ela teve um movimento
43:51que foi seguido
43:51por algumas outras.
43:54E trouxe
43:54uma discussão
43:55de até quanto
43:57que vale
43:57ou não vale
43:58no jogo
43:58do Arnaldo,
43:59quanto que o Arnaldo
44:00deixa ou não deixa,
44:01você fechar
44:02o acesso
44:05aos seus próprios dados
44:06dentro dessas ferramentas.
44:08O que você tem
44:08para trazer para a gente
44:09sobre essa
44:10discussão
44:12e de limites
44:15até onde uma empresa
44:16de software pode
44:16ou não pode
44:17seguir com esse tipo
44:18de conduta?
44:20Olha,
44:20Rodrigo,
44:20esse é um dos temas
44:22dentro ainda
44:23daquela discussão
44:24de concorrencial.
44:25O até onde
44:26eu estou legítimo
44:27de fazer uma restrição
44:29para fornecedores
44:30homologados
44:31que vão se conectar
44:32numa API,
44:32mas porque estão
44:33seguindo padrões
44:34de segurança
44:35para que depois,
44:37se acontecer alguma coisa,
44:38não responder eu,
44:39que sou a plataforma,
44:40ou seja,
44:41eu tenho um dever
44:41também ali
44:42de garantia
44:43em cima dos dados
44:44que estão circulando
44:46e para quem
44:46eles vão alcançar.
44:48Ou,
44:48como a gente vai olhando
44:49todos os modelos
44:50de Open,
44:50de Open Banking,
44:52Finance,
44:53Health,
44:54Insurance,
44:54todos esses,
44:55de que maneira
44:57e acho que aí
44:58falta o regulador
44:59às vezes poder trazer
45:00conforme o caso
45:01de uso,
45:02porque alguns
45:02desses casos aí
45:03quando a indústria
45:03é pura de tecnologia
45:04não tem regulador nenhum,
45:06ninguém definindo
45:07regra do jogo,
45:08é esse que é o ponto,
45:10né?
45:10Então,
45:11quando você não tem
45:12um terceiro independente,
45:13um regulador
45:14que possa trazer
45:15regras que seriam
45:16equilibradas,
45:18você acaba
45:19que a própria empresa
45:19traz as regras,
45:21por isso que os contratos
45:22hoje comandam
45:23a internet,
45:24né?
45:24A internet é governada
45:25por contratos,
45:27em termos de uso,
45:28políticas,
45:29licenças,
45:30que alcançam populações
45:32e países
45:33e até desafiam soberania
45:35nesse sentido.
45:37E a IA está trazendo
45:38a mesma linha.
45:40Eu não consigo
45:41ter quem defina
45:43esses padrões,
45:44então cada um
45:45vai jogando o seu jogo,
45:46só que é um jogo
45:47perigoso
45:48em cima
45:48de um concorrencial,
45:49porque se ele
45:50só homologar
45:51fornecedores
45:52depois dentro
45:52do seu próprio
45:53grupo econômico,
45:54por exemplo,
45:55você já está
45:55restringindo
45:56concorrência,
45:57né?
45:58Quando a gente fala
45:58de precisar
45:59ser código aberto,
46:01para que você
46:01possa ter mais
46:02desenvolvimento,
46:03não ficar refém,
46:03que aquilo que eu
46:04comentei antes,
46:04lá na frente você
46:05vai ficar refém
46:06de um só
46:06e não é só
46:08da tecnologia dele,
46:09seus dados
46:09vão ficar lá.
46:11Então,
46:11o que lhe garante
46:12a possibilidade
46:13de acesso
46:14aos seus próprios
46:15dados
46:16e portabilidade?
46:17E são esses
46:17os itens principais
46:19que uma regulamentação
46:20tem que tratar.
46:20Portabilidade,
46:21a palavra-chave.
46:22A portabilidade
46:24do dado,
46:25com toda certeza.
46:26O direito
46:26da gente ir e vir.
46:28Exato.
46:29E não é só
46:29de um dado pessoal
46:30que já foi previsto
46:31isso na LGPD,
46:33no GDPR,
46:34né?
46:34Quando a gente fala
46:35em A,
46:35a gente está falando
46:36de todo tipo
46:37de informação
46:38que pode estar
46:39envolvendo
46:40uma entidade
46:40corporativa,
46:41sociedade.
46:43Então,
46:43a gente saiu
46:44desde informações
46:45que estão dentro
46:45de propriedade
46:46intelectual,
46:47como nos dizem,
46:48segredo de negócio,
46:49trade secret.
46:49meu dado está ali
46:51e eu preciso
46:52transacionar com esse.
46:53Se você tiver
46:53um processo
46:54aberto,
46:55claro,
46:56de homologação
46:57de fornecedor,
46:58vou pedir ao meu parceiro
46:59que se homologue
47:00para que a gente
47:01possa utilizar
47:02a plataforma
47:04e o meu dado
47:05circule.
47:06Ou seja,
47:06chegar a sair de A,
47:08passar por B
47:08e chegar em C,
47:09né?
47:10Mas,
47:11se não,
47:11você tem seu próprio
47:12critério subjetivo
47:13de quem você homologa
47:14como fornecedor
47:15e ainda,
47:16curiosamente,
47:16alguns desses
47:17são dentro
47:18do seu próprio
47:18grupo econômico,
47:20aí você já está
47:21ferindo
47:21a prática
47:22de concorrência,
47:23né?
47:23Aí vira uma concorrência
47:25desleal
47:25e digo até mais
47:26que é um jogo
47:27que para futuro
47:29pode dar um problema
47:30grande,
47:31que para você
47:31acessar seu dado,
47:32se alguém muda o preço
47:33unilateralmente ali,
47:35vou pagar quanto
47:35para conseguir,
47:36de novo,
47:36conseguir acessar
47:37aquela informação,
47:39né?
47:39Acho que
47:40é um pedágio
47:41digital
47:43em cima de dados
47:44na era da IA.
47:46Nossa!
47:46E que teses
47:46são seus dados?
47:47da sua organização.
47:49Exato,
47:49exato.
47:50Aí é o jogo perigoso,
47:51por isso que eu disse,
47:52a IA foi somando
47:53hardware,
47:53software e dados.
47:55Ela somou tudo agora,
47:56né?
47:56Então,
47:57você sai desde patente mesmo
47:58de algoritmo,
47:59de A,
48:00coisas bem,
48:01que são da indústria
48:01mais voltada
48:02para o hardware,
48:04há discussões
48:04de direitos autorais
48:05em cima de software
48:06e de bases de dados,
48:08confidencialidade.
48:10Na minha tese
48:10a gente discutia
48:11era de quem é
48:12a propriedade intelectual
48:13do conhecimento
48:14aprendido pela IA,
48:16que é o conhecimento
48:17sistêmico,
48:18né?
48:18Esse resultado
48:19de analytics,
48:20né?
48:20Aquilo que ela aprende
48:21e a partir daí
48:22ela continua.
48:23Porque tem uma hora
48:23que ela não precisa
48:23mais do dado bruto.
48:25Você não precisa mais.
48:26Você já treinou o modelo.
48:27Perfeito.
48:28É?
48:28Então não precisa.
48:29Você quer seu dado de volta?
48:30Tome aqui, né?
48:31Mas o que eu posso fazer
48:33com esse conhecimento
48:34aprendido
48:35a partir daquelas bases
48:36de dados
48:37e como que a gente
48:37estabelece isso, né?
48:39Posso eu como desenvolvedor,
48:41você como cliente,
48:42mas se aquilo ali
48:43para você,
48:44se outros ficarem sabendo,
48:45pode gerar problemas
48:47relacionados
48:47ao trade secret,
48:50como eu comentei.
48:51Então sim,
48:52esse triângulo amoroso
48:53aqui de hardware,
48:54software e dados
48:55é o nosso grande desafio.
48:57Tem muito pano
48:57para manga ainda.
48:58Muito pano para manga.
49:00Muito mesmo.
49:01Patrícia,
49:01discutir ética,
49:03regulação, né?
49:05E diretrizes
49:06de inteligência artificial
49:07é muito interessante,
49:09rende muito assunto.
49:10Já quero convidar você
49:11para voltar aqui
49:13e falar mais,
49:14porque sempre vão surgir
49:15coisas novas, né?
49:17Casos novos,
49:18coisas novas,
49:18aprendizados em cima de casos.
49:21Então,
49:22acho que sim,
49:22já fico também
49:23à disposição
49:24para voltar
49:25para a gente ir fazendo
49:25como uma série
49:27assim mesmo, né?
49:28Quer dizer,
49:28e agora?
49:29O que mais
49:29que a gente pode
49:30trabalhar em cima disso?
49:32Mas eu acredito,
49:33Rodrigo,
49:33que hoje
49:34com as empresas,
49:35seja contratante
49:36ou contratado,
49:37precisam e podem usar
49:38até entidades associativas,
49:40representativas
49:41de determinados setores,
49:42sentarem para definir
49:44esses guidance,
49:46sabe?
49:46Esses guias
49:47de melhores práticas
49:48de uso.
49:48Porque no final
49:49isso também protege
49:50cada um individualmente.
49:51Porque se alguém
49:52disser que seguiu
49:53aquele material,
49:54aquela cartilha
49:55referência
49:55de melhores práticas,
49:57maravilha.
49:59Combinado,
49:59não sai caro.
50:00O jogo está claro,
50:01cartas na mesa,
50:02senão eventualmente
50:03um ou outro
50:04vai ou querer judicializar,
50:06levar para o judiciário,
50:07ou querer parar
50:08em algum regulador,
50:09vou levar lá para o CAD
50:10para falar de concorrencial.
50:12Então,
50:13acho que sempre
50:13a partir do mercado,
50:15a partir de regras
50:16que possam ser
50:17assim,
50:18práticas comuns
50:20de todos,
50:21aí depois você vai
50:22para contratos
50:23e a legislação
50:24acaba no final
50:25sendo resultado
50:26desse aprendizado.
50:27Você começar ao contrário,
50:28vou primeiro colocar a lei
50:29para depois impor
50:31ao mercado aquela regra,
50:33talvez não funcione
50:34essa ordem
50:35dos fatores.
50:37Porque para o legislador
50:38conseguir entender
50:39essa dinâmica,
50:40o que é o mínimo
50:41necessário
50:41para uma lei
50:42mais horizontal,
50:44eu acho que
50:45é um desafio maior.
50:46Eu pensando aqui
50:47com tudo
50:48que você trouxe,
50:49obrigado,
50:50acho que está
50:50um papo super profundo
50:52e rico de dicas
50:54para quem está
50:54construindo o AI,
50:56um bom trabalho
50:57bem feito
50:58por grandes organizações
50:59repercute no ecossistema
51:01dessas organizações.
51:03Então,
51:03um bom trabalho
51:04de ética
51:04no uso de AI,
51:05ele acaba repercutindo
51:07nos fornecedores
51:08e numa mínima
51:10organização inicial
51:11do mercado
51:14no Brasil.
51:15Exatamente.
51:16E a gente pode
51:17dar esse passo,
51:18acho que os próprios
51:19players dizerem assim,
51:20vamos sair ali,
51:21sei lá,
51:21vou fazer pela FEBRABAN,
51:23vou fazer por um CONAR,
51:24por uma,
51:25por quem é que a gente
51:26vai fazendo
51:27guias e recomendações
51:29do que é que você vai
51:30prever de papéis,
51:32de regras,
51:33de obrigações.
51:34O que aceita,
51:34o que não aceita,
51:35o que está sendo transparente.
51:36Exato,
51:37exatamente.
51:38Porque aí o mercado
51:39está desenvolvendo
51:40e acaba que
51:42numa mesa assim
51:43com desenvolvedores,
51:44a pessoa diz assim,
51:46ou não estou colocando
51:47nenhuma referência
51:48de regra
51:48ou estou seguindo
51:49a que eu acho.
51:49mas esse combinado
51:51um pouco maior,
51:52esse é o estágio
51:53de maturidade
51:53que a gente não chegou
51:54ainda, Letícia,
51:55e que deveríamos.
51:56Acho que mais rápido
51:57do que ficar esperando
51:58sair a lei, sabe?
51:59Sair o marco legal
52:00é aquilo que o mercado
52:02consegue agir.
52:03Perfeito.
52:04Patrícia,
52:04muito obrigada
52:05pela sua participação.
52:07Ah, eu que agradeço.
52:08Imagina.
52:09Obrigada.
52:10E a você que nos acompanhou,
52:12obrigada pela sua audiência.
52:13O Revolução é a volta em breve.
52:15Até lá.
52:19Transcrição e Legendas por Quintena Coelho
Comentários