00:00Vamos repercutir esses assuntos agora aqui no Olhar Digital News.
00:05E para isso vamos receber ao vivo Sandro Teixeira Moita,
00:09que é professor de Ciências Militares da Escola de Comando e Estado Maior do Exército.
00:15Vamos lá, deixa eu colocar o Sandro aqui na nossa tela
00:19para a gente conversar um pouquinho sobre esse momento. Vamos lá.
00:24Olá, boa noite, professor Sandro.
00:26Seja muito bem-vindo ao Olhar Digital News e muito obrigada pelo seu tempo.
00:31Muito obrigado a você, Marisa, pelo convite e uma boa noite a você e a toda a nossa audiência.
00:38Professor Sandro, eu queria começar falando, porque a gente tem observado muitas discussões
00:43sobre esse uso da inteligência artificial em guerras,
00:47mas quando essa tecnologia passou a ser usada para fins militares
00:51e como tem sido essa evolução da adoção da tecnologia?
00:58Marisa, não é a primeira guerra que a gente observa a utilização de plataformas
01:03de inteligência artificial em diversos níveis, seja para planejamento,
01:08seja para apoio logístico, seja fornecer os suprimentos necessários para fazer a guerra,
01:15equipamentos, munições, água, comida e por aí vai.
01:19A gente tem a primeira guerra que teria a utilização de plataformas de ar,
01:25é considerada a Operação Guardião das Muralhas, que é um enfrentamento entre Israel e Hamas em 2021.
01:32E desde então a gente tem aí o desenvolvimento de sistemas por diversos países,
01:36os Estados Unidos, a Rússia, a China, o próprio Israel,
01:41assim também como a Ucrânia, que vem desenvolvendo vários sistemas de inteligência artificial
01:46nas suas forças armadas desde a invasão russa em 24 de fevereiro de 2022.
01:51Aqui, no caso americano, a gente até conhece alguns dos projetos,
01:55existe o projeto Maven e também existe um grande projeto do Pentágono,
02:00que é o JADC-2, que é um projeto que cria uma inteligência artificial capaz de trazer os dados
02:07de todas as forças armadas, ou seja, de todo o departamento de defesa,
02:11agora chamado departamento de guerra, para poder planejar e também observar a execução de operações militares, Marisa.
02:20Então, a adoção de IA, ela vai em diversos níveis,
02:24desde o planejamento da logística da operação, até mesmo o controle da operação em tempo real.
02:30Agora, professor Sandro, é curioso, porque muita tecnologia nasce com fins militares,
02:36como, por exemplo, o próprio celular, que nasceu, a origem do celular é em ambiente mesmo de combate e de
02:43guerra.
02:44Agora, essa guerra no Irã, talvez ela já nasceu em um momento em que, pelo menos para nós,
02:51aparentemente a IA já está mais avançada.
02:54O que nós temos observado sobre essa evolução dessa IA nessa guerra específica do Irã?
03:02Veja, Marisa, a gente tem diversas informações,
03:06mas o desenvolvimento desse sistema de inteligência artificial,
03:10tanto por Israel, quanto pelos Estados Unidos, mas também pelo Irã,
03:15indica que a gente tem a utilização desses sistemas para coordenação de ataques,
03:18para formulação daquilo que a gente chamaria um pacote de ataque.
03:22O que é um pacote de ataque?
03:23É quando você designa alvos, ou seja, você junta as informações que você possui,
03:28muitas vezes fragmentadas, e aquela IA processa rapidamente, muito mais rápido do que um humano,
03:35aproveitando da capacidade de supercomputação, ou computação inclusive quântica,
03:40e ela entrega para você, em minutos, algo que levaria horas ou dias para ser feito por um analista humano.
03:47Então, ela já formula os alvos, ela verifica se aqueles alvos,
03:51observando as imagens após os ataques, foram realmente atingidos,
03:55ou seja, ela faz a análise pós-ação, e aí a gente tem diversas capacidades.
04:01Israel tem alguns programas que são conhecidos, a gente tem programas com nomes diversos,
04:06há um programa que, traduzindo para o português de maneira livre,
04:10a gente chamaria de Poço da Sabedoria, o outro se chamaria Alquimista,
04:14e ainda há um terceiro programa, que inclusive foi muito utilizado na operação em Gaza,
04:19chamado Fire Factory, seria a Fábrica de Fogos.
04:22Todos esses programas, essas plataformas de IA, elas atuam coordenadas
04:27para que você possa vigiar o seu oponente, o seu inimigo,
04:35para que você possa ver a movimentação dele em tempo real,
04:38utilizando-se de sensores, de imagens de drones, de aviões e outras plataformas,
04:43juntar isso em capacidades que possam fazer com que você possa intervir mais rápido no campo de batalha.
04:48Então, o que a IA traz, Marisa, efetivamente, talvez seja uma aceleração,
04:55inclusive do processo de decisão para atacar, e também do controle das operações militares,
05:00impondo uma pressão muito grande, até mesmo sobre líderes políticos.
05:05Agora, em paralelo, os Estados Unidos têm aí um embate entre Antrópica e o Pentágono,
05:11que ganhou bastante o noticiário nos últimos dias.
05:14A startup não aceitou alguns termos como o uso de inteligência artificial
05:19para vigilância doméstica em massa, por exemplo, ou armas totalmente autônomas.
05:26Como que essa situação, esse caso, ilustra, professor,
05:30as preocupações éticas sobre essa integração de tecnologia e a guerra em si?
05:38Veja, a gente tem, por exemplo, um evento conhecido no meio militar de 2020,
05:48que foi um drone de origem turca, utilizado na Guerra Civil da Líbia,
05:54que, alimentado por um sistema de IA, um sistema muito primitivo naquele momento,
05:59ele desobedeceu o controlador dele, tomou a decisão de maneira autônoma
06:04de atacar figuras que eram identificadas como seus inimigos,
06:10e ele efetivamente matou combatentes inimigos.
06:14Ele matou quatro combatentes inimigos, é o chamado incidente do Cargo 2,
06:18que é o nome do drone, na Líbia.
06:21Então, depois desse incidente, o debate ético sobre um sistema de IA
06:28que possa perceber quem é o inimigo, tomar a decisão e efetivamente levar a cabo
06:35essa decisão, ou seja, executar aquele comando de eliminar o inimigo,
06:39pode sim criar um problema enorme no controle da guerra.
06:43Então, é preciso criar mecanismos que você possa sempre sobrepujar
06:48a formulação do sistema para que você mantenha o controle humano,
06:52porque a tendência de um IA acelerar a decisão é muito grande,
06:57e decisões na guerra são fatais, decisões são decisões de segundos
07:01que podem criar impactos que se arrastarão por anos, até mesmo décadas, Marisa.
07:07Então, o debate ético é muito importante,
07:11agora esse debate está sendo feito em sociedades democráticas,
07:14a gente obviamente não vai ver esse debate sendo feito na Rússia nem na China.
07:18Então, a posição que a Antropic tomou é uma posição de acordo com o que você já tem visto
07:23muitos especialistas na ideia de como você vai utilizar IA
07:28e como você vai utilizar armas autônomas, e que elas não devem se misturar.
07:32Armas autônomas devem ter uma capacidade limitada de operação
07:36e não devem ser supridas por sistemas de IA,
07:38porque senão você está criando uma figura capaz de combater
07:42sem a intervenção humana, o que pode ter consequências desastrosas no campo de batalha.
07:48Pois é, porque inclusive sobre esse comentário da China,
07:51da IA chegar a puxar o gatilho, como aconteceu já nessa situação,
07:58ou seja, como que a gente pode imaginar um futuro, como a China alertou,
08:04e o que fazer para que isso não saia do controle,
08:07tendo em vista que, como você mesmo comentou,
08:10é uma discussão ética, sim, mas em ambientes democráticos,
08:13e em ambientes que não o são.
08:18Aí vai caber a pressão da comunidade internacional
08:21sobre esses países que estão desenvolvendo esses sistemas,
08:25mas aí, Marisa, há também uma questão.
08:27Sistemas autocráticos, eles têm uma necessidade,
08:30sistemas que são autocráticos, ditatoriais,
08:32eles têm uma necessidade muito grande de controle.
08:35Então, no momento em que você desenvolve um sistema
08:37que é capaz de tomar decisões por si só e mobilizar força,
08:42esse sistema pode acabar sendo, de certa maneira,
08:45uma ameaça ao próprio, a esse próprio sistema autocrático,
08:49esse regime autocrático, como é o regime chinês,
08:51como é o regime russo, como é o regime iraniano.
08:54Então, há também uma questão de limitações por parte desses países
08:58no desenvolvimento de sistemas de IA.
09:01O interesse deles, até, do que a gente pode levantar
09:04e do que tem sido estudado, é no desenvolvimento muito mais tático,
09:08ou seja, na aplicação direta do combate,
09:10mas em menor escala, até mesmo do que a vislumbrada
09:15por Israel e pelos Estados Unidos.
09:17Então, a pressão da comunidade internacional,
09:19e a gente tem aí diversas iniciativas,
09:22tem, por exemplo, o movimento Stop the Killer Robots,
09:25você tem diversas figuras da indústria de alta tecnologia
09:29e mesmo da IA, que se colocam contra a ideia
09:32de que você possa desenvolver sistemas para operar armas autônomas,
09:35ou até mesmo capacidades nucleares ou de mísseis e foguetes.
09:39Então, aqui vai caber a pressão dos cidadãos
09:42e a pressão da comunidade internacional
09:43para que a gente chegue ao momento
09:45onde haja um tratado que controle
09:49a proliferação de sistemas de inteligência artificial,
09:51tal como a gente teve esse arcabouço para armas nucleares.
09:56Perfeito, excelente, professor Sandro Teixeira,
10:00muitíssimo obrigada pela sua participação aqui hoje
10:03no Olhar Digital News, trazendo todo esse cenário aqui para a gente,
10:06para entender até melhor.
10:08Muito obrigada e espero encontrá-lo em outros momentos.
10:11Muito obrigado a você, Marisa, uma boa noite a você,
10:14uma boa noite a toda a nossa audiência e muito obrigado pelo convite.
10:18Até a próxima.
10:19Está aí, pessoal, muito obrigada, boa noite.
10:21Está aí uma entrevista super bacana com o professor Sandro Teixeira Moita,
10:26aqui no Olhar Digital News, trazendo essas informações.
10:30Ele que é professor de ciências militares da Escola de Comando
10:33e Estado Maior do Exército.
10:35Espero que vocês tenham gostado da nossa entrevista,
10:38muito interessante, não?
10:39Não, não, não, não.
Comentários