00:00Ci devono essere garanzie assolute sull'uso dell'intelligenza artificiale in guerra,
00:04altrimenti sarà un disastro. La riflessione dell'esperto Stuart Russell, co-direttore
00:09dell'Associazione Internazionale per un'intelligenza artificiale sicura e etica,
00:13arriva durante l'AI Action Summit, vertice di capi di Stato, organizzazioni e aziende,
00:18a Parigi e all'indomani del cambiamento di policy di Google che non escude più di far
00:23usare l'intelligenza artificiale per gli armamenti. Un segno dei tempi e di quello
00:28che ci aspetta in futuro, spiega Russell. Avremmo armi in cui l'intelligenza artificiale
00:34decide chi attaccare, quando e così via. Presumibilmente opererebbe con istruzioni
00:39piuttosto generiche, come attaccare e distruggere tutto ciò che si muove in questa regione ad
00:44esempio, ma potrebbe anche essere usata in modi molto più pericolosi. Ad esempio uccidere
00:49chiunque corrisponda alla seguente descrizione, e la descrizione potrebbe essere per età,
00:53per sesso, per gruppo etnico, per affiliazione religiosa o anche proprio per un particolare
00:58individuo. Al mondo ci sono 75 paesi che stanno sviluppando armi a controllo remoto e pensando
01:04a come renderle del tutto autonome, altri 100 invece le vogliono vietare. Serve una
01:10decisione a livello globale con l'intervento dell'ONU, ha precisato Russell. Sembra ragionevole
01:19chiedere garanzie assolute, soprattutto quando si parla di estinzione umana,
01:23che potrebbe arrivare da sistemi di intelligenza artificiale molto più intelligenti di noi,
01:27molto più capaci di influenzare il mondo. E non solo faremo uno sforzo, fidatevi di noi,
01:32sappiamo cosa stiamo facendo, giusto? Ci devono essere garanzie assolute, sotto forma di prove,
01:37statistiche o matematiche, che possano essere ispezionate, verificate attentamente,
01:42qualsiasi cosa al di sotto di questo livello farà solo rischiare un disastro.
Commenti