00:03Credo che l'intelligenza sovrana, che poi è intelligenza artificiale governata, cerchi di affrontare tre grandi problemi.
00:11Il primo è quello di evitare la dispersione del patrimonio cognitivo delle aziende o delle istituzioni.
00:17Come sapete l'intelligenza artificiale su chi ha dati, sulla base di questi dati impara
00:22e se succede che qualcuno dopo di voi fa l'accesso allo stesso modello, si nutre e si arricchisce del
00:30vostro know-how e del vostro patrimonio cognitivo.
00:33Quindi avere un'intelligenza artificiale che riesca a ritenere il know-how di un'azienda o di un'istituzione al
00:39suo interno
00:39senza condividerlo con i concorrenti o con altre persone che non volute, non desiderate, effettivamente è un vantaggio.
00:46Il secondo tema che cerca di affrontare è il tema della trasparenza,
00:50quello che nel gergo tecnico viene chiamato degli open weights.
00:54Voi sapete che i pesi sono i parametri numerici attraverso i quali questa gigantesca funzione dell'intelligenza artificiale lavora
01:02e il tema è che tipicamente i grandi modelli sono delle scatole chiuse.
01:08Quindi voi conoscete l'input, conoscete l'output, ma non sapete dire perché è stata presa una certa decisione,
01:14è stata data una certa risposta.
01:16Immaginatevi di avere un consulente infallibile che vi dà delle risposte e risolve problemi.
01:21Alla fine gli chiedete benissimo ma come hai preso in base a quattro hai preso questa decisione?
01:25E lui dice no, non te lo posso dire, è un segreto.
01:28Diciamo avere gli open weights, avere il controllo completo di tutta la parte dei dati
01:35risponde a questa seconda grande esigenza.
01:38La terza esigenza è quello che chiamiamo un'esigenza di proporzionalità dell'uso dell'intelligenza
01:45rispetto alla dimensione e all'articolazione dei problemi che deve affrontare.
01:52Grandissimi modelli consumano tantissima energia,
01:56alcuni modelli possono essere chiamati per risolvere certi problemi,
02:00altri modelli devono essere chiamati per risolvere problemi molto più specializzati
02:04con utilizzi e intensità di consumi energetici decisamente inferiori.
02:09Qua non voglio dire che non bisogna usare i grandi modelli,
02:12bisogna usare i grandi modelli quando è il caso di usare i grandi modelli.
02:15Quindi giusto per dirne ora, i grandi modelli vanno utilizzati
02:18quando non c'è un patrimonio cognitivo o un intellectual property da difendere.
02:25Quando invece però è a rischio il know-how di un'azienda, di un'istituzione,
02:29i dati di clienti o di cittadini,
02:31evidentemente bisogna stare decisamente molto molto più attenti.
02:35Noi intendiamo in qualche modo, con lo sviluppo di questa architettura,
02:38abbiamo inteso riempire un bisogno che c'è da parte delle imprese
02:43effettivamente di dare risposta a quelle sfide di cui vi stavo parlando.
02:48Crediamo che attraverso l'architettura, che è molto più complessa di un...
02:51noi abbiamo sviluppato un large language model
02:54e su questa base abbiamo poi costruito tutta un'architettura
03:00che in qualche modo aiuta le aziende o le istituzioni
03:03a costruire gli agenti, a dare perfetta visibilità sulla compliance,
03:09per cui il modello e tutta l'architettura è nativamente compliant
03:14con il GNI Act europeo
03:17e intendiamo in questo modo dare una risposta a tutte queste esigenze.
03:22Tenete conto che per esempio tutto il tema della ispezionabilità dei modelli
03:26è un tema legale ma è anche un tema etico se ci pensate
03:30perché alcune risposte che queste macchine prendono
03:33e devono essere spiegate a cittadini, a giudici, a regolatori
03:38questi modelli aperti possono effettivamente far aprire il cofano
03:44vedere che cosa c'è nel motore
03:46i modelli chiusi questa cosa non la possono fare
03:48e quindi si prestano sicuramente a problematiche importanti
03:52che dicevo sono sia legali sia di natura etica
03:54e potrebbero essere anche di natura democratica per certi versi
03:57perché pensate per esempio all'assegnazione, ai criteri di assegnazione di un credito
04:00piuttosto che ai criteri di assegnazione di risorse statali
04:04a diverse, se le fate prendere alla macchina dovete essere sempre in grado
04:07di difendere le decisioni che la macchina prende
04:11se non siete in grado di difenderla la decisione forse è meglio che non l'abbiate presa.
04:15Questo è un po' il tema sul quale ci siamo focalizzati
04:19Sicuramente ovviamente c'è tutto il tema della
04:23come dicevo, pensate a alcuni temi
04:26uno è la protezione degli IP
04:30e quindi l'evoluzione per esempio della normativa sui data leaks
04:34per quanto riguarda l'accesso ai modelli di AI
04:37e quindi la protezione dell'AI
04:40un secondo tema che io potrei citare sicuramente da punto di vista di chi fa le regole
04:45è il dire che i modelli devono essere perfettamente ispezionabili in end to end
04:51quindi non devono essere solo chiari i parametri del modello
04:54ma devono essere chiari e aperti anche i dati di training
04:57su cui è stato allenato il modello
05:00perché voi sapete benissimo che poi in funzione dei dati
05:04il modello acquisisce certi modi di pensare, certi comportamenti
05:08e non si tratta solo di governare la meccanica del modello
05:12ma anche il tipo di comportamento del modello
05:14perché poi molte volte alcuni modelli
05:16ai confini dei domini si comportano in maniera abbastanza strana
05:20quindi se voi non guidate e non mettete dei guardrail
05:24evidentemente tutto questo tema qua diventa problematico
05:26definire questi set di regole
05:29cercare di dare in qualche modo più conforto
05:32a chi poi utilizzerà e sarà oggetto delle decisioni di queste macchine
05:36evidentemente crediamo sia molto molto importante
Comments