- 2 mesi fa
- #pupia
https://www.pupia.tv - Roma - Cybersecurity nell'era dell'AI - Conferenza stampa di Fabio Porta (16.10.25)
#pupia
#pupia
Categoria
🗞
NovitàTrascrizione
00:00Via. Intanto buonasera a tutti.
00:08Intelligenza artificiale, anzi per l'esattezza intelligenza artificiale è cyber sicurezza,
00:13impatto dell'intelligenza artificiale su società e istituzioni, questo è il tema di questo
00:19incontro. Io sono un umile lavoratore nella vigna dell'informazione, però ringrazio tutti
00:23voi, ora vi presenterò io come punto di riferimento perché mi onora della sua amicizia per Guido
00:27Iezzi e quando ho un dubbio, Pier Guido in qualche modo toglie la nebbia dalla confusione
00:33che probabilmente anche voi avete intorno al tema che determina non solo la nostra contemporaneità
00:38ma insomma determinerà buona parte del nostro futuro. Io voglio salutare Pier Guido, grazie,
00:44coordinatore Cyber Team Tank, direttore BU Cybermatic Mind, grazie, onorevole Porta, grazie davvero
00:49per essere con noi, tra poco le darò la parola. Voglio salutare Presidente Lattanzio, dov'è?
00:53Eccolo lì, dopo darò la parola anche a lei, grazie insomma anche di questa opportunità.
00:59Voglio salutare Lorenzo Forina, CEO del gruppo Matic Mind e infine voglio salutare l'onorevole
01:06Porchietto che è con noi, che ringrazio, buonasera, con lei parleremo in particolare, Regione Piemonte,
01:13andremo a capire come tutto questo si attiva e cade proprio sull'istituzione, lo faremo tra poco.
01:18Onorevole Porta, voglio cominciare con lei, da dove partiremo? Partiremo dall'ultimo,
01:24a fronte dell'ultimo report, i dati dell'ultimo report che ci dice il perimetro di questo momento,
01:31quante opportunità ci sono dentro questo perimetro di intelligenza, credo Pier Guido,
01:37artificiale, ma intelligenza artificiale generativa, che è quella parte dell'intelligenza artificiale,
01:42che apprende grandi quantità di dati, ma poi crea nuovi modelli. Ecco, questa è la base con i contenuti del report.
01:51Onorevole, voglio partire da lei, prego.
01:59Allora, intanto grazie, grazie a tutti e soprattutto benvenuti nella sala stampa di Montecitorio,
02:05nella casa degli italiani, come amiamo chiamare il nostro Parlamento.
02:11Voglio, permettetemi, non solo per galanteria, ma perché siamo colleghi, salutare l'onorevole Porchietto,
02:19che adesso è impegnata, l'ascolteremo, è stato in qualche maniera già preannunciato,
02:26con importanti incarichi a livello regionale.
02:29Grazie ovviamente a Pier Guido Iezzi, Lorenzo Forina, per questo importante report,
02:36del quale parleremo, sullo scenario, o sugli scenari, forse sarebbe più corretto dire,
02:44dei rischi per l'intelligenza artificiale, forse dei rischi, ma anche delle opportunità.
02:49Un lavoro che offre una fotografia aggiornata, concreta, soprattutto delle minacce, appunto,
02:57legate all'intelligenza artificiale.
03:00Mi pare di capire che il messaggio di fondo che arriva da questo lavoro è che la stessa tecnologia
03:07che sostiene l'innovazione, la produttività, sia diventata anche un moltiplicatore del rischio,
03:17appunto, che normalmente associamo sempre le opportunità, ma purtroppo sappiamo che l'altra faccia della medaglia
03:22sono i rischi, in questo caso sono i rischi della criminalità informatica, la manipolazione dell'informazione.
03:29Qui abbiamo un esperto, uno specialista del tema alla mia sinistra.
03:36Ma il report evidenzia alcune tendenze che ormai appaiono molto chiare.
03:42Intanto gli attacchi che sfruttano l'intelligenza artificiale e che crescono in maniera esponenziale,
03:50a livello globale, con impatti economici sempre più rilevanti, soprattutto per le piccole e le medie imprese.
03:59Non è quindi più un tema soltanto di laboratorio, di piccole ricerche,
04:04un tema che riguarda proprio la competitività del sistema Paese,
04:08la tutela del nostro sistema, delle nostre aziende e la stessa fiducia dei cittadini nel sistema Paese e nelle sue aziende.
04:20Cambiano anche i punti di esposizione, le difese tradizionali faticano a reggere il volume,
04:26anche la velocità, direi, di queste minacce, generando un affaticamento operativo
04:32e rischi di cecità negli stessi ambienti di monitoraggio.
04:40Serve quindi un cambio di passo, una sicurezza, intelligenza artificiale native,
04:50AI native, con governance dedicata, treat modeling dei modelli, controlli in esecuzione,
04:55segmentazione degli end point di interferenza e playbook sono tutti termini che gli addetti ai lavori
05:05conoscono bene, specifici per incidenti con contenuti sintetici e i famosi deep fake,
05:12che purtroppo se non li conosciamo li abbiamo in qualche maniera tutti subiti.
05:18Quindi una compliance soltanto non basta, va trasformata in capacità operativa, in vantaggio competitivo,
05:26integrando requisiti e controlli fin dalla progettazione.
05:30E il nostro Paese, per concludere, l'Italia può giocare, direi, deve giocare un ruolo di guida,
05:37unendo istituzioni e non a caso siamo in una sede istituzionale,
05:41mettendo insieme il mondo delle imprese, l'accademia, quindi le università,
05:46le competenze specialistiche che possono aiutarci a prevenire questi abusi,
05:51a proteggere il nostro tessuto produttivo, a difendere in sostanza la qualità complessiva
05:58dello spazio informativo.
05:59E con questo spirito che credo noi tutti ci apprestiamo, sia per chi sta qui dentro,
06:06che per quelli che ci seguono attraverso la nostra web tv,
06:10ad ascoltare i risultati di questo report, poiché dall'analisi che facciamo oggi
06:16discenderanno soluzioni concrete, investimenti mirati e spero una collaborazione stabile
06:24per la sicurezza, l'innovazione e in buona sostanza i nostri diritti.
06:30Grazie.
06:30Grazie onorevole.
06:32Grazie.
06:32Allora, questo report, vado da Pierguido Iezzi, questo report nasce dall'integrazione,
06:37Pierguido, ci vediamo del tutto, come facciamo nella vita, di tante fonti che avete confrontato,
06:44che avete fatto in modo di confrontare, e ciò che è uscito è molto aderente a quella
06:51che è la realtà in questo momento, l'istantanea di questo momento, quel perimetro di cui parlavo
06:55prima, all'interno del quale ci sono infinite possibilità, ma anche infiniti pericoli.
07:01Grazie mille a tutti per questa opportunità, ringrazio ovviamente l'onorevole Porta e l'onorevole
07:11Porchetto di essere qui presenti oggi e soprattutto ringrazio anche Roberto che ha accettato di essere
07:20presente per moderare questo incontro.
07:22ragione, oggi questo report è un report che integra diversi altri report, partendo però
07:28da una base informativa frutto di un osservatorio privilegiato che noi oggi disponiamo e gestiamo,
07:36un laboratorio che oggi si focalizza proprio sull'utilizzo dell'intelligenza artificiale
07:41come un abilitante, come elemento di competitività integrato all'interno direttamente delle aziende,
07:47dei processi aziendali e ovviamente per l'attività che svolgo direttamente io invece nel contesto
07:53prettamente del mondo della cyber security.
07:56Perché utilizzare un'integrazione di diverse fonti? Perché oggi è diventato estremamente importante
08:02riuscire a raccogliere tutte quante le fonti e poter correlare i dati per avere una visione
08:08di insieme corretta e più delle volte si ragiona solo sulla base dati di riferimento,
08:13quando invece l'integrazione ti permette di avere uno scenario complessivo e completo.
08:19Ed ecco perché il report, così come anche i report precedenti che avevamo condotto,
08:23abbiamo fatto una serie di report sui contesti che vanno dal mondo energia al mondo trasporti,
08:29dove c'era anche in questo caso un filo conduttore legato all'intelligenza artificiale
08:34come una possibile minaccia, permette di avere una visione di insieme.
08:39Cosa abbiamo identificato in questa analisi complessiva?
08:42Abbiamo identificato fondamentalmente come l'intelligenza artificiale rappresenta sicuramente
08:48una possibile criticità, non parlerei di rischio, ma una possibile criticità,
08:54una criticità che oggi ha una sua valenza e una sua espressione direttamente in quelli che sono i numeri.
09:00Quasi l'85% degli attacchi che avvengono tramite il mondo del phishing oggi sono generati
09:08direttamente da intelligenza artificiale, quindi c'è un componente, un supporto estremamente importante.
09:13Abbiamo vissuto nel penultimo anno circa 500.000 video legati al mondo del deepfake,
09:24questi video aumenteranno a dei livelli estremamente importanti,
09:30stiamo parlando di quasi 8 milioni per la fine di quest'anno,
09:33quindi c'è un utilizzo proprio di contenuti e di strumenti completamente automatizzati.
09:38La verità di base è che andando a analizzare quelli che sono gli attacchi oggi informatici
09:44e andiamo a prendere le percentuali con cui sono distribuiti tutti gli attacchi informatici,
09:49ci rendiamo conto che il peso di distribuzione tra le varie tipologie di attacco,
09:54quindi attacchi di sabotaggio, attacchi di spionaggio, attacchi di social engineering
09:58e così come attacchi di didosso, li abbiamo vissuti più volte con il mondo dei no names,
10:05quindi dei vari attivisti che appoggiavano un paese rispetto ad un altro,
10:10la verità di base è che quella distribuzione è rimasta identica.
10:13Cosa è aumentato? Sono aumentati i numeri.
10:15Ecco che allora è ragione l'onorevole Porta quando prima citava il tema del moltiplicatore.
10:21L'AI è sicuramente un moltiplicatore, un moltiplicatore perché permette di fatto
10:27di rendere accessibile una serie di strumenti, non fa altro che di rendere disponibili
10:35una serie di tecnologie permettendo fondamentalmente a chiunque di poterlo utilizzare
10:40in base al proprio fine ultimo, in questo caso parliamo ovviamente di attori malevoli.
10:45La verità di base però è che l'intelligenza artificiale oltre a essere un moltiplicatore
10:50di conseguenza aumenta il numero degli attacchi e è diventata a tutti gli effetti
10:55anche una superficie di attacco. Perché è stato anche detto, è stato citato prima,
11:00la necessità delle aziende di iniziare ad adottare gli strumenti di AI per poter competere
11:04in un mondo in cui oggi tutte le aziende, i paesi si basano su questa nuova tecnologia.
11:11Ed ecco che diventa a tutti gli effetti un nuovo possibile rischio, cioè l'AI diventa un rischio
11:15perché diventa un target, qui non è più il vettore d'attacco.
11:20Perché diventa un target? Perché abbiamo avuto modo di vedere ad agosto come
11:25dei nuovi zero day sui server di NVIDIA, cioè significa che l'oggetto che in qualche modo
11:30gestisce l'intelligenza artificiale ha di fatto una vulnerabilità tecnica e quindi
11:36c'è un rischio tecnologico. Poter colpire o bloccare direttamente un sistema di AI che va
11:41a impattare direttamente, immaginatevi, su dei processi di infrastrutture critiche o direttamente
11:46su dei processi di pubblica amministrazione, significa sostanzialmente andare a interrompere
11:52quelli che possono essere dei servizi essenziali e importanti per uno Stato o direttamente per
11:56i cittadini.
11:58Ma accanto a quello che è una problematica tecnologica abbiamo poi un'altra componente
12:02ed è la componente umana.
12:04Il 20% dei data breach che subiscono oggi le aziende avvengono per quello che si chiama
12:11lo shadow AI. Che cos'è? È quando fondamentalmente un dipendente o un utente carica all'interno
12:17del nostro sistema di AI tutta una serie di informazioni, di dati che possono fare riferimento
12:24a tematiche di privacy o a tematiche di segreto industriale o a tematiche di business.
12:29In conseguenza vado in violazione di quelle che sono delle normative o delle policy procedure
12:34all'interno delle aziende. Quindi abbiamo anche la componente legata all'attenzione umana,
12:39alla formazione che deve essere comunque garantita. Quindi abbiamo un rischio tecnologico, abbiamo
12:43un rischio umano, abbiamo anche un rischio di policy procedure. Perché nel momento in cui
12:48un dipendente in maniera inconsapevole o consapevole inserisce questo tipo di informazioni
12:54all'interno di un qualsiasi sistema fondamentalmente significa che io azienda o non ho definito quali
13:00sono i sistemi leciti o le modalità con cui poter agire oppure non ho attuato quelli che
13:06sono le classiche procedure di comando e controllo. Ecco che quindi c'è anche un tema, un rischio
13:11di tipo di governance. Ma in realtà l'AI ci porta un'altra tipologia di rischio che noi
13:16non eravamo fino ad oggi così abituati a gestire. Ed è il rischio dei database, del dato
13:22che può essere avvelenato. Perché ricordiamoci che l'intelligenza artificiale è vero che è
13:26basata su un'infrastruttura tecnologica, è vero che c'è una componente umana, è vero
13:31che c'è un tema di policy procedure che devo gestire, ma fondamentalmente l'AI pesca analizza
13:36una serie di basi dati. Ed è interessante come a settembre è stato lanciato il warning
13:42direttamente in America di come attori stranieri stanno conducendo una serie di attività
13:49direttamente sulle voci presenti su Wikipedia. Cioè significa che se io vado a modificare,
13:56non vado a stravolgere, non vado a dichiarare il falso, ma vado leggermente a modificare
14:01alcuni termini, alcune parole su quello che è presente su Wikipedia. Perché è un tema
14:05che deve preoccuparci tutti? Perché oggi tutti i sistemi di intelligenza artificiale
14:11utilizzano Wikipedia come base, come enciclopedia di riferimento. Quindi significa che se io lì
14:16dentro vado a cambiare tra guerra e operazione speciale o vado a cambiare diversi altri termini
14:22io stravolgo fondamentalmente una storia. Ed ecco che tutti i sistemi di intelligenza
14:26artificiale hanno questo tipo di impatto. Ed ecco che c'è un altro elemento che dobbiamo
14:30considerare. Quindi la AI che è stata vista come una possibile minaccia perché ci può
14:36attaccare, in realtà la stessa AI diventa fondamentalmente un target, una possibile vittima
14:41che mette in questo momento in pericolo le aziende se noi non andiamo a gestire. Però
14:46è la stessa AI che diventa in realtà quel fattore, quell'elemento di accelerazione,
14:51quell'elemento abilitante che mi permette invece di proteggere e tutelare quello che
14:56è il mio sistema paese, di proteggere e tutelare quella che è la mia azienda, di proteggere
15:00e tutelare quelli che sono i diritti essenziali e necessari che tutti i cittadini devono comunque
15:05garantire. In che modo? Utilizzando e integrando proprio le componenti della AI all'interno
15:10di quelli che sono i processi di difesa, di protezione e di garanzia di resilienza
15:15perché il tema di base è la resistenza e la resilienza delle nostre infrastrutture
15:19che permetterà al Paese di poter garantire la propria sicurezza nazionale. Ed ecco che
15:24all'interno di questi modelli significa utilizzare la AI nel modo corretto, ma utilizzare la AI
15:29nel modo corretto significa conoscere perfettamente come proteggere direttamente i sistemi abilitando
15:36in modo corretto la stessa intelligenza artificiale. Ed ecco che in questo caso diventa a tutti
15:41gli effetti un elemento vincente, proteggerlo, garantire il presidio e la competenza ed ecco
15:47diventa fondamentalmente un vantaggio competitivo per le nostre aziende e direttamente per il
15:53nostro Paese. Grazie, grazie per Guido, questa è la
15:57cornice dei contenuti. Due piccolissime cose, noi qui ragionavamo mentre
16:01ti ascoltavo, qui siamo una ventina, qualche altro migliaio ci ascolta grazie a quello che
16:05ha circolto della Camera. Prima hai detto bisogna conoscere. Tu hai fatto un'esposizione
16:11di dati, di elementi, di pericoli e di opportunità, ma in qualche modo stai, state tutti insomma
16:16alfabetizzando, ma servirebbe una campagna di alfabetizzazione generale nel Paese per conoscere
16:24le opportunità, ma soprattutto per conoscere i rischi? Ma è proprio risposta veloce.
16:31Sono concordo con te, è necessario sicuramente un percorso di alfabetizzazione, è uno dei temi
16:38che direttamente le istituzioni hanno già preso in considerazione e ricordiamoci sempre
16:43che all'interno della IACT uno dei temi capisaldi, che è una normativa di riferimento europea
16:48ricepita direttamente all'Italia, uno dei capisaldi è proprio la formazione. Teniamo
16:54sempre conto che non esiste oggi normativa in cui non ci sia l'obbligo della formazione.
16:59La centralità dell'uomo è un tema che viene ribadito costantemente dalla stessa comunità
17:03europea inserendo sempre e dappertutto il tema della formazione come valore aggiunto.
17:09L'essere umano rimane ancora al centro.
17:11essere umano al centro. Altra piccola cosa, deepfake, per calare nella realtà, faccio
17:18il giornalista queste cose, se state in vacanza mi chiama un amico e mi dice ma perché hai
17:23fatto questa cosa? Vado a vedere sotto dei commenti buffone, mascalzone, come Wikipedia
17:29se cambi una parola, come può cambiare ciò che tu sei per gli altri. C'era un video
17:35meraviglioso, migliaia e migliaia di visualizzazioni, nel quale io e il Presidente del Consiglio
17:39Giorgio Meloni vendevamo prodotti finanziari. Denunciata, ovviamente, una giornata polizia
17:45postale, ma quello che mi ha fatto pensare era la verosimiglianza, era perfetto. Cioè
17:51noi siamo entrati per Guido nel tempo del verosimile, no? Un tempo cosa dicevamo, e poi
17:57onorevole Porchietto le do la parola, che dall'avvento del Sapiens fino ad oggi, qual
18:03era l'unica cosa di cui ci fidavamo? L'ho visto con i miei occhi, lei si fidava, no? Ecco,
18:07può essere non vero. Onorevole Porchietto, vengo da lei, come tutto questo cade ovviamente
18:12su quello che Pierguido Iezzi diceva, l'impatto, ad esempio sulle istituzioni, in questo caso
18:18Regione Piemonte, sottosegretario alla Presidenza della Regione Piemonte, se impatta lì questa
18:22roba qui va direttamente sui cittadini. Prego.
18:26Grazie, soprattutto grazie dell'invito, anche per me lui è un punto di riferimento dal
18:30punto di vista spacciatore di informazioni serie, definiamole così. No, vi ringrazio.
18:35Io mi permetto di portare, se è possibile, due punti di vista, sicuramente quello delle
18:40istituzioni ma anche quello dell'impresa. Io nella vita sono un professionista, un commercialista
18:46e devo dire che negli ultimi anni, tra le altre cose, c'è stata una escalation di gestione
18:52di trattative con hacker che sono entrati nei sistemi gestionali delle imprese. Io ho scoperto
18:58questa figura del moderatore, cioè io non sapevo esistesse, fa le trattative direttamente con
19:04gli hacker per cercare di gestire gestibile, che poi è difficilmente gestibile. E questa
19:10è la prima cosa che voglio sottolineare, la vulnerabilità del nostro sistema imprese.
19:15Noi abbiamo un sistema imprese fatto per il 90% di imprese medio-piccole che non vedono
19:21la necessità di tutelare quella che è l'entrata più facile, anziché dal portone dello stabilimento,
19:28dalle porte informatiche l'accesso ai dati. Non viene valutato con attenzione fino a quando
19:34non accade qualcosa. E questo è un problema di formazione e di informazione.
19:40L'altro tema è quello sicuramente delle istituzioni. Le istituzioni territoriali sono
19:43preparate? No. Non sono preparate le istituzioni territoriali perché non hanno all'interno le
19:49persone formate per essere comunque al passo e adeguate. Se noi andiamo a vedere l'età
19:54media dei nostri gestori, dei nostri funzionari, dei nostri dirigenti, non possiamo pensare
20:01che abbiano questa capacità. Non è una questione di mentalità, ma proprio di capacità nel
20:06riuscire ad interpretare immediatamente, ad attorniarsi di quelle figure che hanno le
20:13competenze specifiche. C'è un tema anche di formazione scolastica. Guardate, vi porto un
20:17esempio di vita vissuta. Ieri ho un figlio di 17 anni che fa i percorsi di PCTO, che
20:24sono l'affiancamento ai normali percorsi scolastici, e lui aveva scelto il corso sulla formazione
20:30sull'intelligenza artificiale. Non è stato attivato perché erano in tre. Allora, abbiamo
20:35un problema. Perché se non capiamo, adesso non è perché noi siamo più bravi di altri,
20:39ma perché c'è una questione di attenzione. Se noi non riusciamo a capire che il mondo
20:43va ad una velocità estrema, che abbiamo la possibilità e l'opportunità di utilizzare
20:47degli strumenti estremamente importanti, ma che vanno governati dall'intelligenza umana
20:52e non dall'intelligenza artificiale. E le nostre competenze sono fondamentali. Chiunque
20:57di noi ha usato chat GPT in quest'ultimo periodo, ma ci siamo resi conto sicuramente che se alla
21:03base noi non avevamo le competenze per chiedere le cose giuste e per verificare che comunque
21:09la linea di condotta presa dall'intelligenza artificiale fosse quella che noi conoscevamo, abbiamo
21:17sbagliato. È come mettersi alla guida di una Ferrari senza avere neanche la patente
21:21per la bicicletta. Allora, questo io credo che sia un tema delicatissimo, perché oggi
21:26i nostri percorsi formativi a livello nazionale non hanno questa visione, sono ancora troppo
21:33pochi questi. E all'interno della pubblica amministrazione, ricordiamo che noi parliamo
21:37Camera dei Deputati, Senato, ma noi parliamo anche del Comune da 150 persone. Ma anche all'interno
21:43di quel Comune ci sono dei dati sensibili che possono comunque finire nelle mani sbagliate.
21:49Noi abbiamo avuto nel 2022 come Regione Piemonte un'introduzione nei sistemi informatici
21:56dell'ASL più grande, dell'ASL Torino, la Torino Zero, e abbiamo sudato freddo, ve la dico
22:03così, perché in realtà le cartelle sanitarie, c'è la possibilità di entrare e di decidere
22:08che io sono malato terminale, sto inventando, e il signore che invece è malato veramente
22:13non lo è e lo rimandano a casa, perché i dati che sono inseriti sono dati comunque
22:18che possono essere manovrati, utilizzati e maneggiati. Allora, io credo, mi permetto
22:23e chiudo questa prima parte, io credo che sia fondamentale un processo formativo, ma soprattutto
22:28una grande correlazione e sinergia tra le istituzioni e il privato. Sappiamo benissimo
22:33che il sistema privato ha una capacità di reazione immediata, cosa che non possono avere le istituzioni
22:40per come sono strutturate, io credo che sia fondamentale proprio in questo momento che
22:45i partenariati cosiddetti pubblici privati vengano avviati su questi percorsi. Sono fondamentali.
22:51Abbiamo discusso in questo ultimo anno e mezzo su quella che era la normativa legata
22:54dell'intelligenza artificiale, che dopo due giorni era già vecchia, fatemela dire così.
22:59Noi non possiamo pensare di basarci sulle norme tradizionali così come abbiamo sempre fatto.
23:03È impossibile. Stiamo parlando di due mondi paralleli che non si toccheranno mai.
23:09Dobbiamo riuscire invece a generare un sistema che sia veloce, snello o controllabile, ma che
23:14si fidi del rapporto tra pubblico e privato. Io credo che questo sia l'unico modo per poter
23:19operare in questo sistema. È un'opportunità, e chiudo con questo, non guardiamo soltanto
23:24la parte della medaglia più, diciamo, oscura. Guardiamo anche ogni novità, ogni innovazione
23:31negli ultimi 150 anni hanno generato delle opportunità. Questa però è un'opportunità
23:35che va colta velocemente, perché quando è stata inventata la macchina a vapore abbiamo
23:40avuto tempo 50-60 anni per stabilizzarci. Oggi abbiamo 5 giorni, se ci va bene. Quindi ci deve
23:46essere una grande velocità di pensiero e di azione. Quello che può fare la parte
23:51istituzionale è cercare di generare le migliori condizioni senza imbrigliare troppo il sistema
23:57privato. Quello che deve fare il privato è aiutare invece le istituzioni, perché da
24:01questo punto di vista sappiamo che hanno delle lacune.
24:05Grazie, grazie onorevole. Mi viene in mente un'immagine, non so se tu per Guido o qualcun
24:09altro ne trasmiscono, una volta mi disse, l'intelligenza artificiale rispetto a quello che
24:13lei stava dicendo, dell'urgenza. Immagina di entrare in una stanza, tu e l'intelligenza
24:18artificiale. Dopo un'ora in cui sei con l'intelligenza artificiale in una stanza i tuoi capelli saranno
24:23cresciuti forse di un millimetro di millimetro. Ecco, l'intelligenza artificiale è entrata
24:28in quella stanza esattamente come te, ma quando esce dopo un'ora hai capelli lunghi fino al
24:32sedere. Che è un'immagine per capire l'urgenza, quella di cui insomma in qualche modo parlava
24:37Pierguido Iezzi. Io voglio andare da Lorenzo Forina, CEO del gruppo Matic Mind, Presidente.
24:42Vengo da lei.
24:45Grazie, e grazie all'onorevole Porto e all'onorevole Porchietto per l'ospitalità.
24:52Una riflessione costruendo su quanto di correttamente è stato detto dai colleghi e dagli onorevoli.
25:00Se guardo la prospettiva del mercato privato e delle aziende, certamente per le aziende lo
25:09strumento di intelligenza artificiale è uno strumento potente per aiutare l'azienda e il
25:15sistema paese a recuperare produttività in tempi molto brevi. È un'opportunità abbastanza
25:22più unica che rara. Non siamo di fronte a tante rivoluzioni industriali, dall'agricoltura
25:28all'industria, al vapore, al nucleare e adesso a questa rivoluzione tecnologica. È un'opportunità
25:36che il sistema paese deve cogliere per migliorare la competitività dell'Italia a livello globale.
25:45D'altra parte, essendo uno strumento che non è né buono né cattivo, ha una faccia più
25:52complicata da gestire, che è quello del rischio o dell'abuso di questo strumento per
26:02usi non istituzionali, non corretti. E a differenza di tanti altri strumenti, questo strumento agisce,
26:10come correttamente avete detto, sulla nostra percezione di ciò che è vero. E agisce in modo
26:15il suo dente. È dolce. Dà sempre o quasi sempre ragione nei toni. Ci porta con delicatezza
26:25verso la risposta che un po' ci aspettiamo. Quando ci lamentavamo che Google ci fa vedere
26:33un po' sempre le cose che cerchiamo. Se noi cerchiamo un tappeto ci fa vedere tappeti
26:37per la vita. C'è anche dell'altro oltre il tappeto. L'intelligenza artificiale ci aiuta
26:44a vedere il mondo con gli occhi più vicini e più coerenti a quello che noi pensiamo
26:50sia giusto. E quindi in qualche modo influenza il nostro bias percettivo. E ci fa mancare
26:56spirito critico, che è la base della nostra cultura umanistica. La critica costruttiva,
27:03la diversità di opinioni. Quindi è uno strumento molto delicato strategicamente per le imprese,
27:11per le istituzioni e per i cittadini. Ed è per questo che forse per la prima volta
27:17io faccio la chiosa a concetti già detti, che ci sono un po' tre elementi lato aziende
27:23da considerare. Il primo è non può essere il privato da solo, ma deve essere il privato
27:28col pubblico questa volta. Perché c'è un impatto valoriale di posizionamento nazionale,
27:37di difesa dei nostri valori della nostra cultura che va ben oltre la produttività. Abbiamo
27:43bisogno di campioni nazionali che investano con le istituzioni pubbliche nello sviluppo
27:51di queste nuove tecnologie. Un secondo elemento, l'avete citata e la formazione. Faccio una
27:57chiosa. Non è solo formare i nostri giovani, che non sono mai abbastanza purtroppo, che sono
28:05sempre meno e questo lo dico con grandissimo dispiacere di tutti noi, ma è anche formare
28:13la parte della popolazione, di cui tanti di noi fanno parte, diversamente giovane e che
28:20ha bisogno di uno sforzo, di una cura, di motivazione e di tecniche diverse. Oggi, ne parlavo ieri
28:30con il Ministro del Lavoro, abbiamo un dato terribile che solo 0,1% degli MBA è seguito
28:40da persone over 55. Ecco, come formiamo persone, è vero, non più giovani, ma non più anziane,
28:49che è gran parte della nostra popolazione italiana. E infine, non è solo un tema tecnico,
28:58è un tema valoriale. Noi diamo in mano uno strumento a persone, colleghi, cittadini, e diamo
29:05in mano uno strumento estremamente potente. Dobbiamo tornare a quello per cui l'Italia
29:13è famosa nel mondo, i nostri valori umanistici, patriottici, perdonate il termine, di difesa
29:22del sistema paese, perché stiamo dando un'arma nucleare in mano a persone di cui ci dobbiamo
29:27fidare. E insegnare i valori, che è una cosa un po' agé, però ritorna molto attuale,
29:37crediamoci non aggiorare.
29:40Presidente, grazie. Ora vado dal Presidente Lattanzio, anche perché insomma qui gli orari
29:44sappiamo tutti sono rigorosi, abbiamo una decina di minuti, credo un quarto d'ora, insomma
29:47più o meno, 20 minuti, perfetto. Posso agganciarmi solo un istante alle sue parole, Presidente,
29:52perché lei ha usato questo termine, l'intelligenza artificiale è suo dente. Ed è vero, no?
29:57Quando noi anche giochiamo in qualche modo con chat e GPT, capiamo che intercetta sostanzialmente
30:02quelli che sono un po' i nostri desideri, anche le nostre idee. Ovviamente non ha empatia,
30:09però mostra empatia. Questo è un grande pericolo. L'altro giorno qualcuno mi ha fatto questa
30:13domanda, ovviamente so qualcosa solo perché frequento gli esperti, per lavoro e per amicizie,
30:18ma l'intelligenza artificiale è empatica. Io ho detto, ma guarda, non partorisce, non è stata partorita,
30:24non si innamora, non credo, però la simula. È giusto questo, Presidente?
30:32Sì, sì, è corretto perché di fatto ha l'obiettivo di raccogliere il maggiore numero di informazioni
30:40da noi esseri umani. Noi di fatto siamo la fonte.
30:45E certo, siamo noi che determiniamo questo processo.
30:48Lei ha fame, è progettata per avere fame di conoscenza, di dati, di informazioni, eccetera,
30:54e sappiamo tutto che si ottene molto di più con la dolcezza e con la forza, spesso.
30:59Io non volevo, cioè qui svolgo semplicemente un ruolo riempitivo, non è che posso aggiungere
31:20cose più interessanti e importanti di quelle che sono state dette, anche perché l'argomento
31:25è presentare il report. Il report è stato sufficientemente e ampiamente presentato.
31:32Lei ha citato Compassogiazioni, Compassogiazioni International, io sono Presidente del settore
31:37international di Compassogiazioni, che è un'organizzazione che racchiude imprese e professionisti
31:44per numeri considerevoli di centinaia di migliaia. Quindi un quadro abbastanza ampio, anche sul
31:53piano internazionale, con le ramificazioni in Europa, paesi arabi, Nord America, eccetera.
32:02Quindi mi metto da questo punto di vista, mi metto anche dal punto di vista di chi fa
32:16un lavoro pratico collegato con la politica estera in questa sede.
32:26Noi ci troviamo nella sede del Parlamento.
32:29Io avevo preparato un intervento un po' più corposo, ma il tempo è breve, per cui non ripeto
32:36le cose preparate in maniera anche sistematica e abbastanza puntuale, anche sotto gli aspetti
32:45giuridici, filosofici ed etici. Però mi preme sottolineare un aspetto, che c'è un'evoluzione,
32:56abbiamo avuto un'evoluzione della geopolitica, abbiamo un'evoluzione dei sistemi, della tecnologia
33:05e conseguenzialmente dei sistemi informatici.
33:08Dobbiamo fare i conti con un mondo in continuo cambiamento. Il cambiamento si governa attraverso
33:16la formazione. Si diceva anche prima, noi quindi abbiamo necessità di fare in modo di creare
33:25quel terreno, quell'ambiente adeguato affinché le amministrazioni e la società civile possa attuare
33:38processi, percorsi formativi sia del personale, sia operatori privati, lo stesso delle imprese.
33:47L'Europa presta un'attenzione particolare ai cambiamenti tecnologici cercando di indicare
33:56una strada che è più centrata sulla persona. Non a caso abbiamo una direttiva NIS II che
34:06dà delle linee sulla gestione del rischio, abbiamo la Convenzione Quadro del Consiglio d'Europa
34:13sull'intelligenza artificiale e i diritti umani. Il Consiglio d'Europa non è solo l'Unione
34:19europea e quindi adesso è stata esclusa la Russia, però si rivolge a un insieme di paesi
34:28abbastanza più ampi e quindi va oltre l'Unione. Quindi c'è questa tensione etico-normativa
34:35è tecnologica che va oltre, che va in un certo senso nella direzione di dire guardate
34:46che lo sviluppo tecnologico deve essere centrato sulla persona, deve rispettare la dignità
34:53della persona e quindi bisogna creare quei percorsi adeguati affinché questo possa essere
35:02rispettato. Ecco, credo che allora che il report come questi qui siano importanti anche
35:10per le istituzioni, per chi ci lavora qui dentro, per capire come regolarsi, come regiferare
35:18anche a livello regionale, tutta la regolazione degli enti locali, anche il Comune di Roma
35:26aveva proprio un ufficio informatico con dei responsabili informatici, anzi è fondamentale
35:31perché un grande Comune ha bisogno di questo, ma penso anche alla ricerca scientifica, alla
35:39ricerca in ambito medico. Ecco, noi pensiamo, se io altero i dati su una struttura molecolare
35:50e utilizzo poi l'intelligenza artificiale per poter comparare, quindi in maniera più
35:58veloce, aumentando la velocità. Una volta ci volevano, per calcolare la struttura molecolare
36:07di una molecola semplice, ci volevano anni a mano, poi con i computer degli anni 90 si riusciva
36:15in circa 20 secondi, mi sembra una cosa del genere, mi ricordo più o meno quello che mi ricordo
36:22della mia esperienza. Oggi molto più veloci, ma si riesce a paragonare la struttura, una struttura
36:30molecolare semplice, con migliaia, fino a centinaia di migliaia di altre strutture molecolari
36:40per vederne l'interazione. Basta che io ritardo il movimento sterico di una struttura molecolare
36:48nella definizione per veicolare la ricerca in una direzione sbagliata. E questo può provocare
36:58dei danni, non solo alle imprese, perché significa sbagliare in un percorso di ricerca e quindi
37:05di investimento, poi di produzione, ma anche per il bene della società, perché ne deriva
37:12una... ritrovati che sono utili a combattere determinate malattie oppure a costruire il benessere.
37:19Ecco, mi sono fermato su un settore come esempio, ma se ne potrebbero fare tanti.
37:24L'altro ieri ero alla Commissione Europea per il Festival della Diplomazia, perché questi
37:33giorni sono le due settimane del Festival della Diplomazia, dove sono intervenuto sul tema
37:40della... con autorevoli, esponenti del mondo della comunicazione, università, sull'Europa
37:47e soft power, e c'era anche un amico della nebbia, soft power e informazione, responsabilità
38:00dei giornalisti. Quello che è emerso è chiaro che l'intelligenza artificiale può forviare
38:08anche l'informazione, quindi contribuire fortemente a cambiare la percezione che si ha, in questo
38:17caso era dell'Europa, ma delle necessità del Paese, l'opinione che si ha di quello
38:23che è necessario e quindi orientare, visto che ci troviamo nel Parlamento, anche orientare
38:29il voto. Oggi, in uno scenario geopolitico, anche orientare gli atteggiamenti verso altri
38:37Paesi, anche giustificare alcune azioni. Ecco, per cui è fondamentale stabilire, creare
38:46le condizioni affinché l'intelligenza artificiale possa essere libera da attacchi. Non venga
38:56condizionata, perché condizionarla, considerato l'uso comune che oggigiorno ne viene fatto,
39:06a volte in maniera consapevole, costruttiva, a volte anche in maniera non tanto etica, però
39:17ecco, è importante per uno sviluppo sostenibile ed etico del nostro Paese, della nostra Europa
39:27e delle nostre società. Quindi, grazie al vostro contributo, credo che questo Parlamento
39:35possa attingere anche dal vostro lavoro nel pensare come tracciare, come indicare la strada
39:48sul piano giuridico, sul piano normativo, agli attori che sono impegnati all'interno, nell'uso
39:59dell'intelligenza artificiale. Quindi, grazie veramente.
40:02Grazie, Presidente. Credo che condividiamo ogni sua parola, dalla formazione in poi. Però,
40:08io mi interrogo su una cosa. Abbiamo ancora qualche minuto, qualche domanda veloce.
40:11la faccio io. Giustamente, Presidente, come tutti, io lo faccio spesso, no, io, il termine
40:20etico, abbiamo detto poco fa con il Presidente che l'intelligenza artificiale non è né morale
40:24né immorale, si determina rispetto a come noi sostanzialmente ci interfacciamo, sto semplificando,
40:31con l'intelligenza artificiale. La categoria dell'etica è applicabile per guido all'intelligenza
40:37artificiale, oppure, tecnicamente, non è solo una forma, è anche contenuto, credo
40:42questo, oppure dovremmo parlare di un'intelligenza artificiale sostenibile.
40:50Stai facendo a me la domanda.
40:52A te, tu sei rispetto. No, ma perché tutti diciamo che costruiamo un'intelligenza artificiale
40:58etica, ma l'etica attiene al fatto che hai vissuto, hai sofferto, hai gioito, ti sei creato
41:07dei valori autonomi. Noi stiamo parlando di una macchina. So che è un concetto.
41:11No, no, chiarissimo. L'etica e i principi, in qualche modo, di una qualsiasi realtà e società
41:16si esprimono in quelle che sono le leggi all'interno della stessa società. E quindi il primo passaggio
41:23è che qualsiasi tecnologia o qualsiasi sistema che in qualche modo gestisce dati, ricordiamoci
41:28che il dato è di fatto il motore propellente di quello che è l'intelligenza artificiale,
41:34deve comunque rispettare quelle che sono le leggi. E all'interno delle leggi ci sono
41:39delle leggi che fanno riferimento alla tematica della privacy, ci sono delle leggi che fanno
41:43riferimento a una serie di principi che corrispondono direttamente alla morale della nostra società.
41:51Qual è il problema dell'intelligenza artificiale? Che l'intelligenza artificiale non ha un paese
41:56di riferimento. È un'intelligenza artificiale che è una tecnologia che viene utilizzata dall'America
42:01fino alla Cina.
42:03Dico bene se dico le intelligenze artificiali?
42:06Sono le intelligenze artificiali perché ne abbiamo tante. E questo è il vero punto, perché io da oggi
42:12dall'America alla Cina ho un sistema di etica, ho un sistema giuridico, una delle leggi, che sono
42:18completamente diverse. Ed ecco che quindi nasce il problema di quale etica e quale morale
42:24per seguire, qual è il nostro punto di riferimento. Ed ecco che nasce un altro aspetto. Il tema
42:29di base è che oggi la tecnologia o l'intelligenza artificiale, ma la tecnologia in generale, oggi
42:35è potere. Perché la diffusione di una tecnologia all'interno di un paese di fatto crea una deterrenza,
42:40diventa una situazione di clienteralismo da parte del paese stesso. E di conseguenza diventa
42:47una leva di deterrenza per chi possiede quel sistema stesso. E oggi noi Europa abbiamo
42:53un problema. Siamo in ritardo rispetto a quelli che sono i due colossi, che sono da una parte
42:57l'America e da un'altra parte la Cina. Ed ecco che quelle che sono le norme che sono
43:01state impostate da parte della comunità europea, in realtà non sono norme che hanno l'obiettivo
43:07di andare a vincolare o in qualche modo ridurre la capacità innovativa di un paese. In realtà
43:13sono strumenti che hanno l'obiettivo proprio di proteggerci e quindi proteggere proprio quei
43:18principi etici e di morale su cui si basa la nostra società.
43:23Molto chiaro, molto chiaro. Presidente, abbiamo proprio pochi minuti, poi torno all'onorevole.
43:27Io, insomma, dopo il report abbiamo capito, peraltro, come tu dicevi, c'è una crescita di
43:32mercato, no? Sostanzialmente, tutto questo, evidentemente, come tutte le cose.
43:37Faccio un esempio molto pratico, siccome ha parlato degli Stati Uniti e della Cina,
43:41lei è in riunione con l'orevole porchetto, finisce la vostra riunione, siete soli. Uno
43:48dei supporti che avete, a un certo punto appare una piccola scritta che dice vuoi che io ti
43:54trascriva tutto il tuo incontro, ma io non ti ho chiesto l'autorizzazione. Qualcuno,
44:00l'intelligenza artificiale l'ha trascritta, fino a trascriverla. Bene, ma dove finisce quel dato?
44:05No, no, ma è molto giusto, ci mancherebbe, come Alexa a casa, come dire, sa cose, come
44:23Alexa a casa di quel sa cose che neanche la moglie, sa, o il marito si mancherebbe. È vero,
44:32ritorno al tema che credo sia stato, di nuovo, l'intelligenza artificiale è uno strumento,
44:41se lo strumento è in mano a, o sviluppato, è da noi usato, ma in mano a paesi stranieri,
44:50il dato, la conoscenza, lo sviluppo torna nei paesi stranieri, non in Italia, certo. Quando
44:58la sovranità nazionale non è solo le Alpi e il Mediterraneo oggi, ma le menti dei nostri
45:06concittadini, il sapere, il sentire tutto questo, avere sovranità digitale vuol dire
45:15garantire un confine non impermeabile, ma gestito, ovviamente, perché siamo un paese
45:22che ha rapporti con paesi vicini, anche, non solo delle merci, non solo, come dire, delle
45:31transazioni finanziarie, ma anche in tutto ciò che riguarda le nostre sensazioni, i nostri
45:36pensieri, i nostri dati. Questo è il dominio di domani e la difesa di domani, perché questa
45:42informazione dove va? Dal padrone dell'intelligenza artificiale stessa, che può essere amico o
45:50può essere non totalmente allineato.
45:52Grazie Presidente. Onorevole, io lascio a lei, insomma, un po' per la sintesi, se ha qualche
45:58pensiero, insomma, perché abbiamo detto tante cose, credo, molto importanti, partendo dal
46:02report, insomma, credo anche, abbiamo ascoltato, molto interessanti. Lascio a lei una conclusione
46:07finale.
46:09Gli inquietudini le lascia a me in poche parole. Veramente due battute. Allora, in primis vi ringraziamo
46:17per questo documento, perché è un documento attento, è un documento completo, è un documento
46:22che può essere una buona base di lavoro. Quindi grazie davvero e auspichiamo di poterne
46:29fare l'uso che va fatto. La riflessione che faccio, mentre si stava parlando tutti quanti,
46:35è che è inarrestabile questo processo. Quindi quello che noi possiamo immaginare di fare è
46:40un tentativo di non farci governare da un processo che è ineludibile e inarrestabile.
46:47Io credo che la conoscenza sia la base di questo. Mi permetto di fare una battuta
46:51che non è una battuta, soprattutto noi italiani, che siamo riconosciuti come quella nazione
46:57e quei cittadini che hanno questa capacità di pensiero, di evoluzione, di fantasia, di
47:02pensiero, che è vero. In altri ambiti non c'è. C'è molto più, come posso dire, capacità
47:09di un pensiero lineare e non di un pensiero articolato come noi invece siamo in grado di fare.
47:14Quindi io credo che effettivamente noi siamo in grado di poter in qualche modo governare
47:19questi processi perché abbiamo una capacità di sviluppare con fantasia delle situazioni
47:24che non sempre gli altri riescono a governare. Ribadisco quello che ho detto prima e chiudo
47:29con questo. Questo è un processo dove ci deve essere una grande sinergia tra pubblico
47:34e privato perché altrimenti rischiamo di soccombere. L'alternativa è quella di prendere
47:38tutte queste cose qua e di tornare all'età della pietra, cosa impossibile, perché dobbiamo
47:41anche renderci conto di quello che è l'inevitabile. Siamo all'interno di una macchina e di una
47:46giostra che non si può fermare. La cosa che dobbiamo cercare di fare è farci il meno
47:50male possibile, ma soprattutto di cercare di governare questa situazione. Chiudo con una
47:55vita vissuta. Io qualche tempo or sono, dialogavamo abilmente, io lo chiamo Gino Chat perché è
48:02diventato Gino Chat per me e c'era, stavamo ragionando su una questione di una norma sull'incompatibilità
48:09di certe figure, anche politiche, e la cosa che mi ha colpita era come la testardaggine di
48:15Chat e GPT, nel senso che mi invertiva un comma con un articolo. Quindi l'articolo 3 diventava
48:21il comma 3 di un altro articolo e quindi mi dava una soluzione normativa sbagliata. Per sei volte
48:31gli ho ripetuto che era sbagliato, senza offenderlo, si scusava e mi ringraziava ed era molto
48:36subito da quel punto di vista. No, grazie veramente, hai ragione. Ma questo però la
48:42dice lunga, cioè, e ritorno su quello. Io sapevo cosa stavo cercando, io sapevo qual era
48:47la base, il principio e pertanto a me serviva dialogare con l'intelligenza artificiale per
48:54articolare meglio un mio pensiero. Ma se tu prendi per oro colato quello che ti dice, ci
49:00prendiamo, scusate, in inglese tecnico, delle cantonate micidiali. Allora questo ci deve
49:05far riflettere, ma soprattutto deve fare riflettere noi istituzioni che abbiamo la necessità di
49:12investire pesantemente risorse su un processo che ormai è inevitabilmente partito. Quindi
49:19io credo che quelli potrebbero essere i soldi meglio spesi da parte nostra, riuscendo in qualche
49:27modo a sopperire a delle lacune di questi ultimi anni, non soltanto italiane ma anche
49:31europee. Ricordiamoci gli investimenti fatti negli Stati Uniti e gli investimenti fatti
49:35in Italia e in Europa, chiedo scusa, su questi processi legati all'intelligenza artificiale.
49:40L'onorevole parlava di pensiero lineare, io ogni volta che parlo con voi, viene a mente
49:47sempre una cosa, per Guido, dimmi solo sì o no perché siamo già fuori tempo e dobbiamo
49:50andare via. Certo che l'approccio all'intelligenza artificiale è un approccio tecnico-scientifico,
49:55ma dentro, nella gestione, nella comprensione, c'è tanto anche di pensiero umanistico-filosofico.
50:05Senza questo è difficile gestire l'intelligenza artificiale, vero?
50:09Sì, corretto.
50:11Grazie a tutti, grazie per essere stati con noi e grazie davvero.
50:15Grazie.
50:15Grazie.
Commenta prima di tutti