00:02In questo intervento parleremo di storia dell'intelligenza artificiale. Per guidare
00:07la narrazione di questo percorso distingueremo due macrofasi, quella dell'intelligenza artificiale
00:13cosiddetta tradizionale e quella dell'intelligenza artificiale generativa. L'idea che una macchina
00:18potesse pensare non è nuova, ma la vera svolta arriva negli anni 50 con Alan Turing, matematico
00:24e logico britannico. Turing non si limita a costruire macchine, ma pone la domanda che
00:30segna la nascita del campo. Le macchine possono pensare? E propone il cosiddetto test di Turing,
00:36un criterio pragmatico secondo il quale se una macchina conversa in modo indistinguibile
00:41da quello umano, allora è intelligente. Successivamente nel 1955 viene coniato il termine
00:47intelligenza artificiale e nasce quindi ufficialmente la disciplina di matrice europea. In parallelo
00:54nasce il cosiddetto perceptron, uno dei primi modelli di rete neurale, il cui funzionamento
00:59è ispirato vagamente a quello del neurono biologico e il quale principale obiettivo è
01:04quello di apprendere strutture e regolarità ricorrenti che emergono dall'osservare un
01:09set di informazioni. Tra gli anni 60 e 70 compaiono i primi sistemi simbolici, macchine che tentano
01:16di emulare il ragionamento umano usando concetti in forma simbolica, che consentano di rappresentare
01:22la realtà attraverso parole, simboli e regole formali. Per alcuni compiti, come giocare a
01:28damo o dimostrare piccoli teoremi, si rivelano anche particolarmente efficaci. Ma le capacità
01:33delle macchine sono molto inferiori alle aspettative e con il ridimensionamento delle promesse arrivano
01:39due periodi di forte delusione e taglia ai finanziamenti, i cosiddetti inverni dell'intelligenza
01:44artificiale. Successivamente tra gli anni 90 e 2000 due forze cambiano il gioco. Da una parte
01:50una crescente disponibilità di dati, dall'altra una maggiore potenza computazionale. L'approccio
01:55simbolico viene progressivamente affiancato e poi superato dall'apprendimento statistico
02:00e dalle reti neurali profonde. Si passa quindi dall'utilizzo di regole esplicite e conoscenza
02:04umana al processo con cui i modelli diventano in grado di estrarre automaticamente relazioni
02:09dai dati, facendo uso di principi matematici e statistici. Le macchine non vengono programmate,
02:15ma allenate. Un momento decisivo arriva nel 2012 con ImageNet, un progetto che introduce un
02:22enorme archivio di immagini classificate per diverse categorie e una competizione annuale tra
02:28ricercatori al fine di addestrare algoritmi che riconoscano automaticamente il contenuto presente
02:34all'interno delle immagini. Grazie all'utilizzo di reti neurali profonde i sistemi iniziano a
02:39identificare oggetti e contenuti visivi con un livello di accuratezza mai visto prima. Questo dà
02:45un forte impulso al campo della computer vision, una disciplina che consente ai modelli di
02:51interpretare i contenuti visivi e diventa la base delle più moderne applicazioni di
02:56intelligenza artificiale, come filtri foto fino al riconoscimento di pattern in campo medico.
03:02Questo risultato è stato reso possibile grazie all'evoluzione degli algoritmi, ora capaci di
03:07comprendere strutture complesse nei dati e di mapparle in una gerarchia di informazioni
03:12che consenta di catturare prima le caratteristiche più importanti che aiutano a distinguere per
03:18esempio un oggetto dall'altro e poi di aggiungere sempre maggiore contesto e dettagli per affinarne
03:23la comprensione globale. Nel 2016 arriva un'altra svolta con AlphaGo, un sistema che impara a giocare
03:30a Go, gli scacchi cinesi, non seguendo regole pre-programmate ma allenandosi sulla base dell'esperienza,
03:36simulando quindi partite contro se stesso. Qui emerge il paradigma del reinforcement learning.
03:41L'idea che un modello possa migliorarsi sulla base di tentativi, errori e ricompense, un po' come
03:47fanno gli esseri umani. Questo introduce nella ricerca la combinazione tra percezione, previsione
03:53e pianificazione, che diventerà poi la base dei più moderni sistemi, non solo capaci di riconoscere
03:59ma anche di decidere e pianificare. Da questo punto in poi avviene il cambio di paradigma. Con
04:05l'articolo Attention is all you need nasce il transformer, un'architettura capace di analizzare
04:11grandi quantità di testo e di apprendere le relazioni sottili fra parole, frasi e concetti,
04:17che diventerà la base dei modelli linguistici su larga scala, anche detti LLM, e dell'intelligenza
04:23artificiale generativa. Il cambiamento è quindi su tre dimensioni. Da una parte scala, per la
04:28possibilità di introdurre miliardi di parametri che consentano di affinare il processo di apprendimento
04:34di un algoritmo. Dati, la possibilità di analizzare enormi quantità di dati e infine per capacità
04:41emergenti come ragionamento, traduzione, scrittura e anche programmazione di codice.
04:46Gli LLM non si limitano a classificare ma generano nuovi contenuti. Qui nasce il passaggio
04:52dall'intelligenza artificiale che riconosce a un'intelligenza artificiale che produce. Con il lancio
04:57di ChatGPT nel 2022 l'intelligenza artificiale viene portata nella vita quotidiana. Milioni di persone
05:03interagiscono con un modello linguistico come fosse un interlocutore umano. E inoltre la
05:08generazione diventa multimodale. È possibile generare diverse tipologie di contenuti, immagini,
05:14audio, video, testo e anche codici. La caratteristica chiave è la convergenza, un singolo modello che può
05:21svolgere diversi compiti, come analizzare un'immagine, comprendere, sintetizzare un contenuto, rispondere a
05:27delle domande e anche generare linee di codice. Si parla di allineamento, cioè dell'insieme di tecniche per
05:33rendere questi modelli più utili, più sicuri e più comprensibili per l'essere umano. I modelli
05:38imparano a seguire istruzioni, a ragionare passo per passo, a tenere conto del contesto. È proprio
05:44questa combinazione tra generazione, istruzioni e ragionamento che crea le condizioni per l'avvento
05:50degli agenti. Sistemi che non si limitano a parlare ma possono agire, eseguire compiti,
05:55pianificare sequenze di azioni da compiere e verificare i propri risultati. Possiamo quindi
06:00descrivere l'evoluzione dell'intelligenza artificiale generativa con quattro verbi,
06:04rappresentare, comprendere, collaborare e agire. Con l'avvento dei Transformers i modelli imparano
06:10a rappresentare il linguaggio, successivamente imparano a rispondere domande, ragionare in più
06:15passaggi, spiegare e sintetizzare i contenuti. Poi arriva la fase della collaborazione, i modelli non
06:21sono solo più generatori di testo ma diventano dei veri e propri assistenti. Infine la capacità più
06:27recente è rappresentata dal verbo agire. I modelli vengono collegati a strumenti esterni,
06:32possono eseguire compiti, ragionare in più passaggi, pianificare sequenze di azioni da compiere,
06:38verificare i propri risultati e prendere iniziative. Con l'arrivo di queste nuove capacità emergono
06:43anche nuove domande che vanno oltre la tecnologia, legate all'etica e ai possibili rischi legati all'utilizzo
06:49di questi strumenti. La sfida non è quindi soltanto costruire strumenti sempre più avanzati,
06:55ma imparare ad utilizzarli in maniera responsabile e consapevole.
Commenti