Vai al lettorePassa al contenuto principale
  • 1 giorno fa
Con l'aiuto di Chiara Giovagnoli, Data Scientist di Eni, ripercorriamo le tappe che hanno portato all'intelligenza artificiale generativa come la conosciamo oggi: dalla prima domanda — le macchine possono pensare? — al primo sistema di riconoscimento delle immagini, cioè Imagenet, fino ad arrivare ad AlphaGo, l'algoritmo di Google che è riuscito per la prima volta a battere un essere umano agli scacchi cinesi imparando da partite precedenti. E le domande sull'etica e i rischi dei nuovi sistemi che si configurano come le sfide del nostro futuro prossimo.

Categoria

🗞
Novità
Trascrizione
00:02In questo intervento parleremo di storia dell'intelligenza artificiale. Per guidare la
00:07narrazione di questo percorso distingueremo due macrofasi, quella dell'intelligenza artificiale
00:13cosiddetta tradizionale e quella dell'intelligenza artificiale generativa. L'idea che una macchina
00:18potesse pensare non è nuova, ma la vera svolta arriva negli anni 50 con Alan Turing, matematico
00:24e logico britannico. Turing non si limita a costruire macchine, ma pone la domanda che
00:30segna la nascita del campo. Le macchine possono pensare e propone il cosiddetto test di Turing,
00:36un criterio pragmatico secondo il quale se una macchina conversa in modo indistinguibile
00:41da quello umano, allora è intelligente. Successivamente nel 1955 viene coniato il termine
00:47intelligenza artificiale e nasce quindi ufficialmente la disciplina di matrice europea. In parallelo
00:54nasce il cosiddetto perceptron, uno dei primi modelli di rete neurale, il cui funzionamento
00:59è ispirato vagamente a quello del neurono biologico e il quale principale obiettivo è
01:04quello di apprendere strutture e regolarità ricorrenti che emergono dall'osservare un
01:09set di informazioni. Tra gli anni 60 e 70 compaiono i primi sistemi simbolici, macchine che tentano
01:16di emulare il ragionamento umano usando concetti in forma simbolica, che consentano di rappresentare
01:22la realtà attraverso parole, simboli e regole formali. Per alcuni compiti, come giocare a
01:28damo o dimostrare piccoli teoremi, si rivelano anche particolarmente efficaci. Ma le capacità
01:33delle macchine sono molto inferiori alle aspettative e con il ridimensionamento delle promesse arrivano
01:39due periodi di forte delusione e taglia ai finanziamenti, i cosiddetti inverni dell'intelligenza
01:44artificiale. Successivamente tra gli anni 90 e 2000 due forze cambiano il gioco. Da una parte
01:50una crescente disponibilità di dati, dall'altra una maggiore potenza computazionale. L'approccio
01:55simbolico viene progressivamente affiancato e poi superato dall'apprendimento statistico
02:00e dalle reti neurali profonde. Si passa quindi dall'utilizzo di regole esplicite e conoscenza
02:04umana al processo con cui i modelli diventano in grado di estrarre automaticamente relazioni
02:09dai dati, facendo uso di principi matematici e statistici. Le macchine non vengono programmate,
02:15ma allenate. Un momento decisivo arriva nel 2012 con ImageNet, un progetto che introduce un
02:22enorme archivio di immagini classificate per diverse categorie e una competizione annuale tra
02:28ricercatori al fine di addestrare algoritmi che riconoscano automaticamente il contenuto presente
02:34all'interno delle immagini. Grazie all'utilizzo di reti neurali profonde i sistemi iniziano a
02:39identificare oggetti e contenuti visivi con un livello di accuratezza mai visto prima. Questo dà un
02:45forte impulso al cambio della computer vision, una disciplina che consente ai modelli di
02:51interpretare i contenuti visivi e diventa la base delle più moderne applicazioni di
02:56intelligenza artificiale, come filtri foto fino al riconoscimento di pattern in campo medico.
03:02Questo risultato è stato reso possibile grazie all'evoluzione degli algoritmi, ora capaci di
03:07comprendere strutture complesse nei dati e di mapparle in una gerarchia di informazioni che
03:13consenta di catturare prima le caratteristiche più importanti che aiutano a distinguere per
03:18esempio un oggetto dall'altro e poi di aggiungere sempre maggiore contesto e dettagli per affinarne
03:23la comprensione globale. Nel 2016 arriva un'altra svolta con AlphaGo, un sistema che impara a giocare
03:30a Go, gli scacchi cinesi, non seguendo regole pre-programmate ma allenandosi sulla base dell'esperienza,
03:36simulando quindi partite contro se stesso. Qui emerge il paradigma del reinforcement learning,
03:41l'idea che un modello possa migliorarsi sulla base di tentativi, errori e ricompense, un po' come
03:47fanno gli esseri umani. Questo introduce nella ricerca la combinazione tra percezione, previsione
03:53e pianificazione che diventerà poi la base dei più moderni sistemi, non solo capaci di riconoscere
03:59ma anche di decidere e pianificare. Da questo punto in poi avviene il cambio di paradigma. Con
04:05l'articolo Attention is all you need nasce il transformer, un'architettura capace di analizzare
04:11grandi quantità di testo e di apprendere le relazioni sottili fra parole, frasi e concetti
04:17che diventerà la base dei modelli linguistici su larga scala, anche detti LLM e dell'intelligenza
04:23artificiale generativa. Il cambiamento è quindi su tre dimensioni. Da una parte scala per la
04:28possibilità di introdurre miliardi di parametri che consentano di affinare il processo di apprendimento
04:34di un algoritmo. Dati, la possibilità di analizzare enormi quantità di dati e infine per capacità
04:41emergenti come ragionamento, traduzione, scrittura e anche programmazione di codice. Gli LLM non si
04:47limitano a classificare ma generano nuovi contenuti. Qui nasce il passaggio dall'intelligenza
04:52artificiale che riconosce a un'intelligenza artificiale che produce. Con il lancio di ChatGPT nel
04:582022 l'intelligenza artificiale viene portata nella vita quotidiana. Milioni di persone interagiscono
05:04con un modello linguistico come fosse un interlocutore umano. E inoltre la generazione
05:09diventa multimodale. È possibile generare diverse tipologie di contenuti, immagini, audio, video,
05:15testo e anche codici. La caratteristica chiave è la convergenza, un singolo modello che può
05:21svolgere diversi compiti, come analizzare un'immagine, comprendere, sintetizzare un contenuto, rispondere
05:27a delle domande e anche generare linee di codice. Si parla di allineamento, cioè dell'insieme di
05:32tecniche per rendere questi modelli più utili, più sicuri e più comprensibili per l'essere
05:37umano. I modelli imparano a seguire istruzioni, a ragionare passo per passo, a tenere conto
05:43del contesto. È proprio questa combinazione tra generazione, istruzioni e ragionamento
05:48che crea le condizioni per l'avvento degli agenti. Sistemi che non si limitano a parlare
05:53ma possono agire, eseguire compiti, pianificare sequenze di azioni da compiere e verificare
05:58i propri risultati. Possiamo quindi descrivere l'evoluzione dell'intelligenza artificiale
06:02generativa con quattro verbi, rappresentare, comprendere, collaborare e agire. Con l'avvento
06:08dei Transformers i modelli imparano a rappresentare il linguaggio. Successivamente imparano a rispondere
06:14domande, ragionare in più passaggi, spiegare e sintetizzare i contenuti. Poi arriva la fase
06:19della collaborazione. I modelli non sono solo più generatori di testo ma diventano dei veri
06:24e propri assistenti. Infine la capacità più recente rappresentata dal verbo agire.
06:29I modelli vengono collegati a strumenti esterni, possono eseguire compiti, ragionare in più
06:34passaggi, pianificare sequenze di azioni da compiere, verificare i propri risultati e
06:40prendere iniziative. Con l'arrivo di queste nuove capacità emergono anche nuove domande
06:44che vanno oltre la tecnologia, legate all'etica e ai possibili rischi legati all'utilizzo di
06:50questi strumenti. La sfida non è quindi soltanto costruire strumenti sempre più avanzati ma imparare
06:56ad utilizzarli in maniera responsabile e consapevole.
Commenti

Consigliato