- 3 ore fa
Categoria
📺
TVTrascrizione
00:08Musica
00:30Buongiorno, ritorniamo in studio con l'ultimo panel della mattinata.
00:36È stata una mattinata molto impegnativa. Parleremo di intelligenza artificiale.
00:42Si potrei dire che tanto tu o no che piove, perché stamattina abbiamo iniziato con Daniele Dalli
00:53che ci ha raccontato l'utilizzo che loro ne fanno tra le altre cose dell'intelligenza artificiale in università.
01:01Poi parlando di scenari, il primo panel della mattinata è inevitabilmente l'intelligenza artificiale, ci siamo trovati a fare i
01:09piedi.
01:10Narrazione dei brand Savasandir, consumatori, che è stato il terzo panel della mattinata.
01:17Abbiamo sentito parlare del rapporto tra i consumatori di intelligenza artificiale.
01:22Poi abbiamo parlato di mercato globale, non poteva che venire fuori gli investimenti scarsi dell'Italia nell'intelligenza artificiale.
01:31E infine, del pensiero delle aziende, e ovviamente le aziende ci hanno raccontato anche quanto l'intelligenza artificiale impatta nel
01:41loro luogo.
01:42Quindi è un po' una sorta di convitato di pietra questa benedetta intelligenza artificiale.
01:47Devo dire che la postura di stamattina, grazie a Dio, non è stata con atteggiamenti epici.
01:57Si sono messi a fuoco molti limiti e si sono sottolineate alcune cose importanti.
02:07Però adesso ne parliamo veramente e ne parliamo di fatto con quattro esperti.
02:14Qui con me in studio c'è Luisella Gianni, che è autrice di un libro, Strategia, con l'AIA finale.
02:23Collegati con me ci sono Walter Quattrociocchi, credo io il massimo esperto, uno dei massimi esperti che c'è in
02:31Italia,
02:32professore ordinario di informatica all'Università La Sapienza di Roma e direttore del Center of Data Science and Complexity for
02:39Society.
02:41Ben arrivato professore, è un onore per me averla qui.
02:45Don Andrea Ciucci, coordinatore della Pontificia Accademia della Vita, che proprio su questi temi,
02:51del rapporto tra la tecnologia e l'etica e l'umano si interroga continuamente.
03:02E Cosimo Accoto, che si dovrebbe collegare, il Research Affiliate dell'MIT di Boston,
03:07è professore di Unimore, nonché AI Strategic Advisor per Pollicino Advisory.
03:13Quindi il meglio che siamo riusciti a mettere insieme, credo fra il meglio che c'è in Italia ad affrontare
03:21questo tema.
03:22Io, se siete d'accordo, partirei col professor Quattrociocchi, perché il professor Quattrociocchi è sicuramente
03:29una delle poche persone che io conosca che fa delle affermazioni partendo da dati.
03:37Voi capite bene che avendo passato 20 anni della mia vita a occuparmi di dati,
03:42le mie bambine, quando erano piccoline, dicevano, ma che fa papà? Vende numeri.
03:47Era la risposta, vende numeri.
03:49La maestra chiamò mia moglie e disse, ma guarda, sarà il caso che lei istruisca le ragazzine sul mestiere del
03:56papà?
03:56E mia moglie dice, questo fa.
03:59Ho fatto 20 anni in Nielsen, quindi per me i dati, che all'epoca erano anche un po' rozzi,
04:04devo dire la verità, però io mi ricordo che senti parlare per la prima volta
04:08professore di intelligenza artificiale, si chiamavano sistemi esperti all'epoca,
04:12nell'85.
04:14Quindi insomma, per me sentire parlare, partendo dai dati, come dire, è come trovarmi a casa.
04:20Il professore è molto critico su molti concetti che noi utilizziamo.
04:28volgarizzo, poi lui sarà, sicuramente spiegherà meglio di me, uno per tutti,
04:32quello che questa benedetta, i social, l'intelligenza artificiale, ci fa fare cose
04:38che noi non vogliamo fare.
04:40E lui dice, guardate che non è mica vero, guardate che siete voi che andate a cercare
04:45le persone, i temi che in qualche maniera vi gratificano, con cui vi trovate affinità
04:52e poi l'algoritmo va a chiappa e ve li ripropone in continuazione.
04:56Allora, professore, io le chiedo proprio questo, di provare a spiegare a largo pubblico
05:04i concetti che lei ha sviluppato nei suoi libri, nelle sue ricerche,
05:10il confirmation bias, gli ecochamber, tutte queste cose qui.
05:13Se ci riesci ci dà una mano, ecco.
05:17Ok, ci provo. Non ci abbiamo tre giorni, immagino, quindi...
05:22No, abbiamo, però abbiamo tempo, siamo in quattro, un'ora ce l'abbiamo.
05:28Sì, sì, no, vabbè, non volevo rubare spazio agli altri, insomma, ci mancherebbe.
05:31Diciamo soltanto che il... forse è una premessa importante.
05:37Io vengo da una tessitura particolare, nel senso io sono un incrocio strano
05:43tra informatica, fisica e scienze cognitive.
05:47E quindi questo mi ha permesso sostanzialmente di mettere bocca un po' dappertutto,
05:51con a volte raccapriccio di chi già lavorava sul tema.
05:56È la cosa, però, onestamente, ci ha portato ottimi risultati in ambiente.
06:01Che cosa facciamo sostanzialmente?
06:03Noi, il gruppo, vi parlo noi, non per plurale, ma gli stati,
06:06perché c'è una scuola qui, c'è un corso di laurea in data science,
06:09c'è una scuola di dottorato, abbiamo 20 persone che lavorano attivamente
06:13sui nostri progetti di ricerca, abbiamo collaborazioni con governi,
06:17con istituzioni, con aziende, big tech e varie.
06:21Di che cosa ci occupiamo?
06:24Cerchiamo di capire l'impatto della tecnologia sul tessuto sociale,
06:29non partendo da una teoria, ma osservando e tirando su delle ipotesi
06:37e verificandole poi con un approccio più empirico, diciamo.
06:41Questo non significa che siamo avulsi da qualunque tipo di interazione
06:44che sia interpretativa, però cerchiamo sempre di basare la questione interpretativa
06:47su un granusalis, cioè facendo relazionamento ai dati,
06:52perché sennò poi il problema che succede è che si innesca un meccanismo retorico
06:56che è quello della speculazione, cioè dove sostanzialmente parto,
07:00innesco un discorso laddove l'unica coerenza importante è la coerenza interna
07:05del discorso, cioè e lì nascono le famose supercazzole, no?
07:08E noi diciamo quello è un po' quello che cerchiamo di evitare come costruito.
07:12E ci siamo dapprima fomentati e cimentati con il problema del consumo
07:18di informazioni nell'ambiente social.
07:21E ci abbiamo messo poco, poco per dire, insomma,
07:25sostanzialmente abbiamo scritto moltissimi articoli,
07:27ma tutto il discorso può essere riassunto nel fatto che l'informazione
07:32non si diffonde come un virus, l'informazione si diffonde per conferma,
07:36cioè noi cerchiamo quello che ci piace, ignoriamo informazioni a contrasto,
07:39l'algoritmo impara questo da noi, imparando questo da noi ci accomoda
07:45in quella che viene poi definita una nicchia, si crea una nicchia di interazione
07:51e noi diventiamo in qualche modo nutriti, veniamo nutriti da algoritmi
07:57che ci portano a quello stato di prossimità.
08:01In quel contesto siamo anche contro quelli che non la pensano come noi,
08:05il famoso discorso della polarizzazione, no?
08:08Ricordo nel 2017 feci la copertina di Scientific American con il paper Inside di Eco Chamber,
08:13perché l'Eco Chamber, la cassa di risonanza, era stata teorizzata da Nickerson
08:19e poi da Cass Anstin nel 2002.
08:22Cass Anstin, quando vide il nostro articolo pubblicato, ci telefonò dicendo
08:27ragazzi avete dimostrato quello che io teorizzavo in lo tempore.
08:32Poi siamo andati avanti quei dati, abbiamo visto che anche la sua impostazione
08:35si portava dietro dei limiti teorici, diciamo, nel senso il dato non rispetta la teoria,
08:44il dato parla per sé, è la teoria che deve accogliere il dato.
08:47Poi il problema grosso, diciamo, che ultimamente si trova spesso in questo difrangente è questo.
08:52Continuando in questo tipo di traiettoria abbiamo, diciamo,
08:55cominciato a intessere collaborazioni col World Economic Forum prima,
08:59poi col governo americano, poi con il governo inglese nel 2020 sotto Covid
09:04e quello che usciva dai dati, quello che è stato teorizzato dai dati,
09:07ovvero che ognuno cerca quello che gli piace,
09:09ignora informazioni a contrasto,
09:11che la traiettoria di tutto il discorso dei narrativi online
09:16si regge sul business model delle piattaforme,
09:19cioè è l'architettura delle piattaforme che è implementata per trattenerci il più possibile lì
09:24e quindi ci dà l'informazione che più ci piace
09:27evitandoci informazioni che non ci tratterrebbero lì.
09:30E questo è il succo sostanziale in cui è stata riarticolata poi
09:34tutta la narrativa delle fake.
09:36Insomma, a breve ci sarà un documento della Commissione Europea
09:38che ridisegna proprio tutto il piano anche di approccio politico strategico
09:43al tema della disinformazione esattamente su questi cardini.
09:46E il 9 aprile poi, insomma, vanno un paio di settimane.
09:50Nella costruzione complessiva di questo tipo di processo,
09:52che cosa c'è?
09:53C'è sempre stato detto,
09:54Ah, ma i dati, io la penso diversamente,
09:57la mia teoria dice quest'altra cosa.
10:00Il dato non ha nessun proprietario,
10:03nel senso che dal punto di vista dell'interpretazione,
10:07cioè chi dice che esistono interpretazioni e non esistono,
10:10dati mediamente non sa interfacciarsi molto bene con i dati.
10:13Cioè il dato parla chiaro
10:14se uno lo tratta in maniera laica e in maniera onesta.
10:17E quello che è uscito fuori sostanzialmente,
10:19una delle ultime, diciamo, illazioni che abbiamo demolito
10:24è stata quella del fatto che l'algoritmo social ci ha resi più cattivi.
10:30L'algoritmo social, l'algoritmo dei social ci ha distrutto.
10:33Ecco, c'è un articolo pubblicato su Nature,
10:35Nature non Nature, l'opinion, Nature,
10:38un articolo su Nature,
10:39del 2024, marzo del 2024,
10:42in cui abbiamo fatto uno studio su 34 anni di piattaforme social,
10:4634 anni partendo da Usenet, dai primi blog,
10:49fino ad arrivare a Telegram, dicembre 2023.
10:51Quindi abbiamo un arco temporale di 34 anni,
10:54500 milioni di conversazioni.
10:57Non mi ricordo quanti utenti, però insomma, tanti.
11:00E in questo tipo di processo andiamo a studiare
11:03quali sono le dinamiche,
11:04se queste dinamiche sono cambiate nel tempo,
11:06cambiano in base alla piattaforma
11:07o cambiano in base al topic.
11:09Ecco, quello che troviamo è che le dinamiche di interazione,
11:11in particolare il riferimento alla tossicità e all'head pitch,
11:13sono identiche in 34 anni.
11:16Sono persistenti.
11:18Quindi, che ci dice questo risultato?
11:19Perché sta su Nature?
11:20Ci dice che la componente del comportamento umano
11:24che viene accomodata dalle piattaforme
11:28è estremamente potente.
11:31e non riconducibile, azzerabile
11:34a un mero azione di disincaglio.
11:38Cioè, sostanzialmente, non è la piattaforma
11:39che mi incastra e ci rende peggiori.
11:41Siamo noi che insegniamo
11:44e impariamo a navigare quel tipo di contesto.
11:46Quindi c'è una specie di loop omofili.
11:49Finito questo, sono arrivati i large language model.
11:52Già, o meglio, ce ne sono arrivate.
11:53E ci siamo cominciati a chiedere
11:55ma io ho partito come entusiasta
11:57dei large language model.
11:58Finalmente si lavora di meno,
11:59finalmente si fanno cose interessanti,
12:01finalmente...
12:02Talmente tanto entusiasta
12:03che regalo a mia moglie
12:05l'abbonamento a ChatGPT Pro
12:07per Natale nel 2022, no?
12:10All'epoca.
12:11Lei è insegnante di matematica,
12:12io entusiasta,
12:13lei molto meno,
12:15ma poco di attitudine, diciamo,
12:17molto più seria.
12:18E nella questione io come entusiasta
12:20ho fatto, adesso provo a scriverci del codice,
12:22vediamo che viene fuori.
12:24Favo un po', mia moglie che lo usa,
12:25mi fa, dicevo,
12:25ma guarda Walter,
12:26questa roba non mi risolve le quassine di primo grado,
12:28tu sei sicuro che questa roba è affidabile?
12:30E da lì cominciamo a discutere,
12:31mia moglie è matematica,
12:32cominciamo ad aprire un po' il cofano, no?
12:34Cominciamo ad aprire un po' il cofano
12:35e escono cose...
12:37Cosi fuori...
12:38Escono fuori cose interessanti.
12:39Poi in concomitanza
12:41era capitato sempre
12:42nel stesso stretto giro
12:43che ci avevamo avuto a cena
12:44un mio carissimo amico
12:46che lavora a Google, no?
12:47E parlavamo di possibili collaborazioni future,
12:50tutto quanto.
12:52Questo amico giustamente dice
12:53ma noi immaginiamo un futuro
12:56in cui noi andremo tantissimo in delega
12:58con il large language model,
13:00cioè faremo fare tante cose
13:03attraverso il large language model.
13:07Quindi andremo in delega,
13:08in delega massiva.
13:09E da lì,
13:09già a memoria della prima investigazione
13:13fatta a casa,
13:15come amore,
13:16vedendo sta cosa
13:17nasce la prima domanda
13:19che poi porterà all'esplosione
13:20di un altro successo scientifico recentissimo
13:26che sostanzialmente
13:27si interroga proprio
13:28sulla capacità di operazionalizzare
13:31il concetto di affidabilità
13:32del large language model.
13:33Che significa?
13:34Il large language model,
13:36se io vado in delega
13:38a un large language model,
13:40questo large language model
13:41è in grado di operazionalizzare,
13:42cioè rendere operativo
13:44il concetto di affidabilità
13:45per capire se ha terminato
13:47o meno un compito
13:47o se l'ha finito bene.
13:49Questa era la domanda di base.
13:50E partiamo e facciamo
13:51un esperimento semplicissimo.
13:53Prendiamo
13:53umani
13:54e il large language model
13:56agentificati,
13:56è stato uno dei primi esperimenti
13:57con l'agentification
13:58che abbiamo fatto,
13:59e sostanzialmente
14:00li mettiamo
14:02sullo stesso task.
14:03Non vediamo soltanto
14:04il risultato
14:05a cui arrivano,
14:06quindi se danno
14:07le stesse performance
14:08nell'ottica dei benchmark,
14:09ma cerchiamo anche
14:10di capire cosa c'è dietro,
14:12cioè come arrivano
14:13a quel tipo di processo.
14:14E lo facciamo a due livelli,
14:16uno con gli esperti,
14:17cioè il large language model
14:17contro esperti,
14:18e il large language model
14:20contro persone della strada,
14:22chiedendo la giustificazione
14:23del percorso
14:23che è stato preso
14:24nel giudizio.
14:25La domanda è
14:26dimmi se questa fonte
14:27è affidabile o meno,
14:29dimmi se questa fonte
14:30è di sinistra
14:31o di destra.
14:32In questo task banalissimo
14:34esce fuori
14:35un mostro a otto teste,
14:37che abbiamo chiamato
14:37epistemia.
14:38Che cos'è l'epistemia?
14:39L'epistemia
14:40è la plausibilità linguistica
14:43come unico criterio
14:45di verifica.
14:46Il large language model
14:47è un attrezzo
14:48che è progettato
14:49per costruire
14:50la sequenza
14:51più probabile
14:52di parole
14:52e verosimile rispetto
14:54a quello che è stato osservato.
14:56Quindi se dico gatto
14:56sarà più probabile
14:57che dopo comparirà topo
14:59piuttosto che colosseo,
15:01diciamo sostanzialmente,
15:02perché la cooccorrenza
15:03delle parole
15:03determina la geometria
15:04delle parole
15:05e quella sequenza
15:06segue e attratta
15:08da quante volte
15:09quelle parole
15:09sono apparse insieme.
15:10ovviamente in soldoni
15:12ci stiamo cercando
15:12di riassumere,
15:13però diciamo
15:14non c'è il significato
15:15della parola,
15:15il significato
15:16è strettamente distribuzionale.
15:17Per quante volte
15:18la parola è comparsa
15:19ad altre parole.
15:21E in quella plausibilità linguistica
15:24ci siamo ritrovati
15:24di fronte a un passaggio vocale.
15:26Il famoso test di Turing,
15:27quello che diceva
15:28quando un essere umano
15:29sarà ingannato
15:30o un essere umano
15:31penserà di star parlando,
15:32non sa se sta parlando
15:33con una macchina
15:34o con un umano,
15:37allora avremo passato
15:38del test di Turing
15:39e allora potremmo dire
15:39che la macchina è intelligente.
15:41Ecco,
15:41questa è una cazzata.
15:42È una,
15:43diciamo,
15:44una calla,
15:45diciamo sostanzialmente,
15:46perché cosa c'è
15:47dietro il large language model?
15:48Dietro il large language model
15:49c'è l'output
15:51di un processo
15:53generativo,
15:54che è quello organico,
15:56che ha rappresentazione simbolica,
15:57cioè per me sedia
15:58significa sedia,
15:59non è un numero
16:00in un vettore,
16:01no?
16:02È un vettore di prossimità.
16:03Nel large language model
16:04questa cosa non esiste,
16:05c'è una ricatalogazione
16:06del linguaggio
16:07che è stato elaborato
16:07precedentemente
16:08senza vincolo
16:09di ancoraggio alla realtà.
16:11Che significa?
16:12Un large language model
16:13ti dice che un'informazione
16:15è falsa
16:16perché dentro
16:17ci compare
16:18una parola
16:19che nella fase di training
16:20gli è stata associata
16:21ad un qualcosa di falso.
16:22Quindi se dentro c'è scritto
16:23Trump
16:24o Trump dice sta cosa,
16:26lui la associa
16:26a una fonte di destra
16:28che è probabilmente falsa.
16:29Se c'è scritto Novaks,
16:31lui tende ad associarlo
16:32a qualcosa di falso
16:34e probabilmente
16:37non affidabile.
16:38In quel tipo di processo però
16:40se c'è scritto
16:43combattiamo contro
16:44la deriva Novaks,
16:46il large language model
16:47non ne ha contezza.
16:48Il large language model
16:50non ha contezza
16:50che quel Novaks
16:51ha un valore di plausibilità
16:52che è all'interno
16:53di un contesto
16:54che lo definisce
16:54tale che
16:55l'esperienza
16:57viva,
16:58vera e propria
16:58non si può affermare
17:00soltanto
17:00al prior linguistico.
17:02Che significa?
17:02C'è la cifra
17:03di discernimento
17:04del giudizio
17:05che viene costruito
17:06dal large language model
17:07è una simulazione,
17:08simulazione,
17:09quindi crea
17:10una frase
17:10che richiama
17:12le parole
17:12che sono comparse
17:13all'interno del giudizio
17:15associando a quel giudizio
17:16i prior linguistici
17:17precedentemente apprezi.
17:19Mentre che fa
17:19l'essere umano?
17:20L'essere umano
17:21banalmente mette in atto
17:22quello che abbiamo chiamato
17:23le epistemic fault lines,
17:24cioè mette in atto
17:25un processo
17:26nella valutazione
17:27che passa
17:28dalla cognizione,
17:29passa alla metacognizione,
17:31passa ai valori,
17:32passa per la sospensione
17:33del giudizio.
17:34Il large language model
17:35non sospende il giudizio,
17:36deve completare
17:37la frase
17:38più verosimile
17:39rispetto a quel contesto,
17:40non ha contezza
17:41di quello che c'è stato
17:42scritto dentro.
17:43Sembra una questione
17:44di Lana Caprina,
17:46riformuliamo banalmente
17:47il discorso
17:48di come sta cambiando
17:49l'accesso
17:50all'informazione
17:51attuale
17:53attraverso i motori
17:54di ricerca.
17:54Le iMode
17:55di Google,
17:56abbiamo fatto
17:57un evento
17:57qui in Sapienza
17:58a febbraio
17:59su questa faccenda,
18:01Google
18:01e
18:02l'Agicom
18:04hanno avuto
18:05un'accesa discussione
18:08sul perché
18:08questo
18:09AI Mode
18:10potesse essere
18:11in qualche modo
18:11disarmante
18:12e dirompente
18:13sia per il mercato
18:13perché ovviamente
18:14non porta più i click
18:15dall'altra parte
18:16ma riassembla
18:17e riassetta
18:18completamente
18:19il nostro processo
18:20di accesso
18:20all'informazione
18:21che significa
18:22il motore di ricerca
18:23filtra
18:23e mi dà
18:24un ranking,
18:25mi dà
18:25una classifica
18:26delle fonti
18:27in base a quello
18:28che io ho ricercato.
18:29Il Large Language Model
18:31no,
18:32il Large Language Model
18:33genera
18:34la sequenza
18:35di parole
18:36più plausibile
18:37rispetto
18:38a quel contesto.
18:39Non mi dà
18:39le fonti,
18:40passa il salto
18:41di verifica,
18:41mi dà
18:41direttamente
18:42la risposta
18:43e nell'assemblamento
18:45delle parole
18:45che vengono fatte
18:46l'unico criterio
18:47è la coerenza
18:48interna
18:48al linguaggio stesso,
18:50non la verifica
18:51perché non è ancorato
18:52per costruzione.
18:54Questo è quanto accade.
18:55Ora,
18:56in tutta questa
18:56articolazione
18:57di processo
18:58che succede?
18:59Succede che
19:00ci troviamo
19:00di fronte
19:02a
19:02un criterio
19:04che seleziona
19:05epistemicamente
19:07bypassando
19:08completamente
19:09la parte
19:11di costruzione
19:12del giudizio.
19:13Quando sentiamo
19:14abbiamo quasi
19:15raggiunto
19:15le GI,
19:16hanno ricambiato
19:17la definizione
19:18dell'intelligenza
19:19generale
19:19per accesso
19:20dentro le GI,
19:21c'è una questione
19:21di marketing
19:22pressante
19:23che sostanzialmente
19:24vende
19:24l'abilitazione
19:25cognitiva
19:28come strumento.
19:28Sei tonto,
19:29utilizzi
19:30il large language model
19:30improvvisamente
19:31riuscirai
19:32ad aprire
19:32le scatole
19:33con l'apri scatole
19:34invece che
19:34con i denti.
19:35Sostanzialmente
19:36questo è l'ordine
19:36di pensiero.
19:37Diventerai
19:39un touring.
19:40Il problema
19:41è che questo
19:41non si pone
19:42come criterio
19:43perché manca
19:43proprio tutto
19:44il suo stato cognitivo.
19:45Non c'è
19:45la mente.
19:46Poi,
19:46all'obiezione
19:47a,
19:48ma siccome
19:48c'è l'intelligenza,
19:49non manca
19:50la definizione
19:51di intelligenza,
19:52non possiamo dire
19:52che il large language model
19:53non lo siano.
19:55Abbastanza idiota
19:56da dire
19:56perché la definizione
19:57del large language model
19:58esiste,
19:59se non esiste
19:59quella di intelligenza
20:00è un problema
20:01di chi sostiene
20:02che i large language model
20:03siano intelligenti
20:04perché
20:05quell'affermazione
20:06mi vale a dire
20:07che il modello
20:08di intelligenza
20:08preso in esame
20:09è quello
20:09del large language model
20:10che tiene conto
20:11di sampling
20:14condizionato
20:14all'interno
20:15di uno spazio
20:15di parole
20:16vettorializzate.
20:17Proviamo,
20:19professore,
20:19proviamo a sentire
20:20anche su questi temi
20:22l'opinione degli altri.
20:23io le devo chiedere
20:24scusa
20:25perché
20:25userò
20:26capisco bene
20:27il suo punto di vista
20:28il termine
20:29intelligenza
20:30intelligenza fra virgolette
20:32ma la devo usare
20:33altrimenti
20:34il pubblico
20:35non mi capisce.
20:36Ecco
20:39siamo qui
20:40in sala
20:41con Luisella
20:42professore
20:44quantomeno
20:44ci invita
20:45alla cautela
20:46ci dice
20:46occhio
20:47che il modello
20:48con cui funziona
20:49questa
20:50virgoletta
20:51intelligenza
20:51proprio intelligente
20:53non è
20:53ci dà
20:54delle risposte
20:55che sono
20:55delle risposte
20:56di probabilità
20:57statistica
20:58che una serie
20:59di parole
20:59si aggreghino
21:00insieme
21:01in maniera
21:02come dire
21:03più prossima
21:04rispetto ad altre
21:05ecco mi sembra che
21:06e allora
21:07che ne facciamo
21:08di questa roba
21:09qui nel mondo
21:09di impresa
21:10perché le imprese
21:12invece si stanno
21:13dando da fare
21:13o perlomeno dicono
21:15allora io parto
21:17con una piccola
21:18introduzione
21:19di quello
21:19che è il mio
21:20percorso
21:20e di
21:21da quanto tempo
21:23conosco
21:24il mondo
21:25dell'intelligenza
21:26artificiale
21:27allora io ho avuto
21:28un'illuminazione
21:29quello che
21:29appunto gli inglesi
21:30chiamano
21:31a moment
21:33nell'anno 2000
21:34che era il primo
21:35anno di università
21:36a Bologna
21:36e fondamentalmente
21:38allora il rettore
21:39Camisari Calzolari
21:40ha tenuto
21:42un seminario
21:42su quella
21:43che era
21:43l'intelligenza
21:44artificiale
21:44un po' dopo
21:45i sistemi esperti
21:46però parliamo
21:47del 2000
21:48e quindi ho deciso
21:50di farne
21:50in un certo senso
21:51la mia professione
21:53la mia carriera
21:54ok
21:54quindi nel 2005
21:55mi sono laureata
21:57con una tesi
21:57sui motori
21:58di ricerca
21:58semantici
21:59che ad oggi
22:00poi si sono evoluti
22:01anche in quelli
22:02che vediamo
22:03l'NLP
22:04il large language model
22:05e quant'altro
22:07e questo per darvi
22:08un po' un background
22:09ok
22:10del perché vi parlo
22:11oggi di
22:12intelligenza artificiale
22:13quindi non ho iniziato
22:14da due giorni
22:15ma al di là di questo
22:17in realtà il professore
22:19ha espresso tutta una serie di temi
22:22che molto utili
22:23ma che ci evidenziano anche
22:25come in alcune volte
22:26ci facciamo un po'
22:28ingannare dal marketing
22:30o dall'effetto wow
22:31che cosa significa
22:32il professore ha descritto esattamente
22:34la descrizione del large language model
22:36io non entro nel merito
22:37se sia intelligenza
22:39non intelligenza
22:40secondo me
22:41io sono molto pragmatica
22:42quindi sono temi filosofici
22:44su cui non entriamo
22:46c'è stato
22:48una ricerca
22:50attribuita
22:50all'MIT
22:51dell'agosto
22:52del 2025
22:53che dichiarava
22:55il 95%
22:57dei progetti
22:58pilota
22:59di intelligenza artificiale
23:01tra virgolette
23:02fallisce
23:03fallisce in che senso
23:04non porta
23:05ai risultati aspettati
23:06soprattutto in termini
23:07di ROI
23:08quindi di ritorno
23:09per il business
23:10poi sono state fatte
23:12varie analisi
23:13su questo studio
23:14che non era
23:14dell'MIT
23:15i dati probabilmente
23:17non erano così solidi
23:18per trarre una serie
23:19di conclusioni
23:20per cui i progetti analizzati
23:22avevano uno spazio
23:25di circa sei mesi
23:26che forse è un po'
23:27troppo poco
23:27per calcolare un ROI
23:28ma la cosa interessante
23:30appunto
23:31tornando all'eco chamber
23:33al bias di conferma
23:35che è stato citato
23:36secondo me
23:37non è tanto
23:37la veridicità o meno
23:39di questo studio
23:39ma quello che è stato
23:41l'eco
23:41quello che molte persone
23:43hanno detto
23:44sì
23:45in effetti
23:46è vero
23:46mi ci ritrovo
23:47ok
23:48e questo che cosa
23:50ci fa dire
23:51e torno
23:53al punto
23:54dei
23:54alcune volte
23:55dei miti
23:56delle credenze
23:57e delle false credenze
23:59che accertiano
24:01il mondo
24:01del large language model
24:02io dedico un capitolo
24:03ok
24:04nel mio libro
24:04che si intitola
24:06strategia
24:06ok
24:07l'ultimo libro
24:08di management
24:08scritto da un essere umano
24:09con un bel punto interrogativo
24:11appunto lo dedico
24:13a quello che io ho definito
24:14c'è stata anche
24:15la data dell'ultimo giornale
24:17esatto
24:18le visioni di questo tipo
24:20ne abbiamo avuto tanti
24:21esattamente
24:22chiaramente è molto provocatorio
24:24ok
24:24non è sicuramente
24:26l'ultimo libro
24:27ma fondamentalmente
24:28dedico un capitolo
24:29al concetto
24:30di intelligenza artificiale
24:32aziendale
24:33che cosa significa
24:34aziendale
24:35significa che fondamentalmente
24:37uno degli errori comuni
24:39che molte aziende fanno
24:40è quello di considerare
24:42il concetto
24:42di un modello
24:43quindi il large language model
24:45come intelligenza artificiale
24:47di considerarli sinonimi
24:49non sono assolutamente sinonimi
24:50è uno dei vari ingredienti
24:52è come pensare
24:53di fare una torta
24:54solo con la farina
24:55ok
24:56tra l'altro
24:57come è stato evidente
24:58dalla descrizione
24:59insomma del professore
25:00il large language model
25:01come dice stessa
25:02la parola
25:03non è un qualcosa
25:04che possiamo utilizzare
25:05per delle equazioni matematiche
25:07ma fondamentalmente
25:08è un motore linguistico
25:10io lo definisco
25:11anche un po'
25:12un simulatore
25:13ok
25:14è un simulatore
25:15simula una conversazione
25:16alcuni in passato
25:18hanno definito
25:19dei sistemi analoghi
25:20come dei pappagalli socastici
25:22quindi fondamentalmente
25:23non c'è una comprensione
25:24del significato
25:26ok
25:27ma c'è semplicemente
25:28una
25:30espressione linguistica
25:32questo che cosa ci fa dire
25:34perché molte aziende
25:35ad oggi
25:35non traggono valore
25:36perché fondamentalmente
25:37confondono
25:38magari anche consigliate male
25:40da consulenti
25:41che magari non hanno
25:42una profondità
25:44di analisi
25:46confondono
25:47l'LLM
25:47con l'azienda
25:48ok
25:49con quella che è l'intelligenza
25:50che può portare valore
25:51non
25:53fanno il passaggio
25:54dal dato al contesto
25:55che è molto importante
25:56nel senso che noi possiamo
25:57avere una marea di dati
25:59ma non è detto
26:00che questi dati
26:01portino valore
26:02perché molti dati
26:03sono rumore
26:04molti dati
26:05possono essere ambigui
26:06molti dati
26:07possono non capire
26:08il contesto
26:09quindi fondamentalmente
26:10quali sono gli ingredienti
26:11per un'intelligenza artificiale
26:13che funzioni
26:14sono
26:14un ingrediente
26:15è
26:16mettiamo il large language model
26:18per alcuni casi
26:19d'uso specifici
26:20ok
26:21in cui ho
26:21un'interfaccia
26:23che sia linguistica
26:24ok
26:24in cui ho
26:25bisogno di avere
26:26un'esperienza utente
26:27linguistica
26:28o vocale
26:29abbiamo poi
26:30quelli che sono anche
26:31tutti i motori
26:32di reasoning
26:33ok
26:33che sono molto legati
26:34al concetto
26:35di intelligenza artificiale
26:36agentica
26:37che è quello che ci
26:37aiuta anche ad orchestrare
26:39quelle che sono
26:40delle attività
26:41e a delegare
26:42delle attività
26:42che magari prima
26:43non delegavamo
26:45non significa
26:46con l'intelligenza artificiale
26:47generativa
26:48ci dimentichiamo
26:49del resto
26:50molti casi d'uso
26:51sono risolvibili
26:53con successo
26:54con il machine learning
26:55quello che è chiamata
26:56l'intelligenza artificiale
26:57predittiva
26:57con un approccio diverso
26:59e non dimentichiamoci
27:00anche il tema
27:01del contesto
27:02e dei processi
27:03qualsiasi cosa facciamo
27:04deve essere inserita
27:05in un contesto aziendale
27:07in un processo
27:08e fondamentalmente
27:09anche con
27:11quelli che sono
27:11i guardrail etici
27:12o banalmente
27:13le policy aziendali
27:14perché un'azienda
27:15può voler avere
27:16un certo tipo di risposta
27:18un'altra azienda
27:19un altro tipo di risposta
27:20e concludo
27:21quello che a me piace
27:22dire spesso
27:24è che non si tratta
27:25in passato
27:26si usava molto
27:27il termine
27:28intelligenza aumentata
27:30per riferirsi
27:31all'umano
27:32che utilizza
27:33lo strumento
27:34di intelligenza artificiale
27:35per fare
27:36un qualcosa
27:37di tra virgolette
27:38migliore
27:38o diverso
27:39in realtà
27:40secondo me
27:41è il contrario
27:42siamo noi
27:43esseri umani
27:44che aumentiamo
27:45l'intelligenza artificiale
27:47che cosa significa
27:48che non possiamo
27:48prescindere
27:49da quello che è
27:50il giudizio
27:51il contesto
27:52il dare
27:54delle linee guide
27:55a quelle che sono
27:56i risultati suggeriti
27:57ma soprattutto
27:58non si può
27:59prescindere
28:00dall'essere
28:02consapevoli
28:02ma soprattutto
28:03essere educati
28:03su quelle che sono
28:04le capacità
28:05e i limiti
28:06come dire
28:06in questo caso
28:07se io vado a utilizzare
28:08un large language model
28:10per fare
28:11delle equazioni
28:13decontestualizzato
28:14senza dargli
28:14il contesto
28:15dell'amazenda
28:15ai processi
28:17beh chiaramente
28:17mi darà
28:18una risposta
28:18generalista
28:19probabilmente
28:20non adatta
28:21al tipo
28:22di tema
28:23che voglio
28:24risolvere
28:24sono
28:25sono d'accordo
28:26condivido
28:27questo
28:27approccio
28:30appunto
28:30di buon senso
28:31peraltro
28:32visto che stiamo
28:33parlando
28:34di dati
28:34e di informazioni
28:36io ricordo
28:37che dagli anni
28:3880
28:39che si dice
28:39che i retailers
28:41e le banche
28:42e di fatto
28:43hanno tutti i dati
28:44possibili
28:44e immaginabili
28:45che poi
28:47di fatto
28:47utilizzano
28:48credo
28:48per i loro
28:49processi interni
28:50ma per quanto riguarda
28:51il rapporto
28:51con noi
28:52consumatori
28:52finale
28:53poco nulla
28:54di concreto
28:55si è visto
28:56eppure
28:56sia i retailers
28:58che le banche
28:59di noi
29:00praticamente
29:00sanno tutto
29:01questo è una cosa
29:02su cui
29:02vale la pena
29:03riflettere
29:04vorrei
29:05se collegato
29:07Cosimo a Cotto
29:08Cosimo
29:09non so se sei collesso
29:10se me lo mettete
29:12eccolo qua
29:13eccolo qua
29:14ciao
29:16ben trovato
29:17allora
29:18hai sentito
29:20credo che ci siano
29:21delle posizioni
29:23molto
29:24anche critiche
29:25comunque
29:26sui limiti
29:27di quella
29:30che abbiamo
29:31che chiamiamo
29:32volgarmente
29:32intelligenza artificiale
29:34sulle sue possibilità
29:36di fare o non fare
29:37certe cose
29:38e sull'importanza
29:39che poi
29:40alla fine
29:40il contesto
29:41le nostre decisioni
29:43hanno
29:43hanno
29:44nell'utilizzo
29:46tu so che sei
29:48molto attento
29:48studi
29:50questi fenomeni
29:52ti preoccupi
29:54molto
29:54di quanto
29:55questa rivoluzione
29:56tecnologica
29:58sta cambiando
29:59del nostro
30:00essere uomini
30:01dell'umano
30:02e peraltro
30:04questa è
30:05la vera ragione
30:05per cui stiamo parlando
30:06in un festival
30:08che ha come titolo
30:09visioni
30:10dell'inaspettato
30:11perché noi stiamo
30:12cercando di trovare
30:13un senso
30:14in un periodo
30:15che senso
30:16non è che ne abbia
30:17moltissimo
30:17cosa ne pensi
30:19Cosimo?
30:22Io
30:23credo
30:23se mi sentite
30:24stiamo attraversando
30:25una
30:26una rivoluzione
30:28tecnologica
30:29significativa
30:31da punto di vista
30:32mediale
30:33e gli studiosi
30:34parlano
30:35di nuova
30:37era inflattiva
30:38mediale
30:38che cosa vuol dire?
30:39Vuol dire che arrivano
30:40tecnologie
30:40che sono in grado
30:41di processare
30:43l'informazione
30:45farla circolare
30:46conservarla
30:48in maniera
30:49nuova
30:50in maniera
30:50esponenziale
30:51un po'
30:51come in passato
30:52altre rivoluzioni
30:54mediali
30:55hanno prodotto
30:56un'accelerazione
30:57nella capacità
30:58di far circolare
30:59l'informazione
31:00oggi lo facciamo
31:01attraverso
31:02l'intelligenza
31:02artificiale
31:03cosiddetta
31:03generativa
31:04che ha le caratteristiche
31:06che ricordava
31:07quattro ciocchi
31:08infatti io non capisco
31:10come mai
31:10quando è arrivato
31:12c'è GPT
31:12la prima cosa
31:13che io ho fatto
31:14è andarmi a studiare
31:15dal punto di vista
31:15ingegneristico
31:16come funzionava
31:17e da lì si capiva
31:18perfettamente
31:19che fosse
31:20un text predictor
31:21allora tutte
31:22le aspettative
31:23che in molti
31:24riponevano
31:25mi sembravano
31:26veramente
31:27come dire
31:27sopra
31:28sopra
31:29la sostanza
31:30delle cose
31:31la sostanza
31:31delle cose
31:32era che erano
31:33cent'anni
31:34che cercavamo
31:35di processare
31:37macchinicamente
31:37il linguaggio
31:38naturale
31:39umano
31:39all'inizio del novecento
31:42Markov
31:42lo fa
31:43quello delle catene
31:44lo fa
31:44con le vocali
31:45e le consonanti
31:46dei romanzi
31:47e cerca di capire
31:47se c'erano
31:48degli schemi
31:50probabilistici
31:50che ritornavano
31:51poi a metà
31:52degli anni cinquanta
31:53lo fa Shannon
31:54non sulle vocali
31:54e le consonanti
31:55ma le parole
31:56e va a cercare
31:58di capire
31:58se ci sono schemi
31:59che ritornano
32:00probabilistici
32:01che ritornano
32:02diciamo così
32:02all'interno
32:03del linguaggio
32:04all'inizio degli anni
32:042000
32:05Benjo
32:06e company
32:07fanno
32:08lo stesso tipo
32:09di lavoro
32:10ma lo fanno fare
32:11alle reti neurali
32:12artificiali
32:12ma la sostanza
32:13è questa
32:14si tratta
32:15di andare
32:15a analizzare
32:18dal punto di vista
32:18statistico
32:19probabilistico
32:20una lingua
32:22sostanzialmente
32:22cercare
32:23le ricorrenze
32:25e provare
32:26a predire
32:27come diceva
32:28Quattro Ciocchi
32:28predire
32:29data una sequenza
32:30di parole
32:30quale sarà
32:31la parola
32:32che con più
32:32probabilità
32:34plausibilità
32:35seguirà
32:36quella sequenza
32:37allora
32:37questo è
32:38se volete
32:39dal punto di vista
32:39ingegneristico
32:40quello che sta
32:41accadendo
32:41dal mio punto di vista
32:42poi è interessante
32:44perché il fatto
32:45che da qui
32:46poi si scatena
32:47se vuoi
32:47tutta la riflessione
32:48sull'umano
32:49sull'impatto
32:50che questo può avere
32:51e che se non ne abbiamo
32:53ovviamente
32:53una comprensione
32:55un po'
32:56ingegneristica
32:56stretta
32:57io poi
32:58arrivo dalla filosofia
32:59della scienza
33:00quindi
33:01per me
33:01tutto il lavoro
33:02per esempio
33:03di Brigman
33:03di andare a vedere
33:04dietro i concetti
33:05quali sono le operazioni
33:07che ci sono
33:08questo fa un po'
33:09di igiene
33:10quindi
33:10ci toglie via
33:11dalle narrazioni
33:12ci toglie via
33:13dall'hype
33:13e però
33:15la domanda
33:15secondo me
33:16un po' esistenziale
33:17che rimane
33:18è
33:18se possiamo
33:20o no
33:20e a che condizioni
33:21ospitare
33:22delle macchine
33:23che scrivono
33:24e che parlano
33:25sapendo che
33:26quel linguaggio
33:27non ha più relazione
33:28con la mente
33:29e col mondo
33:30sostanzialmente
33:31per loro
33:33sono sequenze
33:34di vocali
33:34consonanti
33:35sequenze di parole
33:36numeri
33:36vettori
33:37che vengono
33:38incrociati
33:38allora il tema
33:40qual è sostanzialmente
33:41possiamo o no
33:42ospitare
33:43dentro la società
33:44macchine
33:45di questo tipo
33:46e a che condizioni
33:48poi sostanzialmente
33:49e poi
33:50se volete
33:50più radicalmente
33:51chi è l'autore
33:53delle cose
33:54che un modello
33:55linguistico
33:55produce
33:56questo è un altro
33:57di quei temi
33:58che impattano
33:59socialmente
34:00perché poi
34:00dire autore
34:01è anche dire
34:02irresponsabile
34:03di quelle cose
34:04e se un modello
34:05linguistico
34:06allucina
34:06come spesso accade
34:08capire chi è
34:09irresponsabile
34:10delle allucinazioni
34:11e chi può essere
34:12imputato
34:14se quelle frasi
34:15che vengono prodotte
34:16non sono
34:17appunto
34:18veritiere
34:19perché non lo possono
34:20essere di fondo
34:21di sostanza
34:22sono calcoli
34:22probabilistici
34:23quindi
34:23la referenza
34:25correale
34:25la referenza
34:27con la verità
34:28diventano
34:29come dire
34:29questioni complicate
34:31da affrontare
34:33da riaffrontare
34:34nuovamente
34:34se immaginiamo
34:35di adottare
34:36queste macchine
34:37queste sono macchine
34:38calcolatrici
34:38delle parole
34:39sostanzialmente
34:40non l'abbiamo
34:41ovviamente
34:42non c'è una conoscenza
34:43diffusa di questo
34:44ovviamente
34:44si parla spesso
34:45di dimensioni
34:47quasi magiche
34:48antropomorfizzando
34:49ovviamente
34:50modelli linguistici
34:52che non lo sono
34:52però
34:53diciamo che
34:53questa rivoluzione
34:54strumentale
34:56che ha quelle
34:56caratteristiche
34:57che ben
34:58venivano ricordate
34:59prima
35:00ha delle
35:01ripercussioni
35:02ha degli impatti
35:03diciamo così
35:04sociali
35:05umani
35:05e resistenziali
35:07chatbot
35:08o ragazzi
35:08che parlano
35:09con chatbot
35:10per esempio
35:10abbiamo dato
35:12mandato
35:12alle macchine
35:13che quasi
35:14diventassero
35:15terapeuti
35:16a un certo punto
35:17allora
35:17la domanda
35:18è questa
35:19vogliamo
35:20possiamo
35:21dobbiamo
35:22a che condizioni
35:24ospitare
35:25queste macchine
35:26che pur come
35:26ricordava anche
35:27la vostra ospite
35:29hanno del positivo
35:30in molte delle loro dimensioni
35:32ma a quali condizioni
35:34sostanzialmente
35:35e con quali impatti
35:37chi è l'autore
35:37delle cose
35:38che abbiamo inventato
35:41un po' di tempo fa
35:41l'autore
35:42perché avevamo ritenuto
35:44ritenevamo
35:44che fosse necessario
35:45che ci fosse
35:46un responsabile
35:48delle cose
35:48che venivano scritte
35:49ma quando un modello
35:51linguistico parla
35:52io mi chiedo sempre
35:53appunto
35:53chi è l'autore
35:54delle cose
35:55sono i dati
35:56che gli ho dato
35:56in un pasto
35:57sono i modelli
35:58linguistici
35:59che sono stati poi
36:00ricavati
36:01e addestrati
36:02sono io
36:03l'autore
36:04delle frasi
36:05che il modello
36:06linguistico produce
36:07perché io
36:08ho scritto
36:09il prompt
36:09e in una certa misura
36:11da come scrivo
36:12il prompt
36:13poi anche
36:14la risposta
36:15viene
36:16la risposta
36:17viene generata
36:17quindi
36:18la mia idea
36:19è che noi
36:19stiamo affrontando
36:20una nuova
36:21era inflattiva
36:22mediale
36:25arriva
36:26nel caso
36:26dei modelli
36:27linguistici
36:28attraverso
36:28una simulazione
36:30appunto
36:31senza mente
36:32e senza mondo
36:33e dobbiamo
36:34a un certo punto
36:34come società
36:35capire
36:37se è il caso
36:38e ripeto
36:39a quali condizioni
36:40di ospitare
36:41macchine
36:42che scrivono
36:43e parlano
36:44nelle modalità
36:45che sono state
36:46richiamate
36:46poco prima
36:47ti ringrazio
36:49Cosimo
36:49se abbiamo tempo
36:50ovviamente
36:51ritorniamo
36:51su questi temi
36:52passerei
36:53adesso
36:54a Don Andrea
36:55Ciucci
36:56Don Andrea
36:57a quali condizioni?
37:00perché qui
37:00quando
37:03io invito lei
37:04qualcuno mi dice
37:05vabbè
37:05ma è scontato
37:06è chiaro
37:07che le macchine
37:08pongono dei problemi
37:09etici
37:09eccetera
37:10le macchine
37:11non hanno etica
37:14però qui
37:14è qualcosa
37:15di diverso
37:16perché
37:17Gianni
37:18ci ha detto
37:18attenzione
37:19ma le aspettative
37:20erano eccessive
37:22le aspettative
37:23non le avevano le macchine
37:24le avevamo noi uomini
37:26il professor
37:27Quattrociocchi
37:28ci ha detto
37:28attenzione
37:29che
37:29siamo noi
37:30che andiamo a cercare
37:31quelli che la pensano
37:33come noi
37:33e poi queste
37:34ci mettono insieme
37:35ma siamo sempre noi
37:36non solo loro
37:39Cosimo Accotto
37:40dice
37:40ma qual è
37:41la referenza
37:42con Reale
37:42insomma
37:43quindi
37:43il problema
37:45non riguarda
37:46la macchina
37:47riguarda noi
37:47le scelte che noi
37:48facciamo
37:49Don Andrea
37:51assolutamente
37:52sì
37:52e questa è la buona
37:53notizia di questo
37:54ragionamento
37:55cioè
37:55mentre tutto
37:56un certo tipo
37:57di narrativa
37:57va nella logica
37:58del
37:59accidenti
37:59queste macchine
38:00ci sostituiranno
38:01e certamente
38:02questa cosa
38:03un po' inquieta
38:04soprattutto
38:04se entra
38:05in certi
38:05ambienti
38:06quali
38:06quelli
38:06lavorativo
38:07o addirittura
38:08quello del
38:08canceling
38:09appena citato
38:09in realtà
38:10la questione
38:11la narrativa
38:11che esce
38:12da questa riflessione
38:13è proprio
38:13il contrario
38:13e cioè
38:14che la partita
38:15e la palla
38:15ce l'abbiamo
38:15in mano
38:16noi
38:18certo
38:18su uno scenario
38:19nuovo
38:20indubbiamente
38:21con delle
38:22tecnologie
38:22nuove
38:23che stiamo
38:24conoscendo
38:24che dobbiamo
38:25conoscere
38:26come il professor
38:26Accotto
38:27appena
38:28ricordato
38:28che dobbiamo
38:29conoscere
38:29per quello
38:30che sono
38:30e non per
38:30quello
38:31che sembrano
38:31essere
38:31o vorremmo
38:32che fossero
38:33e così via
38:34ma la responsabilità
38:35ce l'abbiamo
38:35noi
38:36in questo senso
38:37questa trasformazione
38:39tecnologica
38:40peraltro
38:41come tutte
38:41le altre
38:42grandi
38:42trasformazioni
38:43tecnologiche
38:44accadute
38:45nella storia
38:46umana
38:46ci richiede
38:49di essere
38:50umani
38:50cioè ci richiede
38:51di prendere
38:52delle decisioni
38:53di prendersi
38:54delle responsabilità
38:55di ragionare
38:56sulle condizioni
38:57di ragionare
38:58su quello
38:58che è
38:59non quello
38:59che vorremmo
39:00in questo senso
39:01mi è piaciuto
39:01lei ha iniziato
39:02dicendo
39:03questa Benedetti
39:04intelligenza artificiale
39:04ma è vero
39:05è benedetta
39:06è benedetta
39:07Papa Francesco
39:07la chiamò
39:08un dono di Dio
39:09un dono di Dio
39:10cioè una grande
39:11occasione
39:12che abbiamo
39:13per continuare
39:13a essere uomini
39:15questo credo
39:15che sia
39:16la cosa
39:17significativa
39:18e questo
39:19che cosa
39:19cosa
39:20cosa
39:22dove ci porta
39:23ci porta
39:24primo a
39:25che bello
39:26usiamole
39:26usiamole
39:27per quello
39:28che sono
39:29naturalmente
39:30e non per altro
39:31usiamole
39:32in una maniera
39:33saggia
39:34è giusta
39:36ecco
39:37questo
39:37credo
39:38che sia
39:38il vero
39:39tema
39:39di più
39:40potremmo dire
39:41perché
39:41è una cosa
39:42che dico spesso
39:43ma mi rendo conto
39:44che tutte le volte
39:44dico
39:44genera un minimo
39:45di sorpresa
39:47non soltanto
39:48usiamole bene
39:50ma facciamole
39:50anche bene
39:51consci che
39:52nessuna tecnologia
39:53è neutra
39:54e tutto dipende
39:56sull'utilizzatore
39:56finale
39:57sull'intenzionalità
39:58dell'utilizzatore
39:59finale
39:59no
39:59mi spiace
40:00non è così
40:01non esistono
40:02le tecnologie
40:02neutre
40:03perché ogni tecnologia
40:03è frutto
40:04di una cultura
40:05di una storia
40:06di un processo
40:07scientifico
40:08di una progettualità
40:09economica
40:09di mondi
40:11di idee
40:11di uomini
40:12di idee
40:12società
40:12sono connotate
40:14abitano un tempo
40:15e un luogo
40:15e come tale
40:16non è indifferente
40:17il modo
40:18cui facciamo
40:18non facciamo
40:19una tecnologia
40:21oltre a quello
40:22che come le usiamo
40:23in questo senso
40:24credo che
40:25parlando a persone
40:26che si occupano
40:27di impresa
40:28e di business
40:30io credo
40:31che
40:32tra gli impatti
40:34che dobbiamo
40:34segnare
40:35come particolarmente
40:36significativi
40:37dello sviluppo
40:37dell'intelligenza
40:38artificiale
40:39è esattamente
40:40la questione
40:41di come
40:42riformuliamo
40:43in questo tempo
40:44nel tempo
40:45delle macchine
40:45che sembrano
40:46parlare
40:47la questione
40:47della responsabilità
40:48dell'impresa
40:50certo
40:51oggi
40:51questo tema
40:52ci è riposto
40:52davanti
40:53in una maniera
40:53nuova
40:54lo scenario
40:54è cambiato
40:55le macchine
40:55sono diverse
40:56sono significativamente
40:58diverse
40:58e allora
40:59che cosa
41:00significa
41:00tornare
41:01a ripensare
41:01questo tema
41:02che comunque
41:03è tema decisivo
41:04non possiamo
41:05pensare
41:06una pratica
41:08economica
41:08che non
41:10riconosca
41:11la bellezza
41:13la bontà
41:13e la responsabilità
41:14della responsabilità
41:15sociale
41:15accidenti
41:17col business
41:17economia
41:18si costruisce
41:18una società
41:19e si fa crescere
41:20una società
41:22e gli individui
41:23che la compongono
41:24ecco su questo tema
41:25io credo che
41:25oggi come oggi
41:26dovremmo iniziare a parlare
41:28seriamente di questo tema
41:29che cosa significa
41:30parlare di responsabilità
41:32sociale
41:32dell'impresa
41:33al tempo
41:34dell'intelligenza
41:34artificiale
41:35questo sì
41:36mi piacerebbe
41:37e qui diventano
41:38significativi
41:38un passaggio
41:40da articolarsi
41:41nella sua complessità
41:42che è un passaggio
41:43di tipo
41:44educativo
41:45appunto
41:46tutti hanno notato
41:48come oggi
41:48vediamo
41:49una
41:50narrazione
41:51dell'impatto
41:52dell'intelligenza
41:52artificiale
41:53che è
41:53esagerata
41:54una parte
41:55scorretta
41:55dall'altra
41:56addirittura
41:58problematica
41:59ecco
42:00sviante
42:01allora
42:01che cosa
42:02significa
42:02riguadagnare
42:03una comprensione
42:05del fenomeno
42:05che ci aiuti
42:06davvero a riconoscere
42:07le possibilità
42:08e le pretese
42:09e le possibilità
42:10e i limiti
42:11di ogni tecnologia
42:12anche di questa tecnologia
42:13e significa
42:14come significa
42:15imparare anche
42:15a davvero
42:17a usarla
42:18e questo potrebbe
42:19essere lo step
42:20uno
42:20ma di più
42:21a usarla
42:22con la responsabilità
42:24di chi riconosce
42:26significativo
42:27appunto
42:27i modi in cui
42:28le facciamo
42:29e i modi in cui
42:29le utilizziamo
42:30e le conseguenze
42:31personali e sociali
42:32che hanno
42:33è una gran bella sfida
42:34accidenti
42:35ci è capitata
42:36di vivere
42:37in un tempo
42:38particolarmente significativo
42:40abitato
42:41delle macchine
42:42che sono frutti
42:43eccezionali
42:44della nostra intelligenza
42:45guardi Don Andrea
42:47io questa sfida
42:48mi sento
42:49di voler raccogliere
42:50le posso promettere
42:51che il prossimo anno
42:52ci ritroveremo
42:53e parleremo
42:54proprio di questo
42:55e lo faremo
42:56perché
42:57è tardi
42:59e vado a chiudere
43:00lo faremo perché
43:02vedete
43:03stamattina
43:04siamo partiti
43:05da alcuni fatti
43:07siamo partiti
43:09da
43:09una situazione
43:11che abbiamo definito
43:12inaspettata
43:13non conosciuta
43:15che ci poteva
43:17e ci mette
43:18tutti in crisi
43:19però alla fine
43:20lungo tutto
43:21il percorso
43:22devo dire
43:23il percorso
43:23di stamattina
43:24ha dei
43:25filrug fortissimi
43:27cioè delle convergenze
43:28onestamente
43:29che non mi aspettavo
43:29per esempio
43:31lei adesso parlava
43:32della responsabilità
43:33di impresa
43:34un paio di panel
43:36prima
43:36dei comunicatori
43:38hanno posto
43:39questo problema
43:40cioè
43:40l'azienda
43:41che deve essere
43:42responsabile
43:43da un altro
43:44punto di vista
43:45lì il problema
43:45era
43:46ma come
43:46mi rapproccio
43:47a un consumatore
43:48che non è più
43:48un consumatore
43:49bambino
43:50a cui gli racconto
43:51qualunque cosa
43:52e lui
43:53è lì
43:53che dice
43:53ma un consumatore
43:55adulto e maturo
43:55è la responsabilità
43:57quindi
43:57e dicevo
43:59questo tema
44:00di questo
44:01scorcio
44:03di secolo
44:04che
44:05è ovviamente
44:06difficile
44:07da
44:08descrivere
44:09da definire
44:09da inquadrare
44:11però
44:11quello che è emerso
44:13è che
44:13questa
44:14benedetta
44:15transazione
44:16tra
44:17il mondo
44:18che si è lasciato
44:18alle spalle
44:19era quello
44:20tutto era tranquillo
44:22tranquillo
44:22tranquillo no
44:23ma che era tutto
44:24ben definito
44:25tutto
44:25con degli schemi
44:26molto chiari
44:27io raccontavo
44:28che avevo delle aziende
44:30che mi dicevano
44:31ma quali saranno
44:32i mercati
44:32che cresceranno
44:33dove dobbiamo investire
44:34e io
44:35pof
44:36glielo dicevo
44:37se me lo chiedessero
44:38adesso
44:39non credo
44:39che sarei
44:40capace
44:40con la stessa precisione
44:42ecco
44:42il passaggio
44:43da quel mondo
44:44all'uovo
44:45alla fine
44:46è avvenuto
44:47noi
44:48nel nuovo mondo
44:49ci siamo già
44:50la transazione
44:51in qualche maniera
44:52dobbiamo avere il coraggio
44:54di metterci alle spalle
44:55essere nel nuovo mondo
44:56però vuol dire
44:57significa
44:59quello che è stato appena detto
45:00da voi tutti
45:01cioè
45:01assumere una postura
45:03di responsabilità
45:04e giocare la partita
45:07cioè
45:07voglio dire
45:08non verranno i marziani
45:10a giocare la partita
45:11per noi
45:12dobbiamo giocarla noi
45:13con tutti i nostri limiti
45:14i nostri limiti umani
45:15però col massimo
45:17di onestà intellettuale
45:19e intelligenza
45:20io
45:21vi ringrazio
45:23è stato un panel
45:24per me
45:25interessantissimo
45:26e ricco
45:28come lo sono stati
45:29tutti i panel
45:30di oggi
45:31quindi a questo punto
45:32non mi resta
45:33che dare
45:34appuntamento
45:35ai nostri spettatori
45:36che ci stanno seguendo
45:37a domani
45:38alle ore 14
45:40perché
45:41riprenderemo
45:42questa maratona
45:43fino a giovedì sera
45:44grazie a tutti
45:45e grazie a chi ci ha ascoltato
45:47fino adesso
45:49grazie a tutti
45:50a voi
46:03grazie a tutti
46:06grazie a tutti
46:18Grazie a tutti.
Commenti