- 3 ore fa
Categoria
📺
TVTrascrizione
00:05Benvenuti ad AI Club, il programma di classe NBC dedicato alla rivoluzione dell'intelligenza
00:11artificiale. Ebbene, nelle ultime settimane abbiamo sentito parlare di AI, la cronaca che
00:16ci arriva dagli Stati Uniti è strettamente legata a tematiche legate a questioni di diritto che
00:22impattano direttamente poi sul coinvolgimento dei colossi delle big tech e soprattutto anche
00:29sulle loro strategie per il futuro. Per farlo con noi un grande esperto, Reste Pollicino,
00:35professore di diritto costituzionale e di AI Law all'Università Bocconi. Un grande piacere
00:40averla con noi.
00:41Ma grazie davvero, il piacere è veramente tutto mio.
00:44E allora professore, partiamo dalla notizia. Meta e Google responsabili di dipendenza da
00:50social. È un verdetto che possiamo definire storico, non esageriamo se usiamo questo aggettivo,
00:55che arriva dal Tribunale della California e che può ridefinire di fatto la politica e
01:01il modo in cui l'industria tecnologica affronta la responsabilità legale. Di cosa parliamo?
01:08Si parla già di ricorso? Come possiamo leggere questo verdetto?
01:13Ma effettivamente storico, secondo me, è l'aggettivo giusto. Chiaramente poi andrà
01:18vista il suo sviluppo e quindi se sarà in qualche modo confermato o meno. Non escludo
01:25che possa andare alla Corte Suprema con certi orari perché questo è uno di quei casi che
01:29potrebbero fare scuola in un senso o nell'altro. Ma cerchiamo di capire perché. Non tanto per
01:35la responsabilità riconosciuta a Meta e Google. Molte volte si è parlato di responsabilità di
01:40queste piattaforme. Quello che mi sembra che cambi nella struttura argomentativa, proprio
01:46leggendo la decisione, è il tipo di responsabilità. Perché fino adesso tutti i casi, e non potevo
01:54che essere così, perché la base giuridica, ricordiamolo, è la sezione 230 del 1996 del
02:02Communication Desense Act, in cui si attribuisce una sorta di immunità agli hosting provider,
02:08alle piattaforme, per tutti i contenuti generati da terze parti. Quindi fino adesso il focus
02:15era sulla responsabilità per contenuti. Il dilemma era, sia in Stati Uniti che in Europa,
02:22con delle sfumature diverse, si tratta di contenuti esclusivamente ospitati da queste piattaforme
02:31e quindi in qualche modo ovviamente in cui la piattaforma non ha un controllo, o si
02:38tratta di contenuti in qualche modo generati o co-generati. È ovvio che questa sottile
02:44linea rossa, con la dimensione tecnologica e quindi la caratteristica delle piattaforme
02:52è diventata sempre più sottile, la sottile linea rossa tra hosting provider e content provider.
02:58Però era questo il campo di battaglia. Oggi, leggendo questa sentenza, il campo di battaglia
03:04sembra un altro, cioè non tanto la responsabilità ma il design. Cosa vuol dire? Vuol dire di fatto
03:12la infrastruttura algoritmica, la interfaccia, quello che è di fatto il modo in cui si presenta
03:21la piattaforma in cui interagisce con gli utenti. Questo per me è molto importante perché a questo
03:28punto di fatto si dice, attenzione, il design non è neutrale, è una scelta e se è una scelta
03:37ha delle conseguenze. Quindi, per esempio, il fatto di stabilire quanto deve durare l'attenzione
03:45dell'utente, quanto deve essere facile uscire dalla piattaforma, tutto questo non è più
03:52come dire a costo zero perché da un modello di business diventa in qualche modo causa di
03:59implicazioni giuridiche. E questo è veramente importante perché di fatto, tanto per tornare
04:04al punto di partenza, non si dice più, attenzione, perché ho sentito anche commenti un po' superficiali
04:10in cui si dice che questa sezione 230, questa responsabilità non esiste più, è stata travolta
04:16la sentenza. Assolutamente no, però cambia la prospettiva. Non entra più in gioco la sezione
04:22230 perché non si parla più di contenuti, ma si parla di design e quindi in qualche modo
04:26si bypassa questa responsabilità. Vedremo gli sviluppi, ma ripeto, proprio per la diversa
04:32prospettiva a me sembra molto interessante.
04:35Infatti, professore, si parla già di, diceva, design, di uso, si parla già di questo tabacco
04:42effect che richiama un po' le politiche degli anni 90 sul disincentivazione del fumo, però
04:49direi che questo è un tema delicato e vorrei portarla su un altro scontro nell'ultima settimana,
04:55quello tra Antropic e il Pentagono, perché c'è un passo avanti, di fatto un giudice prende
05:00la posizione della società dei fratelli Amodei, dicendo di fatto che il Dipartimento
05:07di Pete Hesges, l'amministrazione americana, sembra punire l'azienda di fatto perché ha
05:12reso pubblico lo scontro sull'uso militare delle AI in violazione della libertà di espressione.
05:18Di tutta risposta, invece, la tesi del Dipartimento della Difesa non è di fatto un gioco legato
05:26al primo emendamento, ma più un tema di sicurezza, una parola che torna spesso, sicurezza operativa,
05:34la questione si fa sempre più complessa, come dobbiamo leggerla?
05:39Questo è uno dei temi in questo momento che più appassionano sia gli studiosi, ma anche
05:44se vuole i policy makers nel dibattito transatlantico, perché se c'è una criptonite per la libertà
05:54di espressione, a sua maestà, il primo emendamento negli Stati Uniti, sembra essere la sicurezza.
05:59Nel senso che c'è stata anche una sentenza legata a TikTok in cui si dice che le ragioni
06:03di sicurezza, c'è un'ossessione securitaria negli Stati Uniti per ragioni anche ragionevoli,
06:07di interferenze soprattutto russe e cinesi nella sicurezza.
06:12Attenzione che questo linguaggio sta per essere in qualche modo anche preso in prestito
06:16dall'Europa, poi ci torniamo un'altra volta, ma secondo me è delicata questa migrazione
06:22di idee e di linguaggio, però agli dati questo il concetto di sicurezza chiaramente è in
06:27qualche modo pervasivo.
06:28Ora, il problema qual è qui?
06:31Innanzitutto è un problema di chi stabilisce che cos'è libertà di espressione, che cos'è
06:37sicurezza e che cos'è semplicemente una negoziazione contrattuale.
06:42Non sono sicuro che sia soltanto in capo al governo federale a deciderlo, probabilmente
06:49neanche in capo a un'impezzo privata, è la Costituzione che ci dice quando la libertà
06:55di espressione è protetta, quando invece ci sono dei possibili limiti per sicurezza.
06:59Questo per dire che cosa?
07:00Per dire che Antropic ha fatto una scelta molto coraggiosa, si può discutere la modalità
07:06e chiaramente è anche uno strizzare l'occhio al mercato europeo, questo non è soltanto
07:10una dimensione etica, è inutile essere ingenui, ma da questo punto di vista anche
07:16la comunicazione è interessante, perché dice a me non interessa che ci sia un obbligo
07:22dal punto di vista del governo di eliminare i limiti che la stessa società si dà dal
07:31punto di vista dell'utilizzo di questi modelli, perché i limiti non li decidi tu, i limiti
07:35la decisione della Costituzione, quindi non è più né una negoziazione né in qualche
07:40modo una tua disponibilità, ci sono alcuni limiti che non sono nella tua disponibilità
07:45e questa è un'argomentazione fortemente costituzionale, cioè ci sono dei limiti, dei
07:49temi, dei valori che in tutte le Costituzioni democratiche esulano dalla disponibilità della
07:56maggioranza di turno perché sono limiti inviolabili della Costituzione, cioè del potere
08:00costituente e non costituito, è un po' questa l'argomentazione che secondo me è più interessante
08:05e su cui il governo ha più difficoltà ad intervenire.
08:09Chiarissimo, e poi ecco professore, un altro punto, quello legato ai data center, perché
08:15inizia a percepirsi, a sentirsi un malcontento negli Stati Uniti legate all'intelligenza artificiale
08:21soprattutto relativo alla costruzione di data center e al consumo di energia che essi hanno
08:28impattano poi di fatto sulle reti territoriali. Ebbene, arriva il data center Moratorium Act,
08:36di fatto è stata presentata formalmente una proposta di legge da parte della senatrice
08:42Dem Ocasio-Cortez e del senatore Bernie Sanders che vieta la costruzione di nuovi data center
08:49a meno che non venga approvata una legge federale sull'AI che lo consente. Quindi anche qui un po'
08:55macchinoso, ma di fatto è una legge che se approvata, questa proposta, può impattare
09:02concretamente lo sviluppo industriale dell'infrastruttura dell'AI pensando anche a tutto l'impegno del
09:07progetto Stargate di Trump su cui già l'amministrazione si è spesa, soprattutto anche a favore di data
09:13center sul territorio. Ecco, anche qui come dobbiamo leggere questa proposta di legge vista
09:20tra l'altro dal punto di vista dell'Europa. Cosa ci insegna?
09:25Secondo me qui è interessante notare una sorta di inversione di un modello tradizionale americano.
09:33È soltanto apparente, ma in qualche modo è anche effettiva. Cioè, se ci pensa, storicamente
09:38il modello americano è stato prima si innova e poi eventualmente, molto eventualmente, si regola.
09:44Qui accade il contrario. Si blocca l'infrastruttura fino a quando non c'è una regolamentazione,
09:51c'è una legge. È un cambio di logica che avvicina, almeno apparentemente, gli Stati
09:56Uniti a una sensibilità più europea. Ma secondo me bisogna andare un po' oltre questa apparente
10:00inversione. Cioè, quello che oggi è chiaro a tutti è che il data center non è soltanto
10:05un'infrastruttura tecnica. È il luogo in cui si concentra potere computazionale. E cosa vuol dire
10:12potere computazionale nell'economia delle AI? Un potere computazionale è di fatto economico,
10:19tecnologico e anche geopolitico. Quindi bloccare, anche temporaneamente, la costruzione di nuovi
10:26data center. Cosa significa, da un punto di vista della grammatica del potere? Intervenire
10:32direttamente sulla distribuzione di questo potere. Io vedo tre tipi di ragioni, che non
10:39sono del tutto dichiarate, però rilevanti. La prima è energetica, come diceva lei. I data center
10:44per le AI consumano quantità enormi di energie e di acqua. E il tema, ovviamente, non è più
10:49marginale. In alcune aree degli Stati Uniti la crescita data center sta già mettendo sotto
10:54pressione le reti elettriche locali. Questo è un tema importante. Infatti, parlando anche con le
10:59big tech, spesso, non sono così interessate a dimensione regolatoria e valoriale, ma sono
11:05interessatissime alla dimensione energetica, perché è una risorsa esigua. La seconda è
11:09ambientale, ovviamente. La ragione ambientale è l'impatto in termini di emissioni e uso delle
11:15risorse, che è crescente. E non è soltanto come di una sensibilità ambientale, è che se non si
11:20risolve questo problema, non si riesce poi ad accelerare come si vorrebbe sulle AI. Quindi è un
11:25trade-off che devono in qualche modo risolvere. E la terza, più importante, forse dal punto di vista
11:30almeno del potere, è la concentrazione. I grandi data center sono costruiti e gestiti ormai da pochi
11:36attori, no? Gli hyperscaler, che già dominano il mercato. Senza una regolazione, qual è il rischio?
11:44Il rischio, almeno percepito, è un'ulteriore concentrazione del potere tecnologico in pochissime
11:49mani. Ora, nota a piedi pagina, non sono convinto che questa sia la ragione per cui si andrà in quella
11:55direzione, ma potrebbe essere uno spillover effect. E grazie a Oreste Pollicino, professore
12:01di diritto costituzionale AI all'Università Bocconi, è stato un grande piacere averla con noi.
12:06Alla prossima! Grazie davvero, un grande piacere! C'è un'altra questione però che tocca a tematiche
12:12di diritto legate all'intelligenza artificiale. OpenAI dice addio a Sora e così anche all'accordo
12:19miliardario chiuso con Disney proprio lo scorso dicembre. Che cosa significa? Come impatta
12:25questo anche sullo sviluppo dei video per la società di Sam Holtman? Ce lo spiega Mario Alberto
12:30Catarozzo.
12:32Un divorzio annunciato, quello tra OpenAI e Disney. OpenAI chiude l'app Sora per la generazione
12:39dei video e Disney si sfila dall'accordo a un miliardo di dollari sigalato solo pochi mesi
12:44fa con il colosso di Sam Holtman. Disney si ritira dall'intesa firmata a dicembre. Niente
12:50più investimento miliardario quindi e niente più licenza dei personaggi per usare Topolino
12:54e compagni dentro Sora e in prospettiva dentro Disney+. OpenAI non abbandona però il mondo
13:01dei video. Continuerà a offrirlo come funzione all'interno di ChatGPT ma rinuncia invece all'idea
13:07di un'app video autonoma, una sorta di YouTube dell'AI con personaggi famosi come quelli Disney.
13:14Cosa significa questa decisione? Beh, il messaggio sembra essere molto chiaro al mercato.
13:20Non si può costruire un prodotto consumer sull'intelligenza artificiale video ignorando
13:25proprietà intellettuale, consensi e diritti di immagini. Ricordiamo che pochi mesi fa Sora
13:31aveva colpito proprio Hollywood per l'uso molto disinvolto di personaggi esistenti e di attori
13:37noti, tanto che OpenAI era stata costretta a fare marcia indietro pochi giorni dopo il
13:43lancio. Oggi vediamo le conseguenze. Gli studios vogliono usare l'intelligenza artificiale ma solo
13:49all'interno di cornici contrattuali molto precise e con pieno rispetto di chi crea e possiede i
13:55contenuti. Cosa ci aspetta dunque ora? Beh, nel breve periodo l'intelligenza artificiale video non si
14:02ferma certamente, cambierà però forma, meno app spettacolari aperte al pubblico e più utilizzo
14:08dietro le quinte, quindi con accordi chiari su dati, volti e marchi. Nel medio periodo vedremo
14:15un gioco di alleanze. OpenAI punta a integrare l'intelligenza artificiale video nel suo assistente
14:20generale, mentre Google resta l'unico big con una presenza su larga scala nella generazione dei
14:26video. Per i creatori, per gli studi, per i broadcaster, questo caso Sora Disney è un campanello
14:32d'allarme, perché il futuro dell'intelligenza artificiale video non sarà più un far west
14:37tecnologico, ma un ecosistema dove innovazione, proprietà intellettuale e nuovi modelli di
14:42business dovranno coesistere fin dall'inizio. E grazie per essere stati con noi in questo
14:48speciale AI Club direttamente da Roma, ce ne vediamo sempre su ClassCNBC.
Commenti