Vai al lettorePassa al contenuto principale
https://www.pupia.tv - Roma - ​Audizione Lasorella
Alle 8.45, presso l'Aula del IV piano di Palazzo San Macuto, la Commissione parlamentare di inchiesta sul femminicidio, nonché su ogni forma di violenza di genere svolge l'audizione del Presidente dell’Autorità Garante per le garanzie nelle comunicazioni, Giacomo Lasorella (23.10.25)

#pupia

Categoria

🗞
Novità
Trascrizione
00:00Buongiorno a tutti, buongiorno a tutti.
00:04Averto che se non vi sono obiezioni, la pubblicità dei lavori della seduta odierna sarà assicurata
00:09anche mediante l'attivazione di impianti audiovisivi a circuito chiuso e la trasmissione diretta
00:14sulla web tv della Camera dei Diputati.
00:16Ricordo che la seduta si svolge nelle forme dell'audizione libera ed aperta alla partecipazione
00:21da remoto dei componenti della Commissione.
00:24Ricordo inoltre che i lavori potranno proseguire in forma segreta sia richiesta dell'audito
00:28che dei commissari, sospendendosi in tal caso la partecipazione da remoto e la trasmissione
00:33sulla web tv.
00:34L'ordine del giorno reca lo svolgimento dell'audizione del dottor Giacomo Lassorella, presidente dell'autorità
00:41per le garanzie delle comunicazioni, con riferimento al filone d'inchiesta sulla violenza di genere
00:48online.
00:49Saluto anche la dottoressa Benedetta Alessia Liberatore, che è vice segretaria generale
00:55dell'autorità e direttrice dei servizi digitali.
00:58A nome di tutte le commissarie e di tutti i commissari do il benvenuto al Presidente
01:03e la sorella, che ringrazio per la disponibilità a contribuire ai lavori della Commissione.
01:07Ricordo che il filone d'inchiesta sulla violenza di genere online è stato deliberato in seguito
01:12alla immersione di siti internet gravemente sessisti, che sono oggetto di inchieste giudiziarie
01:19presso le procure della Repubblica di Roma, Venezia e Firenze.
01:22La vicenda, di cui hanno dato ampio conto gli organi di informazione, è riguardato in
01:28particolare i profili denominati Mia Moglie e Fica EU.
01:32È riconducibile a fattispecie tra loro ed usomogenee, ma aventi comunque una denominazione
01:37comune.
01:38La medesima cultura della violenza contro le donne e la mercificazione del corpo femminile.
01:42Il tema della violenza di genere online richiama, tra l'altro, aspetti di notevole delicatezza
01:48con riferimento all'impiego dell'intelligenza artificiale e del ruolo dei media.
01:53Sono questioni che rientrano in raggio di azione dell'autorità garante, che ha notoriamente
01:58assunto iniziative correggiosa a tutela dei cittadini e degli utenti, e in particolare
02:02dei minori, rispetto ai rischi della rete.
02:05Ricordo, infatti, che l'autorità, istituita con legge numero 249 del 1997, ha tra i suoi
02:12compiti quello di regolamentare e vigilare i settori delle comunicazioni elettroniche,
02:17dell'audiovisivo, dell'editoria, delle poste e, più recentemente, delle piattaforme online.
02:23Ciò premesso dalla parola al Presidente e alla sorella, con il quale mi congratulo per
02:27la recente nomina alla Vicepresidenta del BEREC, l'organismo di cooperazione dei regolatori
02:32europei delle comunicazioni elettroniche.
02:34Il ruolo del Presidente e la sorella potrà essere ancora più incisivo, tanto più in
02:39vista della prossima proposta della Commissione europea per un Digital Network Act, attesa
02:45per la fine di quest'anno.
02:46Grazie Presidente, le lascio la parola.
02:50Grazie tante, sono io che ringrazio Presidente, lei e la Commissione per aver voluto ascoltare
02:59l'Agicom su questo tema di grandissima importanza, rilevanza e ai miei gravità.
03:10L'audizione trae spunto dai due gravi episodi che lei ha ricordato, occorsero nel mese di
03:16agosto, collegati proprio alla questione della violenza di genere online.
03:21ricordo brevemente, si è trattato di un gruppo nell'ambito dei social network Facebook,
03:27il cosiddetto gruppo Mia Moglie, di un sito web, forum online, rispondente all'interizzo
03:34internet FICAUE e FICANET, entrambi reganti immagini di persone di sesso femminile acquisite
03:40e rese pubbliche senza il consenso e accompagnate da commenti sessisti, umilianti e degradanti.
03:49Non per tornare su casi che sono stati già ampiamente affrontati dalla stampa, dalla cronaca,
03:58ma solo anche per inquadrare alla luce delle competenze della Commissione, si tratta di casi
04:05diversi tra loro, sia sotto il profilo formale che sotto quello sostanziale, sia per quanto
04:10riguarda le modalità di pubblicizzazione e fruizione dei contenuti e quindi che vanno
04:14inquadrati diversamente anche perché i soggetti agenti e i servizi sono diversi rispetto alla
04:21questione dello stabilimento che come vedremo è molto importante, cioè dove è residente sostanzialmente
04:28il soggetto che compie la violazione e ai poteri di intervento dell'autorità.
04:35Prima di entrare sui due casi specifici vorrei fare una breve ricognizione delle competenze
04:43dell'autorità a beneficio della Commissione, ovviamente le conoscete ma è opportuno richiamarle.
04:51L'autorità nasce, come appunto lo ricordava il Presidente, l'autorità amministrativa
04:55indipendente, deputata alla regolazione convergente nei settori delle comunicazioni elettroniche,
05:00quindi insomma delle telecomunicazioni, delle telecomunicazioni, dei servizi media, del settore
05:06postale e delle piattaforme digitali. A partire in particolare dal 2023 Agicom è assunto anche
05:13il ruolo di coordinatore dei servizi digitali per l'Italia, il cosiddetto Digital Services
05:17Coordinator ai sensi del DSA. È opportuno proprio soffermarsi un attimo sulla questione e sull'applicazione
05:27del DSA che è un po' la normativa quadro di riferimento in questa materia.
05:33Allora, in questa materia vige innanzitutto un principio di fondo che è stato introdotto
05:39dalla cosiddetta direttiva e-commerce e che riproduce l'analogo principio stabilito nella
05:46cosiddetta sezione 230 del Communication Decency Act degli Stati Uniti del 1997, invece la normativa
05:55europea europea del 2000, dice sostanzialmente che le piattaforme non sono responsabili per
05:59i contenuti messi dagli utenti. Questo è un po' la regola cardine, mi permetto di dire
06:07purtroppo, del web. Il DSA ha confermato questa regola cardine, tuttavia mitigandola prevedendo
06:18una serie di obblighi di trasparenza a carico delle piattaforme e soprattutto per le piattaforme
06:25molto grandi, prevedendo alcuni obblighi che ricordava anche lei Presidente, relativi per
06:32esempio alla tutela dei minori e soprattutto un meccanismo in virtù del quale le piattaforme
06:37sono chiamate a analizzare i cosiddetti rischi sistemici connessi alla loro attività e a predisporre
06:45delle misure di mitigazione. Cioè in sostanza loro non sono direttamente responsabili, ma
06:50soprattutto le piattaforme molto grandi, che sono le piattaforme di più di 45 milioni
06:55di utenti, devono in qualche modo fare quello che si chiama l'assessment dei loro rischi
07:04e contemporaneamente predisporre una serie di strumenti di mitigazione. La Commissione europea
07:12fa una valutazione di queste misure di valutazione attraverso un'attività sostanzialmente di controllo
07:25e a seguito di questa attività può eventualmente irrogare delle sanzioni. Un'altra precisazione
07:35va fatta con riferimento alla competenza, che è altrettanto importante. In questo quadro,
07:41il quadro delle competenze è il seguente, c'è la Commissione europea che è competente
07:46per le piattaforme cosiddette molto grandi, very large online platforms and search engines,
07:52che quindi sono sostanzialmente le piattaforme che hanno più di 45 milioni di...
07:57Tipo Meta.
07:57Tipo Meta, esattamente, per capirci. Meta, Google, si arriva anche, credo che ci sia anche Booking.com,
08:05insomma tutte quelle piattaforme grandi che noi sostanzialmente utilizziamo. Allora, il senso
08:10della competenza della Commissione è ovviamente una competenza, insomma un senso di omogeneizzazione,
08:17però indubbiamente, come dire, rispetto all'autorità nazionale c'è un po' questo meccanismo
08:25per cui l'autorità nazionale segnala la Commissione, ma in definitiva è la Commissione
08:29che prende provvedimenti. A fianco alla competenza della Commissione per le piattaforme molto
08:37grandi c'è il principio del Paese di origine che governa un po' tutto il quadro dell'attività
08:47europea, cioè sostanzialmente è competente effettivamente l'autorità del Paese nel quale
08:57il soggetto risiede. Quindi praticamente se un soggetto risiede in Francia, come vedremo
09:04in questo caso, è competente all'autorità francese, se risiede in Italia è competente
09:09l'autorità italiana. In questo caso l'autorità del Paese di destinazione, cosiddetto, deve rivolgersi
09:16all'autorità del Paese di origine segnalando eventuali violazioni. È un meccanismo obiettivamente
09:23un po' barocco che però ha meccanismi di consultazione, di cooperazione che sono abbastanza sviluppati.
09:35Noi abbiamo contatti costanti con i nostri omologhi europei, soprattutto con le autorità presso
09:43le quali sono stabiliti molti di questi soggetti, in particolare l'autorità irlandese e l'autorità
09:49olandese. Questo dialogo funziona ma sicuramente è un meccanismo complesso. La commissione per
09:59i soggetti molto grandi, le singole autorità nazionali per i soggetti più piccoli. Quindi
10:06il Paese che subisce la violazione segnala all'autorità nazionale del Paese di origine
10:13la questione. Quindi questo sostanzialmente è il quadro di riferimento. Un'altra precisazione
10:26che potrebbe suonare anche un po' un disclaimer ma per dare il quadro della situazione. Il
10:32DSA è essenzialmente un regolamento procedurale, cioè dice chi deve fare cosa ma non fissa principi
10:41di vieto, non fissa né di vieti né obblighi, sono sostanzialmente le legislazioni nazionali
10:50che dovrebbero fissare di vieti e obblighi. In particolare Agcom non ha il potere di chiedere
10:59di ordinare la chiusura di siti ma ha per esempio il potere di ordinare la rimozione di contenuti
11:08illeciti vedremo con che meccanismo. Per il DSA in generale la competenza è delle autorità
11:21nazionali che dovrebbero essere dotati dai singoli stati di poteri specifici. Noi abbiamo
11:27poteri specifici riconosciuti in un diverso ambito normativo che è quello delle cosiddette
11:36di very large online platform. Mi riferisco in particolare per esempio a YouTube, le very
11:41large online platform sono quelle piattaforme che immettono contenuti video direttamente
11:47dagli utenti e sono regolate dalla cosiddetta direttiva SMAV, la direttiva sui servizi di media
11:57audiovisivi. Quindi la direttiva SMAV che regola in generale il settore dell'audiovisivo ha poi
12:02una parte che invece regola i contenuti delle very large online platform e prevede la possibilità
12:10per le autorità di bloccare dei contenuti illeciti e dannosi soprattutto per i minori, per la dignità
12:18umana, contenuti simili a questi di cui stiamo parlando. In questi casi noi abbiamo predisposto
12:28un regolamento che prevede in applicazione del principio del paese di origine due strade,
12:35una diciamo urgente, nel caso urgente noi possiamo sostanzialmente inibire determinati contenuti
12:43immediatamente, per la verità ci sono strumenti procedurali, i tempi sono esattamente tre giorni
12:50giorni per, sono considerati illeciti contenuti, programmi, video generate dagli utenti che
13:01tra l'altro, scusate che queste me le hanno stampate fronte e retro e quindi non mi trovo,
13:08che integrano un incendiamento all'odio raziale, sessuale, religioso, etnico e violazione
13:13della dignità umana, in questi casi pur applicandosi il principio del paese di origine, in determinati
13:19di casi, come dicevo, l'autorità può limitare la libera circolazione di questi contenuti
13:23quando sono diretti al pubblico italiano. La procedura è avviata attraverso una segnalazione
13:30dell'utente, nel caso in cui ricorre una situazione di urgenza, rischio di un pregiudizio grave,
13:35imminente e irreparabile, l'autorità può avviare entro cinque giorni un procedimento nei
13:40confronti della video sharing platform. La piattaforma entro i successivi cinque giorni può
13:46adeguarsi spontaneamente rimuovendo il contenuto. In caso contrario, l'autorità emane immediatamente
13:54l'ordine e la piattaforma deve adeguarsi in tre giorni, salvo ovviamente la possibilità
14:00di impugnare l'ordine stesso. In tutti gli altri casi, quelli sostanzialmente non urgenti
14:06a rischio di un pregiudizio grave, imminente e irreparabile, l'autorità segnala, dispone
14:12la trasmissione degli atti all'autorità nazionale competente dello Stato membro.
14:16Quindi, sostanzialmente il quadro è questo. DSI contenuti di tutte le piattaforme, la regola
14:22appunto, la competenza, diciamo, se parlate, commissione, Stato membro, Stato di destinazione.
14:28Qui l'autorità ha poteri abbastanza limitati. Per il video sharing platform ha poteri più
14:35forti, tant'è vero che li abbiamo esercitati, per esempio, in situazioni che riguardavano
14:40i minori, la famosa questione della sfida della cicatrice francese, vari altri casi che coinvolgevano
14:50in particolare i minori. E il meccanismo ha sostanzialmente, nei casi in cui l'avevamo
15:00esercitato, ha sostanzialmente funzionato. Appunto, in circostanze come quelle che riguardano
15:10i casi che ho descritto sopra, c'è la connessione con la Commissione europea e con l'autorità
15:18del paese di origine. Mi soffermo in modo specifico su questi due casi. Allora, il primo
15:24ha riguardato un gruppo pubblico creato appunto nel 2019 sulla piattaforma online Facebook denominato
15:30Mia Moglie, al quale risultavano iscritti oltre 32.000 utenti, principalmente uomini,
15:34nel quale venivano pubblicati e soprattutto commentati immagini e video sessualmente espliciti
15:39non soltanto delle partner dei componenti del gruppo, ma anche di colleghe e persino delle
15:43donne sconosciute scattate segretamente o ottenute illecitamente senza il loro consenso.
15:48Il gruppo è stato, come sapete, immediatamente chiuso da Meta per violazione delle policy evidentemente
15:53per la pressione mediatica che hanno avuto. Sono presenti le indagini giudiziarie che ricordava
16:02la Presidente. Noi abbiamo chiesto sostanzialmente a Meta delle informazioni che credo non ci abbiano
16:12ancora mandato, perché poi l'interlocuzione con queste piattaforme molto grandi talvolta è abbastanza
16:23problematica e alla luce di queste interlocuzioni, di questi dati che avremo da Meta, segnaleremo
16:31evidentemente la questione alla Commissione europea che è competente per le piattaforme molto grandi.
16:36Su quell'altra piattaforma, invece, si tratta di un fito web e forum online di origine italiana
16:44creata nel 2005, in cui erano iscritti 700.000 utenti in cui venivano pubblicate e scambiate
16:49fotografie di donne senza il loro consenso. Le immagini venivano modificate e accompagnate
16:56anche qui da commenti sessisti, volgari e violenti. Tra le donne, insomma, coinvolte, purtroppo
17:02si annomeravano sia figure pubbliche e politiche, sia donne del tutto inconsapevole, prive di
17:08ruoli pubblici. Anche qui, diciamo, la pressione mediatica ha comportato la decisione di chiusura
17:16da parte del gestore e quindi anche la chiusura, come dire, toglie immediatamente lo strumento
17:24di azione. Però, insomma, ci tengo a descrivere la situazione perché è esemplificativo del
17:35quadro talvolta molto complesso della gestione di queste questioni sul web. Il sito è stato
17:42posto sotto sequestro da parte della magistratura che sta conducendo una vasta inchiesta. Noi
17:47ci siamo anche interfacciati con la polizia postale, fermo restando che ovviamente le indagini
17:52della magistratura penale sono coperte da segreto. Abbiamo verificato che il sito di questione
17:58è stato gestito da una persona fisica, tale Vittorio Vitiello, che ha affittato uno spazio
18:04cloud gestito da un hosting provider francese, OVH, provvedendo a personalizzarne l'architettura.
18:12Quindi i nomi a dominio dei siti internet, quelli sopra ricordati, risultano registrati
18:17la società GoDaddy.com LLC, quindi una società di diritto inglese, per conto di un gestore
18:23non identificabile. Inoltre la società Cloudfair Incorporated, che è basata negli Stati Uniti
18:30e che ha un rappresentante in Belgio, perché poi le società ai sensi di essere devono avere
18:35un riferimento. In Portogallo. In Portogallo, scusa, prima in Belgio, poi si sono trasferiti
18:42in Portogallo. Risulta fornitore di hosting, in quanto opera come fornitore di servizi intermediari.
18:51I servizi di hosting risultano forniti dalla società OVH SAS, stabilita in Francia.
18:57Quindi, e per di più, lo stesso soggetto ha costruito una società, tale Lupotto SRL,
19:04con l'obiettivo di gestire i relativi banner pubblicitari all'interno della piattaforma.
19:09Quindi, insomma, questo quadro, alla luce delle competenze che delineavo sopra, rende,
19:14insomma, chiaramente la difficoltà, e, diciamo, appunto, come diceva lei, particolarmente
19:21tortuoso raggiungere e colpire i vari soggetti. Noi abbiamo parlato con il DSC francese, Arcom,
19:31che è, diciamo, il nostro omologo, e stiamo approfondendo i possibili profili di responsabilità
19:37della società italiana. Noi, quindi, insomma, abbiamo attivato i meccanismi di cooperazione,
19:45ma, tecnicamente, diciamo, proprio perché il sito, formalmente, è un sito basato in Francia,
19:53la competenza è dell'autorità francese, alla quale noi facciamo una segnalazione.
19:59Peraltro, in questo caso è chiuso, quindi, insomma, non è particolarmente, diciamo,
20:04non conduce alla, insomma, alla chiusura del sito, che è un po' la questione finale.
20:14Ecco, ovviamente, diciamo, questo è il quadro non sempre, come dire, soddisfacente
20:25che purtroppo riguarda questa complessa materia del web nel quale, appunto, questi soggetti criminali
20:35si, come dire, inseriscono cercando di sfruttare tutte le aporie e tutte le, come dire, contraddizioni
20:44anche della legge, appunto, in caso di quei siti, diciamo, ci trovavamo di fronte a soggetti
20:52basati in diversi paesi e quindi rendevano difficile un'azione diretta.
20:56Noi comunque, diciamo, stiamo continuando gli uffici, insomma, i controlli e anche recependo
21:06le segnalazioni che ci arrivano da parte dei vari soggetti e, insomma, anche continuando
21:12il rapporto con le varie, con la Commissione europea e con gli altri, con le altre autorità.
21:21La Commissione europea, peraltro, come dicevo all'inizio, dovrebbe, alla luce di queste,
21:26di tutte queste segnalazioni, sta raccogliendo i vari dossier per eventualmente giungere a una contestazione
21:37rispetto a questi soggetti che potrebbe portare anche a sanzioni che vanno fino al 6% del fatturato europeo.
21:48Però, insomma, non sfuggerà nessuno come sanzioni di questo genere nell'attuale contesto, insomma,
21:56hanno probabilmente un impatto, una rilevanza anche, come dire, che va al di là della mera
22:01questione amministrativa e quindi, insomma, non posso fare a meno di notare che la Commissione
22:07sta un po', come dire, rallentando su questo profilo e quindi adottando un atteggiamento
22:14sicuramente prudente. Però, ecco, questo è il quadro che volevo rendervi e ovviamente
22:19sono a disposizione per eventuali ulteriori domande.
22:23Grazie, Presidente. Chiedo ai colleghi o alle colleghe collegate se ci sono delle domande.
22:28Sono intanto Presidente che ne faccio due io. Sicuramente ci sono delle policy di controllo
22:38da parte delle piattaforme. Però è evidente che queste policy hanno delle maglie molto
22:45larghe perché molti dei contenuti che ci sono in rete occhieggiano alla pornografia e alla
22:52prostituzione. Ora, il grande tema che è emerso nel corso delle audizioni di queste commissioni
22:57sono due. Uno è il tema della responsabilità perché, a differenza dell'editoria, per quanto
23:05riguarda il web e il dark web non c'è una responsabilità né da parte dell'utente, spessissime
23:13volte è anche difficile da identificare perché poi il processo, il fake, il nick fake, insomma,
23:19sia da parte poi della piattaforma, come tra l'altro lei ha ben detto, perché una delle
23:24policy è che loro non rispondono dei sostanzialmente contenuti. E l'altro grande tema della identificazione,
23:32riuscire a capire chi ha scritto quel contenuto, identificarlo, riconoscerlo e trovarlo. Quindi
23:40il tema della responsabilità e dell'identità, questo è il primo tema. Poi lei ha parlato
23:45di sanzioni e abbiamo capito l'architettura delle competenze. Voi avete mai applicato delle
23:53sanzioni e che tipo di sanzioni avete eventualmente applicato? E la terza domanda, che è forse
23:58quella più faticosa, è, secondo lei, se voi siete carenti di alcuni poteri e quali potrebbero
24:05essere gli strumenti per cui dovrebbero essere arricchite le vostre possibilità di intervento.
24:12Raccogliamo le domande anche dei colleghi, la vicepresidente dell'IA.
24:16Sì, grazie presidente. Un po' mi ha anticipato. Intanto io volevo ringraziare il dottor Lasorella
24:23perché non essendo esperti di questi temi, ma più di violenza, chiaramente il fatto che
24:29lui ci ha dato un panorama di quali sono le competenze e anche le procedure e i regolamenti.
24:36Lei appunto ha giustamente detto, stiamo parlando di un regolamento procedurale che non fissa
24:41né di vieti né obblighi. Quindi anche rispetto alla responsabilità, anche quando si autolimitano
24:51le piattaforme rispetto al fatto che poi i contenuti vengono emessi dagli utenti, i temi
24:58sono intanto, siccome noi stiamo facendo un percorso di audizioni anche per capire quali
25:05possono essere gli interventi normativi che possiamo suggerire al legislatore come commissione
25:12d'indagine. Intanto questa cosa dei divieti, noi per esempio parlando di pubblicità, adesso
25:20c'è anche un tema aperto rispetto al concorrenza, vietiamo alcuni contenuti sempre con tanta
25:27cautela perché stiamo parlando di libertà di espressione, alcuni contenuti che possono
25:32avere, possono essere sessisti, possono essere discriminatori. Allora a parte l'autoregolamentazione
25:40come si può, questa cosa si può fare e a che livello va fatta, perché io non sono
25:46lo contrario a che sia la commissione, perché come lei ha segnalato per esempio anche nel
25:51caso del sito fica.net stiamo parlando di Portogallo, cioè stiamo parlando di una situazione
25:58che coinvolge più paesi. Quindi forse il tema non è tanto sì a che livello ma a quale
26:04cogenza di quel livello, cioè è una cogenza che deve avere alla fine, dobbiamo individuare
26:11anche un'ipotesi di reato, cioè quando succedono certe cose che riguarda sia le piattaforme che
26:19gli utenti, perché sugli utenti noi abbiamo fatto il cosiddetto revenge porn, non è corretto
26:25usare questo termine, la diffusione illecita di contenuti. Però anche quello è poco, poi appunto
26:33non c'è la responsabilità delle piattaforme, poi c'è il tema dell'identificazione che qui
26:38la Presidente sottolineava. Quindi il punto è, siccome stiamo parlando di un mondo in cui
26:46si è visto ormai che anche lì la violenza maschile contro le donne è strutturale, cioè
26:52trasciniamo in un'altra dimensione, anzi spesso moltiplica, perché c'è anche meno responsabilità,
27:01stai dietro, no? È più facile essere offendere, essere sessista. Quindi queste esperienze
27:10mi confermano che la pressione dell'opinione pubblica è la leva principale, più di qualsiasi
27:14norma. Però abbiamo anche visto, perché abbiamo sentito in una edizione segretata il magistrato
27:21che sta facendo queste indagini, quanto è difficile, dico la collaborazione, insomma anche
27:27rispetto ai minori, c'è tutto un mondo che invece va, come dire, attivato rispetto
27:33alla possibilità di intervenire davvero. Non so, forse ho fatto una domanda un po' confusa,
27:39però questa è la... Grazie.
27:40Allora, sulla questione dei poteri, allora vado prima, diciamo, sulla questione dei poteri,
27:57allora la logica di sistema che ho cercato di delineare del DSI è, il DSI fa le procedure,
28:05i divieti li pongono, diciamo, i paesi membri. Quindi sono, diciamo, gli ordinamenti nazionali
28:17che fissano ciò che si può fare e ciò che non si può fare. La, diciamo, direttiva,
28:24il regolamento del DSI fissa sostanzialmente il quadro delle procedure, questo detto in sintesi,
28:33poi fissa vari obblighi di trasparenza, fissa la possibilità per i soggetti di chiedere
28:40la rimozione dei contenuti, fissa appunto questo meccanismo di, diciamo, assessment e di mitigation
28:51fissato per le piattaforme, per le piattaforme molto grandi, però, insomma, la distinzione è
28:58procedura a livello europeo di vieti a livello nazionale, per dirla in modo sintetico.
29:06Faccio un esempio, nel settore del copyright, che è un settore che anche noi, diciamo, presidiamo,
29:18è stato fissato dal legislatore attraverso una legge, la legge 93 del 2023, che poi è stata
29:27successivamente anche modificata. Sono stati stabiliti alcuni principi, alcuni poteri diretti,
29:35per esempio il potere di bloccare i siti entro 30 minuti. Allora, lì c'è un problema, evidentemente,
29:42le trasmissioni online, se non le blocchi dentro 30 minuti, sostanzialmente è inutile
29:46bloccarle. Ecco, quello è un esempio in cui il legislatore nazionale, un esempio, diciamo,
29:52italiano, nazionale, in cui il legislatore nazionale ha fissato delle regole, diciamo, più penetranti
29:59e decise. Naturalmente, in questo settore è molto delicato, perché c'è, ovviamente, una
30:08questione anche di rispetto del principio della libertà di espressione.
30:13Sull'identificazione, quella dell'identificazione dei soggetti che operano sul web è un tema
30:24gigantesco. Se mi è permesso di restringere un po' l'ambito, noi stiamo operando in collaborazione
30:35con la Commissione, diciamo, con un discreto, e anche con il governo, insomma, per la parte
30:42di enforcement, per la questione dell'identificazione dei minori, quindi sostanzialmente per meccanismi
30:53che consentano, almeno in rete, per l'accesso a determinati contenuti, diciamo, quelli che
31:01vengono in mente immediatamente sono i contenuti pornografici, l'identificazione dei minori,
31:06non tanto l'identificazione, quanto almeno la verifica dell'età. Questi meccanismi di
31:11verifica dell'età sono in una fase avanzata, noi partecipiamo insieme a altre quattro autorità
31:16nazionali alla sperimentazione del meccanismo europeo che dovrebbe condurre alla verifica
31:26dell'età dei minori nell'ambito del cosiddetto portafoglio digitale europeo e, insomma, su
31:34questa sperimentazione noi siamo abbastanza avanti, dovremmo lanciare con la piattaforma
31:39del governo, della piattaforma IO, una parte dedicata che riguarda la verifica dell'età
31:53dei minori e questa dovrebbe essere una fase, diciamo, prodromica all'adozione di un
32:04meccanismo comune all'interno dell'Europa. Quindi innanzitutto lo sperimentiamo noi cinque
32:09autorità nazionali a livello nazionale e poi lo adotta l'Europa a livello europeo, quindi
32:16questo è un passaggio essenziale. Per quanto riguarda i contenuti, la difficoltà è proprio
32:26questa, per le televisioni tradizionalmente c'è una responsabilità editoriale che noi
32:34abbiamo fatto risaltare più volte attraverso ordini specifici di eliminazione di determinati
32:44contenuti, per il web ci sono queste difficoltà, diciamo, descritte sopra, sicuramente più
32:54poteri, per esempio quelle di bloccare determinati siti sarebbero più, diciamo, efficaci, ma
33:04la difficoltà è evidentemente quella, come ricordava la senatrice Delia, quella anche
33:12di circoscrivere le fatti specie, perché poi in sede di applicazione non è sempre del
33:20tutto semplice, come dire, delimitare la sfera d'azione, soprattutto a fronte di blocchi
33:28e di inibizioni di varia natura. Comunque noi su questo tema ci siamo, siamo pronti a continuare
33:38anche questa interlocuzione e ovviamente a trovare anche i modi con le altre autorità,
33:46con sorelle europee, per una tutela quanto più possibile efficace.
33:52Grazie mille, se non ci sono altri interventi, io ringrazio naturalmente il dottor Giacomo
33:58Lassorella, ringrazio anche la dottoressa Benedetta Alessia Liberatore per il contributo ai lavori
34:05della nostra Commissione e dichiaro chiusa l'audizione. Grazie Presidente.
34:08Grazie.
34:09Grazie mille.
Commenta prima di tutti
Aggiungi il tuo commento

Consigliato