Vai al lettorePassa al contenuto principale
https://www.pupia.tv - Roma - Tutela dei minori nella dimensione digitale
Ambiente, transizione ecologica, energia, lavori pubblici, comunicazioni, innovazione tecnologica - Ufficio di Presidenza
Audizioni sul nuovo testo adottato dalla Commissione per il ddl 1136 (Tutela dei minori nella dimensione digitale): Garante per la protezione dei dati personali, Fondazione S.O.S. Il telefono azzurro ETS, Meta e Save the children (07.10.25)

#pupia
Trascrizione
00:00:00La riunione dell'Ufficio di Presidenza prevede lo svolgimento di audizioni informali nell'Amb
00:00:16dell'esame del nuovo testo adottata dalla Commissione per il disegno di legge 1136 tutela dei minori
00:00:22nella dimensione digitale.
00:00:24Siamo collegati con Pasquale Stanzione, Presidente del Garante per la protezione dei dati personali
00:00:30e Federica Resta, Direttrice del Servizio Affari Legislativi e Istituzionali.
00:00:36Ringrazio i nostri ospiti e cedo loro la parola ricordando che il tempo a disposizione per l'audizione
00:00:42è di 15 minuti complessivi, comprensivi anche di eventuali domande da parte dei senatori e delle repliche.
00:00:49Buongiorno Presidente, ringrazio la Commissione per l'invito al confronto su questo procedimento
00:01:00legislativo nel cui ambito avevamo già avuto modo di interloquire.
00:01:04Il nuovo testo adottato come testo base suggerisce tuttavia un nuovo confronto in ragione delle
00:01:13modifiche certamente significative apportate. In primo luogo, con l'interno di promuovere
00:01:19evidentemente un uso più consapevole del web, fondato su una maggiore capacità di discernimento,
00:01:26il nuovo testo consente l'attivazione di account su social e piattaforme di condivisione video
00:01:33solo agli ultraquindicenni. Ne deriva coerentemente la illiceità del trattamento dei dati personali
00:01:42connesso all'attivazione di account agli infraquindicenni. La competenza all'accertamento
00:01:50delle violazioni di tali norme attribuita al garante sul punto è certamente opportuna
00:01:57la precisazione dell'articolo 3 della subordinazione del potere sanzionatorio del garante italiano
00:02:05alla ricorrenza dei presupposti oggettivi di cui all'articolo 56 GDPR tali da radicare
00:02:13appunto la competenza territoriale dell'autorità italiana rispetto a quella delle autorità di
00:02:19altri paesi a fronte di un trattamento di dati potenzialmente trasfrontaliero. Analogamente
00:02:27è opportuno il richiamo delle norme di cui gli articoli 58 e 83 del GDPR quali norme
00:02:34attributive del potere e al contempo norme parametro per l'esercizio dei poteri sanzionatori
00:02:41del garante. Ora, in ragione dell'attribuzione al garante di tale competenza sanzionatoria
00:02:48si potrebbe riflettere sulla opportunità di demandargli anche l'attività di monitoraggio
00:02:56di cui al comma 4 del medesimo articolo 3 integrandola con l'analisi degli illeciti
00:03:03accertati. Parallelamente sarebbe opportuno prevedere il coinvolgimento del garante nella
00:03:10definizione delle linee guida di cui all'articolo 5 almeno rispetto all'esigenza di tutela del
00:03:17diritto alla protezione dei dati personali dei minori. In secondo luogo è il problema
00:03:25dell'età. Il nuovo testo eleva a 16 anni la soglia di età del consenso digitale autonommente
00:03:32prestato dal minore. Inoltre la stessa disposizione limita alla sola fascia di età compresa tra i 15 e i 16
00:03:41anni la possibilità di prestazione da parte degli esercenti la potestà genitoriale del consenso al
00:03:49trattamento dei dati del minorenne. Ebbene, si tratta di una innovazione particolarmente rilevante
00:03:57che, se non frutto di un lapsus calami, merita una adeguata riflessione. La norma attuale, infatti,
00:04:07coerentemente con l'articolo 8 del GDPR consente il trattamento dei dati personali degli infra 14 anni
00:04:15relativamente ai servizi della società dell'informazione con atto dispositivo dell'esercente
00:04:23della potestà genitoriale. Ora, la limitazione della possibilità di prestazione del consenso
00:04:29genitoriale al trattamento dei dati del minore alla sola fascia compresa tra i 15 e i 16 anni
00:04:35rischia, in altri termini, di precludere ogni possibile trattamento di dati di minori
00:04:43infra-quindicenni nel contesto digitale, persino se consentito dal genitore. È probabile che questo
00:04:52risultato, come ha detto non del tutto in linea con l'articolo 8 del GDPR, sia un non voluto
00:04:59effetto di un lap su scala. Dunque, sarebbe opportuna una riflessione, a mio avviso, sul
00:05:05punto. Se, infatti, il fine perseguito dal legislatore fosse quello di consentire ai minori
00:05:12di età, compresi tra i 15 e i 16 anni, l'attivazione dell'account social con tuttavia una supervisione
00:05:22dei genitori rispetto al trattamento dei dati personali fondato sul consenso, andrebbe comunque
00:05:29salvaguardata la possibilità di prestazione genitoriale del consenso per il trattamento
00:05:38dei dati dei minori infra-quattordicenti nel più generale contesto della fruizione dei
00:05:45servizi della società dell'informazione. Sarebbe, infatti, comprensibile la previsione
00:05:50di una certa gradualità nell'accostamento autonoma alla rete da parte dei ragazzi, anche
00:05:57se con soglie di età differenziate per i rischi potenzialmente connessi ad alcune attività
00:06:03online e la supervisione genitoriale espressa dalla prestazione del consenso per conto del
00:06:11minore in una prima fase e per determinati contesti. Ciò che appare meno comprensibile, probabilmente
00:06:19è frutto di un mero disallineamento in sede mentativa, è l'esclusione della possibilità
00:06:27di prestazione del consenso genitoriale al trattamento dei dati degli infra-quattordicenni.
00:06:34Poi, quanto riguarda la soglia di età per il consenso digitale con tutti i limiti delle
00:06:40presunzioni legali e ovviamente fermaressando la discrezionalità politica propria di questa
00:06:46opzione, può essere utile ripercorrere brevissimamente le ragioni della scelta adottata dal legislatore
00:06:54interno nel 2018 allorché adeguò la norma al GDPR. L'articolo 8 di questo GDPR, infatti,
00:07:05legittima gli stati membri alla previsione della soglia di età per il consenso digitale
00:07:11nella fascia compresa tra i 13 e i 16 anni.
00:07:17Ora, lo schema di decreto legislativo di adeguamento al GDPR nella versione diffusa a seguito della
00:07:24prima approvazione preliminare da parte del Consiglio dei Ministri individuava in proposito
00:07:30quella dei 14 anni quale soglia di età alla quale il consenso del minore al trattamento
00:07:37dei suoi dati personali nel contesto dell'offerta diretta di servizi della società dell'informazione
00:07:43dovesse ritenersi valido.
00:07:47In sede di redazione del testo del decreto inviato alle Camere, il legislatore ha invece
00:07:54ritenuto di non avvalersi della facoltà rimessa al legislatore nazionale di individuare,
00:08:00ai fini della prestazione del consenso da parte del minore, un'età inferiore a quella dei
00:08:0516 anni.
00:08:06ricevendo tuttavia le offerte e le indicazioni, per meglio dire, offerte nell'ambito dell'istruttoria
00:08:14legislativa sul testo, in sede di approvazione definitiva del decreto legislativo, il governo
00:08:20ha tuttavia poi individuato nei 14 anni la soglia di età, a tal fine preferibile.
00:08:27In favore di tale scelta si era infatti ricordato anche da parte del garante come quella dei 14
00:08:34anni rappresenti un'età alla quale l'ordinamento italiano già riconosce al minore una sia pur
00:08:41parziale capacità di agire in determinati ambiti.
00:08:46Significativa, vedete, in tal senso è la legge sul cyberbullismo, la 71 del 2017, che
00:08:53legittima il minore, ultra 14enne, a richiedere il nome per conto proprio al gestore del sito
00:09:01internet sul quale siano pubblicati i propri dati personali pregiudizievoli, la rimozione
00:09:08dei contenuti lesivi.
00:09:10La legge riconosce anche al minore della stessa età, 14 anni, la legittimazione ad agire, ad
00:09:18dire il garante, per ottenere la rimozione dei contenuti pregiudizievoli in caso di inerzia
00:09:25o non individuabilità del titolare del trattamento.
00:09:29Analoga opzione avrebbe poi percorso il legislatore nel 2021, come è noto rispetto al revenge porn,
00:09:38legittimando appunto i minori ultra 14enne alla proposizione di istanze di blocco del caricamento
00:09:45dei contenuti intimi.
00:09:48Alla stessa età, sia pure in altra branca dell'ordinamento, l'articolo 97 del codice
00:09:52penale, le collega il termine della presunzione assoluta di inimputabilità penale del minore.
00:09:59Per altro verso, il minore ultra 14enne ha diritto di prestare il proprio consenso, come è noto
00:10:05all'adozione, la legge 184 dell'83.
00:10:09Sarebbe parso pertanto incoerente ammettere il quattordicenne a prestare il proprio consenso
00:10:16per essere adottato, ma non per avvalirsi di un social network.
00:10:21Si rilevava inoltre come fosse preferibile individuare a tal fine un'età quanto meno
00:10:28prossima e non eccessivamente superiore a quella in cui di fatto, allora e a forziori oggi dopo
00:10:36la pandemia, i ragazzi accedono ai social network o comunque ai servizi della società
00:10:41dell'informazione per non rendere la norma ineffettiva perché troppo lontana dalle istanze
00:10:49e dalla realtà sociale.
00:10:51Per altro verso, la legge sull'intelligenza artificiale, la 132 del 2025, fissa nei 14 anni
00:10:59la soglia di età per l'accesso autonomo e il consenso al relativo trattamento dei
00:11:06dati a tecniche di intelligenza artificiale.
00:11:10Valuterà dunque il legislatore, mi avvio a concludere, anche sulla base di queste considerazioni,
00:11:16la soglia di età che ritenga maggiormente idonea a coniugare esigenza di tutela del minore
00:11:22e di riconoscimento di una sua pur parziale capacità di autodeterminazione in una dimensione,
00:11:31quella digitale, in cui è ormai iscritta la parte prevalente della vita degli adolescenti.
00:11:37Ciò che tuttavia è indispensabile, benché non agevole garantire, è un sistema efficace
00:11:45di verifica dell'età dell'utente che coniughi l'esigenza di un controllo effettivo con quella
00:11:52di evitare una schedatura massiva, tanto più di minorenni.
00:11:59A tal fine, per non cristallizzare in scelte legislative soluzioni tecniche inevitabilmente
00:12:06mutevoli nel tempo, è opportuno demandare la disciplina di dettaglio a provvedimenti caratterizzati
00:12:14dalla necessaria duttilità, quali appunto quelli anche di fonte europee a cui rinvia
00:12:20l'articolo 2,2. Certamente il presupposto dell'uso consapevole del web è la promozione
00:12:27di un'adeguata pedagogia digitale, una formazione cioè completa del minore tale da consentirgli
00:12:34di vivere l'esperienza del digitale in maniera responsabile.
00:12:38In questa prospettiva certamente condivisibile appare la previsione all'articolo 6 di questa
00:12:48normativa di campagne di informazione e sensibilizzazione alle quali il garante sin da ora offre il proprio
00:12:56supporto.
00:12:57Da ultimo mi permetto infine di suggerire una riflessione sulla opportunità di attribuire
00:13:05al garante il potere di inibire i servizi offerti da piattaforme anche stabilite all'estero
00:13:13che violino le norme in materia di protezione di dati, ovvero disabilitare l'accesso a contenuti
00:13:20diffusi in violazione della medesima disciplina. Questa innovazione, oggetto di una specifica
00:13:29segnalazione che il garante ha recentemente rivolto al Parlamento e al Governo e che è
00:13:34stata assegnata dal Presidente proprio a questa Commissione e alla seconda, consentirebbe
00:13:40infatti di assicurare maggiore effettività ai poteri inibitori del garante a tutela anche
00:13:46dei minori, intervenendo dunque sulla sorgente dei contenuti illeciti prima che la catena virale
00:13:54delle condivisioni leda irrimediabilmente la dignità dei soggetti coinvolti. Vi ringrazio
00:14:03per la vostra attenzione. Grazie, non ci sono domande da partà. Ah, senatrice di Girolamo.
00:14:14Sì, buon pomeriggio, dottor Stanzione, la ringrazio per questa audizione. In realtà anche se per molti
00:14:24versi, il testo è stato già, diciamo la dinamica è stata già affrontata in altre sedi sull'audizione
00:14:31dei testi che erano precedentemente stati depositati, trovo particolarmente interessante la sua illustrazione
00:14:39in questa sede in quanto evidenzia ancora dei caratteri da dover forse, su cui bisogna ragionare
00:14:45meglio per andarli a definire appunto in tal senso. Per cui volevo semplicemente ringraziarla
00:14:50per questo momento di condivisione. Un passio a lei, molto gentile, buon lavoro.
00:14:55Grazie. Bene, allora non ci sono altre domande, quindi possiamo passare all'audizione successiva.
00:15:01Ringraziamo il garante per la sua disponibilità.
00:15:20Sì, salve. Prego.
00:15:31Allora, per la fondazione SOS, il telefono azzurro ETS, sono presenti in aula Ernesto Caffo,
00:16:01Presidente, Giole Corigliano, aree istituzionale internazionale e Giovanni Scala, programmi digitali.
00:16:08Ringrazio i nostri ospiti e cedo loro la parola, ricordando che il tempo a disposizione per l'audizione
00:16:13è di 15 minuti complessivi, comprensivi anche di eventuali domande da parte dei senatori e delle repliche.
00:16:19Prego.
00:16:26Grazie per questo invito.
00:16:32Il telefono azzurro vede con favore l'intento del DDL 1136 di rafforzare tutela dei minori
00:16:44in una situazione digitale e riconoscendone la rilevanza per la protezione dei diritti dell'infanzia e dell'adolescenza.
00:16:50Tuttavia, il testo, pur costituendo un passo significativo, risulta ancora incentrato su logiche di divieto d'accesso
00:16:58e soglie di età, piuttosto che su una prospettiva proattiva di progettazione responsabile,
00:17:05valutazione del rischio e prevenzione del danno.
00:17:08Rispetto ai modelli internazionali come l'Age Appropriate Design Code degli Uniti e il California Age Appropriate Design Code Act,
00:17:17il DDL non prevede ancora obblighi di design, etico, trasparenza e sensibilità sistemica da parte dei fornitori di servizi digitali.
00:17:27Il telefono azzurro propone di orientare la legge verso un approccio fondato sul principio del superiore interesse del minore,
00:17:33sancito dalla Convenzione ONU sui diritti dell'infanzia, di prevedere per i fornitori di servizi digitali
00:17:39obblighi positivi di prevenzione e protezione.
00:17:44L'obiettivo deve essere quello di assicurare ambienti digitali adeguati all'età, sicuri e non manipolativi,
00:17:51in cui i minori possono esercitare i propri diritti in modo informato e protetto.
00:17:57Adesso vorrei fare alcune osservazioni a proposito dei vari articoli.
00:18:04Per articolo 1, l'attuale formazione limita la tutela alla salute psicofisica dei minori
00:18:10in relazione al social network e ai piattaforme dei video.
00:18:13Si propone di ampliare la finalità includendo benessere digitale, dignità, privacy e protezione delle pratiche manipolative,
00:18:21richiamando espressivamente il principio del best interest of the child.
00:18:24La proposta di formulazione che ne facciamo, le disposizioni perseguono l'obiettivo di garantire
00:18:32che i servizi digitali sono progettati e gestiti nel rispetto del superiore interesse del minore,
00:18:39assicurando ambienti adeguati all'età, sicuri e privi di pratiche manipolative.
00:18:46Adeguate all'età lo sottolineo è un tema più nel centrale, in quanto non ci sono l'età da 0 a 14,
00:18:52ma ci sono l'età dello sviluppo che fra l'altro cambiano sempre più in termini anche di sviluppo
00:18:59delle competenze digitali che i bambini acquisiscono sempre più frequentemente
00:19:03e anche privi di pratiche manipolative, in quanto oggi soprattutto gli strumenti più avanzati
00:19:11hanno all'interno delle loro strutture digitali degli aspetti manipolativi e a forte rischio per i minori.
00:19:20L'accesso di minori ai servizi digitali
00:19:22L'approccio attuale si fonda sul divieto di accesso sotto determinate soglie di età.
00:19:28Il Telefonazor suggerisce di istituire tale logica con un obbligo di progettazione adeguata all'età
00:19:32e con una valutazione di impatto sui rischi digitali per i minori.
00:19:36Il Digital Child Risk Assessment
00:19:39Si raccomandano inoltre di introdurre sistemi di verifica dell'età proporzionali
00:19:43e rispettosi alla privacy, eventualmente delegati anche agli store di applicazioni.
00:19:50Quindi la proposta sarebbe
00:19:51I fornitori affettuano una valutazione di impatto sui rischi per i diritti e la sicurezza dei minori
00:19:56individuando e mitigando i rischi derivanti da design, algoritmi e raccolta dati.
00:20:03Poi c'è l'articolo 2bis
00:20:04che è per noi importante l'accesso ai servizi di aiuto e pubblica utilità.
00:20:08La teleformulazione del DDL non prevede una esenzione specifica per piattaforme e applicazioni di pubblica utilità
00:20:14con i servizi di supporto psicologico e tuttavia dei minori.
00:20:18Dall'omissione rischia di escludere i minori di età inferiore ai 14 anni
00:20:23anche dai servizi di aiuto, ascolti e segnalazioni di contrasto
00:20:26con i percepiti di accessibilità universale e con il Digital Service Act.
00:20:32Quindi noi riteniamo che dovremmo proporre garantito a tutti i minori
00:20:36indipendente dall'età l'accesso libero, riservato e sicuro ai servizi digitali e pubblica utilità
00:20:41di sostegno psicologico e tuttavia l'assistenza di riconosciuti e accreditati
00:20:46delle autorità competenti, tra cui i servizi gestiti anche dalla nostra fondazione
00:20:51come l'196, il 114 emergenza e infanzia, il 116 minori scomparsi.
00:20:56I servizi devono essere espressamente esclusi da ogni forma di estrezione d'età
00:20:59o filtro algoritmico applicato ai fini di verifica dell'età o dell'accesso alla piattaforma.
00:21:05Però è importante che tutti i bambini possano avere accesso ai servizi di aiuto,
00:21:08come succede in altri paesi.
00:21:12E noi riteniamo che la legge, che pur, devo dire, è aperta ovviamente a tutta una serie
00:21:18di soluzioni che permettono questo servizio, dovrebbe essere ancora più chiara
00:21:23nella sua formulazione per evitare interpretazioni che possono in qualche modo
00:21:26limitare questo tipo di servizio.
00:21:29L'altro aspetto si evidenzia un'attenzione agli aspetti formali e alla mancanza
00:21:34di un dovere di diligenza preventiva per i fornitori.
00:21:37Si propone l'introduzione di un duty of care con un sistema di vigilanza
00:21:41coordinato traggi come garanti e produzione dei dati personali e mistero competente
00:21:46e quindi i fornitori hanno un dovere nella formulazione di diligenza
00:21:51nelle pratiche di design o funzionalità che possono arrecare danno fisico, psicologico
00:21:55o sociale ai minori.
00:21:59L'articolo 4, il consenso del minore.
00:22:01Positiva l'adesione alla soglia dei 16 anni o 14 anni in linea con il GDPR,
00:22:08si sottolinea tuttavia che il consenso non può costruire l'unico fondamento giuridico
00:22:12per il trattamento dei dati dei minori.
00:22:14Si può dire rafforzare il principio di privacy by design e by default
00:22:17per tutti i minori di 18 anni.
00:22:20Indipendentemente dall'età, questa proposta di formulazione,
00:22:23i servizi digitali devono configurare per impostazione predefinita
00:22:26le opzioni più protettive per bravesse di sicurezza.
00:22:31Poi c'è l'articolo 5, l'attività promozionale dei minori,
00:22:34apprezzabile in riferimento all'influenza ai minorenni,
00:22:36ma si raccomanda di estendere la tutela introducendo obblighi di trasparenza algoritmica
00:22:42e un divieto di profilazione commerciale dei minori.
00:22:46Le campagne di sensibilizzazione, l'articolo 6,
00:22:51è un elemento positivo in quanto vede fondi di attività di informazione
00:22:55e credo che occorre d'altra parte aggiungere che occorre appunto
00:23:03l'attenzione appunto a finanziamenti anche che riguardano
00:23:08la federazione civica online co-design con i minori.
00:23:12Occorre che i minori siano parte della progettazione dei servizi che li riguardano.
00:23:17Quindi il Ministro promuove nella proposta che facciamo
00:23:20i percorsi educativi e partecipativi con il congiunto dei minori
00:23:23nella coprogettazione di strumenti e campagne solidali.
00:23:28Quindi noi di fatto abbiamo posto alcune questioni che per noi sono importanti.
00:23:34Da parte la produzione dell'impatto,
00:23:37cioè cercando di far sì che la proposta di legge,
00:23:42diventando legge, sia uno strumento realmente efficace per la tutela dei bambini.
00:23:48E questo tema dell'attuazione di questi punti è un elemento centrale,
00:23:54così come noi riteniamo che ad esempio tutte le tematiche legate
00:23:58al consenso dato dai genitori rappresentano un elemento di aiuto,
00:24:04ma credo che dobbiamo sempre andare al di là di questi strumenti,
00:24:07perché i genitori molte volte non sono in grado di poter essere accanto ai bambini nelle scelte.
00:24:13La progettazione dei servizi per i ragazzi o per i minori
00:24:17devono essere in ogni caso adeguati all'età,
00:24:20quindi con una confezione graduale per età,
00:24:24occorre di vietare i disegni, il design manipolativo,
00:24:28che è quello che più di altri ci preoccupa,
00:24:30un elemento che è importante per noi è, d'altra parte,
00:24:33di unificare le proposte che sono ad esempio quella che riguarda le AI Act
00:24:40nella sua approvazione recente.
00:24:43Credo che anche in questo caso occorre essere molto attenti,
00:24:47da una parte a permettere l'accesso dei bambini a servizi di aiuto,
00:24:51come chatbot, ad esempio quelli che Telefono Azzurro sviluppa,
00:24:53e dall'altra parte il potere in qualche modo ragionare sul fatto
00:24:58che per essere efficace una legge deve essere attuabile
00:25:01con strumenti concreti e operativi.
00:25:05Ritengo che in questo ambito ci sono ancora dei profondi limiti
00:25:09su questo versante, nel senso che i ragazzi oggi si muovono
00:25:13nel mondo digitale in modo spesso molto autonomo
00:25:15o troppo autonomo per alcuni,
00:25:17ma sicuramente oggi le tecnologie che hanno disposizione
00:25:21e che cresceranno ancora nei prossimi anni
00:25:23sono tali per cui gli adulti, spesso di riferimento,
00:25:25genitori e insegnanti, sono in grado di governare questi processi.
00:25:29Quindi è chiaro che le piattaforme devono essere le prime
00:25:31a essere coinvolte su questo versante
00:25:33e devo dire che in tutti i dibattiti,
00:25:37anche quello recente a lunga di New York
00:25:39e all'Assemblea delle Nazioni Unite,
00:25:42la tematica maggiore è stata quella di come creare delle regole
00:25:45per le aziende che sono tali da vincolarla
00:25:47degli impegni sempre maggiori
00:25:49e a guardare sempre trasversalmente tra sistemi digitali,
00:25:53sistemi di interesse artificiale,
00:25:54evitando di avere noi una legislazione talvolta molto divisa.
00:26:00Un elemento cardine ovviamente in questo percorso,
00:26:02e qui il termino,
00:26:03è riguardo all'Europa.
00:26:05L'Europa è un punto di riferimento,
00:26:07ci sono legislazioni di grande interesse
00:26:09che possono essere comparate,
00:26:10l'Europa è la guida anche per questa legge,
00:26:13ma dobbiamo far sì che anche qui
00:26:15il dibattito sia sempre più ampio
00:26:17e che sia anche sempre più trasformato
00:26:19in iniziative concrete
00:26:20che sono efficaci per essere da parte dei bambini.
00:26:24Grazie.
00:26:25Ringraziamo il dottor Caffo.
00:26:28Ci sono domande?
00:26:29La senatrice Flo Villa.
00:26:31Grazie Presidente Caffo.
00:26:37È un piacere avere l'opportunità
00:26:40di parlarle anche personalmente,
00:26:42parlare con lei personalmente
00:26:44di questo disegno di legge fondamentale.
00:26:48Anche noi avevamo presentato un disegno di legge
00:26:50che poi è stato scelto alla fine
00:26:58il disegno base della collega
00:27:02e nel momento in cui parla di diritti,
00:27:11nel momento in cui parla del fatto
00:27:13che non può rimanere uno strumento tecnico
00:27:17ma va, come dire,
00:27:20ampliato anche la concezione,
00:27:21ha parlato di design etico
00:27:26e su questo ci trova tanto d'accordo,
00:27:29abbiamo anche noi proposto
00:27:30un emendamento al primo articolo
00:27:32per fare in modo che
00:27:33la protezione dei minori nel digitale
00:27:36sia anche una questione di diritti fondamentali
00:27:40e si parla di diverse età di sviluppo,
00:27:43non dei minori di 15 anni
00:27:45o maggiori di 15 anni.
00:27:50Volevo chiedere solo un approfondimento
00:27:52rispetto al design etico
00:27:55ne ha accennato brevemente
00:27:58se può raccontarci qualche parola in più,
00:28:04qualche dettaglio in più
00:28:05rispetto a questo patto,
00:28:08se ho capito bene,
00:28:09negli Stati Uniti
00:28:10o in Australia,
00:28:12che è poi anche conosciuta
00:28:14per il suo livello educativo,
00:28:22per il sistema scolastico.
00:28:24No, non mi veniva
00:28:25perché sono appena tornata da Strasburgo,
00:28:27dal Consiglio d'Europa,
00:28:28io ho parlato in inglese e in tedesco,
00:28:29è come se dovessi fare switchare.
00:28:32Aiuto, Reset!
00:28:34No, per il sistema scolastico in Australia
00:28:37è conoscitissimo
00:28:38e quindi non mi stupisce
00:28:39che questo Age Pact
00:28:42venga anche da quel paese.
00:28:43Ecco, la ringrazio.
00:28:45Mi riprendo, scusate,
00:28:46ma devo...
00:28:48La ringrazio.
00:28:54Da una parte,
00:28:56diciamo che
00:28:57il modello di Safety by Design
00:28:59nasce molti anni fa
00:29:00nel rapporto tra mondi
00:29:02delle grandi associazioni
00:29:03che sono l'infanzia
00:29:04e il mondo delle aziende
00:29:05e anche i settimi regolatori.
00:29:08Cioè, il tema è quello che
00:29:10oggi la tecnologia riesce
00:29:11o può riuscire
00:29:13a fare molto
00:29:13nel riconoscere
00:29:15l'accesso dei bambini
00:29:16alle piattaforme,
00:29:18nell'avere una differenziazione
00:29:19di prodotti
00:29:21legati all'età dei ragazzi
00:29:22e oggi il grande tema
00:29:25è fare investimenti
00:29:26perché le aziende possono
00:29:27in qualche modo
00:29:28costruire dei percorsi
00:29:30che riguardano i bambini
00:29:31in modo particolare
00:29:32perché il mondo della rete
00:29:33e del digitale
00:29:34nasce per gli adulti.
00:29:36Doviché i bambini
00:29:37sono entrati come consumatori
00:29:39e adesso a questo punto
00:29:40il tema è di avere
00:29:42dei sistemi
00:29:42sempre più adeguati
00:29:43ai bambini e adolescenti
00:29:45che siano in grado
00:29:46di poter essere funzionali.
00:29:48Il Safety by Design
00:29:49è diventato
00:29:50l'impegno maggiore
00:29:53sia da parte australiana
00:29:54sia da parte canadese
00:29:55sia da parte
00:29:56della California
00:29:57recentemente
00:29:58ed è questa
00:30:00siccome è l'area
00:30:00su cui l'Europa
00:30:01si sta cercando
00:30:02di muovere
00:30:03anche recentemente.
00:30:04Il tema ovviamente
00:30:06è quello di avere
00:30:06una forte azione
00:30:07di contrasto
00:30:08anche agli interessi
00:30:10talvolta
00:30:10molto più particolari
00:30:12del mondo aziendale
00:30:13che cerca di ridurre
00:30:14i propri impegni
00:30:15economici
00:30:16su questa tematica.
00:30:17Credo che
00:30:18noi non riuscirò mai
00:30:20ad avere
00:30:21dei genitori
00:30:22accanto ai bambini
00:30:23nel loro percorso evolutivo
00:30:24o dei ragazzi
00:30:25preparati
00:30:26a fare la sfida digitale
00:30:27se non c'è
00:30:28un mondo
00:30:28anche tecnologico
00:30:30che riesce
00:30:30a dare strumenti
00:30:32sempre più facilmente
00:30:33anche gestibili
00:30:36dalle persone
00:30:36anche più fragili
00:30:37quindi questo è il motivo.
00:30:39Un altro elemento
00:30:40importante
00:30:40che volesse sottolineare
00:30:42se mi hai dato il permesso
00:30:43è che
00:30:44proprio a Strasburgo
00:30:45c'è questo dibattito
00:30:46in questo momento
00:30:47sulle chat
00:30:50e il controllo
00:30:51delle chat
00:30:51in cui c'è una votazione
00:30:54il 14 ottobre
00:30:55credo che questo
00:30:56sia un aspetto importante
00:30:57credo che la tutela
00:30:58ai minori passi
00:30:58anche da sistemi
00:31:00in cui il nostro paese
00:31:02è a favore
00:31:02di questa legge
00:31:04europea
00:31:05e c'è un grande controllo
00:31:07delle piattaforme
00:31:08di quello che contengono
00:31:09soprattutto per quanto
00:31:10per il materiale
00:31:10in questo caso
00:31:11XAM
00:31:12e questo deve essere
00:31:13uno sforzo
00:31:13di tutti i parlamenti
00:31:15di impegnarsi
00:31:15in questo versante.
00:31:19Non ci sono altre domande
00:31:21ringraziamo il dottor Caffo
00:31:22quindi possiamo passare
00:31:23alla prossima audizione.
00:31:24Grazie.
00:31:25Arrivederci.
00:31:30Grazie a tutti.
00:32:00Grazie a tutti.
00:32:30Quindi passiamo
00:32:34Allora continuiamo con le audizioni
00:32:42la presenza di Meta
00:32:44con Claudia Trivillino
00:32:46Public Police Management
00:32:49per l'Italia e la Grecia
00:32:51e Flavio Anzarello
00:32:53l'inglese non sono bravo
00:32:55però è una brava
00:32:56è
00:32:57Regulatori
00:32:59Polis
00:32:59Polis
00:33:01Polis
00:33:01è bravo
00:33:01ecco bravo
00:33:02Grazie a tutti.
00:33:04Buonasera a tutti
00:33:19anzi buon pomeriggio
00:33:20Senatori
00:33:21Senatori
00:33:21grazie mille per averci
00:33:22qui con voi
00:33:24insomma per aver preso
00:33:25un po' di tempo
00:33:25del tempo prezioso
00:33:26per discutere questo tema
00:33:28appunto come
00:33:28ci hanno introdotto
00:33:30io sono Claudia Trivillino
00:33:31sono Public Policy Manager
00:33:33per Italia e Grecia
00:33:35per Meta
00:33:36e insieme a me
00:33:37c'è l'ingegner
00:33:38Arzarello
00:33:39Sì mi occupo di questioni
00:33:40economiche e regolamentari
00:33:42per i mercati di Italia e Cipro
00:33:44principalmente
00:33:44Perfetto
00:33:45allora cominciamo
00:33:47il tema è chiaramente prioritario
00:33:51oggi siamo qua a discutere
00:33:52la proposta 1136
00:33:55senza dilungarci troppo sul perché
00:33:58a livello sociale il tema è prioritario
00:34:01vogliamo parlare del fatto che
00:34:02il tema è una priorità per Meta
00:34:05specificamente
00:34:06e lo dimostriamo
00:34:07Meta infatti è
00:34:09l'azienda che fondamentalmente
00:34:11quasi unicamente chiede a gran voce
00:34:13una legislazione
00:34:15una legislazione che regolamenti
00:34:17il tema specificamente
00:34:18il tema della verifica dell'età
00:34:20lo fa chiedendo uno standard
00:34:23che sia uniforme per tutti i servizi
00:34:26e in tutta Europa
00:34:28Meta infatti
00:34:30da sempre fautrice
00:34:32sostenitrice
00:34:33di un approccio multilaterale
00:34:37alla verifica dell'età
00:34:39e alla sicurezza
00:34:40degli utenti e dei giovani utenti online
00:34:43questo perché?
00:34:44perché Meta sostiene
00:34:46tanto il suo
00:34:47punto di osservatore privilegiato
00:34:50del fenomeno
00:34:50che i soggetti
00:34:52che hanno responsabilità
00:34:54nella gestione
00:34:55nella garanzia
00:34:56che gli utenti
00:34:57i giovani utenti
00:34:57abbiano delle esperienze
00:34:59sicure online
00:35:00siano coinvolti
00:35:02quindi noi supportiamo
00:35:03che un lavoro di compromesso
00:35:06di concerto
00:35:07fra l'industria
00:35:08le aziende
00:35:09le scuole
00:35:10e i genitori
00:35:11affinché tutti
00:35:12collaborino
00:35:13nella garanzia
00:35:14della fruizione
00:35:16di esperienze sicure online
00:35:18oggi infatti
00:35:19vi proponiamo
00:35:20un approccio
00:35:21che mette a sistema
00:35:23i diversi elementi
00:35:25il nostro approccio
00:35:26si basa su un elemento
00:35:28un principio
00:35:29fondamentalmente cardine
00:35:30che è molto caro
00:35:32a questa commissione
00:35:33e anche caro
00:35:35alla proposta
00:35:35che è
00:35:36lo stabilire
00:35:37una maggiore età
00:35:39digitale
00:35:40su questo vogliamo essere
00:35:41molto chiari
00:35:42la maggiore età digitale
00:35:43ha tre pilastri
00:35:44di cui vi parleremo
00:35:45quindi il consenso parentale
00:35:47l'applicazione
00:35:49e l'universalità
00:35:50per tutti i servizi
00:35:51e l'affidamento
00:35:54ad una tecnologia
00:35:55di verifica dell'età
00:35:56che sia chiara
00:35:57universale
00:35:58e semplice
00:35:59da usare
00:35:59la maggiore età digitale
00:36:02è un principio
00:36:03si di conseguenza
00:36:05stabilisce
00:36:06sarà il legislatore
00:36:07a stabilirlo
00:36:07meta
00:36:07non si arroga
00:36:08il diritto
00:36:08di stabilire
00:36:09qual è la maggiore età
00:36:10digitale
00:36:11lo farà il legislatore
00:36:12ospicabilmente
00:36:13il legislatore europeo
00:36:14che possono essere
00:36:1614 o 15 anni
00:36:18al di sopra
00:36:19della quale
00:36:19si presuppone
00:36:20che il giovane
00:36:20abbia raggiunto
00:36:21una maturità
00:36:23uno sviluppo cognitivo
00:36:24e una consapevolezza
00:36:26che gli permettono
00:36:27di valutare
00:36:29criticamente
00:36:30le esperienze digitali
00:36:31può farlo da solo
00:36:32può farlo con l'aiuto
00:36:33dei suoi supporter
00:36:34ma potenzialmente
00:36:36ha raggiunto
00:36:37la maggiore età
00:36:38al di sotto
00:36:39della maggiore età
00:36:39digitale però
00:36:40meta non suggerisce
00:36:43come ad oggi
00:36:44la proposta
00:36:45eventualmente propone
00:36:46che ci sia
00:36:46un divieto
00:36:47di accesso
00:36:48meta suggerisce
00:36:49caldamente
00:36:50che venga
00:36:51autorizzata
00:36:52è autorizzato
00:36:53il consenso
00:36:53genitoriale
00:36:54noi siamo
00:36:55da sempre
00:36:56sostenitori
00:36:57di un rapporto
00:36:58costruttivo
00:36:58di dibattito
00:37:01di discussione
00:37:02fra genitori
00:37:02e giovani
00:37:03i divieti
00:37:04facilmente aggirabili
00:37:06e spesso
00:37:07poco efficaci
00:37:08rompono
00:37:09un rapporto
00:37:10di fiducia
00:37:10genitore
00:37:11figlio
00:37:12il genitore
00:37:12perde il ruolo
00:37:13di guida
00:37:14che deve avere
00:37:15e ha
00:37:15nella vita analogica
00:37:17del giovane
00:37:18quindi non dovrebbe
00:37:18perderlo
00:37:19nella vita digitale
00:37:21dello stesso
00:37:22stabilendo
00:37:24il consenso
00:37:25parentale
00:37:25al di sotto
00:37:26della soglia
00:37:26minima stabilità
00:37:27del legislatore
00:37:28si rafforza
00:37:29il ruolo
00:37:30di discussione
00:37:30fra giovani
00:37:31e genitore
00:37:31i giovani
00:37:32e i genitori
00:37:33si avvicinano
00:37:34si avvicinano
00:37:34insieme
00:37:35costruttivamente
00:37:36al digitale
00:37:37faccio una parentesi
00:37:38sul primo pilastro
00:37:39perché
00:37:40la distinzione
00:37:41fra maggiore
00:37:42e minorità
00:37:42digitale
00:37:43non ci deve
00:37:43far dimenticare
00:37:44quello che deve
00:37:45essere l'impegno
00:37:46delle aziende
00:37:47che offrono
00:37:48i servizi
00:37:48a garantire
00:37:49un'esperienza
00:37:50adeguata
00:37:50all'età
00:37:51Meta è fiera
00:37:53di quello che fa
00:37:54per garantire
00:37:55delle funzionalità
00:37:56specifiche
00:37:56per fasce
00:37:57d'età
00:37:58queste funzionalità
00:37:59rientrano
00:38:00all'interno
00:38:00della categoria
00:38:01dei fin account
00:38:02quindi account
00:38:03pensati
00:38:04per gli adolescenti
00:38:05che hanno
00:38:05quasi 50
00:38:06funzionalità
00:38:07di tutela
00:38:08tra cui
00:38:09gli account
00:38:09privati
00:38:10giovani
00:38:11contattabili
00:38:12solo da persone
00:38:12che sono amici
00:38:13o conoscenti
00:38:14notifiche
00:38:16per la disconnessione
00:38:17dopo un termine
00:38:17massimo
00:38:18passato
00:38:19in piattaforma
00:38:20queste misure
00:38:23devono affiancarsi
00:38:24necessariamente
00:38:25a quella che è
00:38:25la maggiorità digitale
00:38:26e il consenso parentale
00:38:28vi parliamo
00:38:29degli ultimi due pilastri
00:38:30poi vi lasciamo
00:38:31insomma
00:38:31lasciamo questo tempo
00:38:32a delle preziosissime domande
00:38:34secondo pilastro
00:38:35universalità
00:38:36dei servizi
00:38:37la maggiorità digitale
00:38:38deve riferirsi
00:38:39a tutti
00:38:40i servizi
00:38:41perché
00:38:41solo
00:38:43l'uniformità
00:38:43della misura
00:38:44ne garantisce
00:38:45l'efficacia
00:38:45i giovani
00:38:46utilizzano
00:38:47quasi
00:38:4740 app
00:38:48a settimana
00:38:49quindi
00:38:49concentrarsi
00:38:50solo
00:38:50su una
00:38:50sottocategoria
00:38:51delle loro
00:38:52esperienze
00:38:53digitali
00:38:53intanto
00:38:54prescinde
00:38:54da quella
00:38:55che è
00:38:55la vita
00:38:55digitale
00:38:56di ciascuno
00:38:56di noi
00:38:56inoltre
00:38:58allarga
00:38:58le maglie
00:38:59della tutela
00:39:00che di conseguenza
00:39:00essendo più
00:39:01larghe
00:39:02lasciano
00:39:03trapassare
00:39:04facilmente
00:39:05esperienze
00:39:06non regolamentate
00:39:07che escono
00:39:08al di fuori
00:39:08della protezione
00:39:09che la norma
00:39:10si prefigge
00:39:10di stabilire
00:39:11ultimo pilastro
00:39:14e poi ci avviamo
00:39:15alle conclusioni
00:39:16importantissima
00:39:17la parte
00:39:18tecnologica
00:39:20che non deve essere
00:39:21esclusivamente
00:39:22relegata
00:39:22ad una valutazione
00:39:24tecnologica
00:39:25o esclusivamente
00:39:25di principio
00:39:26la verifica
00:39:28dell'età
00:39:28è il cardine
00:39:30delle norme
00:39:31di protezione
00:39:31dei giovani
00:39:32se non se ne conosce
00:39:33l'età
00:39:33è inutile
00:39:35stabilire
00:39:35prescrizioni
00:39:37previsioni
00:39:38limiti
00:39:38protezioni
00:39:39meta
00:39:41ha
00:39:41un ruolo
00:39:42appunto
00:39:43come dicevo
00:39:43prima
00:39:44è anche
00:39:44una responsabilità
00:39:45una posizione
00:39:45privilegiata
00:39:46da cui
00:39:47valuta
00:39:48è testimone
00:39:50dei fenomeni
00:39:51che oggi
00:39:51discutiamo
00:39:52noi siamo
00:39:53crediamo
00:39:54che la verifica
00:39:55dell'età
00:39:55debba intanto
00:39:56avere
00:39:56tre caratteristiche
00:39:58fondamentali
00:39:58debba essere
00:39:59universale
00:40:00per tutti
00:40:00semplice
00:40:01da usare
00:40:02rispettosa
00:40:03delle regole
00:40:04di privacy
00:40:04e protezione
00:40:05dei dati
00:40:05personali
00:40:06da sempre
00:40:07sosteniamo
00:40:08la verifica
00:40:09dell'età
00:40:09a livello
00:40:10di sistema
00:40:10operativo
00:40:11o di
00:40:12app store
00:40:13le posizioni
00:40:15dei sistemi
00:40:16operativi
00:40:16e degli
00:40:16app store
00:40:17sono
00:40:17privilegiate
00:40:18nel rapporto
00:40:18con gli utenti
00:40:20nel momento
00:40:21in cui
00:40:21si sette
00:40:22il device
00:40:22acquisiscono
00:40:23l'età
00:40:23degli stessi
00:40:24e nel rapporto
00:40:25con le singole
00:40:26applicazioni
00:40:27stabilire
00:40:28una verifica
00:40:29app
00:40:29per app
00:40:30aggiunge
00:40:33complessità
00:40:34al sistema
00:40:35e eventualmente
00:40:36nel momento
00:40:37in cui ci debba
00:40:37essere il consenso
00:40:38parentale
00:40:39onere
00:40:40sui genitori
00:40:41la verifica
00:40:42a livello
00:40:42di sistema
00:40:42operativo
00:40:43più a monte
00:40:44possibile
00:40:44ci permette
00:40:45di avere
00:40:46un sistema
00:40:46semplice
00:40:47che sia
00:40:48facile
00:40:48da utilizzare
00:40:49e che
00:40:50garantisca
00:40:52quella chiusura
00:40:52delle maglie
00:40:53in modo da
00:40:54permettere una
00:40:55protezione
00:40:55universale
00:40:56nei confronti
00:40:56di tutte le
00:40:57applicazioni
00:40:57concludiamo
00:40:58con una
00:40:59diciamo
00:40:59appunto
00:41:01una conclusione
00:41:02di principio
00:41:02noi siamo
00:41:03felicissimi
00:41:04di essere qui
00:41:04a contribuire
00:41:05al dibattito
00:41:06davvero
00:41:06perché
00:41:06secondo noi
00:41:07proponiamo
00:41:10uno standard
00:41:10forte
00:41:11e solido
00:41:12ci auguriamo
00:41:14che l'Italia
00:41:15si faccia
00:41:15capofila
00:41:16di questo dibattito
00:41:17a livello europeo
00:41:18dove c'è
00:41:18un dibattito
00:41:19aperto da anni
00:41:20sul tema
00:41:21dove si rediscuterà
00:41:22di nuovo
00:41:22nel
00:41:24prossimo
00:41:27consiglio
00:41:28informale
00:41:29europeo
00:41:29in Danimarca
00:41:31speriamo che
00:41:32vi facciate
00:41:32portatori
00:41:33di questa
00:41:33tematica
00:41:35che ha bisogno
00:41:36di avere
00:41:36una soluzione
00:41:37uniforme
00:41:38e una soluzione
00:41:39che tenda
00:41:40e rispetti
00:41:41il mercato
00:41:41unico
00:41:41quindi vi ringrazio
00:41:42e insomma
00:41:44aspettiamo
00:41:44le vostre domande
00:41:45grazie
00:41:46Flobilia
00:41:47prego
00:41:48senatrice
00:41:50grazie
00:41:57dottoressa
00:41:59Trivilino
00:41:59per il suo
00:42:00intervento
00:42:02allora
00:42:03partendo
00:42:04dal presupposto
00:42:05che
00:42:06con
00:42:07l'elezione
00:42:08di Trump
00:42:09praticamente
00:42:11Meta
00:42:12ha
00:42:12cessato
00:42:14il programma
00:42:15di fact
00:42:15checking
00:42:16sui contenuti
00:42:19violenti
00:42:20i contenuti
00:42:21a sfondo
00:42:22sessuale
00:42:23quindi
00:42:23questo fact
00:42:24checking
00:42:24rispetto
00:42:25alle fake
00:42:26news
00:42:26e
00:42:28a seguito
00:42:29di questa
00:42:29cessazione
00:42:30c'è stato
00:42:30anche
00:42:31un
00:42:31come dire
00:42:33l'Instagram
00:42:34e altri
00:42:35e altre
00:42:37piattaforme
00:42:38sono state
00:42:39inondate
00:42:39di contenuti
00:42:40molto violenti
00:42:41a sfondo
00:42:41sessuale
00:42:42anche
00:42:42di violenza
00:42:43quindi
00:42:44il tema
00:42:45non riguarda
00:42:46solo i minori
00:42:47riguarda anche
00:42:47gli adulti
00:42:48se non si riesce
00:42:50a garantire
00:42:51che le notizie
00:42:53che vengono pubblicate
00:42:54vengono filtrate
00:42:56rispetto alla realtà
00:42:59dei fatti
00:42:59se sono vere
00:43:00o non vere
00:43:01e quindi
00:43:02arrivino
00:43:03anche agli adulti
00:43:04delle informazioni
00:43:05che sono falsate
00:43:06e
00:43:07in seguito
00:43:08ci si è concentrati
00:43:09più a un fact
00:43:10checking
00:43:11politico
00:43:11e non
00:43:12di violenza
00:43:13mi chiedo
00:43:14a fronte
00:43:15di quanto
00:43:16ha illustrato
00:43:16lei
00:43:17mi manca
00:43:18ancora
00:43:19la concretezza
00:43:21non riesco
00:43:23proprio
00:43:23a capire
00:43:24come
00:43:25intendiate
00:43:27garantire
00:43:28che
00:43:29ai minori
00:43:31venga
00:43:32permessa
00:43:33l'accesso
00:43:34ma che
00:43:35i contenuti
00:43:36siano anche
00:43:37come dire
00:43:38adatti
00:43:39sia
00:43:40a loro
00:43:41quindi a un pubblico
00:43:42di minorenni
00:43:42che poi
00:43:43anche a un pubblico
00:43:44di adulti
00:43:45quindi
00:43:45mi sembra
00:43:46che
00:43:47che qui ci sia bisogno
00:43:50proprio anche
00:43:50di concretezza
00:43:51da parte
00:43:52di meta
00:43:53e di
00:43:53politiche
00:43:55che
00:43:55che
00:43:57permettano
00:43:57di
00:43:58veicolare
00:43:59informazioni
00:44:00corrette
00:44:01e non
00:44:01distorte
00:44:02perché
00:44:03insomma
00:44:04avete
00:44:05sapete
00:44:06quanto cosa è successo
00:44:07e quanto
00:44:08sia difficile
00:44:09adesso
00:44:10trasmettere
00:44:12delle informazioni
00:44:13che siano
00:44:14veritiere
00:44:17grazie
00:44:18senato
00:44:20dice di
00:44:21giro
00:44:21devo dire
00:44:23che queste audizioni
00:44:24sono molto
00:44:24interessanti
00:44:25questa mattina
00:44:26che aprono
00:44:28prospettive
00:44:29insomma
00:44:30su un tema
00:44:30che evidentemente
00:44:32è stato
00:44:32trattato
00:44:33in ambito
00:44:34molto esteso
00:44:35sulle prime
00:44:36i primi disegni
00:44:37di legge
00:44:37presentato
00:44:38adesso
00:44:38un po' più
00:44:39risicato
00:44:39va un po' più
00:44:40sul sodo
00:44:41della questione
00:44:42stringe i temi
00:44:43però effettivamente
00:44:44le audizioni
00:44:45che sto ascoltando
00:44:46mi fanno pensare
00:44:47che mio figlio
00:44:48qualora avesse
00:44:4814 anni
00:44:49non potrebbe
00:44:50con questa disciplina
00:44:51accedere
00:44:51nemmeno
00:44:52al registro
00:44:53elettronico
00:44:53quindi
00:44:55i limiti
00:44:56effettivamente
00:44:56insomma
00:44:57si rilevano
00:44:58è molto interessante
00:45:00quello che lei
00:45:01ha detto
00:45:02in riferimento
00:45:05agli store
00:45:06cioè facendo
00:45:09un check
00:45:09iniziale
00:45:10si supera
00:45:11lo scoglio
00:45:11però la domanda è
00:45:12quella è una profilazione
00:45:14sì
00:45:17ecco
00:45:17vorrevo capire
00:45:18se quella
00:45:19era poi
00:45:19nei fatti
00:45:20una profilazione
00:45:21insomma
00:45:21e poi
00:45:23inoltre
00:45:23le chiedo
00:45:23visto che lei
00:45:24non ha letto
00:45:25appunti
00:45:25non ha nulla
00:45:26le volevo chiedere
00:45:27di lasciare qualcosa
00:45:28depositato
00:45:29anche poi
00:45:30al netto
00:45:30di questa interlocuzione
00:45:31con noi
00:45:32insomma
00:45:33potreste
00:45:34anche suggerire
00:45:36delle modalità
00:45:37per migliorare
00:45:39questo testo di legge
00:45:40del quale
00:45:40non ho capito
00:45:41se verranno
00:45:42riaperti i termini
00:45:43ammendamenti
00:45:43ma questo poi
00:45:44magari non discutiamo
00:45:44in un'altra sede
00:45:45grazie
00:45:46vorrei innanzitutto
00:45:55ringraziare molto
00:45:56Meta
00:45:56perché sono
00:45:57assolutamente
00:45:58consapevole
00:45:59dopo questo lungo
00:45:59percorso
00:46:00di circa
00:46:00un anno e mezzo
00:46:01di quale
00:46:03quanto sia
00:46:04lo sforzo
00:46:04che sta
00:46:05profondendo
00:46:06per
00:46:07rendere
00:46:08il più possibile
00:46:09protetta
00:46:10l'esperienza
00:46:11dei minori
00:46:11ci tengo
00:46:12a dirlo
00:46:13perché
00:46:13credo
00:46:14che sia
00:46:14uno dei pilastri
00:46:15su quali
00:46:15noi ci dovremmo
00:46:16muovere
00:46:17in questa
00:46:17lunga
00:46:18stagione
00:46:19in cui
00:46:19in un qualche
00:46:20modo
00:46:21si sta cominciando
00:46:22ad affrontare
00:46:22il tema
00:46:23di un internet
00:46:23che non è nato
00:46:24a misura
00:46:24di bambino
00:46:25e che quindi
00:46:26richiede
00:46:26tutta una serie
00:46:27di politiche
00:46:28protettive
00:46:28che finora
00:46:29non erano mai
00:46:30state
00:46:30diciamo così
00:46:31affrontate
00:46:33nella loro
00:46:34serietà
00:46:35fin tanto che
00:46:36in commissione
00:46:37bicamerale
00:46:37infanzia e adolescenza
00:46:38sono emerse
00:46:39tutta una serie
00:46:40di indagini
00:46:40conoscitive
00:46:41sulle materie
00:46:42più disparate
00:46:43che però
00:46:44spesso
00:46:45andavano
00:46:45nella direzione
00:46:46di ritenere
00:46:47che l'apertura
00:46:48del social media
00:46:49al mondo
00:46:50la possibilità
00:46:50di un ragazzo
00:46:52di un bambino
00:46:52di un adolescente
00:46:53di entrare
00:46:55mediante
00:46:56l'apparecchio
00:46:56dello smartphone
00:46:58in un
00:47:00mondo
00:47:01diciamo così
00:47:01senza
00:47:02vincoli
00:47:03perché libero
00:47:04che da una parte
00:47:05è la grande forza
00:47:06anche democratica
00:47:07di queste piattaforme
00:47:09dall'altra però
00:47:10richiede
00:47:11azioni
00:47:12di protezione
00:47:13ci tengo
00:47:14anche a dire
00:47:15che non vi è
00:47:16da parte
00:47:17degli estensori
00:47:18della norma
00:47:19una preclusione
00:47:20sulla tipologia
00:47:22di verifica
00:47:23dell'età
00:47:23tanto che
00:47:24dopo il lunghissimo
00:47:25negoziato
00:47:26che abbiamo avuto
00:47:27con la commissione europea
00:47:29che è durata
00:47:30circa un anno
00:47:31in cui la commissione europea
00:47:32ci chiede
00:47:32di attenerci
00:47:34ad un alveo
00:47:34che è quello
00:47:35del Digital Service Act
00:47:36e del GDPR
00:47:38noi fondamentalmente
00:47:39stiamo cominciando
00:47:40ad affrontare
00:47:41quelle che sono
00:47:42le prime
00:47:43questioni
00:47:44sulle quali
00:47:45in un qualche modo
00:47:46riusciamo a trovare
00:47:48una armonizzazione
00:47:50a livello europeo
00:47:51è chiaro che
00:47:52sono tante altre
00:47:53le vicende
00:47:54che dovremmo andare
00:47:55ad affrontare
00:47:56come giustamente
00:47:56voi ci dite
00:47:57il social media
00:47:57è un aspetto
00:47:58perché c'è
00:47:59la libertà
00:48:00di inserimento
00:48:02dei video
00:48:03dei contenuti
00:48:04da parte
00:48:04del produttore
00:48:06diciamo
00:48:06che è il singolo
00:48:07del proprio contenuto
00:48:09ma ci sono
00:48:10ovviamente
00:48:11le chat
00:48:12c'è la questione
00:48:13degli algoritmi
00:48:14insomma
00:48:14sappiamo che
00:48:15l'eventuale approvazione
00:48:18della legge
00:48:18non sarà
00:48:19che un piccolo
00:48:20passo
00:48:21che noi
00:48:22andremo a compiere
00:48:23speriamo
00:48:24in un ambito
00:48:25appunto
00:48:26comunitario
00:48:27che è l'intento
00:48:28dei proponenti
00:48:29della legge
00:48:30e speriamo
00:48:31collaborativo
00:48:32con ovviamente
00:48:33le associazioni
00:48:34ma anche
00:48:35con le piattaforme
00:48:36che sono fondamentali
00:48:37in questo percorso
00:48:38è ovvio
00:48:39che ci saranno
00:48:39dei momenti
00:48:40in cui
00:48:41quando c'è
00:48:41una regolazione
00:48:42ci sono
00:48:43degli aggiustamenti
00:48:46non sempre apprezzati
00:48:47da tutti
00:48:47che
00:48:48speriamo
00:48:50si possano
00:48:51diciamo
00:48:52affrontare
00:48:54con lo spirito
00:48:55di mantenere
00:48:56alta
00:48:57da una parte
00:48:57la libertà
00:48:58di conoscenza
00:48:59di approfondimento
00:49:01e quindi
00:49:01anche di
00:49:02divulgazione
00:49:03delle nozioni
00:49:04e dall'altra
00:49:04la protezione
00:49:05del minore
00:49:06che riteniamo
00:49:07in questo testo
00:49:08di legge
00:49:08scusate
00:49:09riteniamo
00:49:11in questo disegno
00:49:12di legge
00:49:12essere un po'
00:49:13l'elemento
00:49:14fulcro
00:49:14che oggi
00:49:15richiedeva
00:49:16una attenzione
00:49:17emergenziale
00:49:19allora
00:49:22grazie mille
00:49:22comincio un attimo
00:49:23giusto
00:49:24un ringraziamento
00:49:26insomma
00:49:26alla senatrice
00:49:27Mennuni
00:49:27grazie per
00:49:28insomma
00:49:29le lunghe
00:49:30conversazioni
00:49:31che avete avuto
00:49:31con i colleghi
00:49:32prima di noi
00:49:33e adesso
00:49:33che siamo
00:49:34subentrati noi
00:49:35volevo in effetti
00:49:37fare un punto
00:49:37sulle attività
00:49:38di divulgazione
00:49:39e formazione
00:49:40perché nel mio
00:49:40insomma
00:49:42nella nostra introduzione
00:49:43ho dimenticato
00:49:44di sottolineare
00:49:44un punto
00:49:45che è appunto
00:49:45il fondo
00:49:46e l'importanza
00:49:47del fondo
00:49:48che speriamo
00:49:49possa essere
00:49:50ampliato
00:49:51nel corso
00:49:52delle negoziazioni
00:49:53e delle risorse
00:49:54che sono allocate
00:49:55alle attività
00:49:56di formazione
00:49:56ed educazione
00:49:57nel contesto
00:49:59di quella
00:49:59collaborazione
00:50:00fra parti
00:50:01che vede
00:50:02poi i genitori
00:50:04e i giovani
00:50:04nella parte centrale
00:50:06di queste scelte
00:50:07relative al digitale
00:50:08e quindi le attività
00:50:09di formazione
00:50:10sono
00:50:11e secondo noi
00:50:11devono essere
00:50:12proprio caposaldo
00:50:14del sistema
00:50:15a questo proposito
00:50:16volevo evidenziare
00:50:17che abbiamo
00:50:17recentemente
00:50:18lanciato una campagna
00:50:19che su diverse
00:50:20attraverso diversi
00:50:22canali digitali
00:50:23e tradizionali
00:50:24centra e accentra
00:50:26l'attenzione
00:50:26del genitore
00:50:27sulle risorse
00:50:28che mettiamo
00:50:29a disposizione
00:50:29sia sulle piattaforme
00:50:31Instagram
00:50:31insomma
00:50:31che Facebook
00:50:32per maneggiare
00:50:34al meglio
00:50:34la presenza online
00:50:37dei propri figli
00:50:38quindi il family center
00:50:39le attività
00:50:40di superficione
00:50:41quindi volevamo
00:50:42anche evidenziare
00:50:43che nello spirito
00:50:44di collaborazione
00:50:45metà in prima linea
00:50:46e investe anche
00:50:47direttamente
00:50:48in questo senso
00:50:49poi
00:50:50per la senatrice
00:50:51Floridia
00:50:52rispetto
00:50:53la tematica
00:50:55del community
00:50:57notes
00:50:57e fact checker
00:50:59allora
00:50:59l'annuncio
00:51:00che abbiamo
00:51:01il nostro annuncio
00:51:03di gennaio
00:51:032025
00:51:05il nostro annuncio
00:51:07di gennaio
00:51:072025
00:51:08rispetto
00:51:09la progressiva
00:51:10interruzione
00:51:14del programma
00:51:15di fact checker
00:51:16e spostamento
00:51:18sul sistema
00:51:19delle community
00:51:19notes
00:51:20si concentra
00:51:23esclusivamente
00:51:23sugli Stati Uniti
00:51:24nel resto del mondo
00:51:25i programmi
00:51:25sono rimasti
00:51:26invariati
00:51:26per il momento
00:51:27quelle che poi
00:51:28saranno le scelte
00:51:29fatte a livello
00:51:29di Unione Europea
00:51:30chiaramente
00:51:30seguiranno
00:51:31i percorsi
00:51:32e le normative
00:51:33dell'Unione
00:51:36stessa
00:51:36la scelta
00:51:38di procedere
00:51:39verso le community
00:51:40notes
00:51:40è una scelta
00:51:41che riporta
00:51:42un pochettino
00:51:42meta
00:51:42alle origini
00:51:44delle sue piattaforme
00:51:45quindi delle piattaforme
00:51:46che cercano
00:51:47di aumentare
00:51:49garantire
00:51:49connessioni
00:51:50più significative
00:51:51che ritornano
00:51:52ai valori
00:51:53della libertà
00:51:54di espressione
00:51:55e di conseguenza
00:51:56scardiniamo
00:51:58la valutazione
00:51:59della veridicità
00:52:00delle informazioni
00:52:01da unici
00:52:02o individuali
00:52:03enti
00:52:04o soggetti
00:52:05e la riportiamo
00:52:07ad una dimensione
00:52:08più comunitaria
00:52:09di soggetti
00:52:10che partecipano
00:52:11insieme
00:52:11alla discussione
00:52:13rispetto
00:52:14alla veridicità
00:52:15di un fatto
00:52:15il programma
00:52:16è comunque attivo
00:52:17solo negli Stati Uniti
00:52:18ed inseriremo
00:52:19un riferimento
00:52:20nelle note
00:52:20che lasciamo
00:52:22insomma
00:52:22nel deposito
00:52:23del contenuto
00:52:26dell'audizione
00:52:27rispetto
00:52:28alla garanzia
00:52:30nei confronti
00:52:30delle fake news
00:52:31ci tenevo
00:52:33a evidenziare
00:52:35un elemento
00:52:36da un lato
00:52:37meta
00:52:38adotta
00:52:40degli standard
00:52:40della comunità
00:52:41che targetizzano
00:52:42specificamente
00:52:43i contenuti
00:52:44cosiddetti
00:52:44sensibili
00:52:45e discernono
00:52:46fra quelli
00:52:47permessi
00:52:48e non permessi
00:52:49quindi abbiamo
00:52:49una policy
00:52:50specifica
00:52:50su fake news
00:52:52hate speech
00:52:52misinformation
00:52:53cyberbullying
00:52:55azioni coordinate
00:52:58e non coordinate
00:52:59e di ingerenza
00:52:59sulle piattaforme
00:53:00quindi
00:53:01intanto
00:53:01come facciamo
00:53:02a garantire
00:53:02che ci sia veridicità
00:53:03dei contenuti
00:53:04online
00:53:04c'è una policy
00:53:05specifica
00:53:05degli standard
00:53:06della comunità
00:53:07a cui i nostri
00:53:08utenti
00:53:09che devono necessariamente
00:53:10osservare
00:53:12non mi dilungo
00:53:15sul percorso
00:53:15poi di
00:53:16segnalazione
00:53:17dei contenuti
00:53:18che vanno
00:53:18che sono contro
00:53:19perché quello
00:53:19è un meccanismo
00:53:20noto
00:53:21lasciando
00:53:22a Flavio
00:53:23se poi ad aggiungere
00:53:24su questo tema
00:53:25anche rispetto
00:53:26alla parte normativa
00:53:26e regolamentare
00:53:27vorrei concentrarmi
00:53:29su quella che è
00:53:30la tutela
00:53:30dei giovani
00:53:31in questo contesto
00:53:32i giovani
00:53:33nel contesto
00:53:34delle funzionalità
00:53:35che attengono
00:53:36atti in account
00:53:37sono automaticamente
00:53:38inseriti
00:53:39in funzionalità
00:53:40protettive
00:53:41quando parlavo
00:53:43dell'account privati
00:53:44notifiche
00:53:45per la disconnessione
00:53:46i giovani
00:53:47sono anche reinseriti
00:53:48all'interno
00:53:49di funzionalità
00:53:50che limitano
00:53:51la visibilità
00:53:52di contenuti sensibili
00:53:53comunque permessi
00:53:55ad esempio
00:53:56quelli attinenti
00:53:57alla perdita di peso
00:53:58e viene automaticamente
00:54:01attivata
00:54:01le funzionalità
00:54:03contrarie al cyberbullying
00:54:05quindi che
00:54:05vietano
00:54:06e limitano
00:54:07la visibilità
00:54:08di parole
00:54:08che possono essere
00:54:10offensive
00:54:10queste alcune
00:54:12delle funzionalità
00:54:13secondo me
00:54:14le più importanti
00:54:16e pervasive
00:54:16da tenere a mente
00:54:17sono
00:54:18nel rapporto
00:54:19genitore
00:54:19giovane
00:54:21a cui dobbiamo
00:54:22sempre far riferimento
00:54:23il genitore
00:54:25ha la possibilità
00:54:26attivando
00:54:26lo strumento
00:54:27di supervisione
00:54:28di avere
00:54:29un controllo
00:54:30diretto
00:54:30sulle attività
00:54:31svolte
00:54:32dal giovane
00:54:32online
00:54:33quindi può
00:54:34controllare
00:54:35con chi chatta
00:54:36il giovane
00:54:37può controllare
00:54:37il tempo speso
00:54:38ma soprattutto
00:54:39può limitare
00:54:41o bloccare
00:54:42l'accesso
00:54:43ai nostri servizi
00:54:44questo per
00:54:45la creazione
00:54:46di un rapporto
00:54:46costruttivo
00:54:47giovane
00:54:47adulto
00:54:48quindi
00:54:49sulla concretezza
00:54:50vi manderemo
00:54:51veramente
00:54:52una panoramica
00:54:53di tutte
00:54:53le funzionalità
00:54:54perché probabilmente
00:54:55neanche noi
00:54:56le sappiamo
00:54:56elencare
00:54:57tutte quante
00:54:58però
00:54:58rendono veramente
00:55:00come notava
00:55:01grazie alla senatrice
00:55:02Mennuni
00:55:02le esperienze
00:55:04sicure
00:55:06e le piattaforme
00:55:06integre
00:55:07per i giovani
00:55:08lascio a Flavio
00:55:09sulla parte
00:55:10poi torniamo
00:55:11sulla questione
00:55:12relative
00:55:12alla verifica
00:55:13dell'età
00:55:14no ma io
00:55:14non ho
00:55:15nulla
00:55:16raggiungere
00:55:16perché credo
00:55:17insomma
00:55:19i temi
00:55:20che sono stati
00:55:21sollevati
00:55:21direi che
00:55:22integriamo
00:55:23nella memoria
00:55:24che depositeremo
00:55:25in maniera
00:55:25più dettagliata
00:55:26insomma
00:55:27perché anche
00:55:27ai fini
00:55:27del tempo
00:55:28è giusto
00:55:29contenere
00:55:30l'esposizione
00:55:31in questa sede
00:55:31grazie
00:55:32abbiamo un documento
00:55:37tecnico
00:55:38che specifica
00:55:39anche come avviene
00:55:40la verifica
00:55:40dell'età
00:55:41a livello
00:55:41del sistema operativo
00:55:42il rapporto
00:55:43con il genitore
00:55:43non è una profilazione
00:55:45nelle esperienze
00:55:47che abbiamo avuto
00:55:47anche di discussione
00:55:48poi tecnica
00:55:49di come questo
00:55:50percorso può avvenire
00:55:51il sistema operativo
00:55:53l'app store
00:55:54acquisiscono
00:55:54esclusivamente
00:55:55l'età
00:55:56di chi possiede
00:55:57il dispositivo
00:55:59il device
00:56:00si può
00:56:01granulare
00:56:02a livello tecnico
00:56:03in modo diverso
00:56:04le comunicazioni
00:56:05che vengono
00:56:06spostate
00:56:07da sistema operativo
00:56:09a applicazione
00:56:10cioè
00:56:10il sistema operativo
00:56:11ha capacità
00:56:12di indicare
00:56:13se l'utente
00:56:13ha più o meno
00:56:15una certa età
00:56:15più o meno
00:56:16di una certa età
00:56:17quindi è più giovane
00:56:17o più vecchio
00:56:18se ha
00:56:19specificamente
00:56:21può comunicare
00:56:22la data di nascita
00:56:23rispetto a qual è
00:56:25poi l'accordo
00:56:26fra sistema operativo
00:56:27e applicazione
00:56:28non si sostanzia
00:56:29in una profilazione
00:56:30è esclusivamente
00:56:31una comunicazione
00:56:32fra
00:56:33API
00:56:34quindi
00:56:35una comunicazione
00:56:36tecnologica
00:56:37ci sono diversi modi
00:56:43su questo
00:56:43chiaramente
00:56:44una valutazione
00:56:44tecnologica
00:56:45approfondita
00:56:46si inserisce
00:56:47la data di nascita
00:56:48e poi è possibile
00:56:49fare riferimento
00:56:50a metodologie
00:56:51ufficiali
00:56:52di verifica
00:56:53dell'età
00:56:53per questo
00:56:54noi non
00:56:55screditiamo
00:56:55un metodo
00:56:56rispetto ad un altro
00:56:57che possono essere
00:56:59insomma
00:56:59le carte
00:57:00di identità
00:57:01elettroniche
00:57:02ad esempio
00:57:03c'è la tecnologia
00:57:04IOTI
00:57:05che permette
00:57:05di valutare
00:57:06attraverso
00:57:06l'intelligenza
00:57:07artificiale
00:57:08l'età di una persona
00:57:08da un selfie
00:57:09quindi è necessario
00:57:11poi agganciare
00:57:12un sistema
00:57:13che verifichi
00:57:13l'età
00:57:14che io inserisco
00:57:15e che la comunichi
00:57:16direttamente
00:57:17poi alle app
00:57:17è un procedimento
00:57:19tecnologico
00:57:19che noi abbiamo
00:57:20sintetizzato
00:57:20in un documento
00:57:21che aggiungiamo
00:57:22all'audizione
00:57:23e che possiamo
00:57:23eventualmente
00:57:24approfondire
00:57:24con il nostro
00:57:25staff
00:57:26se può essere
00:57:26utile
00:57:27perché è molto
00:57:28interessante
00:57:28comunque
00:57:29va benissimo
00:57:30mi pare che
00:57:31non ci sono
00:57:31altre domande
00:57:32ringraziamo
00:57:33gli esponenti
00:57:34di meta
00:57:34aspettiamo
00:57:35questo documento
00:57:36direttamente
00:57:38in segreteria
00:57:40della commissione
00:57:41così poi
00:57:42la segreteria
00:57:42provvederà
00:57:43a distribuirlo
00:57:45va benissimo
00:57:45grazie
00:57:46grazie
00:57:48grazie
00:57:49grazie
00:57:50grazie
00:57:51grazie
00:58:21passiamo
00:58:23all'ultima audizione
00:58:25per oggi
00:58:25Saved the Children
00:58:27Giussi Dalconzo
00:58:29considerate che io so bene
00:58:32l'inglese
00:58:33salto
00:58:34il loro ruolo
00:58:37no
00:58:37evitiamo
00:58:39no poi
00:58:40è onde evitare
00:58:41che
00:58:41passiamo
00:58:43passiamo alla storia
00:58:44per
00:58:44Damiano
00:58:46Sabuzzi
00:58:47Giuliani
00:58:47prego
00:58:48Presidente
00:58:49vorrei solo dire una cosa
00:58:50siccome io
00:58:50sono in commissione
00:58:51di bilancio
00:58:52che comincia
00:58:53a secondi
00:58:54se dovessi
00:58:55andare in commissione
00:58:56non è per scortesia
00:58:57sono molto interessato
00:58:58ad ascoltare
00:58:59quindi non è da un
00:58:59la precede
00:59:00legge
00:59:01degli altri
00:59:01va benissimo
00:59:02grazie
00:59:03senatrice
00:59:04prego
00:59:06puoi iniziare
00:59:07buonasera
00:59:10gentili
00:59:10senatrici
00:59:11e senatori
00:59:11Presidente
00:59:12buonasera
00:59:13e innanzitutto
00:59:14vi ringraziamo
00:59:15per l'occasione
00:59:16offerta
00:59:16a Saved the Children
00:59:17in intervenire
00:59:17su questo
00:59:19disegno di legge
00:59:20che interviene
00:59:21su una
00:59:21delle questioni
00:59:22più importanti
00:59:23per l'infanzia
00:59:24e l'adolescenza
00:59:25nel ventunesimo secolo
00:59:26che è il rapporto
00:59:27dei bambini
00:59:28e adolescenti
00:59:28con l'ambiente digitale
00:59:30di questo disegno
00:59:31di legge
00:59:31innanzitutto
00:59:32apprezziamo la trasversalità
00:59:33ai diversi gruppi parlamentari
00:59:35quando accade
00:59:37che schieramenti
00:59:37politici
00:59:38diversi
00:59:39condividono
00:59:40un'iniziativa
00:59:41legislativa
00:59:41nell'interesse
00:59:42per i diritti
00:59:43dei bambini
00:59:43si afferma
00:59:44un principio
00:59:44fondamentale
00:59:46che i diritti di minori
00:59:47sono di tutti
00:59:48non hanno colore politico
00:59:49e difenderli
00:59:50è una responsabilità
00:59:51condivisa
00:59:52e questo è molto importante
00:59:54l'auspicio è che
00:59:55lo stesso approccio
00:59:56possa continuare
00:59:57ed essere applicato
00:59:58anche ad altri ambiti
01:00:00si decide
01:00:01che è un'organizzazione
01:00:02internazionale indipendente
01:00:03che interviene
01:00:04da oltre 100 anni
01:00:05in 120 paesi
01:00:07per garantire
01:00:08a bambini e a bambini
01:00:08un futuro
01:00:09sviluppo
01:00:10protezione
01:00:11salute
01:00:12e guardiamo
01:00:13a tutti gli ambienti
01:00:15con lo stesso approccio
01:00:16quindi alle scuole
01:00:17alle periferie
01:00:18agli spazi aggregativi
01:00:19agli ambienti digitali
01:00:20gli ambienti
01:00:21per i bambini
01:00:22devono essere
01:00:22a misura di minore
01:00:23devono essere
01:00:24adeguati
01:00:25alla loro
01:00:25crescita
01:00:26ci occupiamo
01:00:28di tutela dei minori
01:00:29online dal 2002
01:00:30quando abbiamo
01:00:31avviato
01:00:32la piattaforma
01:00:33Stopit
01:00:34una piattaforma
01:00:35che consente
01:00:36a chiunque
01:00:37di segnalare
01:00:37in forma anonima
01:00:38la presenza
01:00:39di materiale pedopornografico
01:00:40tuttora attiva
01:00:41e portata avanti
01:00:42assieme alla polizia
01:00:44postale
01:00:45siamo anche molto impegnati
01:00:46in attività
01:00:47di empowerment
01:00:48dei genitori
01:00:50affinché affianchino
01:00:51i loro figli
01:00:51nel migliore dei modi
01:00:53in questa fase fondamentale
01:00:54appunto
01:00:55quest'ambito fondamentale
01:00:56dell'educazione
01:00:57che è
01:00:58l'educazione
01:00:59all'uso corretto
01:01:00degli strumenti digitali
01:01:01da quel lontano
01:01:032002
01:01:04quando iniziamo
01:01:05quest'attività
01:01:06tutto è molto cambiato
01:01:08ci sono stati
01:01:08cambiamenti epocali
01:01:10che hanno intracciato
01:01:11la vita
01:01:11di tutti noi
01:01:13il digitale
01:01:14è un ambiente
01:01:15in cui tutti
01:01:16ci muoviamo ogni giorno
01:01:17e per dirla
01:01:17con le parole
01:01:18del comitato ONU
01:01:19sui diritti
01:01:19dell'infanzia
01:01:20e dell'adolescenza
01:01:21all'interno
01:01:22dell'ambiente digitale
01:01:23devono realizzarsi
01:01:24tutti i diritti
01:01:26dei bambini
01:01:26e delle bambine
01:01:27e quindi
01:01:28dobbiamo anche
01:01:29stare attenti
01:01:29al tema
01:01:30delle diseguaglianze
01:01:31che abbiamo visto
01:01:33sprigionarsi
01:01:34in maniera
01:01:34diciamo
01:01:35quasi plastica
01:01:36durante il covid
01:01:37è stato un periodo
01:01:38in cui
01:01:38il numero di devices
01:01:40o di megabyte
01:01:41di cui una famiglia
01:01:42disponeva
01:01:43faceva una differenza
01:01:44per l'accesso
01:01:44all'educazione
01:01:45e alla socializzazione
01:01:46e questo approccio
01:01:48di accesso
01:01:49al digitale
01:01:49non dobbiamo
01:01:50dimenticarlo
01:01:52in questo momento storico
01:01:55non è possibile
01:01:55progettare
01:01:56nessun intervento
01:01:58per l'infanzia
01:01:59e l'adolescenza
01:02:00senza avere in mente
01:02:02questa realtà
01:02:03che è un continuum
01:02:04nella vita dei ragazzi
01:02:05tra analogico
01:02:06e digitale
01:02:07è quello che viene
01:02:07definito
01:02:08on life
01:02:09i ragazzi vivono
01:02:10in una realtà
01:02:11in cui c'è una continuità
01:02:13e tutto questo
01:02:14va considerato
01:02:16chiaramente
01:02:16in questo scenario
01:02:17i social media
01:02:18le chat box
01:02:19i videogame
01:02:20multiplayer
01:02:21le AI generativa
01:02:23e tutte quelle novità
01:02:24che sono frutto
01:02:25della creatività
01:02:26negli ambienti digitali
01:02:28possono rappresentare
01:02:30per gli adulti
01:02:31anche motivo
01:02:32di paura
01:02:32di sconcerto
01:02:33legittimo
01:02:34perché non è semplice
01:02:37destreggiarsi
01:02:38in quella massa
01:02:39intricata
01:02:40di opportunità
01:02:41e rischi
01:02:42che l'ambiente digitale
01:02:43appunto contiene
01:02:45e per questo
01:02:46è importante
01:02:48per noi
01:02:48una considerazione
01:02:49olistica
01:02:50aprendosi
01:02:51all'ascolto
01:02:51dei ragazzi
01:02:52e mettendo da parte
01:02:54le certezze
01:02:55degli adulti
01:02:55come la Presidente
01:02:56del Consiglio Meloni
01:02:57ha esortato a fare
01:02:58nel suo intervento
01:02:59alla conferenza nazionale
01:03:00sull'infanzia
01:03:01e l'adolescenza
01:03:02la settimana scorsa
01:03:03questa premessa
01:03:05appunto
01:03:06di muoversi
01:03:07in un ambiente
01:03:07nuovo
01:03:08in parte
01:03:08ignoto
01:03:09in cui appunto
01:03:10andare avanti
01:03:11sempre guardando
01:03:12a rischi
01:03:12e a opportunità
01:03:13mi serve anche
01:03:16appunto
01:03:17per dire
01:03:17perché noi
01:03:18in realtà
01:03:18vogliamo entrare
01:03:19in media res
01:03:20partendo dagli aspetti
01:03:21educativi
01:03:22e quindi lascio
01:03:23la parola su questo
01:03:23al mio collega
01:03:25Damiano Sabuzzi
01:03:26che è coordinatore
01:03:27dell'attività di Advocasi
01:03:29su educazione e povertà
01:03:30grazie mille
01:03:31Sì grazie
01:03:33Giussi
01:03:33vado rapidissimo
01:03:34Allora noi partiamo
01:03:36dal presupposto
01:03:37che comunque sia
01:03:38a prescindere
01:03:39dagli strumenti
01:03:41e dal utilizzo
01:03:42di questi
01:03:43va fatta un'azione
01:03:44abbastanza capillare
01:03:45sull'educazione
01:03:46e sulle competenze
01:03:48digitali
01:03:48a partire dalla scuola
01:03:49in particolare
01:03:50il periodo
01:03:52diciamo
01:03:53delle scuole secondarie
01:03:54di primo grado
01:03:54è importantissimo
01:03:55per sviluppare
01:03:57quelle competenze
01:03:58che non servono
01:03:58soltanto
01:03:59a stare
01:04:00all'interno
01:04:01dell'ambiente
01:04:02digitale
01:04:03in sicurezza
01:04:04ma che poi
01:04:05sviluppano
01:04:05quelle competenze
01:04:06che poi si porteranno
01:04:08avanti
01:04:09sia nelle scuole superiori
01:04:10e nel mondo del lavoro
01:04:11facciamo
01:04:12tutta una serie
01:04:14di progetti
01:04:15di programmi
01:04:16anche in collaborazione
01:04:17con la polizia postale
01:04:18il ministro dell'istruzione
01:04:19e del merito
01:04:20e il dipartimento
01:04:21per le politiche
01:04:22della famiglia
01:04:22riconoscendo la scuola
01:04:34come luogo chiave
01:04:35per colmare
01:04:36queste disuguaglianze
01:04:37anche perché
01:04:38ricordiamo
01:04:39la scuola dell'obbligo
01:04:40diciamo
01:04:41è quel luogo
01:04:42dove riesci
01:04:43a intercettare
01:04:44tutti
01:04:45i bambini
01:04:46e le bambine
01:04:46una volta usciti
01:04:48dal sistema
01:04:49formativo e scolastico
01:04:51è più difficile
01:04:52fare diciamo
01:04:52dei percorsi
01:04:53legati alle competenze
01:04:55digitali
01:04:56apprezziamo molto
01:04:58da questo punto di vista
01:04:59anche l'articolo 6
01:05:01che diciamo
01:05:02prevedono
01:05:03l'allargamento
01:05:04del fondo
01:05:04previsto
01:05:05a EG
01:05:05bilancio
01:05:06del 2022
01:05:07sul
01:05:08diciamo
01:05:09sul rafforzamento
01:05:11dell'affabilizzazione
01:05:12mediatica digitale
01:05:14però
01:05:15notiamo che
01:05:16per noi
01:05:16diciamo
01:05:17il problema
01:05:18forse
01:05:18è quello
01:05:19di non avere
01:05:20fondi a sufficienza
01:05:22per intercettare
01:05:23nei percorsi
01:05:24didattici
01:05:25a scuola
01:05:26lo scorso
01:05:27ormai
01:05:28quasi un anno fa
01:05:29il ministro
01:05:30dell'istituzione
01:05:30del merito
01:05:31ha firmato
01:05:32un protocollo
01:05:32di intesa
01:05:33con AGICOM
01:05:34per promuovere
01:05:35l'affabilizzazione
01:05:36mediatica
01:05:37e digitale
01:05:38e il rilascio
01:05:38del patentino
01:05:39digitale
01:05:39a scuola
01:05:40per promuovere
01:05:42i percorsi
01:05:42che devono affrontare
01:05:43i temi
01:05:44come la web reputation
01:05:45gli algoritmi
01:05:46e la disinformazione
01:05:47e i percorsi
01:05:48d'odio
01:05:48importantissimo
01:05:50però
01:05:51purtroppo
01:05:52non c'è
01:05:53un fondo
01:05:54unico
01:05:54dedicato
01:05:55a finanziare
01:05:56questi percorsi
01:05:58a scuola
01:05:58e quindi
01:05:59diciamo
01:05:59queste iniziative
01:06:01virtuose
01:06:02possono
01:06:03non soltanto
01:06:05rimanere un po'
01:06:05monche
01:06:06ma anche
01:06:06causare
01:06:06delle disuguaglianze
01:06:07a livello territoriale
01:06:08perché poi
01:06:09magari ci sono
01:06:10alcune regioni
01:06:11alcune zone
01:06:12d'Italia
01:06:12che riescono
01:06:13ad attivare
01:06:16con le scuole
01:06:17dei percorsi virtuosi
01:06:18di attività
01:06:19legate alle competenze
01:06:21digitali
01:06:21e altri no
01:06:22quindi
01:06:22oltre a
01:06:24una questione
01:06:25diciamo
01:06:26di competenze
01:06:28digitali
01:06:28la mettiamo anche
01:06:29sul discorso
01:06:29della povertà
01:06:30educativa
01:06:30digitale
01:06:31cioè
01:06:31quello
01:06:32vogliamo
01:06:34diciamo
01:06:35miriamo a contrastare
01:06:36la povertà
01:06:36educativa
01:06:37digitale
01:06:38cercando di mettere
01:06:39tutti i bambini
01:06:39e bambine
01:06:40allo stesso piano
01:06:41e arrivare
01:06:42diciamo poi
01:06:43ai 14
01:06:4415
01:06:4416 anni
01:06:45con lo stesso
01:06:46livello di preparazione
01:06:47e alfabetizzazione
01:06:48digitale
01:06:48che però
01:06:49hanno acquisito
01:06:49la scuola
01:06:50proseguo
01:06:53e concludo
01:06:54ancora solo
01:06:54due minuti
01:06:55per tornare
01:06:57alle norme
01:06:58di protezione
01:06:59che questo
01:06:59disegno
01:06:59di legge
01:07:00contiene
01:07:00ma anche
01:07:01per inquadrarlo
01:07:02in un ambito
01:07:03più ampio
01:07:04fondamentale
01:07:06che
01:07:06l'impegno
01:07:08dell'Italia
01:07:09nell'attuazione
01:07:09del Digital Services Act
01:07:11che veniva
01:07:11già richiamato
01:07:12questo
01:07:13disegno
01:07:14di legge
01:07:14contiene
01:07:14dei riferimenti
01:07:16a degli strumenti
01:07:17fondamentali
01:07:18innanzitutto
01:07:18la verifica
01:07:19dell'età
01:07:20prevista
01:07:21dal regolamento
01:07:22Digital Services Act
01:07:23l'Italia
01:07:24è uno dei cinque paesi
01:07:27in cui verrà testata
01:07:28la app
01:07:29rilasciata
01:07:30dalla Commissione
01:07:32europea
01:07:32per la verifica
01:07:33dell'età
01:07:33è una soluzione
01:07:35che consente
01:07:36la verifica
01:07:37dell'età
01:07:37rispettando la privacy
01:07:39perché appunto
01:07:40è previsto
01:07:41un terzo certificatore
01:07:43il fatto che l'Italia
01:07:44sia tra uno
01:07:45dei paesi
01:07:46del test
01:07:46è fondamentale
01:07:48ci dà un grande
01:07:48vantaggio
01:07:49e quello che noi
01:07:50pensiamo
01:07:50è in questo stesso
01:07:51alveo
01:07:52si inserisce
01:07:52il disegno
01:07:53di legge
01:07:53e che questo
01:07:55test
01:07:55debba essere
01:07:56utilizzato
01:07:57non soltanto
01:07:58per verificare
01:07:59la maggiore età
01:07:59per l'accesso
01:08:00ai siti
01:08:01per adulti
01:08:01cosa già prevista
01:08:03anche dal decreto
01:08:04Caevano
01:08:04ma anche
01:08:05essere utilizzato
01:08:07per verificare
01:08:08età più basse
01:08:09quando appunto
01:08:10fanno la differenza
01:08:11tra poter accedere
01:08:12e non poter accedere
01:08:13al social network
01:08:14e questo è il momento
01:08:15in cui l'app
01:08:16si sta testando
01:08:17e quindi
01:08:17ci sembra importante
01:08:19dirlo
01:08:19visto che
01:08:20questo
01:08:20disegno di legge
01:08:22prevede una base
01:08:23normativa
01:08:25e infine
01:08:26poiché
01:08:26veniva citato
01:08:28anche nelle altre audizioni
01:08:29c'è un complesso
01:08:30di impegni
01:08:31più ampio
01:08:32previsto
01:08:33appunto
01:08:34dalla stessa
01:08:35Commissione Europea
01:08:36in attuazione
01:08:36dell'articolo 28
01:08:38del DS6
01:08:40per rendere
01:08:41gli ambienti digitali
01:08:42più sicuri
01:08:43by design
01:08:44ad esempio
01:08:45la Commissione Europea
01:08:46chiede di impostare
01:08:47di default
01:08:48come privati
01:08:49gli account
01:08:49dei minori
01:08:50di modificare
01:08:51i sistemi di raccomandazione
01:08:53dei contenuti
01:08:53dei social media
01:08:54per ridurre il rischio
01:08:56che i minori
01:08:56incontrino contenuti
01:08:57dannosi
01:08:58di proibire
01:08:59ad altri account
01:09:01di scaricare
01:09:02o scattare
01:09:02schermate
01:09:03di contenuti
01:09:04pubblicati
01:09:05dai minori
01:09:06di disabilitare
01:09:07di default
01:09:08le funzionalità
01:09:09che contribuiscono
01:09:10a un uso eccessivo
01:09:11dei social media
01:09:12e di migliorare
01:09:13gli strumenti
01:09:14di moderazione
01:09:14e comunicazione
01:09:16tutto questo
01:09:18evidentemente
01:09:19è già normato
01:09:21è già nella normativa
01:09:22europea
01:09:23però
01:09:23lo sforzo
01:09:24è evidente
01:09:25da parte
01:09:25del legislatore
01:09:26di dialogo
01:09:27con questa
01:09:28normativa regionale
01:09:29e quindi
01:09:30tutti questi temi
01:09:31ci sembravano
01:09:32comunque
01:09:33pertinenti
01:09:35e infine
01:09:35come già diceva
01:09:36il collega
01:09:38sicuramente
01:09:38una scelta strategica
01:09:39molto efficace
01:09:40quella di prevedere
01:09:41fondi
01:09:42per la sensibilizzazione
01:09:43dei genitori
01:09:44grazie mille
01:09:45domande
01:09:46senatore Nave
01:09:48grazie presidente
01:09:50ringrazio per l'esposizione
01:09:52una domanda
01:09:54riguardava questo
01:09:55proprio spostare
01:09:56in questo disegno
01:09:57di legge
01:09:57il controllo
01:09:59è dato allo Stato
01:10:01mettendo l'età
01:10:03e quanto invece
01:10:04questo chiedevo a voi
01:10:06risulta essere importante
01:10:08responsabilizzare
01:10:09le famiglie
01:10:10piuttosto che lo Stato
01:10:11sul controllo
01:10:12dell'utilizzo
01:10:13quindi anche del minore
01:10:14visto che
01:10:14in momenti in cui
01:10:15ci lamentiamo
01:10:16della deresponsabilizzazione
01:10:17delle famiglie
01:10:18quanto potrebbe essere
01:10:19invece interessante
01:10:20responsabilizzarle
01:10:21ovviamente
01:10:22a fronte di corsi
01:10:23e anche di
01:10:24come dire
01:10:25una responsabilità
01:10:26anche penale
01:10:26da questo punto di vista
01:10:27ecco
01:10:28grazie
01:10:28ho altre domande?
01:10:31nessuno
01:10:32prego
01:10:32allora
01:10:35la responsabilità
01:10:36dei diversi attori
01:10:37non è in contrapposizione
01:10:39un ambiente
01:10:39digitale
01:10:40sicuro
01:10:41lo abbiamo già detto
01:10:41molte volte
01:10:42si ha soltanto
01:10:43se tutti gli attori
01:10:43collaborano
01:10:44aggiungo anche
01:10:45appunto gli attori
01:10:45privati
01:10:46quindi
01:10:47il fatto che
01:10:48i governi
01:10:49e i parlamenti
01:10:50a partire dal
01:10:51Parlamento Europeo
01:10:52e dalla Commissione
01:10:53stabiliscono delle regole
01:10:55per frequentare
01:10:56un ambiente
01:10:57che non è nato
01:10:58per i minori
01:11:00questo non è negativo
01:11:01in sé
01:11:02avere delle regole
01:11:03ma questo ovviamente
01:11:04non sostituisce
01:11:05la responsabilità
01:11:06educativa
01:11:07delle famiglie
01:11:08che però
01:11:09vanno supportate
01:11:10perché è chiaro
01:11:11che c'è un gap
01:11:12generazionale
01:11:13ma ci possono essere
01:11:14anche altre forme
01:11:15di difficoltà
01:11:17penso alle famiglie
01:11:18migranti
01:11:18penso alle famiglie
01:11:19più marginalizzate
01:11:21quindi
01:11:21non è tanto
01:11:23un'antitesi
01:11:24quanto creare
01:11:24una collaborazione
01:11:26tra pubblico
01:11:27privato
01:11:27famiglie
01:11:28associazionismo
01:11:29ringraziamo
01:11:31i rappresentanti
01:11:32di Save the Children
01:11:33possiamo
01:11:34dichiarare
01:11:35conclusa
01:11:36l'audizione
01:11:37arrivederci
01:11:41benissimo
01:11:45grazie
01:11:45grazie a tutti
Commenta prima di tutti
Aggiungi il tuo commento

Consigliato