- 7 settimane fa
- #pupia
https://www.pupia.tv - Roma - Audizioni Nozza e Gius
Presso l'Aula del IV piano di Palazzo San Macuto, la Commissione parlamentare di inchiesta sul femminicidio, nonché su ogni forma di violenza di genere ha svolto le seguenti audizioni:
ore 17 in videoconferenza, Debora Nozza, professoressa di Computing Sciences presso l’Università Bocconi di Milano, specializzata in elaborazione del linguaggio naturale e riconoscimento automatico della misoginia e del linguaggio d’odio online, con riferimento al filone di inchiesta sulla violenza di genere on line;
ore 17.30 Chiara Gius, coordinatrice nazionale del progetto Prin 2022 “rappresentazioni sociali della cyberviolenza contro donne e ragazze” e ricercatrice presso l’Università di Bologna, con riferimento allo stesso filone. (20.10.25)
#pupia
Presso l'Aula del IV piano di Palazzo San Macuto, la Commissione parlamentare di inchiesta sul femminicidio, nonché su ogni forma di violenza di genere ha svolto le seguenti audizioni:
ore 17 in videoconferenza, Debora Nozza, professoressa di Computing Sciences presso l’Università Bocconi di Milano, specializzata in elaborazione del linguaggio naturale e riconoscimento automatico della misoginia e del linguaggio d’odio online, con riferimento al filone di inchiesta sulla violenza di genere on line;
ore 17.30 Chiara Gius, coordinatrice nazionale del progetto Prin 2022 “rappresentazioni sociali della cyberviolenza contro donne e ragazze” e ricercatrice presso l’Università di Bologna, con riferimento allo stesso filone. (20.10.25)
#pupia
Categoria
🗞
NovitàTrascrizione
00:00Buonasera a tutti e a tutti, avverto che se non vi sono obiezioni, la pubblicità dei lavori della seduta odierna sarà assicurata anche mediante l'attivazione di impianti audiovisivi a circuito chiuso, la trasmissione diretta sulla web tv della Camera dei Deputati.
00:16Ricordo che la seduta si svolge nelle forme dell'audizione libera da aperta alla partecipazione da remoto dei componenti della Commissione, ove si ritenesse sia richiesta dell'audita che della Commissione di voler procedere alla seduta segreta, faccio presente che poiché tale modalità non è compatibile con la videoconferenza, l'audizione dovrà essere necessariamente rinviata ad altra seduta.
00:38L'ordine del giorno reca lo svolgimento dell'audizione della dottoressa Deborah Nozza, professoressa di Computing Science presso l'Università Bocconi di Milano, specializzata in elaborazione del linguaggio naturale e riconoscimento automatico della misoginia e del linguaggio d'odio online, con riferimento al filone di inchiesta sulla violenza di genere online.
01:03A nome di tutte le commissarie e di tutti i commissari do il benvenuto alla professoressa Deborah Nozza, che ringrazio per la disponibilità a contribuire ai lavori della Commissione.
01:14L'attività di ricerca della professoressa Nozza si concentra principalmente sulla rilevazione, sulle modalità di contrasto del linguaggio d'odio e dei pregiudizi algoritmici nei social media in contesti multilingue.
01:29Prego quindi la professoressa Nozza, ringraziandola, do a lei la parola.
01:33Grazie mille per avermi invitato a parlare a questa commissione.
01:45Ho iniziato a condividere lo schermo e appunto sono Deborah Nozza, professoressa all'Università Bocconi e oggi vi presenterò alcuni risultati del nostro lavoro sulla misoginia implicita,
02:00cioè su quelle forme di linguaggio che non usano parole appartemente offensive ma che comunque trasmettono ostilità, disprezzo, a volte proprio violenza verso le donne.
02:11L'obiettivo è capire cosa l'intelligenza artificiale può aiutarci a vedere e cosa invece continua a sfuggire.
02:18Questa presentazione è basata sul lavoro della dottoressa Rianna Muti, una postdoc che lavora con me proprio nell'ambito di riconoscimento automatico della misoginia.
02:28Prima di iniziare vorrei fare una nota importante.
02:31In questa presentazione ci sono esempi di linguaggio offensivo, li mostro solo a scopo scientifico e servono per capire il tipo di contenuti con cui lavoriamo,
02:39che sono presenti anche sui social, non rappresentano in alcun modo le mie opinioni.
02:45Parto da un dato. Secondo la mappa dell'intolleranza dell'Osservatorio Italiano su diritti, in Italia la metà dei post d'odio online è diretta contro le donne,
02:58come vedete qua con la barra in rosso. E questo è una percentuale che non cambia da anni.
03:04Segno che la misoginia non è un fenomeno episodico, ma un problema culturale stabile che si riproduce nel tempo.
03:13Partiamo definendo che cos'è la misoginia, o quantomeno la definizione che utilizzo io di misoginia.
03:20Secondo UN Women, la misoginia è un atteggiamento di disprezzo o avversione verso le donne,
03:26che si manifesta attraverso discriminazione, violenza, oggettificazione, esclusione dalla piena partecipazione sociale e politica.
03:35Accanto alla misoginia esplicita, che in un qualche modo ormai è quasi, non voglio dire facile da riconoscere,
03:48ma le performance di questo algoritmo di intelligenza artificiale, per riconoscerla, sono molto alte.
03:55Ecco, a fianco a questa tipologia di misoginia c'è anche la misoginia implicita.
04:00È un linguaggio che non usa insulti, marionia, doppi sensi, stereotipi, come scrivono i colleghi e le colleghe citati.
04:10È offensivo senza usare parole offensive e proprio per questo è più pervasivo, più accettato e anche più difficile da individuare.
04:20La misoginia online, misurare la misoginia online, può essere un campanello d'allarme per la violenza di genere.
04:28Difatti, la ricerca sull'intelligenza artificiale applicata alla misoginia nasce proprio da un'esigenza sociale molto concreta,
04:36capire come e dove si formano le radici culturali della violenza di genere.
04:42Ecco, la misoginia online, anche se solo verbale, non è innocua, rappresenta, secondo me, un termometro del clima sociale,
04:51un segnale precoce di dinamiche che possono evolvere anche in comportamenti violenti.
04:55E attraverso l'intelligenza artificiale, appunto, possiamo analizzare milioni di messaggi, post e commenti
05:02per individuare tendenze, narrazioni ricorrenti, ma soprattutto anche momenti di escalation.
05:08Questi dati non servono a censurare, ma a capire.
05:13Permettono, secondo me, di progettare potenzialmente interventi di prevenzione,
05:17ma anche e soprattutto educazione digitale e comunicazioni istituzionali più efficaci,
05:22basati poi sui numeri, sulle evidenze.
05:25La parte più difficile, come dicevo prima, non è la misoginia esplicita,
05:30ma quella implicita, quella che si nasconde dietro commenti apparentemente neutri.
05:36Anche i modelli linguistici, come vi presenterò,
05:40fanno molta, quelli più avanzati che abbiamo ora,
05:43fanno molta fatica a riconoscerla,
05:46perché riconoscere la misoginia implicita richiede di comprendere conoscenze di contesto,
05:52valori sociali, cultura, qualcosa che per il momento nessun modello possiede davvero.
05:59Ma proprio questi errori, secondo me, sono preziosi,
06:01perché ci mostrano quanto il pregiudizio sia profondo
06:04e anche quanto le tecnologie potenzialmente possono riflettere i limiti del linguaggio umano.
06:10Quando un modello non riconosce la misoginia,
06:14spesso neanche le persone la riconoscono
06:16e questo parallelismo, forse, secondo me, è la cosa più importante.
06:24Come appunto dicevo, la misoginia, soprattutto quella implicita,
06:28è un fenomeno culturale molto complesso
06:30e per affrontarlo serve rigore.
06:32L'intelligenza artificiale ci permette di osservare i dati in modo sistematico,
06:36di misurare come cambia la narrazione del tempo
06:38e di farlo anche in modo facilmente replicabile.
06:44Questo approccio ci aiuta, non fornisce,
06:48non sostituisce un'analisi sociologica,
06:50ma la integra fornendo un'evidenza quantitativa
06:55che può essere utilizzata poi a supporto delle decisioni.
06:58In altre parole, la tecnologia non è la soluzione,
07:05ma è un alleato della conoscenza.
07:08Per combattere la misoginia chiaramente servono tantissime cose
07:14oltre agli strumenti tecnologici,
07:16ma la mia speranza è che proprio l'intelligenza artificiale
07:23renda possibile rendere visibile ciò che finora è rimasto implicito.
07:28Vi riporto qui proprio un esempio reale di misoginia,
07:37alcune sono un po' più esplicite, altre sono proprio implicite,
07:40però per farvi rendere un'idea,
07:42di commenti che si trovano molto spesso,
07:45senza far troppo fatica sotto, ad esempio,
07:47le foto di donne dello spettacolo,
07:49da commenti sugli standard di bellezza,
07:52commenti più su una visione conservatrice della donna.
07:55e spesso donne di rilevanza pubblica e nonna trovano queste risposte
08:04nel momento in cui, ad esempio, pubblicano foto o pensieri.
08:08Ecco, quello che ha fatto la dottoressa Muti
08:12insieme a altre ricercatrici e ricercatori di diversi atenei
08:15è stato quello di creare un dataset,
08:19ossia una collezione di dati in italiano
08:22comprensiva di 1200 commenti misogini, impliciti,
08:29proprio postati, messi sotto le notizie riguardanti le donne.
08:33L'obiettivo di questa collezione di dati è stato proprio quella di testare
08:37gli algoritmi di intelligenza artificiale
08:39rispetto alla loro capacità di prevedere,
08:43ma anche di capire, la misoginia implicita.
08:46Vi faccio qui un esempio.
08:48Quindi, dopo aver fatto tutto questo processo
08:50in cui sono stati selezionati tutti questi commenti misogini
08:55dei social media, è stato poi fatto un processo di annotazione
09:00fatto da degli annotatori, delle annotatrici, cioè degli esperti esperte
09:06per andare a capire determinate caratteristiche.
09:10Ecco, questo è un esempio tratto dal nostro insieme di dati
09:17e qui c'è, ho messo in esplicito il sottinteso,
09:23cioè quello che effettivamente si vuole andare a comunicare con quella frase.
09:27Qui non c'è appunto nessun insulto diretto,
09:33ma il messaggio è chiaramente dispregiativo,
09:36nel senso che bisogna fare un salto nel sottinteso
09:39per capire qual è il vero significato
09:42dietro al fatto di posizionare una donna intagenziale.
09:46E' un modo per sminuire appunto la donna
09:48attraverso un implicito culturale
09:50che tutti capiscono anche se non viene detto apertamente.
09:54Quindi qui non c'è proprio una parola offensiva chiara,
09:57ma l'offesa rimane.
10:00Il primo step appunto di questa collezione di dati
10:03è stato annotare se le frasi fossero misogene o meno,
10:08quindi misoginia sì o no.
10:11La seconda parte, secondo me molto interessante,
10:13è stata quella di andare a annotare,
10:19quindi compilare, una spiegazione della motivazione
10:23per cui il testo è misogino.
10:26Quindi proprio le persone hanno preso tutti questi commenti
10:30e di fianco a se misogino o sì,
10:34hanno poi scritto è misogino per questo o quest'altro motivo.
10:37L'idea di nuovo era proprio quella di andare a testare
10:41se strumenti di intelligenza artificiale
10:44non solo fossero in grado di capire se un commento è misogino,
10:48ma anche di spiegarlo.
10:50Non solo, dato un testo, abbiamo anche,
10:56la dottoressa Muti con colleghe e colleghe,
10:59ha anche categorizzato il presupposto implicito
11:06in un'impostazione multietichetta.
11:09Cosa vuol dire?
11:09Adesso vi farò vedere,
11:11decidere diverse categorie dove è possibile selezionarne più di una
11:14e anche poi riportare la porzione del testo associata a ciascuna categoria.
11:20Per questo si è reso necessario creare una tassonomia di dinamiche sociali,
11:25che è proprio quello che abbiamo fatto in questo lavoro
11:30guidato dalla dottoressa Muti a cui ho partecipato anche io.
11:35Abbiamo quindi creato queste 13 categorie
11:39di quelle che noi abbiamo definito dinamiche sociali,
11:41che secondo noi erano quelle che emergevano di più
11:44più spesso nella misoginia implicita online.
11:48E loro aggruppate in questa presentazione principalmente in quattro aree.
11:52Abbiamo l'area di ruolo e controllo,
11:55che riguarda la legittimazione della subordinazione femminile,
11:59stereotipi e cultura, dove rientrano quelle narrazioni
12:02che normalizzano il sessismo,
12:04e corpo e colpa, che include i linguaggi di oggettificazione,
12:08fino alla violenza, a volte appunto comunicata implicitamente.
12:15Insieme questi meccanismi costruiscono un discorso che, appunto,
12:20di nuovo non è apertamente violento,
12:23ma che mantiene purtroppo alla fine anche la disuguaglianza di genere.
12:27Questa appunto sarebbe, ad esempio,
12:30la categoria a completare la classificazione precedente.
12:35Vado ora a presentarvi brevemente le diverse categorie che abbiamo individuato.
12:40Queste prime categorie riguardano, appunto,
12:42la dimensione dei ruoli di genere e di potere.
12:44Per esempio, nel trattamento derogatorio troviamo frasi
12:49che sminuiscono l'esperienza femminile,
12:51riducendo la qualcosa di banale.
12:53La struttura di potere maschile emerge in commenti
12:55dove si presume un controllo maschile legittimo
12:58sui comportamenti femminili.
13:00La visione conservatrice si riconosce in affermazioni
13:03che impongono dei ruoli tradizionali.
13:05Infine abbiamo il rifiuto del femminismo,
13:08dove si nega la disuguaglianza e si scredita chi la denuncia.
13:11Successivamente ci spostiamo sulla dimensione culturale e discorsiva.
13:18Gli stereotipi e pregiudizi si manifestano in frasi
13:21che generalizzano comportamenti individuali.
13:25Quello che viene definito whataboutism
13:27potrebbe essere, anche se non correttamente,
13:31tradotto con benevolismo,
13:33deve al discorso con espressioni che servono a sminuire le questioni femminili.
13:38Nei doppi standard si giudicano gli stessi comportamenti
13:41in modo diverso.
13:42Quindi è volgare quando le ragazze si comportano in un certo modo,
13:45ma se lo fa un uomo viene considerato normale.
13:48Infine nella distinzione di genere emevono convinzioni rigide.
13:53Il penultimo gruppo riguarda il corpo e la sessualità femminile.
13:58Qui abbiamo la gittificazione,
14:00che emerge in frasi dove la donna viene ridotta a un corpo da guardare.
14:03Gli standard di bellezza,
14:05che si manifestano in commenti che giudicano
14:07l'aspetto fisico secondo modelli rigidi.
14:09La colpevolizzazione della vittima,
14:12dove troviamo frasi che espostano la responsabilità della violenza sulla donna.
14:16Infine la derisione, dove si utilizza proprio l'umorismo,
14:19l'irosinia e il sarcasmo per umiliare le donne.
14:23Infine l'ultima categoria riguarda appunto la violenza.
14:28Questo, di nuovo se guardate l'esempio,
14:33è proprio una meraccia diretta, no?
14:36Ma allo stesso tempo non così chiara.
14:40Mostra con chiarezza l'atteggiamento violento che può emergere online.
14:43Questo non è solo un insulto verbale.
14:45È proprio l'espressione di una potenziale azione
14:52che si potrebbe poi compiere nel mondo reale.
14:55La prima cosa che abbiamo fatto è stata cercare di mappare
15:02quelle che sono queste categorie all'interno del panorama italiano
15:07e anche quello inglese utilizzando un insieme di dati preesistenti.
15:11Questo grafico mostra proprio la frequenza
15:14con cui queste varie categorie si distribuiscono in italiano e in inglese.
15:20Si notano delle differenze che riflettono specificità culturali.
15:25Nelle lingue anglofone, per esempio,
15:27emergono spesso forme di erisione, rifiuto del femminismo.
15:31Nei dati italiani, invece, sono più presenti visioni conservatrici,
15:34trattamenti derogatori e standard di bellezza.
15:37Espressioni che rimandano a una cultura di genere più tradizionale.
15:42In sostanza, questo ci ha servito per capire come anche la misoginia
15:47può cambiare forma a seconda della lingua e della cultura
15:49e può rendere ancora più complesso il lavoro dei modelli.
15:53Ecco che qui vi faccio vedere i primi risultati
15:57che abbiamo ottenuto con dei modelli.
16:00Qui vedete tantissimi modelli di nomi diversi.
16:04Questo è uno studio fatto l'anno scorso,
16:07quindi questi erano i modelli che erano allo stato dell'arte l'anno scorso.
16:13E fa vedere che le percentuali sono relativamente basse
16:17se pensate che le performance di accuratezza rispetto alla misoginia esplicita
16:23sono intorno, sono sopra il 90%.
16:26Ecco, qui raramente sono superiori al 60-70%
16:31e in molti casi sono molto più vicini al 30% rispetto a quale modello stiamo utilizzando.
16:36Questo significa che anche i modelli linguistici più avanzati,
16:39come ad esempio l'AMA, che è il modello di meta che sta funzionando meglio in questo caso,
16:45non riescono ancora a individuare in modo affidabile la misoginia implicita,
16:49specialmente quando il linguaggio è ambiguo o culturalmente codificato.
16:54In altre parole, la tecnologia attuale, o quantomeno quella dell'anno scorso,
16:59non sembrava assolutamente sufficiente per uscire a capire il fenomeno
17:04e ad aiutarci a mapparlo.
17:08In questo caso non solo è un limite tecnico, ma secondo me anche culturale,
17:13che ci ricorda quanto è complesso capire e aiutare poi un sistema a riconoscere
17:19queste forme di misoginia implicita che a volte sfuggono anche agli esseri umani.
17:24E in maniera molto interessante, non solo le performance,
17:29l'accuratezza in cui riusciamo a riconoscere la misoginia implicita è relativamente bassa,
17:37ma anche nel momento in cui chiediamo ai modelli di spiegargli il motivo,
17:42ecco qui i risultati peggiorano utile al mente.
17:45Quindi se andiamo a guardare la percentuale per cui c'è la spiegazione creata
17:51dai sistemi di intelligenza artificiale, la spiegazione creata dalle persone
17:57ha una corrispondenza molto bassa, intorno al 24-30%.
18:03Quindi cosa vuol dire? Vuol dire che il modello riesce magari anche a classificare,
18:07ma soprattutto non è in grado di motivare la sua decisione.
18:12E questo lo fa diventare un problema molto importante
18:15nel momento in cui questi algoritmi di intelligenza artificiale
18:19devono aiutarci anche, devono essere trasparenti,
18:23si deve capire perché prendono delle decisioni.
18:26E qui vediamo un dato ancora più significativo.
18:29In italiano nel 100% dei casi,
18:32quando il modello riconosce correttamente il testo come misogino,
18:35non riesce però poi a fornire una spiegazione coerente con quella della decisione.
18:39In inglese la situazione è leggermente migliore,
18:43ma il problema resta.
18:44Questo ci dice di nuovo che i modelli non sanno spiegare il perché della loro scelta,
18:49comunque fanno molto fatica.
18:51Ed è un problema, ripeto, molto importante se pensiamo alla trasparenza,
18:55alla responsabilità in contesti così specifici.
18:59Ci siamo poi andate oltre
19:01e abbiamo poi guardato quelli che erano i motivi per cui secondo noi i modelli sbagliavano.
19:07Ecco, nel 42% dei casi l'errore deriva proprio da un'inferenza errata,
19:11il modello non sta capendo.
19:13Nel 17% dei casi manca del tutto un riferimento contestuale
19:17e nel 14% dei casi non si riesce a interpretare quelle che sono metafore
19:21o linguaggio come potrebbero essere l'ironia o allusioni.
19:25Qui vediamo tre esempi,
19:27in cui vi faccio vedere proprio l'esempio che abbiamo trovato nei commenti sui social
19:33e la spiegazione che viene fornita dal modello.
19:35Nel primo caso, in inferenza errata, il modello inventa una spiegazione completamente fuori contesto.
19:44Nel secondo, un commento che glorifica un assassino viene mal interpretato,
19:48quindi non viene proprio percepita la gravità del commento.
19:52Infine, nel caso di metafora, l'umorismo non viene effettivamente capito come nei confronti delle donne.
20:03E questi esempi mostrano che i modelli non sbagliano solo il contenuto,
20:07ma soprattutto il senso e il contesto culturale del linguaggio.
20:12Successivamente, il passaggio successivo è stato quello di andare a valutare la capacità dei modelli
20:21di associare il test a queste categorie di misoginia che abbiamo visto,
20:30quelle che io ho chiamato dinamiche sociali.
20:32I numeri sono molto bassi,
20:35la maggior parte resta sotto il 10%, quindi 0.1,
20:40che conferma quanto questo tipo di comprensione sia difficile anche per i modelli più avanzati
20:46di ultima generazione come GPT-4 o Mini.
20:49In italiano raggiungono il 21%, che resta comunque basso,
20:54ma è comunque il doppio dei modelli precedenti.
20:57E questo ci aiuta a capire che siamo ancora un po' lontani
21:00da una compressione autentica, secondo me, del contesto sociale e culturale.
21:05Questo studio ci ha proprio dimostrato come i modelli linguistici hanno dei limiti,
21:10non sono realmente multiculturali.
21:13Quando lavorano in italiano spesso non riconoscono correttamente entità, eventi o metafori,
21:18proprio perché la maggior parte della loro conoscenza proviene dall'inglese
21:21o comunque da contesti culturali anglofoni.
21:24Inoltre, questi modelli non ragionano davvero,
21:27si basano su informazioni che hanno memorizzato durante l'addestramento
21:31come se fosse un processo logico.
21:33Per questo, lo studio della misoginia implicita
21:39mette veramente alla prova la loro capacità di ragionamento.
21:43Ecco, fino a questo punto abbiamo visto molti limiti,
21:46ma con l'ultimo modello di CIOGPT con GPT-5
21:50non abbiamo ancora uno studio scientifico con numeri,
21:56ma ho già visto la svolta,
21:57ho proprio provato esattamente le stesse frasi che abbiamo detto prima
22:02e qui il modello in realtà sembra proprio capire parti del ragionamento,
22:08parti della cultura e delle informazioni,
22:11soprattutto a livello italiano.
22:13Concludo dicendo appunto che nonostante ci siano delle buone speranze
22:21per il futuro con i nuovi modelli
22:23per migliorare il riconoscimento della misoginia implicita,
22:29essa è ancora molto difficile da catturare.
22:32Ma oggi, secondo me, ne comprendiamo molto meglio
22:35di unicamismi linguistici e culturali
22:37e questo ci permette poi di creare anche modelli
22:41che sono in grado di farlo.
22:43Questo ci permette di affinare gli strumenti di analisi
22:46e anche di moderazione,
22:50non per censurare per forza,
22:52ma per proteggere le persone e prevenire la violenza simbolica.
22:57I metodi computazionali ovviamente da soli non bastano,
22:59devono integrare un ragionamento culturale, sociale,
23:05perché appunto l'odio implicito si nasconde
23:07proprio nei sottintesi, nelle eronie, nei silenzi,
23:11nelle cose che non si dicono.
23:14E quindi la vera, secondo me, moderazione
23:18non consiste solamente nel cancellare ciò che è scomodo,
23:22ma nel capire il contesto,
23:23costruire contronarrazioni che riducano il danno,
23:26cambino la cultura nell'ottica
23:30in cui ci permettono anche poi di educare
23:33le future generazioni.
23:36Con questo vi ringrazio
23:39e sono disponibile ovviamente se avete domande.
23:45Grazie professoressa Nozza,
23:46chiedo ai colleghi o alle colleghe collegate
23:49se hanno delle domande,
23:50se no intanto gliene faccio una io,
23:52che abbiamo cinque minuti.
23:53Se lei dovesse, professoressa,
23:56una domanda faticosa immagino,
23:58pensare ad un intervento mirato anche tecnico
24:02che potrebbe aiutare,
24:05non dico a eliminare ovviamente
24:07tutti gli atteggiamenti di misoginia
24:10o di linguaggio d'odio online,
24:13che cosa potrebbe suggerire?
24:15Allora, io penso che
24:19probabilmente da un punto di vista tecnico
24:23la prevenzione nell'utilizzo di questi
24:28sistemi di intelligenza artificiale
24:31per andare a studiare
24:32quali sono i discorsi d'odio,
24:34com'è la misoginia online,
24:37potrebbe essere molto utile
24:39nell'ortica eventualmente
24:41anche di riuscire a mappare
24:47quello che sta succedendo,
24:48ma soprattutto, come dicevo prima,
24:50riuscire a capire
24:50quelli che sono i comportamenti emergenti.
24:54A più lungo termine,
24:55io penso sicuramente
24:56che un'educazione digitale
24:59possa essere molto utile
25:01anche appunto nelle scuole
25:04per riuscire a far capire,
25:06adesso ad esempio si parla
25:07anche tanto di bullismo,
25:09ma secondo me
25:10questo è un problema
25:12di cui si dovrebbe trattare
25:14anche nello specifico.
25:17Bene, se non ci sono altri interventi,
25:20io ringrazio la dottoressa Nozza,
25:23chiedo poi cortesemente
25:24di condividere la presentazione
25:27in modo che io possa poi
25:29inoltrarla ai colleghi
25:31commissari e alle commissarie
25:33e ringraziandola di nuovo
25:35per il suo lavoro,
25:36dichiaro chiudere l'audizione.
25:38Grazie professoressa,
25:39grazie mille.
25:42Grazie.
25:46Se rimaniamo collegati
25:47è già arrivata l'altra udita.
25:49Grazie.
25:50Grazie.
25:51Grazie.
25:52Grazie.
25:53Grazie.
25:54Grazie.
25:55Grazie.
25:56Grazie.
25:57Grazie.
25:58Grazie.
25:59Grazie.
26:00Grazie.
26:01Grazie.
26:02Grazie.
26:03Grazie.
26:04Grazie.
26:34Grazie.
26:35Grazie.
26:36Grazie.
26:37Grazie.
26:38Grazie.
26:39Grazie.
26:40Grazie.
26:41Grazie.
27:11Grazie.
27:12Grazie.
27:13Grazie.
27:14Grazie.
27:15Grazie.
27:16Grazie.
27:17Grazie.
27:18Grazie.
27:19Grazie.
27:20Grazie.
27:21Grazie.
27:24Grazie.
27:31Ben ritrovati.
27:31Ben ritrovati.
27:33Ben ritrovati.
27:33Avverto che se non vi sono obiezioni la pubblicità dei lavori della seduta odierna
27:38sarà assicurata anche mediante l'attivazione di impianti adovisi il circuito chiuso della
27:42trasmissione diretta sulla web tv della Camera dei Diputati.
27:46Ricordo che la seduta si svolge nelle forme dell'audizione libera
27:50la partecipazione da remoto dei componenti della Commissione. Ricordo inoltre che i lavori
27:54potranno proseguire in forma segreta sia richieste dall'audito che dei commissari,
27:58sospendendosi in tal caso la partecipazione da remoto e la trasmissione sulla web tv.
28:04L'ordine del giorno reca lo svolgimento dell'audizione della dottoressa Chiara Gius,
28:10coordinatrice nazionale del progetto PRIN 2022, rappresentazioni sociali della cyberviolenza
28:17contro donne e ragazze, ricercatrice presso l'Università di Bologna, con riferimento
28:22al filone di inchiesta sulla violenza online. A nome di tutte le commissarie e commissarie
28:28do il benvenuto alla dottoressa Gius, che ringrazio per la disponibilità a contribuire ai lavori
28:33della Commissione. Gli interessi di ricerca della dottoressa riguardano le tematiche di genere,
28:39la violenza di genere in media digitali e la comunicazione umanitaria, sociale e interculturale.
28:46La dottoressa è coordinatrice nazionale, progetto di ricerca, rappresentazioni sociali
28:51della cyberviolenza contro le donne e ragazze, avanzamento delle conoscenze su un problema
28:56poco concettualizzato. Il progetto si propone di analizzare le rappresentazioni sociali presenti
29:02in Italia della violenza agita tramite le tecnologie digitali contro donne e ragazze,
29:11esplorando come questo fenomeno venga legittimato o spiegato sia all'interno dei diversi contesti
29:17istituzionali che tra giovani e adolescenti, contribuendo a migliorare la consapevolezza
29:22pubblica, a sostenere nuove politiche efficaci e al progresso della ricerca accademica sul
29:28tema. Il progetto si pone come importante contributo alla lotta contro la violenza di genere
29:32per la promozione di una cultura di rispetto e della parità nel mondo digitale.
29:37Prego, dottoressa, do la parola.
29:42Grazie. Onorevoli membri della Commissione, buon pomeriggio a tutte e tutti. Desidero
29:48innanzitutto ringraziare l'onorevole Semenzato per l'invito a partecipare a questa audizione
29:52che considero un'occasione preziosa per condividere con voi alcuni dei risultati e delle riflessioni
29:58emersi nell'ambito della ricerca PRIN, Social Representation of Cyber Violence Against Women
30:03Girls, di cui sono, da ottobre 2022, coordinatrice nazionale e che coinvolge, oltre all'Università
30:10di Bologna, anche l'Università del Salento, sotto la direzione scientifica della professoressa
30:15Valentina Cremonesini e il CNR, Istituto di ricerche sulla popolazione e le politiche
30:19sociali, sotto il coordinamento scientifico della dottoressa Angela Maria Toffanini.
30:25È per noi particolarmente importante poter presentare in questa sede il nostro studio, perché
30:30occasioni come queste ci offrono davvero l'opportunità di massimizzare l'impatto e le ricadute che
30:35la ricerca accademica può e deve avere anche al di fuori dei perimetri universitari.
30:40Per ristare nel rispetto dei tempi previsti, anche in considerazione della densità e della
30:45complessità dei dati da noi raccolti, mi soffermerò in particolare su alcuni aspetti che a mio avviso
30:50possono risultare di particolare interesse per questa commissione. Per una disamina più ampia dei dati
30:56raccolti, oltre che chiaramente a mettermi a disposizione per eventuali ulteriori approfondimenti
31:00in futuro, rimando anche alla prossima pubblicazione di un volume monografico, a firma mia e delle
31:06colleghe Cremonesini e Toffanin, in uscita per Carocci tra la fine del 2025 e l'inizio del 2026,
31:13e che sarà mia premura a far pervenire alla Commissione non appena disponibile.
31:17La ricerca che abbiamo condotto prende le mosse da studi precedenti, realizzati da me e dalle
31:22colleghe e dedicati alla rappresentazione sociale della violenza contro le donne nel
31:26nostro Paese. In continuità con tali lavori ci siamo interrogate come tali rappresentazioni
31:31evolvino e si trasformino quando l'attenzione si sposta sugli spazi online, assumendo come
31:37punto di partenza l'idea che la violenza digitale contro donne e ragazze sia radicata nella complessa
31:43interazione tra le strutture sociali che legittimano la violenza di genere e che pertanto la rendono
31:48possibile e le dimensioni sociotecniche di piattaformi e dispositivi. I dati da cui siamo
31:54partiti per orientare il nostro disegno di ricerca sono quelli che già relazioni precedenti
31:59a cui hanno fatto riferimento e che restituiscono un quadro estremamente preoccupante dell'incidenza
32:05di questo tipo di violenza, configurandone senza alcun dubbio la specificità di genere.
32:11Studi internazionali su cui ci siamo basate mettevano in evidenza come già nel 2020, quindi
32:16ben prima dell'accelerazione verso gli spazi online prodotta dalla crisi pandemica, oltre
32:22la metà di donne e ragazze, quasi il 58%, dichiarava di aver subito almeno una forma
32:27di violenza online. Tra coloro che dichiaravano di averne fatto esperienza, ben l'85% riferiva
32:33inoltre di avere subito violenze online reiterate nel tempo o di varia natura, con ricadute significative
32:39sul loro benessere, sul loro senso di sicurezza e sui loro livelli di partecipazione negli spazi
32:45digitali. Come sappiamo, tale quadro non è solo confermato da studi più recenti, ma
32:50mostra una crescita costante, segnata dall'intensificarsi della violenza contro le donne in rete, ma anche
32:56della sua diffusa normalizzazione. L'ipotesi di fondo che ha orientato il nostro lavoro è
33:02dunque quello che la violenza digerina immediata dalle tecnologie digitali costituisca ad oggi
33:07un osservatorio privilegiato per comprendere una contraddizione che appare ancora irrisolta.
33:12Da un lato la convinzione diffusa che nella nostra società esista ormai una sostanziale
33:17uguaglianza tra uomini e donne e dall'altro la persistenza di un doppio standard che sostiene
33:23lo status quo del dominio maschile e che si manifesta nell'esercizio sistematico della
33:27violenza, nel costante silenziamento delle voci e delle opinioni delle donne e nel disciplinamento
33:33dei corpi femminili tramette i dispositivi del controllo e della vergogna. Approfittando del senso
33:40di generale impunità che attraversa le pratiche violente all'interno degli spazi
33:44digitali, traendo forza dall'idea assolutamente errata che l'esercizio della violenza online
33:49non abbia lo stesso valore o impatto di quello esercitato negli spazi offline e dal mito della
33:54tecnologia come soggetto neutrale, la violenza contro le donne online trova oggi nuove forme
33:59di espressione e legittimazione. In questo quadro le piattaforme, le architetture digitali e gli
34:05algoritmi alimentano e rinnovano disuguaglianze persistenti, aprendo spazi inediti per la riproduzione,
34:11trasformazione e perpetuazione della violenza. A partire dal suicidio di Tiziana Cantone,
34:18evento che ha segnato con prepotenza l'ingresso del tema della violenza online contro le donne
34:22nel dibattito pubblico italiano, ci è parso dunque estremamente rilevante verificare come
34:28e se le specificità di questo tipo di violenza vengano riconosciute e tematizzate nei diversi
34:34luoghi in cui la violenza digitale di genere è osservata, narrata e affrontata e con quali
34:38implicazioni sul piano interpretativo e operativo. A partire dall'utilizzo di un approccio
34:44multistituato abbiamo dunque sviluppato una serie di ambiti e azioni di ricerca distinti ma
34:49integrati tra loro. Il primo ambito ha riguardato la rappresentazione che le persone giovani restituiscono
34:55della violenza online e in particolare della sua dimensione di genere. A interessarci sono state
35:00le modalità con cui ragazzi e ragazze definiscono la violenza digitale di genere, quali norme e
35:05aspettative sociali ne guidano la loro comprensione del fenomeno, quali esperienze la rendono visibile
35:11o al contrario la normalizzano e infine quali strategie adottano per affrontarla o difendersi.
35:17Per questo abbiamo condotto 18 focus group al cui interno sono state discusse questioni cruciali
35:23come l'uguaglianza di genere, la responsabilità, la privacy, la colpa, la vergogna e l'abuso ma anche
35:29su come la violenza venga percepita nei confini spesso sfumati tra relazioni affittive, amicizie
35:35e controllo. I focus group hanno raggiunto un totale di 105 partecipanti suddivise per fasce
35:40d'età, 13-16 anni, 17-19 e 20-22 anni, genere e provenienza territoriale e sono stati condotti a
35:48Bologna, a Padova e a Lecce. L'articolazione per fasce d'età ci ha permesso in particolare di
35:54osservare in che modo le rappresentazioni cambiano non solo in relazione all'esperienza dell'uso
35:58delle tecnologie ma anche con il diverso grado di autonomia affettiva e relazionale che caratterizza
36:04differenti momenti della vita giovanile. La scelta di includere adolescenti di 13 anni,
36:09età minima ad oggi per aprire un profilo social, ha rappresentato un punto di innovazione rilevante
36:14della nostra ricerca. Si tratta di una fascia d'età molto poco indagata anche negli studi
36:19internazionali sul tema, ma già pienamente immersa negli ambienti digitali. Un secondo
36:24asse della ricerca ha invece esplorato il discorso mediatico sulla violenza online contro
36:29le donne, con l'obiettivo di comprendere come i media tradizionali e le nuove forme di informazione
36:35hanno costruito nel tempo il racconto della violenza online contro le donne, quali narrazioni
36:40abbiano privilegiato e in che misura abbiano contribuito a rendere visibili o invisibili
36:45le dimensioni strutturali del fenomeno. In particolare questa parte del lavoro si è articolata
36:52lungo tre direttrici principali. La prima, condotta sotto la direzione scientifica della
36:57professoressa Valentina Cremonesini dell'Università del Salento, ha analizzato oltre 1.100 articoli
37:02pubblicati da quotidiani italiani tra il 2016 e il 2022. Quest'arco temporale non è chiaramente
37:08casuale. Si parte dal caso di Tiziana Cantone, che ha rappresentato, come già detto, una
37:13soglia simbolica nel dibattito pubblico sulla violenza online e attraversa momenti normativi
37:18cruciali come l'approvazione della legge 71 del 2017 sul cyberbullismo e delle legge 69 del
37:262019, fino ad arrivare agli anni della pandemia. La seconda, invece, condotta presso l'Università
37:32di Bologna sotto la guida della dottoressa Claudia Capelli, ha spostato l'attenzione sull'informazione
37:37social media based, oggi tra le principali fonti di aggiornamento per le giovani generazioni.
37:42L'analisi in particolare ha riguardato tutti i post pubblicati tra il gennaio 2020 e il
37:47novembre 2024 da otte profili di informazioni attivi su Instagram, tre nati come testate
37:53digitali e cinque nati direttamente sui social, individuando 948 contenuti rilevanti su un corpus
37:59iniziale di oltre 70.000 post analizzati. Accanto al lavoro di analisi delle informazioni
38:06abbiamo anche condotto un approfondimento su come la violenza digitale di genere viene
38:10rappresentata all'interno delle serie televisive destinate al pubblico più giovane. Questa
38:15parte della ricerca, coordinata dalla professoressa Antonella Mascio dell'Università di Bologna,
38:20si è concentrata sull'analisi dei teen drama, cioè di quei prodotti seriali che mettono
38:24al centro il mondo adolescenziale e le sue relazioni, raccontando con linguaggi e dinamiche
38:29molto vicine alla vita reale, raccontandolo con linguaggi e dinamiche molto vicine alla vita
38:34reale dei e delle giovani. Si tratta di un terreno particolarmente interessante perché
38:38nei teen drama le tematiche legate alla violenza online vengono spesso intrecciate a narrazioni
38:43di amicizia, d'amore, gelosia e esclusione, partecipando in modo significativo alla costruzione
38:48simbolica del rapporto tra tecnologia, identità e genere, soprattutto tra i più giovani.
38:54Un quarto ambito di lavoro, coordinato dalla dottoressa Tuffanin di CNR IRPS in collaborazione
38:59con la dottoressa Tatiana Motterle, è quello che ha riguardato l'analisi delle politiche pubbliche
39:03e delle rappresentazioni che emergono nel sistema dei servizi di sostegno.
39:08Una prima parte di questo lavoro ha analizzato documenti e linee guida prodotti a livello
39:12europeo, nazionale e locale, in Italia, Spagna e Francia, con l'obiettivo di capire come la
39:17violenza di genere viene definita e affrontata nelle politiche di prevenzione e contrasto
39:21e se in tali definizioni si è effettivamente integrato un approccio di genere.
39:26Un'altra parte della loro ricerca ha invece raccolto e analizzato 18 interviste qualitative
39:30con operatrici dei centri antiviolenza, rappresentanti di linea lesbica e antiviolenza, attiviste
39:36LGBTQI+, esperti e esperti di cybersicurezza e di violenza digitale, con l'obiettivo di
39:42far emergere sfide, opportunità e strategie di resistenza adottate alla rete del sistema
39:47antiviolenza.
39:48Infine, la professoressa Saveria Capecchi dell'Università di Bologna si è occupata di
39:53mappare e analizzare 16 campagne sociali italiane, l'interezza di quelle rintracciabili,
39:58lanciati dal 2014 al 2025 su media tradizionali e digitali dedicate alle diverse forme di violenza
40:05online, con l'obiettivo di verificare come il tema venga veicolato all'interno di strategie
40:11di prevenzione primaria e in quale misura queste campagne rescano ad evitare rappresentazioni
40:16stereotipate o colpevolizzanti, promuovendo invece una cultura della responsabilità e del
40:21consenso.
40:22Come potete immaginare, la pluralità di voci e dati raccolti ci ha restituito un'immagine
40:26articolata e estremamente sfaccettata dalla violenza online contro le donne e permettendoci
40:32di riconoscerla come nodo centrale per comprendere le trasformazioni contemporanee delle relazioni
40:37di potere, delle politiche pubbliche e della cultura digitale.
40:41Più che riassumere la ricchezza dei risultati che ogni azione di ricerca ha messo in luce,
40:45vorrei qui far emergere alcune linee interpretative che attraversano in profondità l'intero studio
40:49e che possano, a nostro avviso, offrire strumenti utili per il dibattito politico e normativo.
40:55La prima riguarda l'eterogenità delle forme che la violenza digitale assume.
40:59Dai materiali empirici emerge chiaramente come non si possa parlare di un'unica forma
41:03di violenza online contro le donne, ma di un insieme ampio e diversificato di pratiche,
41:08dai discorsi d'odio alla condivisione non consensuale di immagini intime, dal doxing alla
41:13extortion, fino al controllo coercitivo esercitato attraverso app di messaggistica,
41:18sistemi di geolocalizzazione e dispositivi connessi.
41:21Queste pratiche si muovono su piani diversi, cambiano per intenzionalità, attori coinvolti,
41:27impatti, ma condividono una comune radice socioculturale che ne consente la diffusione,
41:32la persistenza e la normalizzazione.
41:35La violenza digitale, in altre parole, non abita solo gli spazi online, attraversa le relazioni
41:39intime, familiari, amicali e professionali, spostandosi costantemente tra dimensioni digitali
41:45e materiali e rendendo estremamente difficile tracciare confini netti tra pubblico e privato,
41:51tra spazio sociale e spazio tecnologico.
41:54La seconda linea di riflessione riguarda quella che potremmo definire una fragilità rispetto
41:58al riconoscimento della violenza digitale di genere come violenza caratterizzata per
42:03l'appunto da una forte specificità di genere.
42:05Nel focus group con le persone giovani, nelle rappresentazioni mediatiche e perfino in alcune
42:10risposte istituzionali emerge spesso una comprensione parziale del fenomeno.
42:16La violenza è riconosciuta come danno psicologico o abuso online, ma raramente come espressione
42:21di disuguaglianze strutturali di genere.
42:23È un segnale questo che ci pare importante perché dice che, pur in presenza di una maggiore
42:28sensibilità al tema della violenza online, manca ancora una vera alfabetizzazione di genere
42:34e che gli strumenti messi in campo sino ad ora, ad esempio nelle pratiche linguistiche
42:38che permettono di nominare correttamente la specificità di genere dei femminicidi, non
42:43sono sufficienti per investire di significato pratiche di violenza differenti da quelle già
42:48tematizzate.
42:50Non a caso, la condivisione non consensuale di immagine intima è la pratica più facilmente
42:54nominata perché visibile e mediatizzata, ma questa centralità rischia di oscurare altre
43:01forme meno evidenti ma altrettanto pervasive, come la sorveglianza digitale nelle relazioni
43:06di coppia.
43:07Sul piano delle politiche pubbliche e dei servizi, questa parzialità di comprensione
43:11si traduce in risposte frammentate.
43:13Da un lato approcci securitari, centrati sulla repressione, dall'altro strategie individualizzate
43:19che spostano la responsabilità sulle vittime.
43:22Non condividere, stai attenta, piuttosto che sul contesto tecnologico e sociale che rende
43:27possibili certi comportamenti.
43:29La terza direttrice di riflessione tocca un tema molto delicato, quello del confine tra
43:34protezione e controllo nelle relazioni affettive e di cura.
43:37Nei focus group e nelle interviste con le operatrici e le attiviste è emersa con forza
43:41l'ambivalenza tra il desiderio di proteggere e la tendenza a sorvegliare, soprattutto
43:46nelle relazioni intime e familiari.
43:48Le tecnologie in questo senso amplificano le dinamiche di controllo.
43:51Pensiamo all'app di localizzazione usate dai partner o dai genitori, spesso in nome
43:56della sicurezza.
43:57Gli studi sulla violenza domestica ci dicono come la vulnerabilità sia parte costitutiva
44:01di ogni relazione di cura e che il rischio di abuso cresca con l'assimetria di potere
44:06reale o percepita che in questa relazione si instaura.
44:09La violenza digitale rende queste assimetrie più visibili, mostrando come le logiche di cura
44:14possono trasformarsi in strumenti di controllo.
44:16Un dato emblematico riguarda il controllo dei dispositivi tra partner.
44:20I dati dai noi raccolti ci dicono che se le ragazze lo fanno di nascosto, consapevoli
44:25di stare violando spazi non loro, i ragazzi lo fanno apertamente rivendicando la legittimità
44:30di questa loro pretesa, pur mascherandola all'interno di cornici di cura che la rendono
44:35più tollerabile.
44:36È una differenza che racconta, ancora una volta, la persistenza di un doppio standard
44:41di genere e di dispositivi sociali di disciplinamento che colpiscono in modo sproporzionato le donne
44:47e le ragazze.
44:48Infine, l'ultimo asso interpretativo riguarda il rapporto tra sfera pubblica e privata.
44:54Negli ultimi anni assistiamo a una tendenza a riprivatizzare le risposte alla violenza,
44:59che scarica sempre più spesso sulle singole vittime il peso della protezione e della prevenzione.
45:05Lo vediamo anche nel modo in cui si parla di violenza digitale.
45:08La raccomandazione principale rimane quella di astenersi dal condividere immagini o contenuti,
45:13come se la sicurezza dipendesse esclusivamente dai comportamenti individuali.
45:18Dall'altro lato, i casi di donne famose esposte alla violenza online svolgono una funzione disciplinante,
45:24producono paura, raffolzano la colpa, spingono l'autocensura.
45:29È un effetto che limita la partecipazione delle donne e delle ragazze allo spazio pubblico,
45:34digitale, riducendone la libertà di parola e di espressione.
45:38La dimensione culturale, da un lato, così come il ruolo giocato dalle piattaforme,
45:42che emergono come soggetti pressoché invisibili nella discussione delle persone giovani
45:47e nel discorso dei mezzi di informazione, non partecipano alla costruzione sociale del problema.
45:52Le tecnologie vengono lette come spazi caratterizzati da impunità
45:55e il consiglio, o meglio l'auspicio che spesso emerge tra le persone giovani,
46:01è che le vittime di violenza online possano imparare presto a convivere con quella violenza,
46:05o nel caso della condivisione non consensuale di materiali intimi,
46:09con l'idea che questi continuino a popolare all'infinito gli spazi digitali.
46:14Queste considerazioni nel loro insieme ci restituiscono una fotografia di un fenomeno complesso,
46:19stratificato, che non può essere affrontato solo sul piano repressivo o tecnico,
46:24ma richiede un cambio di paradigma, culturale e politico.
46:27Mi permetto dunque, in conclusione, di avanzare alcune proposte operative
46:31che, sulla base della mia esperienza e del lavoro di ricerca co-illustrato,
46:35ritengo urgenti e necessarie per affrontare in modo sistemico e critico
46:39l'emergenza rappresentata dalla violenza di genere mediata dalle tecnologie digitali.
46:44La prima indicazione riguarda la necessità di istituire un tavolo tecnico permanente
46:48o di un osservatorio, come già suggerita dall'Avvocata Maraffino e dalla dottoressa Semenzin
46:53nel corso dell'udienza del 16 ottobre scorso,
46:56che possa riunire competenze multidisciplinari a supporto del legislatore.
47:01All'istituzione del tavolo deve però assolutamente essere affiancata
47:05la promozione e il sostegno alla raccolta di dati di prevalenza a livello nazionale.
47:10È indispensabile sviluppare un sistema strutturato e periodico di rilevazione,
47:16capace di individuare indicatori comparabili e di monitorare nel tempo l'evoluzione del fenomeno.
47:23Oggi, infatti, i dati disponibili sulla violenza di genere mediata dalle tecnologie nel nostro Paese,
47:28ma non solo, restano scarsi, frammentati e difficilmente comparabili.
47:32Accanto alle rilevazioni quantitative, è fondamentale sostenere ricerche qualitative
47:37che esplorino le esperienze di vittimizzazione e, al contempo, le forme di resistenza e di agency femminile,
47:44le dinamiche di perpetazione e le logiche di diffusione dei discorsi misogini online.
47:50Solo una combinazione di metodi e approcci potrà restituire in maniera efficace la complessità del fenomeno
47:56e fornire strumenti utili al legislatore per intervenire in modo mirato e informato.
48:01L'obiettivo complessivo è quindi arrivare a definizioni condivise e multidimensionali
48:06che vadano oltre la sola, seppur rilevantissima, condivisione non consensuale di immagini intime
48:11e includino anche nella riflessione l'ampia gamma di pratiche abusive, di controllo, sorveglianza, minaccia e manipolazione
48:18che oggi sfuggono alle cornici giuridiche o teggio non vengono neppure riconosciute come forme di violenza.
48:25La seconda direttrice di intervento che propongo riguarda la necessità di riconoscere i reati digitali
48:31contro le donne e le ragazze come reati caratterizzati da una loro specificità
48:35e non semplicemente come estensioni o varianti di fatte specie di reati già esistenti.
48:41Come già sottolineato dalla collega Semenzine, è essenziale ricomporre il quadro normativo
48:46oggi estremamente frammentato affinché sia in grado di rispondere alla specificità
48:51delle violenze mediate da tecnologie. Questo significa agire su tre livelli.
48:56Per quanto riguarda le vittime, è fondamentale riconoscere il peso della dimensione di genere
49:00e garantire tutele adeguate nelle sfere digitale.
49:03Per quanto riguarda i perpetratori, occorre prevedere strumenti giuridici capaci di affrontare
49:09le difficoltà di identificare responsabilità multiple e diffuse, spesso distribuite su larga scale
49:15è resa nomine dalle architetture tecnologiche che di fatto rendono complesso non solo il lavoro
49:20di identificazione della responsabilità ma lo stesso procedimento istruttorio.
49:25Per quanto riguarda il comparto tecnologico, è necessario adottare un approccio che renda
49:29le aziende digitali responsabili per il ruolo che svolgono nel perpetuare o amplificare la violenza,
49:35data anche la loro capacità di trarre profitto da essa.
49:38In quest'ottica, i quadri normativi dovrebbero imporre obblighi di prevenzione ex-ante e non solo di intervento ex-post.
49:47Serve una regolamentazione più stringente dei sistemi di governance algoritmica,
49:51della progettazione delle piattaforme e delle procedure di segnalazione e rimozione dei contenuti abusivi.
49:56Le piattaforme devono garantire strumenti rapidi, trasparenti e accessibili per la tutela delle vittime,
50:01oltre a rendere espliciti i propri protocolli di intervento.
50:04Solo così si può cominciare ad affrontare l'attuale percezione diffusa di impunità,
50:09che caratterizza i reati informatici e che contribuisce alla sfiducia delle vittime nei confronti delle istituzioni della giustizia.
50:17La terza area di intervento riguarda il piano educativo e culturale,
50:21e in particolare il potenziamento delle competenze trasversali e digitali in tutti i contesti sociali.
50:27Dalla nostra ricerca emerge chiaramente una domanda di formazione e supporto.
50:31Le persone giovani chiedono di poter contare su una rete di adulti in grado di comprendere la dimensione tecnologica
50:37e le dinamiche che la caratterizzano.
50:40Le operatrici dei centri antiviolenza lamentano la mancanza di risorse e formazione specifica,
50:45e il mondo dell'informazione mostra ancora gravi lacune nel trattare questi temi in modo competente e non vittimizzante.
50:51E' quindi necessario potenziare il lavoro dei centri antiviolenza e promuovere percorsi di formazione per insegnanti,
50:58educatori, figure genitoriali, forze dell'ordine, magistrature giornalisti,
51:03anche attraverso l'aggiornamento del Manifesto di Venezia,
51:06nonché introdurre formazioni obbligatorie all'interno dei percorsi di istruzione secondaria e superiore
51:12per i futuri professionisti del design tecnologico sulle implicazioni etiche e sociali delle tecnologie.
51:18Ma non basta. A rendersi indispensabile è anche la necessità di offrire percorsi di alfabetizzazione digitale
51:25trasversali a tutta la popolazione, per garantire una cittadinanza digitale consapevole e responsabile,
51:31capace di superare le letture di panico morale che sempre più accompagnano le narrazioni pubbliche sugli spazi online
51:37e che producono approcci securitari che, laddove andrebbe offerto invece supporto e competenze, producono esclusione.
51:44Gli spazi digitali sono ormai spazi fondamentali di cittadinanza,
51:49elemento questo che ci è confermato anche dalla forza e dalla determinazione con cui le donne ne vengono espulse.
51:54Affrontare le criticità significa potenziare e non ridurre le possibilità di partecipazione democratica.
52:02Per questo servono anche campagne di comunicazione sociale multicanali,
52:06capaci di rappresentare la violenza digitale nella sua complessità,
52:09senza cadere nella spettacolarizzazione o nella confevolizzazione delle vittime.
52:13Tutto questo, mi preme dirla, non può servire né essere efficace
52:17senza un investimento serio sulla promozione di una diffusa cultura del consenso
52:21e all'implementazione di percorsi di educazione sesso-affettiva
52:24che, a partire dalla scuola, attraversino e termino tutti i livelli della società.
52:29Oggi, più che mai, se si vuole davvero lavorare per una società libera dalla violenza contro le donne,
52:34sia essa online o offline,
52:36è necessario impegnarsi con determinazione, senso di responsabilità
52:40e in maniera unitaria verso la definizione di strumenti legislativi e politiche pubbliche
52:45incentrate sulla promozione di una cultura consapevolmente non sessista,
52:50in grado di garantire il raggiungimento di un'uguaglianza sostanziale tra i generi.
52:55Questo obiettivo non è più differibile, ma una condizione essenziale
52:58per garantire diritti, libertà e reale sicurezza a tutti e tutte.
53:02Grazie.
53:03Io ringrazio la professoressa Gius, chiedo ai colleghi e alle colleghe
53:10se ci sono delle domande, se no intanto ne faccio io una.
53:14Dottoressa, se lei dovesse pensare oggi un intervento di natura tecnica
53:20sul grande mondo del dark web, del web, noi veniamo da tre inchieste,
53:26un profilo su un'auto social che ha visto una serie di foto,
53:34un profilo invece di natura pornografica che invece è stato integrato con contenuti altri
53:41e poi una inchiesta che invece riguarda dei filmati raccolti nell'intimità delle case
53:49piuttosto che nelle centri benessere, nell'estetista e poi messi in rete a pagamento.
53:58Oggi se lei, visto l'indagine che avete fatto approfondita,
54:02dovesse pensare ad un intervento, so che questa è una domanda complessa,
54:07per un monitoraggio più efficace di comportamenti sessisti o comunque della rete,
54:16quale intervento farebbe?
54:17Allora, temo che un unico intervento tecnico non potrebbe coprire appunto
54:24la complessità del quadro che è stato appena descritto.
54:28Senz'altro è necessario, come mettevo in evidenza, il lavoro con le piattaforme,
54:32bisogna costruire dei sistemi attraverso cui le piattaforme vengono rese più accountable
54:38degli usi che vengono fatti all'interno degli spazi digitali,
54:43che non sono certissima che l'individuazione, il problema è la quantità di molle che poi ci si trova
54:54a dover trattare nel momento in cui appunto 70.000 persone diventano una ad una oggetto di attenzione
55:01da parte del potere pubblico e quindi l'identificazione preventiva può servire da deterrente,
55:09ma ci sono tutta una serie di canali e di spazi dove comunque è di difficilissima implementazione,
55:15penso alle grandi chat su piattaforme come Telegram e quant'altro,
55:23che difficilmente sarebbero compliant con questo tipo di richieste e continuerebbero in una qualche maniera
55:30ad operare se non attraverso i loro canali ufficiali, attraverso altri canali.
55:37Secondo me uno degli interventi che può essere efficace seppur più nel medio termine
55:43è proprio quello di costruire una sensibilità all'interno del comparto tecnologico
55:48che parta dall'istruzione delle persone che appunto si affacciano e che disegneranno le tecnologie.
55:56È una cosa che già noi richiediamo per esempio nel momento in cui chiediamo alle persone
56:01che operano nel settore farmacologico di formarsi sui principi etici del loro lavoro.
56:07Secondo me un intervento di questo tipo porterebbe quantomeno a una considerazione maggiore in futuro
56:13proprio nel disegno delle tecnologie delle possibili ricadute che sfuggono spesso completamente
56:20e che non sono affatto tematizzati proprio perché è proprio fra chi disegna le tecnologie
56:26che è tanto forte l'idea che le tecnologie siano tutto sommato degli attori neutrali all'interno di questa relazione.
56:35Bene, io ringrazio la professoressa Gius per la disponibilità, per la nutrita relazione
56:43che chiedo anche di condividere magari in formato digitale così da permettere ai colleghi
56:49e alle colleghe collegate di leggersela con più attenzione
56:52quindi se non ci sono altre domande dichiaro chiusa l'audizione.
56:55Grazie professoressa.
56:57Grazie.
56:58Grazie.
Commenta prima di tutti