Non sono i contenuti delle chat a creare il bullo o la vittima ma l’interazione. Emerge dal progetto Net Guardian. Ne parla a Mamme Magazine il responsabile scientifico del progetto, il professore Gian Piero Turchi dell’Università degli Studi di Padova
di Manuela Vacca
Si chiama Net Guardian ed è uno strumento per misurare il grado di esposizione al rischio di cyberbullismo nelle conversazioni digitali a scuola, attraverso un algoritmo di Machine Learning applicato all’analisi del linguaggio naturale. Come un buon giocatore di scacchi sa anticipare le mosse dell’antagonista. La app può infatti intercettare casi di cyberbullismo senza attendere una segnalazione delle stesse vittime o di terzi.
L’idea
Il progetto, nato dalla collaborazione tra il Dipartimento di Filosofia, Sociologia, Pedagogia, Psicologia Applicata (Fisppa) dell’Università degli Studi di Padova, la Fondazione Carolina onlus, impegnata dal 2018 per il benessere digitale delle nuove generazioni e dedicata a Carolina Picchio, prima vittima riconosciuta in Italia di cyberbullismo. Il progetto, finanziato con circa 230mila euro da Fondazione Tim (con il bando Call for Ideas – Ricerca e Istruzione), è stato avviato a febbraio 2024 e si è concluso lo scorso giugno. Sono state coinvolte alcune classi di Istituti superiori di I e II grado in Lombardia e in Piemonte per oltre 263 studenti, in gran parte minorenni.
“Nonostante la continua e trasversale opera di sensibilizzazione rispetto a queste tematiche, i casi sono in costante aumento”, afferma il segretario generale della Fondazione Ivano Zoppi, che aveva precisato: “Secondo il nostro Centro studi circa tre ragazzi su quattro sono vittima di attacchi in Rete. Per tutelare i minori online oggi è indispensabile fornire strumenti e questo progetto risponde alla necessità di agire concretamente dalla parte dei più giovani e delle loro famiglie».
La app
NetGuardian adopera un algoritmo di Machine learning per l’analisi automatizzata del testo elaborato dall’Università degli Studi di Padova, che analizza le conversazioni testuali tra gli studenti. Identifica gli indicatori del livello di rischio nell’interazione digitale e produce un indice di esposizione suddiviso in quattro fasce: bassa, media, medio-alta e alta.
L’applicazione è composta da una piattaforma di messaggistica in cui gli studenti – iscritti con un nick name – possono inviare messaggi ai compagni e di una per i docenti per poter avere il risultato anonimo delle analisi di Machine learning in tempo reale sul grado di esposizione al rischio di cyberbullismo emerso dalla chat di classe. In base al grado di rischio registrato, l’applicazione fornisce suggerimenti agli insegnanti per il monitoraggio o per un intervento diretto della task force di Fondazione Carolina, delle forze dell’ordine o altri organismi istituzionali.
La tecnologia da primato
I servizi che contrastano il cyberbullismo intervengono post-segnalazione da parte di terzi (raramente dalle vittime) e il rischio è che la violenza si sia già verificata. I risultati sono innovativi: si può anticipare un episodio. “Questo è il primo progetto al mondo di questo tipo: per la prima volta abbiamo condotto degli esperimenti coinvolgendo le scuole. Abbiamo istituito una chat di classe e fatto in modo che gli allievi chattassero come in una normale chat di gruppo. Attraverso il know how dell’Università siamo gli unici a prendere i testi ed esaminarli in tempo reale”, racconta a Mamme Magazine il responsabile scientifico del progetto, il professor Gian Piero Turchi dell’Università degli Studi di Padova, pronto a rispondere alle domande.
Professor Turchi, ci spiega meglio cosa c’è dietro l’app del progetto?
“Partiamo dal fatto che abbiamo fondato una scienza che si chiama Scienza Dialogica. Come la chimica osserva la composizione della materia e usa la tavola degli elementi di Mendeleev, dopo quarant’anni di ricerca abbiamo prodotto una tavola nostra – poi perfezionata -, che ci permette di osservare qual è il valore d’uso del testo, cioè per osservare se l’uso di un testo va in una direzione o verso un’altra. Abbiamo quindi insegnato al computer a osservare i testi elaborati dagli studenti e misuriamo l’esposizione al rischio di cyberbullismo in tempo reale, in quanto il machine learning impara da questi testi e l’applicazione produce un termometro che trasferisce all’insegnante il livello di rischio. L’app può inviare un warning al docente, che quindi può coinvolgere la Fondazione Carolina o le forze dell’ordine e altri organismi istituzionali”.
Un esperimento innovativo: cosa emerge?
“Emerge che l’esposizione al rischio di cyberbullismo è uguale sia che dico che sei il migliore al mondo o il peggiore. Si cerca di trovare le disposizioni personali a vittima o bullo e invece il progetto ha messo in luce chiaramente che non è così e tutto si genera nell’interazione. Ciò significa che sinora abbiamo preso una direzione sbagliata, dato che tutti lavorano sul contenuto e non sull’interazione. Si scopre, invece che, a seconda dei casi, può esporre a maggior rischio dire «Sei la persona migliore al mondo» piuttosto di «Sei un ciccione maledetto». Quindi, per esempio, il contenuto «Ti devi ammazzare» non comporta necessariamente che si crei una vittima ma dipende dall’interazione che si genera”.
Tutti sottolineano l’urgenza di prevenire i fenomeni di cyberbullismo. Quali sono i benefici in questo caso?
“Non si tratta di prevenire perché non è una questione sanitaria e non c’è un vaccino ma di anticipare che certe configurazioni di testo vadano in una certa direzione. Il vincitore a scacchi è chi anticipa le mosse dell’avversario e noi sappiamo quali sono le mosse grazie all’analisi di centinaia di migliaia di stringhe di testo in tempo reale”.
I ragazzi potevano compromettere l’esperimento?
“No, c’era un operatore tra i nostri ricercatori che interagiva nella chat anche lui con un nick name. Nell’esperimento il massimo grado di rischio è stato medio-alto in alcune situazioni, quando l’operatore, quale «interagente», contribuiva a produrre testi per osservare se andassero in una direzione o nell’altra”.
E gli studenti cosa hanno imparato?
“Gli allievi hanno riconoscuto di aver sottovalutato la combinazione di testo e quando un giocatore sottovaluta la mossa dell’avversario perde, perche non gli dà il valore che merita”.
Che altro è emerso?
“Siamo in grado di dare valore ai testi e quindi, giocando di anticipo, siamo in grado di gestire le combinazione di testo che vengono prodotte. Perciò non serve impedire alle persone l’uso di un dispositivo: serve osservare quanto prodotto e fare interventi in modo che quel prodotto prenda un’altra direzione non pericolosa”.
Un’intelligenza artificiale che anticipa pone un problema etico?
“È un’obiezione che mi viene fatta sempre: no, la teoria gliela diamo noi la macchina non l’ha. Anzi l’importanza del biologico ha un valore ancora più grande: la macchina risponde all’umano, è stata addestrata da un operatore umano che gliel’ha trasferita e non può fare un’altra cosa. Quindi è l’opposto: con la Dialogica riusciamo a gestire l’uso delle macchine”.
Adesso che succede? Questo lavoro è una buona pratica che potrebbe essere diffusa…
“In questa fase è a disposizione del mondo: abbiamo un’app che dalla chat di classe si può applicare a qualsiasi scambio di testo su Internet. Non c’è un profilo di cyberbullo o vittima: non c’è nessuna predisposizione a diventarlo. È l’interazione che genera l’andamento verso il cyberbullo o la vittima. Questo fatto è una bomba atomica”.
Foto: Pixabay

