Parolacce come detective digitali: come il linguaggio volgare smaschera bot e disinformazione online
Un nuovo studio rivela come l’analisi dei modelli di volgarità sui social media potrebbe essere la chiave per smascherare account falsi e campagne di disinformazione.
Immagina di scorrere il tuo feed social e imbatterti in un commento condito da parolacce creative. È solo l’ennesimo utente irascibile, o potrebbe essere un indizio sottile nella caccia agli impostori digitali? Secondo uno studio rivoluzionario dell’Università della Finlandia Orientale, il modo in cui imprechiamo online - fino agli errori di ortografia - potrebbe offrire un nuovo potente strumento nella lotta contro bot e disinformazione coordinata.
La scienza delle parolacce (e dello smascherare i falsi)
A prima vista, tracciare le imprecazioni online potrebbe sembrare banale. Ma il team finlandese, guidato dal professor Mikko Laitinen, ha adottato un approccio forense, analizzando dati di Twitter dal 2006 al 2023. Hanno catalogato oltre 2.300 variazioni della "f-word", inclusi errori di ortografia e distorsioni intenzionali, mappando come e dove queste espressioni comparivano nelle reti degli utenti.
Sono emerse tre tendenze chiave. Primo, gli utenti imprecano di più con conoscenti lontani che con amici stretti - a suggerire che la volgarità abbia una funzione sociale diversa a seconda della forza della relazione. Secondo, nelle piccole reti private (15 membri o meno), le parolacce sono rare, indipendentemente dal grado di confidenza. Terzo, quando le reti superano i 100-120 membri, la distinzione tra amici e conoscenti si sfuma e la volgarità si distribuisce in modo uniforme - rispecchiando cambiamenti nella fiducia e nell’interazione già osservati nella ricerca sui gruppi sociali.
Perché tutto ciò conta per la sicurezza informatica? La risposta sta nell’unica “impronta linguistica e sociale” che ogni utente lascia. I modelli di imprecazione delle persone reali - legati alla dimensione della rete, alle relazioni e persino alla posizione geografica - sono sorprendentemente difficili da replicare per bot o account falsi. Con il linguaggio generato dall’IA sempre più convincente, analizzare solo il testo non basta più. I ricercatori propongono quindi di esaminare anche la struttura e il contesto delle interazioni online.
Il team interdisciplinare dello studio, che unisce linguisti e data scientist, suggerisce che questi approcci combinati possano aiutare a smascherare non solo i bot, ma anche campagne di disinformazione orchestrate. Segnalando account con comportamenti di imprecazione o schemi di rete innaturali, le piattaforme potrebbero eliminare i falsi in modo più efficace - proteggendo l’integrità del dibattito online.