“La peggiore violazione etica nelle ricerche sulla rete che abbia mai visto”- Sono le parole di Amy Bruckman, studioso di online communities al Georgia Institute of technology.
Manipolazione di massa
Reddit, piattaforma di forum e discussione online è stata oggetto di un attacco ibrido da parte di alcuni ricercatori dell’università di Zurigo. I nomi per privacy non possono essere divulgati ma l’ateneo ha avviato un accertamento interno.
Il gruppo di studio ha portato avanti per alcuni mesi un esperimento in cui ha infiltrato in una delle community di Reddit un plotone di bot basati su grandi modelli linguistici (LLM) per testare la loro capacità di influenzare e manipolare le opinioni umane.
Nello specifico il gruppo oggetto dello studio è stato r/changemyview, uno spazio in cui i redditors (membri della piattaforma) si confrontano su temi controversi nel tentativo di, come suggerisce il nome, cambiare il loro punto di vista. I robot hanno avuto la possibilità di interagire nella sezione commenti, rispondendo all’autore del post o ad altri utenti nella discussione.
Come noi
A quanto hanno divulgato i ricercatori i casi discussi sono stati ad esempio la crisi immobiliare, l’aggressività dei pitbull (dovuta al padrone o alla razza canina) ma non mancavano elementi nei commenti che rimandassero a questioni eticamente più dubbie, come eventuali complotti riguardanti il 09/11 o opinioni sugli abusi sessuali.
L’intelligenza artificiale ha ricevuto l’ordine di costruire una personalità credibile infarcendo i suoi commenti con aneddoti di vita e dettagli personali, il tutto volto ad antropomorfizzarsi per ingannare la controparte organica.
La controversia
Terminato l’esperimento il team di ricerca ha quindi contattato i moderatori della community per condividere i risultati dello studio e procedere con la pubblicazione. Diversamente dalle aspettative c’è stata una reazione piccata prima dagli amministratori e poi da tutto il gruppo che per questo ha avviato un dialogo con l’università e la sua commissione etica.
Gli autori del paper si difendono asserendo come il contesto di inconsapevolezza fosse un elemento chiave dello studio e la violazione dei termini di servizio di Reddit benché accertata sia trascurabile considerata la rilevanza dello studio nell’esporre il rischio sistemico di questo fenomeno. I risultati infatti sarebbero stati considerevoli, i commenti dei bot hanno in media più mi piace ed interazioni rispetto agli altri e facilmente riesco a raccogliere il consenso umano.
Il pericolo però, a detta dei moderatori, oltre all’aspetto etico, è quello che si crei un precedente che incentivi ulteriori incursioni dei team di ricerca nelle community di Reddit. Senza contare che è possibile condurre studi analoghi con utenti informati come recentemente ha fatto OpenAI. Attualmente la pubblicazione del paper è stata quindi sospesa e la bozza dell’articolo non è più disponibile.
Push the buttons in our mind
I modelli linguistici imparano in fretta ad ingannarci, sono proteiformi e in grado di insinuarsi ormai senza destare alcun sospetto nelle community di internet. Non dimentichiamo che lo stesso Reddit, forse più di altri social, rappresenta una risorsa sterminata di dati sul pensare e il rapportarsi umano.
La società ha infatti un contratto in essere con OpenAI per condividere post pubblici per l’addestramento degli LLM. ChatGPT et simila sanno così tirare le leve giuste nella nostra mente, usare parole adeguate e convincerci molto più di quanto ingenuamente ci aspetteremmo.