L’algoritmo di YouTube consiglia video che violano le sue stesse norme
L’algoritmo di YouTube consiglia regolarmente video che violano le sue stesse norme, cioè contengono contenuti che violano le policy della piattaforma. L’ha scoperto l’organizzazione no-profit Mozilla Foundation, utilizzando i dati di crowdsourcing di RegretsReporter, un’estensione del browser che gli utenti possono installare e utilizzare per segnalare informazioni su video dannosi, capendo così da dove provengono. Più di 30.000 utenti di YouTube hanno utilizzato l’estensione per segnalare questo tipo di contenuti.
L’intelligenza artificiale è utilizzata con ottimi risultati in diversi settori. Quella presente su YouTube funziona malissimo. L’algoritmo usato da Google suggerisce agli utenti numerosi video che non vorrebbero mai vedere e che non dovrebbero nemmeno essere presenti sulla piattaforma perché violano chiaramente le regole del servizio. I dati pubblicati all’inizio di aprile sembrano molto lontani dalla realtà.
YouTube ha un problema di intelligenza
YouTube ha ricevuto diverse critiche in quanto l’intelligenza artificiale suggerisce video con fake news, contenuti estremisti e disinformazione in generale. Mozilla ha quindi deciso di sviluppare l’estensione RegretsReporter che permette di valutare i “danni” causati dall’algoritmo. Dopo una ricerca durata 10 mesi (da luglio 2020 a maggio 2021), Mozilla ha pubblicato il report con risultati sconvolgenti. 3.362 video risultano contrassegnati come “sgradevoli” tra luglio 2020 e maggio 2021. Lo studio ha rilevato che il 71% dei video ritenuti deplorevoli dai volontari è stato attivamente raccomandato dall’algoritmo di YouTube. Un video può essere considerato spiacevole perché violento, di spam, o perché incita all’odio. Quasi 200 video, che avevano 160 milioni di visualizzazioni in totale, sono stati rimossi.
Brandi Geurkink, Senior Manager of Advocacy di Mozilla, ha dichiarato:
YouTube deve ammettere che il suo algoritmo è progettato in modo da danneggiare e disinformare le persone. La nostra ricerca conferma che YouTube non solo ospita, ma consiglia attivamente video che violano le sue stesse norme. Ora sappiamo anche che le persone in paesi non di lingua inglese hanno maggiori probabilità di subire il peso dell’algoritmo dei suggerimenti di YouTube. Mozilla spera che questi risultati, che sono solo la punta dell’iceberg, convincano il pubblico e i legislatori dell’urgente necessità di una maggiore trasparenza nell’intelligenza artificiale di YouTube.
Inoltre, dalla ricerca di Mozilla emerge anche che nel 43% dei caso dei video indesiderati e spiacevoli segnalati dagli utenti, questi non centravano niente con quello che le persone avevano visto in precedenza. I video segnalati nello studio sembrano però funzionare bene: hanno ottenuto il 70% di visualizzazioni in più al giorno rispetto ad altri contenuti guardati dai volontari.
Il report di Mozilla
Nel report di Mozilla ci sono anche alcuni consigli per YouTube, tra cui l’analisi dell’algoritmo da parte di ricercatori indipendenti, la divulgazione dei dettagli sul funzionamento e l’aggiunta di un’opzione per disattivare i suggerimenti personalizzati. In base ai dati pubblicati da YouTube, solo 16-18 visualizzazioni su 10.000 riguardano video proibiti dalle linee guida.
Un portavoce di YouTube ha dichiarato:
Oltre 80 miliardi di informazioni vengono utilizzate per migliorare i nostri sistemi, comprese le risposte ai sondaggi degli utenti su ciò che vogliono guardare. Lavoriamo costantemente per migliorare l’esperienza su YouTube e solo nell’ultimo anno abbiamo introdotto oltre 30 diverse modifiche per ridurre i suggerimenti per contenuti dannosi. Grazie a questo cambiamento, il consumo di contenuti borderline che deriva dai nostri consigli è ora notevolmente inferiore all’1%.