I maggiori fattori di coinvolgimento con le notizie inaffidabili, fornite da Google Feed, sembrano dipendere principalmente dalle selezioni precedenti piuttosto che dall’attenzione all’algoritmo o dall’ideologia politica dell’utente.
Questo è stato rivelato da uno studio pubblicato sulla rivista Nature, condotto dagli scienziati della Rutgers School of Communication and Information dell’Università di Standford e nella Northeastern University.
Nonostante il ruolo cruciale che gli algoritmi svolgono nella selezione di notizie proposte all’utente, poche ricerche si sono concentrate sull’analisi dei metodi di assortimento del Feed.
Il team, guidato da Katherine Ognyanova, ha confrontato l’esposizione, ovvero l’insieme di link presenti nei risultati di ricerca, i follow, collegati alle pagine che le persone scelgono di visitare, e il coinvolgimento, cioè l’insieme di siti visitati da un utente durante la navigazione.
I ricercatori hanno affrontato la preoccupazione di lunga data secondo cui gli algoritmi digitali apprendano dalle preferenze espresse in base alle cronologie e dalle informazioni superficiali per soddisfare gli atteggiamenti e i pregiudizi degli utenti stessi.
I risultati del feed, sostengono gli esperti, sembrano differire di poco in base alle ideologie politiche di base, ma si distanziano quando le persone iniziano a visitare determinate pagine web.
Ciò, commentano gli studiosi, evidenzia che a volte gli algoritmi di Google possono generare risultati polarizzanti e potenzialmente pericolosi, anche se questi emergono in modo uniforme tra gli utenti con opinioni politiche diverse.
Il gruppo di ricerca ha raccolto informazioni in due ondate, valutando i risultati di un sondaggio con i dati empirici provenienti da un’estensione del browser progettata per misurare esposizione e coinvolgimento in relazione a determinati contenuti online durante le elezioni statunitensi del 2018 e del 2020.
Nell’ambito dell’indagine, 1.021 partecipanti hanno installato un’estensione del browser per Chrome e Firefox.
Il software ha registrato gli URL dei risultati di ricerca di Google, la cronologia e una serie di dati relativi ai contenuti visionati dagli utenti.
Il sondaggio invece era volto a distinguere l’orientamento politico dei soggetti e i risultati hanno mostrato che l’identificazione e l’ideologia politiche non erano correlate all’esposizione e alla qualità di notizie a cui gli utenti erano esposti.
Al contrario sembrava emergere un chiaro legame tra l’identificazione politica e l’interazione con contenuti polarizzanti.
“I motori di ricerca – commenta Ognyanova – tendono a mostrare alle persone contenuti inaffidabili, ma il nostro lavoro sottolinea che gli utenti stessi e le scelte compiute nel tempo possono influenzare direttamente la tipologia di link che vengono proposti nel proprio Feed”.
Uno studio dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) stima che circa il…
Guida al Black Friday 2024: scopri come sfruttare le offerte in modo intelligente, evitando trappole…
Critiche per lo spot natalizio 2024 di Coca-Cola, realizzato interamente con intelligenza artificiale: innovazione o…
Scopri le differenze tra ChatGPT, Gemini e Microsoft Copilot: caratteristiche, funzionalità e consigli per scegliere…
L'azienda ha subito commentato quella che può sembrare una vera istigazione al suicidio. Si tratta…
La DeFi permette di effettuare transazioni direttamente tra utenti, prestare o prendere in prestito denaro,…