Polarizzazione Algoritmica: Dalle Masse Fisiche alle Echo Chamber Digitali
- 10 feb
- Tempo di lettura: 23 min

Articolo scritto in collaborazione con @domiziaromani.psicologa
Abstract
Il presente articolo analizza il fenomeno della polarizzazione algoritmica come evoluzione contemporanea delle dinamiche di massa studiate dalla psicologia sociale classica. Partendo dalle teorie fondative di Le Bon, Freud e Tarde, si esamina come gli algoritmi dei social media abbiano automatizzato e amplificato i meccanismi psicologici collettivi, creando ecosistemi digitali caratterizzati da filter bubble ed echo chamber. L'analisi integra prospettive cognitive ed emotive, evidenziando come i bias cognitivi e il contagio emotivo contribuiscono alla radicalizzazione delle opinioni e alla frammentazione del tessuto sociale. Vengono inoltre esaminati i costi psicologici individuali della polarizzazione, inclusi la riduzione dell'empatia e l'aumento della dissonanza cognitiva. L'articolo conclude con riflessioni sulla necessità di sviluppare competenze di consapevolezza digitale per navigare criticamente negli ambienti mediatici contemporanei.
Parole chiave: polarizzazione algoritmica, echo chamber, filter bubble, bias cognitivi, contagio emotivo, identità sociale, radicalizzazione online
Introduzione
L'avvento dei social media e delle piattaforme digitali ha trasformato radicalmente le modalità di comunicazione, interazione e costruzione dell'opinione pubblica. Al centro di questa trasformazione si colloca il fenomeno della polarizzazione algoritmica, un processo attraverso il quale i sistemi di raccomandazione automatizzati orientano gli utenti verso contenuti sempre più allineati con le loro preferenze e convinzioni preesistenti (Pariser, 2011). Questo meccanismo non rappresenta un'innovazione assoluta nei processi di influenza sociale, ma piuttosto un'evoluzione tecnologica di dinamiche già osservate e teorizzate dalla psicologia delle masse classica (Sunstein, 2017).
La questione assume rilevanza cruciale in quanto la polarizzazione algoritmica non si limita a filtrare informazioni, ma contribuisce attivamente alla costruzione di identità sociali frammentate, alla radicalizzazione delle posizioni e all'erosione del dialogo tra gruppi con visioni divergenti (Bail et al., 2018). Comprendere i meccanismi psicologici sottostanti a questo fenomeno diventa quindi essenziale per sviluppare strategie di alfabetizzazione mediale e per promuovere una cittadinanza digitale consapevole.
Le Radici Storiche: La Psicologia delle Masse
Gustave Le Bon e la Psicologia delle Folle
Gustave Le Bon, nel suo seminale lavoro Psicologia delle folle (1895), descrive le masse come entità psicologiche dotate di caratteristiche proprie, distinte da quelle dei singoli individui che le compongono. Secondo Le Bon, l'individuo immerso nella folla subisce una trasformazione psicologica: la coscienza individuale si dissolve parzialmente a favore di un'anima collettiva caratterizzata da impulsività, suggestionabilità e irrazionalità (Le Bon, 1895/2001). Le folle, secondo questa prospettiva, tendono a uniformare sentimenti e pensieri in un'unica direzione, amplificando le emozioni e riducendo la capacità critica individuale.
Questa teorizzazione anticipa elementi fondamentali della polarizzazione algoritmica contemporanea: l'omogeneizzazione delle opinioni, l'intensificazione emotiva e la riduzione del pensiero critico sono processi osservabili anche nelle masse digitali organizzate dalle piattaforme social (Quattrociocchi et al., 2016). La differenza sostanziale risiede nel fatto che, mentre Le Bon descrive aggregati fisicamente compresenti, le masse digitali si costituiscono attraverso connessioni virtuali mediate da algoritmi.
Sigmund Freud e la Dinamica Libidica
Sigmund Freud, in Psicologia delle masse e analisi dell'Io (1921), approfondisce l'analisi di Le Bon da una prospettiva psicodinamica, identificando nel legame libidico il collante fondamentale delle masse. Freud (1921/2013) sostiene che i membri di una massa sviluppano legami emotivi sia orizzontali (tra loro) sia verticali (con un leader o un ideale comune), rinunciando parzialmente al proprio Io critico in favore di un Io collettivo. Questo meccanismo di identificazione reciproca e con un'autorità esterna genera coesione ma anche conformismo e suscettibilità all'influenza.
Nel contesto digitale, il ruolo del leader può essere assunto da influencer, opinion leader o algoritmi stessi che, attraverso la personalizzazione dei contenuti, assumono una funzione quasi-autoriale nella selezione delle informazioni (van Dijck & Poell, 2013). Gli utenti sviluppano attaccamenti emotivi a queste figure o ai contenuti proposti, rinforzando identità di gruppo e rafforzando le barriere con l'outgroup.
Gabriel Tarde e l'Imitazione Sociale
Gabriel Tarde propone una teoria dell'imitazione come meccanismo fondamentale della vita sociale. Secondo Tarde (1890/1903), le idee, i comportamenti e le credenze si diffondono per imitazione reciproca, creando ondate di conformità che plasmano l'opinione pubblica. A differenza di Le Bon, Tarde non enfatizza la perdita di razionalità nella folla, ma piuttosto i processi di influenza sociale che operano attraverso l'osservazione e la riproduzione dei comportamenti altrui.
Le intuizioni di Tarde risultano particolarmente pertinenti per comprendere la viralità dei contenuti digitali. I meccanismi di condivisione, like e retweet rappresentano forme contemporanee di imitazione sociale, in cui gli utenti replicano e amplificano messaggi che osservano circolare nella propria rete (Goel et al., 2016). Gli algoritmi dei social media sfruttano queste tendenze imitative, promuovendo contenuti che hanno già dimostrato capacità di generare engagement, innescando cascate informative che possono diffondersi rapidamente attraverso le reti digitali.
Dalle Folle Fisiche alle Masse Digitali
La Modernità Liquida di Bauman
Zygmunt Bauman, nella sua analisi della modernità liquida, descrive le aggregazioni sociali contemporanee come fluide, temporanee e prive delle caratteristiche di stabilità che contraddistinguevano le comunità tradizionali (Bauman, 2000). Le masse digitali incarnano perfettamente questa liquidità: si formano rapidamente attorno a specifici contenuti, hashtag o eventi, per poi dissolversi altrettanto velocemente. A differenza delle folle fisiche descritte da Le Bon, le masse digitali non richiedono compresenza fisica né continuità temporale, ma si costituiscono attraverso connessioni reticolari mediate da piattaforme tecnologiche.
L'anonimato relativo e la mediazione tecnologica modificano inoltre le dinamiche di inibizione sociale: comportamenti che offline sarebbero censurati dalla pressione sociale possono manifestarsi più liberamente online, favorendo fenomeni di disinibizione e polarizzazione (Suler, 2004). Le piattaforme digitali creano così spazi in cui gli utenti possono esprimere opinioni estreme senza le conseguenze sociali che deriverebbero dall'esprimerle in contesti faccia a faccia.
Il Ruolo degli Algoritmi
Gli algoritmi di raccomandazione rappresentano il meccanismo attraverso cui le masse digitali vengono strutturate e orientate. Questi sistemi, progettati per massimizzare l'engagement degli utenti, operano identificando pattern nei comportamenti di navigazione, nelle interazioni e nelle preferenze espresse, per poi proporre contenuti che massimizzino la probabilità di ulteriore coinvolgimento (Bozdag & van den Hoven, 2015). Il risultato è un'esperienza informativa altamente personalizzata ma anche progressivamente limitata, in cui gli utenti vengono esposti prevalentemente a contenuti che confermano le loro visioni preesistenti.
Questa logica algoritmica sfrutta sistematicamente le vulnerabilità cognitive ed emotive umane. Gli algoritmi non si limitano a rispondere passivamente alle preferenze degli utenti, ma le plasmano attivamente attraverso un ciclo di feedback continuo: più un utente interagisce con determinati tipi di contenuti, più ne riceverà di simili, rafforzando progressivamente specifiche visioni del mondo e isolandolo da prospettive alternative (Gillespie, 2014). Questo processo di filtrazione e amplificazione automatizzata crea quello che Pariser (2011) ha definito un universo informativo personalizzato, nel quale ciascun utente abita una versione leggermente diversa della realtà digitale.
La Dimensione Cognitiva della Polarizzazione
Bias Cognitivi e Algoritmi
La polarizzazione algoritmica si innesta su predisposizioni cognitive innate che caratterizzano il funzionamento della mente umana. Il bias di conferma (confirmation bias) rappresenta uno dei meccanismi più rilevanti: gli individui tendono a cercare, interpretare e ricordare informazioni che confermano le proprie convinzioni preesistenti, mentre minimizzano o ignorano quelle discordanti (Nickerson, 1998). Gli algoritmi amplificano questo bias fornendo agli utenti esattamente ciò che sono predisposti a cercare, creando un circolo vizioso in cui le convinzioni iniziali vengono costantemente rinforzate.
Altri bias cognitivi rilevanti includono il motivated reasoning (ragionamento motivato), per cui gli individui elaborano le informazioni in modo da raggiungere conclusioni emotivamente desiderabili piuttosto che oggettivamente accurate (Kunda, 1990), e l'effetto di disponibilità euristica, che porta a sovrastimare la probabilità di eventi facilmente richiamabili alla memoria, tipicamente perché recenti, emotivamente salienti o frequentemente presentati dai media (Tversky & Kahneman, 1973). Gli algoritmi, privilegiando contenuti che generano reazioni emotive intense e che vengono condivisi viralmente, amplificano l'operare di questi bias, distorcendo ulteriormente la percezione della realtà.
Filter Bubble ed Echo Chamber
Il concetto di filter bubble (bolla di filtri) descrive la condizione di isolamento informativo che si crea quando algoritmi personalizzati selezionano i contenuti da mostrare a ciascun utente sulla base del suo profilo comportamentale (Pariser, 2011). Questo processo genera ambienti informativi omogenei, in cui la diversità di opinioni e prospettive viene progressivamente ridotta. Le filter bubble operano in modo spesso invisibile all'utente, che non è consapevole di quali contenuti gli vengano preclusi e può sviluppare l'illusione che la sua esperienza informativa corrisponda all'intera gamma di informazioni disponibili.
Le echo chamber (camere dell'eco) rappresentano l'evoluzione collettiva delle filter bubble: sono ambienti digitali in cui gruppi di utenti con convinzioni simili interagiscono prevalentemente tra loro, rinforzando reciprocamente le proprie opinioni e creando una cassa di risonanza ideologica (Cinelli et al., 2021). All'interno delle echo chamber, le opinioni non solo vengono confermate ma anche progressivamente radicalizzate, in quanto l'assenza di voci discordanti elimina meccanismi di correzione e moderazione. Il risultato è una crescente omogeneizzazione interna e una parallela divergenza rispetto ad altri gruppi, fenomeno che alimenta la polarizzazione sociale complessiva.
La Dimensione Emotiva della Polarizzazione
Il Ruolo delle Emozioni Negative
La ricerca empirica dimostra che i contenuti che elicitano emozioni negative, in particolare rabbia e paura, ottengono livelli di engagement significativamente superiori rispetto a contenuti emotivamente neutri o positivi (Berger & Milkman, 2012). Questo fenomeno si spiega considerando che le emozioni negative hanno una valenza evolutiva di segnalazione del pericolo e quindi catturano l'attenzione in modo prioritario, motivando risposte comportamentali immediate (Brady et al., 2017). Gli algoritmi, ottimizzati per massimizzare l'interazione, apprendono rapidamente questi pattern e promuovono sistematicamente contenuti emotivamente carichi, specialmente quelli che generano indignazione morale o paura.
Il risultato è un ecosistema informativo caratterizzato da un'amplificazione sistematica della negatività. Gli utenti vengono esposti a un flusso costante di notizie allarmanti, controversie e contenuti divisivi, che alimentano stati emotivi di ansia, rabbia e frustrazione (Crockett, 2017). Questa esposizione cronica a stimoli emotivamente negativi non solo influenza il benessere psicologico individuale, ma contribuisce anche a plasmare una visione del mondo percepita come minacciosa e conflittuale, favorendo atteggiamenti difensivi e ostili verso gruppi percepiti come avversari.
Contagio Emotivo e Radicalizzazione
Il contagio emotivo è un processo attraverso cui le emozioni si trasmettono tra individui, influenzano reciprocamente gli stati affettivi (Hatfield et al., 1993). Nel contesto digitale, questo meccanismo assume caratteristiche particolari: le emozioni non si trasmettono attraverso la compresenza fisica e i segnali non verbali, ma attraverso il linguaggio, le immagini e i simboli condivisi nelle piattaforme social. Studi hanno dimostrato che l'esposizione a contenuti emotivamente carichi può influenzare significativamente gli stati emotivi degli utenti e le loro successive espressioni online (Kramer et al., 2014).
Il ciclo di contagio emotivo mediato dagli algoritmi opera così: contenuti negativi generano reazioni emotive intense, che a loro volta motivano ulteriori interazioni (like, commenti, condivisioni); queste interazioni segnalano agli algoritmi che il contenuto è coinvolgente, portando a una sua maggiore diffusione; la maggiore esposizione amplifica il contagio emotivo, coinvolgendo un numero crescente di utenti (Fan et al., 2019). Questo circolo vizioso crea spirali di radicalizzazione emotiva, in cui gruppi di utenti si rinforzano reciprocamente in stati di indignazione, rabbia o paura collettiva, facilitando la formazione di identità polarizzate e l'ostilità verso l'outgroup.
Meccanismi Psicologici della Radicalizzazione Online
Deprivazione Relativa Digitale
La teoria della deprivazione relativa sostiene che il senso di ingiustizia e frustrazione non deriva tanto da condizioni oggettive di svantaggio, quanto dal confronto con gruppi di riferimento percepiti come avvantaggiati ingiustamente (Runciman, 1966). Nel contesto digitale, gli algoritmi espongono costantemente gli utenti a narrazioni che enfatizzano le minacce o le ingiustizie subite dal proprio gruppo identitario, alimentando un senso di deprivazione relativa. Questo processo è particolarmente evidente in contesti politici polarizzati, dove ciascuna fazione è esposta prevalentemente a contenuti che rafforzano la percezione di essere vittime di trattamenti ingiusti o di minacce esistenziali (Pettigrew, 2016).
La deprivazione relativa digitale genera mobilitazione emotiva e comportamentale: gli utenti si sentono motivati a difendere il proprio gruppo, a denunciare le ingiustizie percepite e a opporsi attivamente all'outgroup. Questo dinamismo può tradursi in forme costruttive di attivismo, ma anche in ostilità, aggressività verbale e, in casi estremi, comportamenti estremisti. La continua esposizione a narrazioni di vittimizzazione e minaccia crea inoltre un clima psicologico di allerta permanente, che ostacola il dialogo costruttivo e alimenta logiche di scontro intergroup.
Pensiero di Gruppo e Conformismo
Il fenomeno del groupthink (pensiero di gruppo), originariamente descritto da Janis (1972), si verifica quando la ricerca di coesione e unanimità all'interno di un gruppo sopprime il dissenso e il pensiero critico. Nelle echo chamber digitali, questo meccanismo opera con particolare efficacia: la pressione alla conformità è esercitata non solo attraverso interazioni esplicite, ma anche attraverso meccanismi impliciti come la visibilità dei like, il numero di follower e le dinamiche di approvazione sociale mediate dalla piattaforma (Moeller et al., 2018).
Gli utenti che esprimono opinioni discordanti rispetto alla linea dominante del gruppo rischiano sanzioni sociali quali critiche, isolamento o esclusione, fenomeni amplificati dalle dinamiche di visibilità pubblica tipiche dei social media. Di conseguenza, molti utenti tendono a l'autocensura, evitando di esprimere dubbi o critiche anche quando ne percepiscono la validità (Hampton et al., 2014). Il risultato è un impoverimento del dibattito interno, una radicalizzazione progressiva delle posizioni del gruppo e una ridotta capacità di correggere errori o estremismi.
Deindividuazione e Disinibizione Online
La deindividuazione è uno stato psicologico in cui la consapevolezza individuale e l'autocontrollo si riducono, favorendo comportamenti impulsivi e conformi alle norme del gruppo (Zimbardo, 1969). Nel contesto digitale, fattori come l'anonimato, la distanza fisica e l'assenza di feedback immediati riducono i freni inibitori che normalmente regolano il comportamento sociale (Suler, 2004). Questo fenomeno, noto come effetto di disinibizione online, spiega perché individui che nella vita offline si comportano in modo rispettoso e moderato possano online esprimere opinioni estreme, utilizzare linguaggio aggressivo o partecipare a campagne di odio collettivo.
La deindividuazione facilitata dalle piattaforme digitali contribuisce alla polarizzazione in due modi principali: da un lato, favorisce l'espressione di posizioni estreme che altrimenti rimarrebbero inespresse, spostando il baricentro del dibattito pubblico verso gli estremi; dall'altro, normalizza forme di aggressività e ostilità che erodono le norme di civiltà e rispetto reciproco necessarie per il dialogo costruttivo (Coe et al., 2014). La combinazione di deindividuazione e amplificazione algoritmica crea ambienti in cui il conflitto e l'estremismo vengono premiati in termini di visibilità e influenza.
Identità Sociale nell'Era Digitale
La Teoria dell'Identità Sociale
La Teoria dell'Identità Sociale (Tajfel & Turner, 1979) fornisce un framework teorico fondamentale per comprendere le dinamiche di gruppo e i processi di polarizzazione. Secondo questa teoria, l'identità personale di ciascun individuo è in parte costituita dalle appartenenze di gruppo: le persone si definiscono non solo in termini di caratteristiche individuali, ma anche attraverso le categorie sociali a cui sentono di appartenere (nazionalità, religione, orientamento politico, ecc.). Queste identità sociali influenzano profondamente percezioni, atteggiamenti e comportamenti.
Gli algoritmi dei social media operano come potenti meccanismi di categorizzazione sociale, classificando gli utenti in gruppi sempre più omogenei sulla base dei loro comportamenti e preferenze (Gillespie, 2014). Questa categorizzazione non è neutra: determina quali contenuti ciascun utente vedrà, con quali altri utenti interagirà e, conseguentemente, quali identità sociali verranno rafforzate. Il risultato è un'accentuazione delle distinzioni tra ingroup (il proprio gruppo) e outgroup (gli altri gruppi), con conseguente intensificazione dei processi di favoritismo verso il proprio gruppo e di denigrazione degli altri.
In-group Favoritism e Out-group Derogation
L'in-group favoritism (favoritismo verso il gruppo interno) è la tendenza sistematica a valutare più positivamente i membri del proprio gruppo rispetto a quelli di altri gruppi, attribuendo loro caratteristiche più favorevoli e interpretando i loro comportamenti in modo più benevolo (Brewer, 1999). Nel contesto digitale, questo meccanismo viene amplificato dalla costante esposizione a contenuti che celebrano le virtù, i successi e le posizioni morali del proprio gruppo identitario. Gli algoritmi, privilegiando contenuti che generano approvazione e condivisione all'interno di comunità omogenee, creano narrazioni auto-celebrative che rafforzano il senso di appartenenza e superiorità morale del gruppo.
Parallelamente, l'out-group derogation (denigrazione del gruppo esterno) si manifesta attraverso la tendenza a enfatizzare gli aspetti negativi degli altri gruppi, attribuendo loro caratteristiche stereotipate negative e interpretando i loro comportamenti in chiave ostile (Hewstone et al., 2002). Gli algoritmi alimentano questo processo esponendo selettivamente gli utenti a contenuti che ritraggono l'outgroup in modo negativo: errori, scandali, dichiarazioni controverse o comportamenti riprovevoli vengono amplificati, mentre aspetti positivi o umanizzanti vengono omessi. Questo crea una rappresentazione distorta e caricaturale dell'altro, che facilita l'ostilità, il disprezzo e la disumanizzazione.
Pregiudizi e stereotipi alimentati dall’IA
L’influenza bidirezionale tra essere umano e sistemi intelligenti nella produzione dei Bias.
Le convinzioni preesistenti che guidano la selezione e interpretazione delle informazioni spesso in modo distorto, sono alimentate dall’uso di algoritmi di intelligenza artificiale. In questo contesto i pregiudizi e gli stereotipi, fortemente radicati nei comportamenti umani, possono essere riscontrati anche nei sistemi di intelligenza artificiale. (Battaglia. F., 2023).
Secondo Allport, il pregiudizio viene definito come un atteggiamento di rifiuto o di ostilità verso un componente appartenente a un gruppo sociale, semplicemente in quanto appartenente a tale gruppo, e che pertanto si presume in possesso di qualità biasimevoli generalmente attribuite a quel gruppo (Alietti, A., & Padovan, D., 2023) Per quanto riguarda il concetto di stereotipo viene definito come un insieme di immagini semplificate attraverso cui le persone di un gruppo vedono la realtà sociale. Gli stereotipi hanno una funzione cognitiva nel ridurre la complessità dell’ambiente sociale permettendo infatti agli individui di orientarsi rapidamente nel contesto sociale. In particolare, dal punto di vista psicologico gli stereotipi sono considerati schemi cognitivi che associano a un determinato gruppo sociale caratteristiche stabili e rigide. Questi schemi cognitivi possono essere attivati automaticamente influenzando i giudizi e la percezione rispetto agli individui (Devine, P. G., 1989). Allport distingue in modo chiaro lo stereotipo dal pregiudizio. Mentre lo stereotipo viene concepito come componente cognitiva legata alla credenza condivisa nei confronti di un gruppo, il pregiudizio viene definito come la componente affettiva e valutativa che può portare ad un atteggiamento negativo verso un gruppo sociale (Allport, G. W., 1954).
L'Amplificazione Digitale e il Ruolo dei Media.
Nella società moderna, il ruolo degli stereotipi e dei pregiudizi vengono amplificati dai media e dalle piattaforme digitali. Le rappresentazioni distorte presenti nei motori di ricerca possono rendere stereotipi e pregiudizi più pervasivi e difficili da decostruire. Safiya Noble (2018) mostra come le ricerche online possano generare risultati sessisti e razzisti sostenendo ulteriormente l’immagine negativa di determinati gruppi sociali. In questa prospettiva, si evidenzia come gli stereotipi e i pregiudizi non siano solo prodotti della mente individuale ma che siano legati alle nuove tecnologie e ad aspetti culturali che favoriscono la diffusione (Nobel.F., 2018).
Il Bias algoritmico.
Il bias algoritmico è un fenomeno che produce una discriminazione automatizzata dovuta all’annidamento dei bias umani all’interno del sistema d’intelligenza artificiale, rafforzandone gli effetti attraverso le camere dell’eco. Il digitale non ha prodotto nuovi pregiudizi ma ha velocizzato la diffusione di quelli già esistenti, contribuendo alla formazione di un’identità online continuamente influenzata dal circolo vizioso generato dall’interazione tra algoritmi e comportamenti umani (Nobel.F., 2018).
Chen (2022) attraverso la revisione della letteratura ha approfondito questo tema nell’ambito del reclutamento del personale, analizzando le cause e le origini della discriminazione algoritmica (Chen, 2022). Nella sua ricerca identifica due cause del bias algoritmico nel reclutamento del personale:
Bias dei dati: l’intelligenza artificiale è stata creata per apprendere e simulare il comportamento umano, ed è stata introdotta nel processo di selezione in quanto offre la possibilità per le aziende di velocizzare e risparmiare, soprattutto durante la prima fase di selezione, per individuare i candidati più coerenti con la domanda di lavoro. Il bias nasce quando i dati di addestramento usati per lo sviluppo dell’AI, riflettono discriminazioni storiche, in quanto i dati di assunzione di un’azienda imparando dal passato e basandosi sui dati di addestramento può riflettere delle disuguaglianze storiche. Ad esempio, se l’azienda ha assunto maggiormente candidati di uno stesso sesso o di una stessa etnia per un posto di lavoro, l’algoritmo imparerà che i candidati con quelle caratteristiche maggiormente scelte in passato sono più adatti, ignorando gli altri.
Bias del progettista: il progettista influenza la costruzione dei modelli, fenomeno noto come bias in out, ovvero se l’input è distorto dai pregiudizi e dalle opinioni del progettista, anche il metodo di selezione dell’AI rifletterà queste tendenze.
Tuttavia, nello studio sono stati identificati varie forme di discriminazione che possono manifestarsi attraverso l’uso di algoritmi, tra cui: genere, etnia, stato socioeconomico e personalità (Chen, 2022). In linea con quanto emerso dallo studio di Chen, la teoria della discriminazione statistica di Tilcsik (2021) permette di fare riferimento al pregiudizio e alle origini dei criteri di valutazione e modalità di raccolta delle informazioni.
Discriminazione nel Reclutamento del personale.
In questa prospettiva, infatti, i datori di lavoro sono spesso interessati a valutare la competitività dei candidati quando prendono decisioni di reclutamento. Tuttavia, ottenere queste informazioni direttamente è difficile, quindi i datori di lavoro si affidano a diverse tecniche indirette (Tilcsik, A., 2021).
Allo stesso modo si evidenzia un’estensione della teoria della discriminazione statistica nel mondo digitale. Nel mercato del lavoro è infatti emerso il problema della discriminazione algoritmica nelle assunzioni. I meccanismi che danno origine ai problemi di discriminazione riguardo le assunzioni rimangono simili poiché entrambi si basano su dati storici di popolazioni specifiche. Sebbene il reclutamento tramite IA possa fornire numerosi vantaggi può anche essere soggetto a pregiudizi algoritmici. Quando le valutazioni sovrastimano o sottostimano costantemente i punteggi di un particolare gruppo, producono un bias predittivo. Questi risultati discriminatori spesso vengono trascurati a causa dell’errata convinzione che i processi di IA siano intrinsecamente oggettivi e neutrali (Raghavan, & colleghi,2020).
Tale ricerca evidenzia che le cause della discriminazione algoritmica riguardano, la qualità dei dati usati per addestrare gli algoritmi, in quanto possono riflettere i pregiudizi sociali dei programmatori anche se molto spesso non intenzionali, influenzando la selezione dei dati e portando a discriminazioni (Chen, 2022). Inoltre, la letteratura evidenzia come l’intelligenza artificiale possa trasformare le relazioni sul posto di lavoro e affrontare problemi di disuguaglianza di genere, Nello specifico si fa riferimento ai fenomeni del “Soffitto di cristallo” e della “scogliera di vetro”. Il primo fa riferimento ad ostacoli apparenti e invisibili che impediscono alle donne l’avanzamento verso posizioni più elevate, il secondo invece è un fenomeno in cui le donne hanno maggior probabilità di essere candidate e nominate a posizioni di leadership durante periodi di crisi o problemi organizzativi (Chahal, P., & Kaur, H.,2024).
L’impiego dell’IA nella sanità
Lo studio di obermeyer e colleghi del 2019.
I pregiudizi e gli stereotipi associati all’intelligenza artificiale oltre che al contesto organizzativo si possono evidenziare in altri contesti e aree di ricerca. In particolare, l’impiego dell’intelligenza artificiale nel contesto sanità può da una parte favorire il supporto alla diagnosi e può migliorare l’efficienza e la precisione clinica, ma al contempo la letteratura ha evidenziato come tali strumenti siano associati ad alcune distorsioni e che possano produrre in alcuni casi pregiudizi. Uno degli studi più noti è quello di Obermeyer e colleghi (2019) in cui viene analizzato un algoritmo utilizzato in alcuni ospedali statunitensi per identificare e indirizzare i pazienti a programmi di assistenza intensiva. Risultati mostrano che a parità di condizioni cliniche l’algoritmo tendeva a sottostimare i bisogni dei pazienti afroamericani rispetto ai pazienti bianchi. (Obermeyer, & colleghi, 2019) Alla base di tale distorsione si evince come l’algoritmo facesse affidamento ai costi sanitari sostenuti in passato, ai quali a causa delle disuguaglianze strutturali nell’accesso alle cure risultano più bassi per la popolazione afroamericana. In questa prospettiva, l’algoritmo rinforzava le disuguaglianze preesistenti riducendo così la possibilità dei pazienti afroamericani di ricevere le cure adeguate, Tali risultati legati al bias nei data set sono sostenuti da una revisione sistematica della letteratura che ha evidenziato come la maggior parte dei dataset sanitari non sia basata solo su variabili di tipo economico ma anche su data set bilanciati a favore delle popolazioni occidentali, maschili e caucasiche. Alla luce di tali risultati tale bias comporta minore accuratezza diagnostica nei confronti di donne e minoranze etniche (Norori, & colleghi, 2021).
Marketing, Pubblicità e Riconoscimento Facciale
Nell’ambito della pubblicità e del marketing, le piattaforme digitali attraverso i sistemi di intelligenza artificiale propongono offerte e annunci basandosi sui dati raccolti sull’utente in rete. In letteratura emerge che questo sistema di selezione possa non considerare alcuni tipi di utenti. Nel contesto degli annunci di lavoro è stato identificato che posizioni di lavoro come avvocato e ingegnere vengano proposte maggiormente agli uomini piuttosto che alle donne, un target non deciso dal datore di lavoro ma dagli algoritmi di pubblicità che hanno l’obiettivo di incrementare l’engagement del post pubblicitario, non prendendo in considerazione le conseguenze sociali ed economiche di questa decisione finendo per incrementare le disuguaglianze di genere nel contesto lavorativo (Lambrecht, A., & Tucker, C., 2019).
Tra i sistemi di intelligenza artificiale, il riconoscimento facciale è stato dimostrato da diversi studi essere poco affidabile. Buolamwini e Gebru (2018) hanno messo in evidenza questo fenomeno, dimostrando che gli algoritmi commettono errori soprattutto nel riconoscimento di donne con carnagione scura, mentre l’errore è quasi nullo per gli uomini con carnagione chiara. Un problema oltre che tecnico anche etico, in quanto errori nel riconoscimento facciale possano avvenire nei contesti di sorveglianza e controllo in cui questi errori si possono tradurre in discriminazione (Buolamwini, J., & Gebru, T., 2018).
I pregiudizi e gli stereotipi sull’intelligenza artificiale rappresentano un ostacolo che può influenzare negativamente il modo in cui le nuove tecnologie vengono progettate, adottate e utilizzate a supporto dell’uomo. Riconoscere questi pregiudizi e stereotipi non significa rinunciare all’intelligenza artificiale ma favorisce la possibilità di sviluppare un approccio critico che riesca a combinare trasparenza, formazione e responsabilità etica (Mehrabi, & colleghi, 2021).
Il Costo Psicologico della Polarizzazione
Dissonanza Cognitiva e Ansia Informativa
La dissonanza cognitiva, teorizzata da Festinger (1957), descrive lo stato di disagio psicologico che emerge quando un individuo mantiene simultaneamente cognizioni contraddittorie. Nelle condizioni di forte polarizzazione create dalle echo chamber, gli utenti possono sviluppare sistemi di credenze rigidi e internamente coerenti, ma progressivamente distanti dalla complessità della realtà. Quando inevitabilmente si imbattono in informazioni che contraddicono queste credenze, sperimentano dissonanza cognitiva acuta, generalmente risolta non attraverso l'aggiornamento delle proprie opinioni, ma attraverso strategie di evitamento, razionalizzazione o denigrazione della fonte (Hart et al., 2009).
Questo processo genera un'ansia informativa cronica: gli utenti sviluppano una sensibilità negativa verso informazioni discordanti, percepite non come opportunità di apprendimento ma come minacce identitarie. Il risultato è un restringimento progressivo dell'universo informativo considerato legittimo e un aumento dello stress psicologico associato all'esposizione a prospettive alternative (Garrett & Weeks, 2013). Sul lungo periodo, questa condizione può compromettere la capacità di pensiero critico, la flessibilità cognitiva e la tolleranza all'ambiguità.
Riduzione dell'Empatia
L'empatia, intesa come capacità di comprendere e condividere gli stati emotivi altrui, costituisce un fondamento essenziale della coesione sociale e del comportamento prosociale (Decety & Jackson, 2004). La polarizzazione algoritmica erode sistematicamente questa capacità attraverso processi di disumanizzazione dell'outgroup. Quando gli individui sono esposti prevalentemente a rappresentazioni stereotipate, demonizzate o caricaturali di chi appartiene a gruppi diversi, la loro capacità di riconoscere l'umanità condivisa e di assumere la prospettiva altrui si riduce (Waytz et al., 2014).
La costante categorizzazione in termini di noi contro loro, alimentata dagli algoritmi, attiva meccanismi di distanziamento emotivo che facilitano atteggiamenti ostili e giustificano moralmente l'aggressività verso l'outgroup (Cikara et al., 2011). Questa riduzione dell'empatia non solo compromette le relazioni interpersonali e la qualità del dibattito pubblico, ma può anche avere conseguenze più ampie in termini di supporto a politiche discriminatorie, tolleranza verso la violenza e erosione della solidarietà sociale.
Frammentazione del Tessuto Sociale
La polarizzazione algoritmica non si limita alle interazioni online, ma si estende alle relazioni interpersonali offline, frammentando famiglie, amicizie e comunità lungo linee ideologiche sempre più rigide (Iyengar et al., 2019). Studi mostrano un aumento significativo della polarizzazione affettiva, ovvero dell'ostilità emotiva verso chi ha orientamenti politici diversi, con conseguente riduzione della disponibilità a interagire, collaborare o mantenere relazioni con membri dell'outgroup politico (Iyengar & Westwood, 2015).
Questa frammentazione genera costi significativi a livello individuale e collettivo: stress relazionale, isolamento sociale, riduzione del capitale sociale e compromissione della capacità di cooperare per affrontare problemi comuni. In contesti estremamente polarizzati, la possibilità stessa di un dibattito democratico costruttivo viene messa in discussione, poiché le diverse fazioni operano in universi informativi paralleli, condividono sempre meno riferimenti comuni e considerano illegittime non solo le posizioni ma anche le motivazioni dell'altra parte (Sunstein, 2017).
Conclusioni: Verso una Consapevolezza Digitale
L'analisi condotta evidenzia come la polarizzazione algoritmica rappresenti un fenomeno complesso e multidimensionale, che affonda le sue radici nelle dinamiche psicologiche delle masse già identificate dalla psicologia sociale classica, ma che assume caratteristiche peculiari e potenzialmente più insidiose nell'ambiente digitale contemporaneo. Gli algoritmi non creano ex nihilo le tendenze alla polarizzazione, ma le amplificano sistematicamente sfruttando vulnerabilità cognitive ed emotive innate, creando ecosistemi informativi che favoriscono la frammentazione, la radicalizzazione e il conflitto intergroup.
Sviluppare competenze di consapevolezza digitale diventa quindi cruciale per navigare criticamente in questi ambienti. Ciò implica: riconoscere l'esistenza e il funzionamento delle filter bubble e delle echo chamber; coltivare la consapevolezza dei propri bias cognitivi e delle dinamiche emotive che influenzano la fruizione dei contenuti; cercare attivamente esposizione a prospettive diverse; sviluppare capacità di valutazione critica delle fonti e dei contenuti; e mantenere apertura al dialogo e all'empatia verso chi esprime opinioni divergenti.
A livello collettivo, è necessario un dibattito pubblico informato sulle responsabilità delle piattaforme digitali, sulla trasparenza degli algoritmi e sulle possibili regolamentazioni che bilancino libertà di espressione, innovazione tecnologica e tutela del benessere individuale e della coesione sociale. Solo attraverso un approccio multidimensionale, che integri consapevolezza individuale, educazione mediale, responsabilità aziendale e governance pubblica, sarà possibile mitigare gli effetti negativi della polarizzazione algoritmica e preservare spazi di dialogo democratico nell'era digitale.
Riferimenti Bibliografici
Alietti, A., & Padovan, D. (2023). Le grammatiche del razzismo. Un’introduzione teorica e un percorso di ricerca. Venezia: Edizione Ca’ Foscari. https://doi.org/10.30687/978-88-6969-744-9
Allport, G. W. (1954). The nature of prejudice. Cambridge, MA: Addison-Wesley. Anthonysamy, L., & Sivakumar, P. (2022). A new digital literacy framework to mitigate misinformation in social media infodemic. Global Knowledge, Memory andCommunication, 73(6/7), 809-827.
Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. F., Lee, J., Mann, M., Merhout, F., & Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216–9221. https://doi.org/10.1073/pnas.1804840115
Bauman, Z. (2000). Liquid modernity. Polity Press.
Battaglia, F. (2023). I pregiudizi: un errore solo umano? Come i pregiudizi accomunano umani e algoritmi. In Giornate di studio sul razzismo. Atti della 3ᵃ e 4ᵃ edizione-2023 (pp.19-28). Lecce: Università del Salento.
Berger, J., & Milkman, K. L. (2012). What makes online content viral? Journal of Marketing Research, 49(2), 192–205. https://doi.org/10.1509/jmr.10.0353
Bozdag, E., & van den Hoven, J. (2015). Breaking the filter bubble: Democracy and design. Ethics and Information Technology, 17(4), 249–265. https://doi.org/10.1007/s10676-015-9380-y
Buolamwini, J., & Gebru, T. (2018, January). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency (pp. 77-91). Cambridge, MA: PMLR.
Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A., & Van Bavel, J. J. (2017). Emotion shapes the diffusion of moralized content in social networks. Proceedings of the National Academy of Sciences, 114(28), 7313–7318. https://doi.org/10.1073/pnas.1618923114
Brewer, M. B. (1999). The psychology of prejudice: Ingroup love or outgroup hate? Journal of Social Issues, 55(3), 429–444. https://doi.org/10.1111/0022-4537.00126
Chahal, P., & Kaur, H. (2024, November). Analyzing the Impact of Artificial Intelligence on the Glass Ceiling and Glass Cliff Phenomena. In 2024 3rd Edition of IEEE Delhi Section Flagship Conference (DELCON) (pp. 1-4). New Delhi: IEEE.
Chen, Z. Etica e discriminazione nelle pratiche di reclutamento basate sull'intelligenza artificiale. Humanit Soc Sci Commun 10 , 567 (2023). https://doi.org/10.1057/s41599-023-02079-x
Cikara, M., Bruneau, E. G., & Saxe, R. R. (2011). Us and them: Intergroup failures of empathy. Current Directions in Psychological Science, 20(3), 149–153. https://doi.org/10.1177/0963721411408713
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., & Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the National Academy of Sciences, 118(9), e2023301118. https://doi.org/10.1073/pnas.2023301118
Coe, K., Kenski, K., & Rains, S. A. (2014). Online and uncivil? Patterns and determinants of incivility in newspaper website comments. Journal of Communication, 64(4), 658–679. https://doi.org/10.1111/jcom.12104
Crockett, M. J. (2017). Moral outrage in the digital age. Nature Human Behaviour, 1(11), 769–771. https://doi.org/10.1038/s41562-017-0213-3
Decety, J., & Jackson, P. L. (2004). The functional architecture of human empathy. Behavioral and Cognitive Neuroscience Reviews, 3(2), 71–100. https://doi.org/10.1177/1534582304267187
Devine, P. G. (1989). Stereotypes and prejudice: Their automatic and controlled components. Journal of personality and social psychology, 56(1), 5.
Fan, R., Zhao, J., Chen, Y., & Xu, K. (2019). Anger is more influential than joy: Sentiment correlation in Weibo. PLoS ONE, 9(10), e110184. https://doi.org/10.1371/journal.pone.0110184
Festinger, L. (1957). A theory of cognitive dissonance. Stanford University Press.
Freud, S. (2013). Psicologia delle masse e analisi dell'Io. Bollati Boringhieri. (Opera originale pubblicata nel 1921)
Garrett, R. K., & Weeks, B. E. (2013). The promise and peril of real-time corrections to political misperceptions. In Proceedings of the 2013 Conference on Computer Supported Cooperative Work (pp. 1047–1058). ACM. https://doi.org/10.1145/2441776.2441895
Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. J. Boczkowski, & K. A. Foot (Eds.), Media technologies: Essays on communication, materiality, and society (pp. 167–194). MIT Press.
Goel, S., Anderson, A., Hofman, J., & Watts, D. J. (2016). The structural virality of online diffusion. Management Science, 62(1), 180–196. https://doi.org/10.1287/mnsc.2015.2158
Hampton, K. N., Rainie, L., Lu, W., Dwyer, M., Shin, I., & Purcell, K. (2014). Social media and the 'spiral of silence'. Pew Research Center.
Hart, W., Albarracín, D., Eagly, A. H., Brechan, I., Lindberg, M. J., & Merrill, L. (2009). Feeling validated versus being correct: A meta-analysis of selective exposure to information. Psychological Bulletin, 135(4), 555–588. https://doi.org/10.1037/a0015701
Hatfield, E., Cacioppo, J. T., & Rapson, R. L. (1993). Emotional contagion. Current Directions in Psychological Science, 2(3), 96–100. https://doi.org/10.1111/1467-8721.ep10770953
Hewstone, M., Rubin, M., & Willis, H. (2002). Intergroup bias. Annual Review of Psychology, 53(1), 575–604. https://doi.org/10.1146/annurev.psych.53.100901.135109
Iyengar, S., Lelkes, Y., Levendusky, M., Malhotra, N., & Westwood, S. J. (2019). The origins and consequences of affective polarization in the United States. Annual Review of Political Science, 22(1), 129–146. https://doi.org/10.1146/annurev-polisci-051117-073034
Iyengar, S., & Westwood, S. J. (2015). Fear and loathing across party lines: New evidence on group polarization. American Journal of Political Science, 59(3), 690–707. https://doi.org/10.1111/ajps.12152
Janis, I. L. (1972). Victims of groupthink: A psychological study of foreign-policy decisions and fiascoes. Houghton Mifflin.
Kramer, A. D., Guillory, J. E., & Hancock, J. T. (2014). Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, 111(24), 8788–8790. https://doi.org/10.1073/pnas.1320040111
Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108(3), 480–498. https://doi.org/10.1037/0033-2909.108.3.480
Lambrecht, A., & Tucker, C. (2019). Algorithmic bias? An empirical study of apparent gender-based discrimination in the display of STEM career ads. Management science, 65(7), 2966-2981.
Le Bon, G. (2001). Psicologia delle folle. TEA. (Opera originale pubblicata nel 1895)
Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM computing surveys (CSUR), 54(6), 1-35.
Moeller, J., Kühne, R., & de Vreese, C. (2018). Mobilizing youth in the 21st century: How digital media use fosters civic duty, information efficacy, and political participation. Journal of Broadcasting & Electronic Media, 62(3), 445–460. https://doi.org/10.1080/08838151.2018.1451866
Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175–220. https://doi.org/10.1037/1089-2680.2.2.175
Norori, N., Hu, Q., Aellen, F. M., Faraci, F. D., & Tzovara, A. (2021). Addressing bias in big data and AI for health care: A call for open science. Patterns, 2(10).
Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447-453.
Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin Press.
Pettigrew, T. F. (2016). In pursuit of three theories: Authoritarianism, relative deprivation, and intergroup contact. Annual Review of Psychology, 67(1), 1–21. https://doi.org/10.1146/annurev-psych-122414-033327
Quattrociocchi, W., Scala, A., & Sunstein, C. R. (2016). Echo chambers on Facebook. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.2795110
Raghavan, M., Barocas, S., Kleinberg, J., & Levy, K. (2020, January). Mitigating bias in algorithmic hiring: Evaluating claims and practices. In Proceedings of the 2020 conference on fairness, accountability, and transparency (pp. 469-481). ACM.
Runciman, W. G. (1966). Relative deprivation and social justice: A study of attitudes to social inequality in twentieth-century England. University of California Press.
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. https://doi.org/10.2307/j.ctt1pwt9w5
Suler, J. (2004). The online disinhibition effect. CyberPsychology & Behavior, 7(3), 321–326. https://doi.org/10.1089/1094931041291295
Sunstein, C. R. (2017). #Republic: Divided democracy in the age of social media. Princeton University Press.
Tajfel, H., & Turner, J. C. (1979). An integrative theory of intergroup conflict. In W. G. Austin & S. Worchel (Eds.), The social psychology of intergroup relations (pp. 33–47). Brooks/Cole.
Tarde, G. (1903). The laws of imitation. Henry Holt. (Opera originale pubblicata nel 1890)
Tversky, A., & Kahneman, D. (1973). Availability: A heuristic for judging frequency and probability. Cognitive Psychology, 5(2), 207–232. https://doi.org/10.1016/0010-0285(73)90033-9
Tilcsik, A. (2021). Statistical discrimination and the rationalization of stereotypes. American Sociological Review, 86(1), 93-122.
Van Dijck, J., & Poell, T. (2013). Understanding social media logic. Media and Communication, 1(1), 2–14. https://doi.org/10.12924/mac2013.01010002
Waytz, A., Hoffman, K. M., & Trawalter, S. (2014). A superhumanization bias in Whites' perceptions of Blacks. Social Psychological and Personality Science, 6(3), 352–359. https://doi.org/10.1177/1948550614553642
Zimbardo, P. G. (1969). The human choice: Individuation, reason, and order versus deindividuation, impulse, and chaos. In W. J. Arnold & D. Levine (Eds.), Nebraska Symposium on Motivation (Vol. 17, pp. 237–307). University of Nebraska Press.



Commenti