Negli ultimi anni Facebook è diventato terreno fertile per contenuti tossici, sensazionalistici o falsi. La causa però non è solo nella cattiva fede degli utenti. Riguarda anche il modo in cui l’algoritmo seleziona ciò che vediamo. L’obiettivo principale del feed di Facebook è massimizzare il tempo di permanenza.
Questo meccanismo favorisce i post che scatenano reazioni emotive, come indignazione, sorpresa e rabbia. Ciò inevitabilmente finisce a discapito delle informazioni verificate. Secondo diversi i post che generano rabbia morale ottengono fino al 70% in più rispetto ai contenuti neutrali. Continua a leggere per scoprire tutti i segreti di questi meccanismi.
Zuckerberg e la decisione di eliminare i fact-checker
Nel gennaio 2025 Mark Zuckerberg ha annunciato la fine della collaborazione tra Meta e le organizzazioni indipendenti di fact-checking. Al loro posto l’azienda ha introdotto il sistema “Community Notes”, ispirata a X (ex Twitter). In questo modo sono gli stessi utenti a segnalare e commentare notizie dubbie.
Le motivazioni ufficiali
Zuckerberg ha dichiarato che il programma di verifica esterna ha perso credibilità. Ha accusato i fact-checker di “bias politico e culturale”. Secondo lui l’obiettivo è ricostruire libertà di espressione e fiducia agli utenti, riducendo la percezione della censura. Ha poi affermato che “il controllo dei fatti è importante, ma non deve diventare uno strumento per zittire opinioni diverse”.
Opinioni degli esperti
Secondo gli analisti di El Pais e NPR, l’idea che “gli utenti possano autoregolarsi” è illusoria. Il rischio maggiore è che la piattaforma diventi un posto dove le informazioni false si diffondono più rapidamente delle correzioni. Molti osservatori ritengono che Zuckerberg punti a evitare accuse politiche. Il rischio è la perdita di fiducia nel marchio Meta come fonte di informazione ufficiale.

Cosa cambia nella pratica
Con la scomparsa dei fact-checker, la verifica dei contenuti diventa volontaria e comunitaria. Ciò significa che l’accuratezza dipende dal livello di partecipazione degli utenti. Spesso questi non hanno nè tempo nè competenze per analizzare le fonti. Ecco qui una tabella di confronto tra i due sistemi:
| Aspetto | Sistema con fact-checker (fino al 2024) | Community Notes (dal 2025) |
| Verifica professionale | Giornalisti ed esperti di media | Utenti della piattaforma |
| Velocità di controllo | Lenta ma accurata | Rapida, ma soggetta a errori |
| Trasparenza | Limitata ai partner Meta | Commenti visibili a tutti |
| Affidabilità | Alta | Variabile |
| Rischio di manipolazione | Medio | Elevato |
C’è un dualismo sempre più ampio nel mondo digitale. Ossia affidare ai meccanismi sociali, piuttosto che istituzionali, il compito di filtrare la verità.
Perché aumenta il contenuto dannoso
Gli esperti hanno subito individuato la deriva più pericolosa del cambiamento. L’assenza di moderazione professionale crea un campo ideale per la diffusione di notizie false. Un altro pericolo evidente è il proliferare di teorie complottiste e campagne coordinate. Tra i fattori principali di questo scenario:
- Algoritmi orientati al coinvolgimento. Facebook continua a privilegiare ciò che genera commenti e condivisioni. Anche se controversi;
- Riduzione dei controlli interni. L’eliminazione dei team di verifica riduce la capacità di bloccare contenuti falsi;
- Effetto camera d’eco. Gli utenti vedono sempre più post in linea con le proprie opinioni, alimentando polarizzazione e disinformazione;
- Scarsa alfabetizzazione mediatica. Molti utenti non riconoscono le fonti attendibili.
Questi elementi combinati rendono la piattaforma più vulnerabile alla circolazione di notizie parziali e manipolate. L’impatto sulla percezione pubblica e sulla fiducia nei media digitali è diretto.

Source: https://pixabay.com/illustrations/social-media-interaction-woman-1233873/
Quando il business incontra la disinformazione
Dietro la strategia di Meta c’è una logica economica. Meno restrizioni significano più pubblico. E più traffico genera maggiori entrate pubblicitarie. La piattaforma sa che i contenuti controversi attirano utenti e mantengono alta l’interazione. The Guardian ha stimato che oltre il 60% dei post più virali del 2024 conteneva dati parzialmente falsi o fuorvianti. Parallelamente, l’attenzione verso i settori dell’intrattenimento e del gioco online continua a crescere.
Esistono portali dove gli utenti possono informarsi in modo sicuro e trasparente. Per esempio sui bonus casinò online, senza cadere in trappole pubblicitarie o fake news. Come con la sezione Offerte e bonus del casinò su Slotozilla. Non si tratta di un casinò, ma un portale informativo che promuove gioco responsabile. Con recensioni sempre aggiornate e versioni demo gratuite delle slot. Si tratta di una risorsa verificata, ideale per chi cerca divertimento senza rischi.
L’alternativa degli utenti: nuove piattaforme e giochi sociali
Molti utenti stanno spostando il proprio tempo verso piattaforme diverse. Vogliono percepire maggiore equilibrio e basarsi sulla interazione positiva. Sono alla ricerca di modelli in grado di combinare socialità, intrattenimento e sicurezza in un ambiente controllato. Vedono il web come un posto in cui fiducia e trasparenza contano più della viralità.
Un esempio è Winnita, community che unisce i giochi digitali con la socialità. Offrendo un ambiente sicuro, trasparente e controllato. Alternative come questa non eliminano il problema della disinformazione, ma mostrano come un modello sostenibile sia possibile. Spostando il focus dall’interazione alla qualità dell’informazione.
Soluzioni nel lungo periodo
L’aumento del contenuto dannoso su Facebook non è casuale: è il risultato di scelte strategiche e di una filosofia che premia l’attenzione più della verità. Eliminare il fact-checking affidandosi alla moderazione degli utenti significa rinunciare a un filtro essenziale. Nel lungo periodo questo approccio può trasformare la piattaforma in un flusso di contenuti polarizzati e inaffidabili. Quando il lettore vuole soprattutto trasparenze ed equilibrio delle informazioni ricevute.