Podcast: in Italia la sfida della monetizzazione
Negli ultimi anni il podcast è diventato una presenza stabile nel menù mediatico degli italiani. Secondo le ultime ricerche, gli ascoltatori mensili nel 2025 hanno raggiunto quot
Dietro ogni contenuto che non vediamo sui social ci sono persone reali che filtrano violenza, odio e dolore. Sono i moderatori di contenuti: lavoratori invisibili che pagano un prezzo altissimo per mantenere il web un luogo (quasi) sicuro.
Qualche tempo fa, mi è capitato di vedere per caso un video che non avrei mai voluto vedere: mostrava la morte in diretta di Charlie Kirk. Pochi secondi che mi hanno lasciato addosso un senso di disagio profondo. Mi chiedevo come fosse possibile che un contenuto del genere fosse ancora online, colmo di interazioni, visibile a chiunque. Poi ho capito: non si trattava di un singolo video sfuggito ai controlli, ma di centinaia, forse migliaia di versioni caricate in contemporanea da utenti di tutto il mondo. Uno snowball effect che nemmeno gli algoritmi più sofisticati riescono a fermare. E proprio in quel momento ho iniziato a chiedermi: chi si prende carico di ciò che noi non vediamo mai? Chi filtra il peggio dell’internet per permetterci di scorrere in pace tra un reel e una storia?
Esiste una categoria di lavoratori che, pur avendo un impatto enorme sulla nostra esperienza online, resta nell’ombra: i moderatori di contenuti.
Ogni giorno, su tutte le piattaforme social, vengono caricati miliardi di post, video e immagini. Alcuni fanno ridere, altri commuovono. Ma molti, troppi, mostrano violenza, abusi o tragedie reali. Molti pensano che tutto venga filtrato da un algoritmo o da un’intelligenza artificiale. Ma la verità è che dietro lo schermo ci sono ancora persone reali, che con occhi e mente umana devono decidere cosa è accettabile e cosa no.
Dal 2016, dopo forti pressioni pubbliche, le principali piattaforme hanno integrato il lavoro umano ai sistemi automatici. Ma chi svolge questo compito spesso lo fa in condizioni difficili, precarie, con turni estenuanti e compensi minimi, intorno ai 1.200 euro al mese, come racconta Sara, moderatrice di TikTok, in un’intervista a Fanpage. Il loro lavoro consiste nel visionare e classificare contenuti, decidendo se violano le linee guida. Ma ciò che vedono va ben oltre il “contenuto sensibile”: violenze estreme, abusi, torture, atti disumani che lasciano segni profondi.
Non basta spegnere lo schermo a fine turno. Chi lavora come moderatore di contenuti si porta dentro immagini e suoni difficili da dimenticare. Molti sviluppano ansia, depressione, insonnia o stress post-traumatico.
Per questo alcune aziende prevedono supporto psicologico e test di valutazione prima dell’assunzione. Ma, nella realtà, questi strumenti sono spesso insufficienti. Perché la sofferenza legata a ciò che si vede non si cancella con una pausa o con un colloquio mensile.
C’è qualcosa di profondamente ingiusto in tutto questo. Da un lato, pretendiamo che i social network siano spazi sicuri, privi di violenza e di odio. Ci indigniamo, giustamente, quando sfuggono contenuti offensivi o inaccettabili.
Dall’altro, ignoriamo il prezzo che pagano coloro che si occupano di tenere puliti questi spazi. Molti moderatori, quando iniziano a stare male, vengono semplicemente licenziati. Invisibili. Isolati. Senza tutele. Eppure, senza di loro, le piattaforme digitali collasserebbero nel caos.
Servono regole chiare, standard minimi e un riconoscimento sociale per queste figure, che oggi vivono in una zona grigia tra lavoro digitale e sacrificio umano.
Il problema, però, non è solo normativo. È culturale. Viviamo in un’epoca in cui deleghiamo sempre più compiti all’intelligenza artificiale, ma quando si tratta di distinguere il lecito dall’indecente, serve ancora lo sguardo umano. Questo ci dice molto sullo stato dei nostri social, ma anche sulla nostra società. Se è vero che il web riflette ciò che siamo, allora il bisogno di filtrare così tanto ciò che produciamo dovrebbe farci riflettere. Forse non dovremmo chiederci solo come proteggere il nostro feed, ma anche perché abbiamo così tanto da nascondere.