HomeStatisticheCome Reddit ha trasformato milioni di utenti in un esercito di moderazione...

Come Reddit ha trasformato milioni di utenti in un esercito di moderazione dei contenuti

Uno dei problemi più difficili per Reddit, l’autoproclamata prima pagina di Internet, è determinare cosa dovrebbe e non dovrebbe apparire sui suoi feed.

Quando si parla di moderazione dei contenuti, che negli ultimi anni è diventato un problema sempre più di alto profilo, Reddit opta per un approccio diverso rispetto ad altre grandi piattaforme social.

A differenza di Facebook, ad esempio, che esternalizza gran parte del lavoro a fattorie di moderazione, Reddit si affida in gran parte alle sue comunità (o subreddit) per l’auto-polizia. Gli sforzi dei moderatori volontari sono guidati da regole definite da ogni singolo subreddit, ma anche da un insieme di valori creati e applicati da Reddit stesso.

La società è stata oggetto di critiche per questo modello, tuttavia, che alcuni hanno interpretato come laissez-faire e privo di responsabilità. Ma Chris Slowe, CTO di Reddit, afferma che si tratta di una caratterizzazione errata totale.

“Può sembrare una cosa folle da dire su Internet oggi, ma gli esseri umani in media sono in realtà piuttosto bravi. Se guardi Reddit su larga scala, le persone sono creative, divertenti, collaborative e derpy – tutte cose che fanno funzionare la civiltà”.

“Il nostro approccio di fondo è che vogliamo che le comunità stabiliscano le proprie culture, politiche e sistemi filosofici. Per far funzionare questo modello, dobbiamo fornire strumenti e capacità per affrontare la minoranza [antisociale]”.

Una bestia diversa

Slowe è stato il primo dipendente di Reddit, assunto nel 2005 come ingegnere dopo aver affittato due stanze libere ai co-fondatori Steve Huffman e Alexis Ohanian. I tre si erano incontrati durante la prima esecuzione dell’ormai famigerato programma di accelerazione Y Combinator, che ha lasciato a Slowe bei ricordi ma anche un avvio fallito e il tempo da riempire.

Sebbene si sia preso una pausa da Reddit tra il 2010-2015, l’esperienza di Slowe gli offre una prospettiva unica sulla crescita dell’azienda e su come le sfide che deve affrontare sono cambiate nel tempo.

Nei primi anni, dice, si trattava di aumentare le infrastrutture per far fronte alla crescita del traffico. Ma nel suo secondo stint, dal 2016 ad oggi, l’attenzione si è spostata sulla fiducia, sulla sicurezza e sulla sicurezza degli utenti.

“Forniamo agli utenti strumenti per segnalare contenuti che violano le politiche del sito o le regole stabilite dai moderatori, ma non tutto viene segnalato. E in alcuni casi, il rapporto indica che è troppo tardi”, ha spiegato.

“Quando sono tornato nel 2016, uno dei miei compiti principali era capire esattamente come funzionano le comunità di Reddit e definire cosa rende il sito sano. Una volta individuati i sintomi di insalubrità, abbiamo lavorato da lì”.

Autocontrollo

A differenza di altre piattaforme social, Reddit ha un approccio a più livelli alla moderazione dei contenuti, progettato per aderire il più vicino possibile all’etica “community-first” dell’azienda.

La forma più primitiva di controllo dei contenuti viene eseguita dagli utenti stessi, che esercitano il potere di votare gli elementi che piacciono e di abbassare quelli che non gli piacciono. Tuttavia, mentre questo processo aumenta i post popolari e schiaccia quelli impopolari, la popolarità non è sempre un segno di correttezza.

I mod della community fungono da seconda linea di difesa e sono dotati del potere di rimuovere i post e vietare gli utenti per violazione delle linee guida o della politica sui contenuti. La regola subreddit più comune, secondo Slowe, è essenzialmente “non essere un cretino”.

Il Rapporto annuale sulla trasparenza dell’azienda , che analizza tutti i contenuti rimossi da Reddit ogni anno, suggerisce che le mod sono responsabili di circa i due terzi di tutte le rimozioni dei post.

Per catturare qualsiasi contenuto dannoso perso dalle mod, ci sono gli amministratori di Reddit, che sono dipendenti direttamente dall’azienda. Questi membri del personale eseguono controlli a campione manuali, ma sono anche dotati di strumenti tecnologici per aiutare a identificare gli utenti problematici e controllare le interazioni uno contro uno che si svolgono in privato.

“Ci sono una serie di segnali che utilizziamo per far emergere i problemi e stabilire se i singoli utenti sono affidabili e hanno agito in buona fede”, ha affermato Slowe. “La parte difficile è che non prenderai mai tutto. E questo è in parte perché si sta andando sempre essere un po ‘grigio e dipendente dal contesto.”

Alla domanda su come si potrebbe migliorare questa situazione, Slowe ha spiegato di essere preso in una posizione difficile; combattuto tra il desiderio di sostenere la politica aziendale incentrata sulla comunità e la consapevolezza che stanno arrivando sul mercato tecnologie che potrebbero aiutare a catturare una percentuale maggiore di abusi.

Ad esempio, Reddit sta già iniziando a utilizzare tecniche avanzate di elaborazione del linguaggio naturale (NLP) per valutare in modo più accurato il sentimento delle interazioni tra gli utenti. Slowe ha anche indicato la possibilità di utilizzare l’intelligenza artificiale per analizzare le immagini pubblicate sulla piattaforma e ha ammesso che con il passare del tempo si verificherà una quantità maggiore di azioni di moderazione senza l’intervento umano.

Tuttavia, ha anche messo in guardia sulla fallibilità di questi nuovi sistemi, che sono inclini a bias e certamente capaci di errore , e le sfide che potrebbero porre al modello Reddit.

“È un po’ terrificante, in realtà. Se stiamo parlando di questo come un modello di applicazione, è come mettere le telecamere letteralmente ovunque e fare affidamento sulla grande mente della macchina per dirci quando c’è un crimine”, ha detto.

Sebbene l’erezione di un panopticon tecnologico possa limitare la quantità di materiale sgradevole che arriva sulla piattaforma, ciò richiederebbe alla fine che Reddit mettesse da parte la sua filosofia principale: la comunità al di sopra del contenuto.

Quando il gioco si fa duro

La moderazione dei contenuti è un problema che nessuno dei colossi dei social media può affermare di aver inchiodato, come dimostrato dal dibattito sugli account di Donald Trump e dal divieto di Parler dagli app store. Anche Reddit è stato coinvolto in queste conversazioni, prendendo alla fine la decisione di vietare il subreddit r/DonaldTrump.

Per quanto potente possa essere il modello community-first, c’è un conflitto significativo al centro dell’approccio di Reddit. L’azienda aspira a dare alle sue comunità un’autonomia quasi totale, ma alla fine è costretta a prendere decisioni editoriali su dove tracciare il confine.

“Non voglio essere l’arbitro arbitrario e capriccioso di ciò che il contenuto è corretto e ciò che non lo è”, ci ha detto Slowe. “Ma allo stesso tempo, dobbiamo essere in grado di far rispettare una serie di [regole]. È una linea molto sottile da percorrere”.

Reddit cerca di mantenere la sua politica sui contenuti il ​​più concisa possibile per eliminare le scappatoie e rendere più facile l’applicazione, ma le revisioni sono comuni. Ad esempio, la pornografia per vendetta è stata vietata sulla piattaforma nel 2015 sotto l’ex CEO Ellen Pao. L’anno scorso, la società ha aggiunto una clausola che vietava l’esaltazione della violenza.

“Essere fedeli ai nostri valori significa anche iterare i nostri valori, rivalutandoli mentre incontriamo nuovi modi per ingannare il sistema e superare i limiti”, ha spiegato Slowe.

“Quando apportiamo un cambiamento che comporta lo spostamento delle comunità da un lato all’altro della linea, è la fine di un lungo processo di individuazione dei buchi nella nostra politica sui contenuti e da lì a partire da lì”.

Tuttavia, mentre la maggioranza concorda sul fatto che l’assenza di revenge porn è un positivo senza riserve e che l’incitamento alla violenza ha avuto luogo su r/The_Donald, entrambi gli esempi sono la prova che Reddit deve impegnarsi con moderazione sullo stesso piano di Facebook, Twitter o qualsiasi altra piattaforma.

Quando è necessario porre domande difficili, in altre parole, Reddit ha scoperto che deve fare affidamento sui propri muscoli.

RELATED ARTICLES

Ultime Notizie

Ultimi Tutorial