L’impegno ad essere trasparente della piattaforma di Streaming di Amazon non convince: non ci sono regole chiare sui ban e gli sforzi di moderazione si dimostrano ogni giorno insufficienti.

La piattaforma di streaming Twitch ha presentato il suo primo Rapporto sulla Trasparenza che descrive in dettaglio gli sforzi dell’azienda per migliorare la moderazione delle chat e il filtraggio dei contenuti affinché gli streamer aderiscano a pieno alle linee guida della piattaforma. L’azienda afferma che pubblicherà rapporti sulla trasparenza due volte l’anno nel tentativo di migliorare sia l’esperienza dei produttori di contenuti che, si spera, la fiducia degli utenti nel processo di moderazione.

L’annuncio arriva diversi mesi dopo che Twitch è stato preso di mira a causa dell’eliminazione di migliaia di video senza preavviso per colpa della musica protetta da copyright al loro interno. Successivamente la piattaforma si è scusata per essere stata “eccessivamente entusiasta” nella sua mietitura.

“Questo rapporto sulla trasparenza è il primo del suo genere per Twitch: esamina attentamente il modo in cui pensiamo alla sicurezza, le scelte che abbiamo fatto per creare uno spazio sicuro per tutte le nostre comunità e il modo in cui il nostro personale addetto alla sicurezza, i moderatori e le soluzioni automatizzate, aiutano a far rispettare le regole che abbiamo stabilito“, afferma il rapporto.

Twitch afferma che il 95% dei canali sulla sua piattaforma ora è monitorato da dei moderatori, siano essi umani o bot. Si tratta di un aumento rispetto al 93% dello scorso anno. L’azienda afferma inoltre che l’eliminazione dei messaggi è aumentata da 3,2 per 1.000 messaggi a 4 per 1.000 messaggi.

L’azienda rileva inoltre che il ban dei contenuti, il filtro della chat, gli avvisi sui contenuti, le procedure di applicazione delle revisioni, i processi di segnalazione, le segnalazione degli utenti e altre politiche sono tutte migliorate, ma non entra troppo nei dettagli su cosa significhi. Sono aumentati anche i timeout, che consentono ai proprietari dei canali di bloccare gli utenti dalle loro lobby per 10 minuti, così come i ban dei canali stessi.

Sebbene sia incoraggiante vedere un’importante piattaforma di streaming prendere sul serio la moderazione e cercare di mantenere la parola per quanto riguarda le sicurezza, molti utenti di Twitch sono ancora curiosi di conoscere il vero e proprio processo di moderazione. In particolare, gli utenti di Twitch vogliono sapere chi, precisamente, si sta occupando della moderazione.

I moderatori sono impiegati di Twitch? O il lavoro è affidato a società terze come abbiamo visto nel caso di Facebook? Alla luce del ban del famoso streamer Dr. Disrespect che a oggi non ha una spiegazione, le persone si sono anche chieste chi abbia l’ultima parola quando si tratta di impedire a un creatore di contenuti di accedere alla sua principale fonte di sostentamento.

Secondo Gamespot, Twitch ha affermato che questi moderatori “lavorano in più sedi e supportano oltre 20 lingue, al fine di fornire un servizio attivo 24 ore su 24, 7 giorni su 7, 365 giorni l’anno per esaminare le segnalazioni quando arrivano in tutto il mondo” ma non risponde a nessuna delle domande che ci siamo posti. Diverse decine di Streamer di alto profilo, e centinaia di creatori di contenuti emergenti, hanno sviluppato l’ansia da ban ovvero la paura di essere tagliati fuori dal loro pubblico che ci hanno messo anni a costruire.

Sviluppare una audience su Twitch (a meno di non essere già famosissimi) è un processo che richiede anni, migliaia di ore di live e migliaia di euro di investimenti. Sperimentare, e quindi attirare nuove persone, richiede di spingersi ai limiti delle linee guida e senza una politica di moderazione chiara che spiega cause e conseguenze di ogni azione non è possibile crescere. Creatori di contenuti e pubblico si aspettavano di più da questo rapporto e sicuramente resteranno alle calcagna della piattaforma di Amazon per saperne di più.