Anche le macchine esagerano: dopo oltre 300 mila reclami YouTube si appresta a diminuire la moderazione automatizzata basata sull'intelligenza artificiale
La più grande piattaforma video del mondo, YouTube di Google, in piena pandemia da coronavirus aveva potenziato la moderazione di video e commenti tramite intelligenza artificiale. Il motivo era chiaro: sempre meno esseri umani in carne ed ossa potevano recarsi in ufficio a fare quel lavoro. Adesso, però, YouTube tira le somme e fa un passo indietro.
Questa scelta, obbligata, ha portato infatti ad una moderazione eccessiva con conseguenze pesanti (fino alla “demonetizzazione“) a carico di molti YouTuber. Per questo Google ha dichiarato al Financial Times che ha intenzione di ridurre la moderazione a carico degli algoritmi e di volerla spostare nuovamente nelle mani (e nelle intelligenze naturali) dei suoi dipendenti. YouTube also admitted that it expected a less than excellent result from the machines, but basically couldn't do otherwise due to force majeure. As soon as the health situation allows it, therefore, YouTube will also return to the pre-covid situation.
How moderation works on YouTube
Like all global platforms and services, YouTube has a precise and strict policy that contains everything that can be done and said in a video and everything that is forbidden. Violence, vulgarity, sex, racism, bullying and much more is formally forbidden and those who don't follow the rules risk a penalty that can go as far as banning and closing the channel.
Moderation of every single video and every single comment to videos is partly human and partly automated. For an algorithm, for example, it is easy to quickly understand if swear words are pronounced in the video or if vulgarities are written in the description or in a comment.
It is already more difficult, however, to understand if the reasoning made by a YouTuber contains an undertone of racism or incites hatred, violence or committing crimes. Where the machine does not arrive, therefore, man arrives. That's how YouTube's moderation works, and for a long time it worked quite well.
The AI that makes mistakes
During the crucial phase of the pandemic, YouTube was also forced to leave many employees at home and made up for their absence by strengthening the automated part of moderation. Ma i risultati non sono stati buoni.
Gli algoritmi, infatti, si sono rivelati troppo rigidi e hanno portato ad una gran quantità di moderazioni eccessive, con tutte le conseguenze immaginabili: 11 milioni di video sono stati rimossi tra aprile e giugno 2020 e YouTube ha ricevuto 320 mila reclami da parte dei suoi creator, infuriati per un video rimosso senza un motivo comprensibile.
Molti creator, poi, hanno assistito all’acuirsi del fenomeno della “demonetizzazione“, sia su singoli video che su interi canali. In pratica, cioè, nei video YouTube non inserisce più le pubblicità automatiche e questo porta a grosse perdite economiche per i creatori di alto livello.
La risposta di Google a questi problemi, quindi, sarà quella di fare un passo indietro: meno AI, più esseri umani.