Basta contenuti non originali, di bassa qualità o generati automaticamente: è guerra alle intelligenze artificiali.
[ZEUS News - www.zeusnews.it - 10-07-2025]
YouTube ha deciso di agire attivamente contro i contenuti di bassa qualità e in particolare contro quelli generati automaticamente, comunemente indicati come AI slop. In base alle nuove regole che entreranno in vigore il 15 luglio, lo YouTube Partner Program vieterà la monetizzazione di video prodotti in massa, ripetitivi o privi di contenuti originali. Il colosso tenta in questo modo di ridurre l'appetibilità dei canali che sfruttano l'AI per generare contenuti come compilation musicali automatiche o video di cronaca falsi.
La mossa, accolta per lo più con entusiasmo, potrebbe aiutare a ridefinire "l'ecosistema digitale": vuole spingere le altre piattaforme a seguire l'esempio liberandosi dei contenuti più poveri. Le nuove linee guida sono dettagliate nella sezione Norme della Community di YouTube: colpiscono contenuti che violano le regole su spam, pratiche ingannevoli e frodi, come video generati automaticamente senza valore aggiunto o che riciclano clip altrui senza contesto creativo. La piattaforma specifica che i video di reazione, le clip modificate con commenti originali o i contenuti educativi generati dalla IA non saranno penalizzati, a patto che mostrino "autenticità". Tuttavia, canali che pubblicano musica automatizzata o video ripetitivi, come quelli che hanno raggiunto milioni di iscritti senza intervento umano, perderanno l'accesso alla monetizzazione.
La mossa di YouTube non è dovuta a una particolare presa di coscienza della situazione difficile che stanno vivendo i "creatori" che producono contenuti di qualità: la piattaforma teme che l'AI slop possa danneggiare la sua reputazione, allontanando gli inserzionisti. I creatori di contenuti che violano le norme riceveranno un avviso iniziale; seguiranno limitazioni temporanee e si arriverà alla chiusura del canale dopo tre avvertimenti in 90 giorni, come previsto dalle Norme della Community. Gli utenti possono segnalare contenuti inappropriati tramite l'app stessa di YouTube.
Il fenomeno dell'AI slop è esploso con la diffusione di strumenti come Canva e Invideo AI, che permettono di creare video da semplici prompt testuali. Questi strumenti, pur utili, hanno generato un'ondata di contenuti di bassa qualità: per esempio video virali di true crime rivelatisi falsi, o truffe di phishing che usano l'immagine del CEO di YouTube Neal Mohan. YouTube già rimuove un miliardo di commenti spam all'anno grazie al machine learning; ora punta a identificare i video AI con algoritmi avanzati, combinando revisione umana e automatica.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
||
|
fingam