A partir del 15 de julio, la plataforma ajustará sus reglas de monetización para frenar la proliferación de videos repetitivos, producidos en masa o creados con IA generativa.
YouTube se prepara para actualizar sus políticas con el objetivo de restringir la monetización de contenido “no auténtico”, como los videos producidos en masa o repetitivos, cuya creación se ha facilitado con el uso de inteligencia artificial (IA).
A partir del 15 de julio, la plataforma modificará las directrices del Programa de Socios de YouTube (YPP) para incluir pautas más específicas sobre qué tipo de contenido es elegible para generar ingresos y cuál no.
Aunque el texto definitivo aún no se ha publicado, una página de la documentación oficial de ayuda aclara que los creadores siempre han debido subir contenido “original” y “auténtico”. La nueva redacción, según indica la compañía, servirá para aclarar cómo se define el contenido “no auténtico” en el contexto actual.
La actualización ha generado inquietud entre algunos creadores, quienes temen que afecte la monetización de videos de reacciones o aquellos que incluyen clips de terceros. Sin embargo, Rene Ritchie, director de enlace editorial y con creadores de YouTube, aclaró en una reciente publicación en video que ese no será el caso.
Según explicó, se trata de una “actualización menor” que refuerza políticas ya existentes y busca identificar más eficazmente contenido repetitivo o producido en masa, que tradicionalmente se considera como spam y, por tanto, no monetizable.
No obstante, Ritchie omitió mencionar lo mucho más sencillo que resulta hoy en día crear ese tipo de videos. Con el auge de las herramientas de IA generativa, YouTube se ha visto inundado de contenido de baja calidad —conocido como "basura de IA"—, como narraciones automatizadas superpuestas a imágenes o clips reciclados. Este fenómeno ha impulsado canales con millones de suscriptores, e incluso ha originado videos falsos sobre noticias actuales, como el juicio del rapero Diddy, que acumulan millones de visualizaciones.
Un caso llamativo ocurrió a principios de este año, cuando 404 Media reveló que una serie viral sobre crímenes reales había sido completamente generada por IA. Incluso la imagen del director ejecutivo de YouTube, Neal Mohan, fue utilizada en una estafa de phishing mediante un deepfake, a pesar de que la plataforma ofrece herramientas para denunciar ese tipo de contenido.
Aunque YouTube minimiza los cambios al describirlos como meras aclaraciones, lo cierto es que la difusión de contenido creado con IA y su monetización pueden dañar la reputación y el valor de la plataforma.
En este contexto, no resulta sorprendente que la empresa busque establecer políticas claras para excluir del programa de socios a quienes produzcan contenido considerado como basura digital.