Investigación.

TikTok y la sexualización de menores: millones de seguidores y una peligrosa "normalización" de este contenido

- En TikTok existen cuentas que publican miles de videos de menores en poses eróticas

- Publican enlaces para comercializar o intercambiar pornografía infantil

El Editor Mendoza | ElEditor Mendoza
Por ElEditor Mendoza
16 de diciembre de 2025 - 08:30

Una investigación advierte que TikTok se ha convertido en un espacio donde proliferan contenidos que sexualizan a menores, tanto reales como generados con inteligencia artificial. El informe expone que cuentas activas con más de un millón de seguidores reutilizan videos de niñas, crean imágenes falsas con rasgos infantiles y derivan a los usuarios hacia canales de Telegram y sitios externos donde se comercializa pornografía infantil.

Embed - WIRED en español on Instagram: "La p3d0f1l1a avanza en TikTok. La plataforma hace poco para frenar que los usuarios vean videos reales o creados con IA de menores en situaciones que violan sus propias normas. Una investigación del medio español @maldita.es encontró que en TikTok no solo proliferan los videos que sexualizan a menores de edad, sino también se promueven estos contenidos por medio de su algoritmo, usuarios se benefician económicamente de su difusión, y la plataforma difícilmente llega a sancionar las cuentas que violan sus propias normas de conducta en esta materia. Los reportes no bastan: muchos videos siguen arriba por horas o días. El algoritmo termina por normalizar su consumo y deja claro lo fácil que es acceder a este tipo de contenido con solo abrir una cuenta. Maldita.es analizó decenas cuentas de este tipo en la plataforma, muchas de las cuales usan palabras como “colegialas” en su nombre. Según el medio, estas cuentas acumulan más de un millón de seguidores y han publicado miles de videos en la app. Encima de eso, en muchas publicaciones se leen comentarios que hacen sugerencias sexuales a las menores (sean reales o no), o lo que es más problemático, incluyen enlaces a cuentas de Telegram o páginas de internet donde venden o intercambian pornografía infantil. A través de las opciones que brinda la app, Maldita.es denunció 15 cuentas que compartían videos de menores sexualizadas generados con IA, pero la plataforma determinó que solo una incumplía sus políticas y todas las demás seguían operando 72 horas después. La preocupación crece entre padres de niños y adolescentes que usan la app. Cualquier imagen o video puede manipularse con IA, lo que pone en riesgo la identidad, la privacidad y la integridad de miles de menores. Estas dinámicas amplían un problema grave que las plataformas siguen sin atender con la responsabilidad necesaria. Encuentra más detalles de la investigación en el del perfil de @wiredenespanol. : Getty."
View this post on Instagram

La investigación, que pertenece al medio español Maldita.es, revela que ante estos casos los mecanismos de denuncia resultan ineficaces. La mayoría de las cuentas reportadas siguieron activas. En el informe explican:

"Estas cuentas incumplen con la prohibición de TikTok sobre cuentas que sexualizan a menores con contenido creado con IA. Desde Maldita.es hemos denunciado 15 cuentas usando los canales habilitados y todas seguían disponibles 3 días después"

Inteligencia Artificial y contenido real: una frontera difusa

Respecto al contenido de las cuentas, estos perfiles monetizan la venta de imágenes y videos creados con IA, tanto dentro como fuera de la plataforma, y funcionan como puerta de entrada hacia redes que comercializan material de abuso sexual infantil real. Maldita.es identificó al menos 12 canales de Telegram vinculados a estas cuentas y denunció los hallazgos ante la Policía Nacional de España.

La serie de reportajes documentó 40 cuentas activas con más de 1,5 millones de seguidores y 8.800 videos, que incluyen tanto contenidos generados con IA como material de menores reales reutilizado sin consentimiento. En paralelo, se detectó la republicación masiva de videos originales de niñas y adolescentes, muchos de ellos con marcas de agua visibles, lo que facilita su rastreo por parte de usuarios adultos y amplifica el riesgo de explotación.

La legislación argentina

En Argentina, el artículo 128 del Código Penal sanciona la producción, distribución, comercialización y tenencia de material que represente a niñas, niños o adolescentes en actividades sexuales explícitas o con fines sexuales. La ley utiliza el término “representación”, sin limitarlo a imágenes obtenidas de hechos reales, lo que habilita a que el alcance del delito incluya contenidos creados o modificados digitalmente, siempre que sexualicen a menores de 18 años.

La interpretación jurídica se apoya en que este tipo de material contribuye a la circulación, consumo y normalización de la explotación sexual infantil en entornos digitales. Por ese motivo, el uso de tecnologías como la IA no constituye un vacío legal ni un atenuante, y su difusión o posesión puede derivar en responsabilidad penal.

Dejá tu comentario

LO QUE SE LEE AHORA
Tormentas en el Gran Mendoza: ¿hasta cuándo se extenderán?

Las más leídas

Te Puede Interesar