La plataforma digital TikTok aseguró en un informe conocido este miércoles que en septiembre eliminó unos cuatro millones de videos en la Unión Europea (UE), por violación de sus guías de uso.
En un informe sobre transparencia, la plataforma -de propiedad de la firma china ByteDance- sostuvo que tiene un equipo de 6.125 personas trabajando en moderación de contenido en la UE, en todos los idiomas del bloque (468 en español).
Este informe es parte de las obligaciones de TikTok para operar en el espacio europeo a la luz de la Ley de Servicios Digitales (DSA, en inglés), con que la UE busca regular la operación de las grandes plataformas.
El documento menciona también que en el mes de septiembre TikTok tenía en los países de la UE nada menos que 134 millones de usuarios.
Como parte de las obligaciones a la luz de la DSA, por ejemplo, TikTok incorporó un mecanismo por el cual los usuarios pueden reportar un video considerado ilegal.
Según el informe, en septiembre Tiktok eliminó 17 videos por pedido explícito de gobiernos de la UE. El informe sostiene que en promedio el tiempo necesario para tomar una determinación ha sido de 13 horas durante septiembre.
Los datos del informe, sin embargo, no mencionan el volumen de videos eliminados en meses anteriores, como para delinear una tendencia o comprender el significado del total registrado en septiembre.
Hace una semana, la Comisión Europea (brazo ejecutivo de la UE) anunció los primeros pasos de una investigación sobre desinformación y contenido ilegal en las plataformas digitales luego del ataque del grupo islamista Hamás en territorio israelí.
En esa investigación, la Comisión Europea solicitó a TikTok y otras plataformas (X, Facebook e Instagram) informaciones adicionales sobre medidas adoptadas para impedir la diseminación de desinformación y contenido ilegal, violento o con discurso de odio.
UE abre investigación sobre desinformación en Meta y TikTok en conflicto entre Israel y Hamás
La Comisión Europea (brazo ejecutivo de la Unión Europea, UE) anunció haber iniciado investigaciones sobre desinformación en las redes sociales propiedad de Meta (Facebook e Instagram) y TikTok relacionada con el conflicto entre Israel y el grupo islamista Hamás.
La Comisión dijo que presentó demandas formales de informaciones adicionales a las dos empresas, una semana después de haber lanzado un procedimiento de investigación contra la red X (antes Twitter).
En el caso de Meta, la Comisión anunció que solicitó informaciones por la “diseminación y amplificación de contenido ilegal” sobre el conflicto entre Israel y Hamás.
Con relación a TikTok, demandó datos sobre los esfuerzos para evitar la diseminación de “contenido violento o de carácter terrorista y discurso de odio”, así como las medidas diseñadas para proteger a los menores de edad.
Meta y TikTok tienen plazo hasta el 25 de octubre para responder a las demandas de la Comisión, y hasta el 8 de noviembre para presentar informaciones más específicas.
Un portavoz de Meta aseguró que “nuestros equipos trabajan 24 horas al día para garantizar la seguridad de nuestras plataformas, y tomar medidas sobre contenidos”.
Igualmente, un portavoz de TikTok aseguró que la plataforma (de propiedad de la firma china Bytedance) adoptó medidas urgentes después del ataque perpetrado por milicianos del grupo Hamás en Israel.
Meta ya había asegurado que suprimió u ocultó con una advertencia unos 795.000 mensajes en árabe y hebreo; TikTok, en tanto, ya aseguró haber eliminado más de 500.000 videos y transmisiones en directo.
Junto con la Ley de Mercados Digitales (DMA, en inglés), la DSA constituye el intento de la UE de adoptar una normativa que reglamente el funcionamiento de las grandes plataformas en el espacio europeo.
*Con información de AFP.