Tecnología
Meta identificará en sus redes sociales audios, imágenes y videos generados por IA
Los contenidos generados por IA serán marcados por la plataforma.
A partir de mayo Meta identificará en sus redes sociales audios, imágenes y videos generados por inteligencia artificial. Así lo informó este viernes, 5 de abril, el gigante tecnológico estadounidense, casa matriz de Facebook, Instagram y Threads.
“Prevemos empezar a etiquetar en mayo de 2024 contenido generado por IA”, indicó en su blog Monika Bickert, vicepresidenta de contenido de Meta, añadiendo que la mención “Made with AI” , que ya se usa en imágenes fotorrealistas, se aplicaría en adelante a “un mayor número de contenidos de video, audio y de imágenes”.
Estos contenidos serán marcados por la plataforma si detecta “indicadores de imagen de IA conformes a las normas de la industria” o si “las personas indican que están subiendo contenidos generados por IA”, destacó.
De forma general, el grupo californiano anuncia que modificará su forma de tratar los contenidos creados con la IA, después de consultar a su junta de supervisión, ya que considera que “la transparencia y un mayor contexto son ahora la mejor manera de tratar los contenidos manipulados”.
Con ello se evita “el riesgo de restringir innecesariamente la libertad de expresión”. En lugar de eliminarlos, como había estado haciendo hasta ahora, ahora agregará “etiquetas y contexto” a estos contenidos.
Sin embargo, advirtió Meta, cualquier contenido, ya sea creado por un humano o una IA, que viole sus reglas “contra la interferencia en procesos electorales, la intimidación, el acoso, la violencia (...) o cualquier otra política en nuestras normas comunitarias” será retirado.
Meta reafirmó que confía en su red de “aproximadamente 100 verificadores de datos independientes” para detectar contenidos generados por IA “falsos o engañosos”.
La empresa matriz de Facebook anunció en febrero su deseo de etiquetar todas las imágenes generadas por IA para luchar contra la desinformación. Otros gigantes como Microsoft, Google u OpenAI han asumido compromisos similares.
El temor es que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación o la información errónea. Hay varias elecciones importantes este año, especialmente en Estados Unidos.
Más allá de esas citas electorales, el desarrollo de programas de IA generativa conlleva la producción de un flujo de contenido degradante, según muchos expertos y reguladores, como las falsas imágenes (“deepfakes”) pornográficas de mujeres famosas, un fenómeno que también afecta a personas anónimas.
En contraste, la herramienta CrowdTangle, considerada vital para vigilar la desinformación en las redes sociales, será eliminada por el grupo estadounidense Meta en los próximos meses, un movimiento que los investigadores califican de “retroceso” en un año con elecciones en numerosos países.
La empresa propietaria de Facebook e Instagram anunció que CrowdTangle dejará de estar disponible a partir del 14 de agosto, menos de tres meses antes de la elección en Estados Unidos. El gigante tecnológico planea sustituirla con una nueva herramienta que, advierten los investigadores, no posee las mismas funciones y no estará disponible de forma generalizada para las organizaciones periodísticas.
Durante años, CrowdTangle ha sido una plataforma fundamental para periodistas e investigadores, porque permite seguir en tiempo real la proliferación de teorías de la conspiración y discursos de odio en las influyentes redes propiedad de Meta, incluidas Facebook e Instagram.
*Con información de AFP.
Regístrate gratis a nuestro boletín de noticias
Recibe todos los días en tu correo electrónico contenido relevante para iniciar la jornada. ¡Hazlo ahora y mantente al día con la mejor información digital!