TikTok alertará cuando un contenido esté generado por IA

Esta característica ya estaba disponible, pero sólo cuando se hacía con las herramientas de TikTok. Ahora también se aplicará para otras plataformas, como ChatGPT.

TikTok quiere que sus usuarios sepan cuando un contenido está hecho por Inteligencia Artificial generativa sin importar la plataforma con que se haya creado. Para ello anunció una serie de alianzas para transparentar y alfabetizar a los usuarios en torno a esta tecnología.

De acuerdo con un anuncio que hizo la empresa, esta se asoció con la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) con el fin de etiquetar automáticamente estos productos y contribuir en el combate de la desinformación en línea. Asimismo, lanzó una serie de recursos de alfabetización mediática, los cuales desarrolló con la orientación de expertos.

Cabe resaltar que actualmente el contenido hecho por IA ya se etiqueta en TikTok, pero sólo cuando está hecho con herramientas propias de la plataforma. Con estas nuevas medidas también se identificarán aquellos productos hechos en otras plataformas, como ChatGPT, sean de tipo realista o no.

La empresa detalló que al ser parte de la Coalición, dentro de cada contenido se adjuntan «metadatos», los cuales se utilizan para reconocer y etiquetar instantáneamente cuando se trata de IA.

¿Cuándo estará disponible?

 

Esta nueva herramienta ya comenzó a implementarse hoy en algunos territorios y TikTok resaltó que debería aplicarse a todos los usuarios a nivel mundial durante las próximas semanas.

Asimismo, informó que en los siguientes meses las etiquetas permanecerán en el contenido de TikTok incluso después de descargarlo. Eso significa que cualquiera podrá utilizar la herramienta Verify de C2PA para ayudar a contenido generado por IA proveniente de TikTok e incluso saber cuándo, dónde y cómo se hizo o editó.

Dentro de la Iniciativa de Autenticidad de Contenido (CAI), liderada por Adobe, también participan otras grandes tecn

A inicios de esta semana OpenAI anunció una herramienta para detectar deepfakes y así disminuir los riesgos que representan para los procesos de votación que se están llevando a cabo este año en todo el mundo.

La herramienta está diseñada para detectar contenido creado a partir de su IA generativa DALL-E y de acuerdo con Sandhini Agarwal, investigadora de seguridad y políticas de OpenAI, este recurso tendrá la capacidad de identificar correctamente el 98.8% de las imágenes creadas por DALL-E 3, que es la versión más actualizada del generador de imágenes.

Sin embargo, la especialista resaltó que la nueva herramienta no es capaz de detectar productos generados por otras plataformas de Gen AI, como Midjourney o Stability.

Por otra parte, la plataforma de videos cortos dijo trabajar con expertos para desarrollar campañas de alfabetización mediática que pueden ayudar a nuestra comunidad a identificar y pensar críticamente sobre el contenido hecho con IA y la desinformación.

ológicas, como Meta o Google, para identificar y etiquetar el contenido de IA en plataformas como Instagram, Facebook y YouTube.