El poder de Taylor Swift se refleja en una posible regulación de la IA

Luego de la reproducción de deepfakes de la cantante, los legisladores de Estados Unidos están trabajando en una nueva ley para castigar este tipo de contenidos.

Taylor Swift no sólo es influyente en la industria musical, también lo es en la tecnológica y muestra de ello es que los legisladores de Estados Unidos están acelerando sus esfuerzos para legislar el impacto las imágenes falsas generadas por Inteligencia Artificial generativa (deepfakes), luego de que se difundieran este tipo de imágenes explícitas con el rostro de la cantante.

De acuerdo con la recién propuesta Ley de Interrupción de Imágenes Falsificadas Explícitas y Ediciones No Consensuales (DEFIANCE, por sus siglas en inglés), las víctimas de este tipo de imágenes podrán demandar y cobrar daños financieros a quienes las hayan creado sin su consentimiento o incluso a quien las tenga en su poder con la intención de difundirlas.

Este proyecto de ley está basado en una disposición de la Ley de Violencia contra las Mujeres de 2022, en la cual existe un castigo similar para quien difunda imágenes explícitas sin consentimiento.

Dick Durbin, líder de la mayoría en el Senado, así como los senadores Lindsey Graham, Amy Klobuchar y Josh Hawley, fueron quienes presentaron la iniciativa en respuesta a un volumen “exponencialmente” creciente de imágenes explícitas manipuladas digitalmente.

En referencia al caso de Taylor Swift, los legisladores resaltaron el poder de la tecnología “para explicitar y acosar a las mujeres , particularmente a figuras públicas, políticas y celebridades”.

La semana pasada se difundieron imágenes generadas con IA de la artista a través de diversas plataformas e incluso provocaron que X bloqueara las búsquedas relacionadas con el nombre de la cantante. Aunque las fotografías se eliminaron, algunas de ellas superaron las 47 millones de visualizaciones totales.

Cabe resaltar que la Ley DEFIANCE se propuso como forma de responder a las imágenes generadas por IA, pero no se limita a ellas, pues también incluye a cualquier imagen manipulada por algún software de edición, “aprendizaje automático, IA, o cualquier otro medio tecnológico o generado por computadora”.

En Estados Unidos, si bien existen leyes que prohíben la pronografía generada por IA y no consentida, no existe una ley penal federal que prohíba la difusión de las deepfakes explícitas; sin embargo, el caso de Swift puso en el centro de la conversación el tema para la administración Biden.

Swift, al ser una de las artistas que más arraigo tiene entre sus fanáticos, ya ha generado la reacción de líderes tecnológicos y políticos. El viernes, el CEO de Microsoft, Satya Nadella, dijo en una entrevista que estas imágenes falsas son “alarmantes y terribles”.

También consideró que las empresas de inteligencia artificial deben asumir la responsabilidad de “actuar rápido” en la implementación de mejores barreras de seguridad para evitar la proliferación de este tipo de contenido, lo cual encontró eco en la Casa Blanca.

Karine Jean-Pierre, secretaria de prensa de la Casa Blanca, también intervino en la conversación y pidió al Congreso de los Estados Unidos que tome medidas legislativas para proteger a las personas de la pronografía deepfake.

Hasta ahora, los miembros del Congreso han presentado varios proyectos de ley para abordar este asunto, pero la mayoría no han sido aprobados. A inicios de este mes, por ejemplo, se presentó una ley para prohibir el uso de la IA para imitar a alguien sin permiso, pero no ha avanzado debido a que plantea interrogantes sobre expresiones artísticas.

México cuenta con regulaciones sobre el contenido generado por IA

 

En México, una de las legislaciones más avanzadas en temas de violencia sexual digital es la Ley Olimpia, la cual destaca que la manipulación de imágenes a través de IA también representa una forma de violencia digital.

Sin embargo, de acuerdo con lo reportado por este mismo medio , en el país todavía persiste la falta de autoridades (desde peritos, policías de investigación e incluso ministerios públicos) preparadas para atender este tipo de casos.

“Se publica la ley y no tenían unidades especializadas, no sabían cómo se tenía que iniciar la carpeta ni qué pruebas pedir a las víctimas. Si como Fiscalía no tienes herramientas técnicas, peritos técnicos para poder llevar la investigación, el resultado va a ser que lo dejes en libertad”, comentó a Expansión la coordinadora de Proyectos en Impunidad Cero, Leslie Jiménez Urzúa.

Por otra parte, a mediados de noviembre pasado, el diputado federal Miguel Torruco, presentó una iniciativa de reforma al Código Penal Federal con el objetivo de castigar hasta con ocho años de cárcel, a quien use IA para alterar o generar contenidos en perjuicio de alguien más, lo cual amplía el alcance de las penalizaciones a diferentes productos, como video, audios, grabaciones de voz y no sólo imágenes.