Recommended

La página actual: Politica |
Los legisladores buscan obligar a las empresas de tecnología a eliminar la pornografía deepfake

Los legisladores buscan obligar a las empresas de tecnología a eliminar la pornografía deepfake

Getty Images

Un grupo bipartidista de senadores encabezado por el senador Ted Cruz, republicano por Texas, presentó el miércoles un nuevo proyecto de ley en el Congreso para exigir que las plataformas de tecnología y redes sociales eliminen cualquier pornografía deepfake dentro de las 48 horas posteriores a su detección.

Esta iniciativa bipartidista busca proporcionar un marco legal más sólido para combatir la amenaza emergente de contenido abusivo manipulado digitalmente. 

La Ley TAKE IT DOWN propone sanciones más estrictas para las personas y empresas de tecnología que no eliminen contenido dañino dentro de las 48 horas posteriores a la solicitud de la víctima. Las personas declaradas culpables de crear y distribuir pornografía deepfake podrían enfrentar hasta dos años de prisión por imágenes de adultos y hasta tres años por imágenes que involucren a niños.

El incumplimiento diligente por parte de una empresa podría clasificarse como una práctica desleal o engañosa según la Ley de la Comisión Federal de Comercio.

Encabezado por Cruz, el proyecto de ley también está patrocinado por la senadora Amy Klobuchar, demócrata por Minnesota, Cynthia Lummis, republicana por Wyoming, Richard Blumenthal, demócrata por Connecticut, Shelley Moore Capito, RW.Va., Jacky Rosen, demócrata por Nevada, Ted Budd, RN.C., Laphonza Butler, demócrata por California, Todd Young. Republicano por Indiana, Joe Manchin, IW.Va., John Hickenlooper, demócrata por Colorado, Bill Cassidy, republicano por Luisiana y Martin Heinrich. DN.M.

"En los últimos años, hemos sido testigos de un aumento sorprendente en el material sexual de explotación en línea, en gran parte debido a que los malos actores se aprovechan de tecnologías más nuevas como la inteligencia artificial generativa", dijo Cruz en un comunicado.

"Muchas mujeres y niñas resultan perjudicadas para siempre por estos crímenes y tienen que vivir con el hecho de ser victimizadas una y otra vez... Si bien algunos estados ofrecen remedios legales para las víctimas de imágenes íntimas no consensuales, los estados contarían con el apoyo adicional de un estatuto federal uniforme. que ayuda a eliminar y procesar la publicación de imágenes íntimas no consentidas en todo el país".

Cruz cree que el proyecto de ley pondría la "responsabilidad de los sitios web de contar con procedimientos para eliminar estas imágenes".

Al elogiar el proyecto de ley, Melissa Henson, vicepresidenta del Consejo de Medios y Televisión para Padres, dijo en un comunicado que existe una necesidad urgente de esta legislación.

"Los niños y adolescentes se están convirtiendo en el blanco de la pornografía ultrafalsa. En este momento, las plataformas tecnológicas y de redes sociales no están dando prioridad a eliminar este tipo de contenido, lo que deja a las familias sin ningún lugar a donde acudir en busca de justicia", afirmó. 

El contenido deepfake utiliza inteligencia artificial para crear o alterar contenido de vídeo de manera tan convincente que puede resultar difícil detectarlo como falso.

"Es espantoso que los niños estén siendo sometidos a este tipo de abuso, que se magnifica a medida que se propaga en Internet. La industria tecnológica debe enfrentar esto y la 'Ley Take it Down' garantizará que la tecnología tenga la responsabilidad de actuar para eliminar los deepfake. pornografía", añadió Henson.

Haciéndose eco de las preocupaciones, otras voces de todo el espectro político y tecnológico han señalado las deficiencias de los mecanismos existentes para abordar tales abusos.

La plataforma de mensajería cifrada Telegram figuraba en la lista anual de la Docena Sucia del Centro Nacional sobre Explotación Sexual de facilitadores principales de explotación sexual debido a políticas laxas de moderación de contenido relacionadas con el abuso sexual basado en imágenes, incluida la pornografía deepfake y la distribución no consensuada de material explícito.

El tema ha tocado personalmente a políticos como la representante Alexandria Ocasio-Cortez, DN.Y., quien reveló su propio inquietante encuentro con la pornografía deepfake.

Mientras discutía legislación con sus asistentes, se topó con una imagen generada por IA que la representaba en un acto sexualmente explícito.

"Es impactante ver imágenes tuyas que alguien podría pensar que son reales", dijo Ocasio-Cortez a Rolling Stone . "Como sobreviviente de una agresión sexual física, esto añade un nivel de desregulación. Resurge el trauma".

Ocasio-Cortez encabeza la versión de la Cámara de la Ley de Interrupción de Imágenes Falsificadas Explícitas y Ediciones No Consensuales (DEFIANCE) de 2024, cuyo objetivo es facilitar acciones legales más fáciles para las víctimas de pornografía no consensual generada por IA.

Es más real de lo que algunas personas creen, dijo en ese momento, y agregó que afecta profundamente no sólo a las víctimas sino también a quienes lo ven y se involucran con él.

Breeze Liu, una sobreviviente del abuso de imágenes en línea, compartió su desgarradora experiencia con The New York Times en abril.

Después de descubrir un vídeo de ella misma en Pornhub, Liu sintió una abrumadora sensación de desesperación y pensó en suicidarse debido a la vergüenza y la violación que sentía. Fue uno de los momentos más devastadores de toda su vida, relató Liu. A pesar de la eliminación del vídeo original, continuaron circulando deepfakes de ella, lo que empeoró su trauma.

La lucha de Liu refleja la cuestión más amplia de la complicidad de las empresas tecnológicas en la proliferación de dicho contenido.

Nicholas Kristof, columnista de The Times, criticó el papel de motores de búsqueda como Google y Bing a la hora de facilitar el acceso a contenidos deepfake. Estas empresas monetizan a esas víctimas, dijo Kristof, sugiriendo que regulaciones y enmiendas más estrictas a la Sección 230 de la Ley de Decencia en las Comunicaciones podrían hacer que las empresas de tecnología sean más responsables.

La Ley TAKE IT DOWN y la Ley DEFIANCE buscan establecer un marco legal que penalice la creación y distribución de dicho contenido y empodere a las víctimas a buscar justicia.