Recommended

La página actual: Mundo |
La inteligencia artificial abre la puerta para que los depredadores abusen sexualmente de los niños, advierten los expertos

La inteligencia artificial abre la puerta para que los depredadores abusen sexualmente de los niños, advierten los expertos

Getty Images/Oscar Wong

La inteligencia artificial ha hecho que sea más fácil para los depredadores abusar sexualmente de los niños y más difícil para las agencias de aplicación de la ley responsabilizar a estos malos actores, según un informe reciente.

La principal agencia de aplicación de la ley de Gran Bretaña, la Agencia Nacional del Crimen, advirtió que hay entre 680 y 830,000 adultos en el Reino Unido que representan un riesgo sexual para los niños.

El director general de la NCA, Graeme Biggar, dijo en un discurso reciente que la agencia destacó cómo el número es "aproximadamente 10 veces la población carcelaria" y señaló que ilustra los peligros de Internet. 

Gracias a Internet, los depredadores sexuales pueden acceder o compartir fácilmente videos e imágenes de abuso sexual infantil, y ahora, con AI, NCA ha comenzado a ver imágenes y videos hiperrealistas de este tipo de contenido.

“El uso de IA para el abuso sexual infantil nos dificultará identificar a los niños reales que necesitan protección y normalizar aún más el abuso”, dijo Biggar. “Y eso es importante porque evaluamos que la visualización de estas imágenes, ya sean reales o generadas por IA, aumenta materialmente el riesgo de que los delincuentes pasen a abusar sexualmente de los niños”. 

“Tampoco hay duda de que nuestro trabajo se está haciendo más difícil a medida que las principales empresas de tecnología desarrollan sus servicios, incluida la implementación del cifrado de extremo a extremo, de una manera que saben qué hará que sea más difícil para las fuerzas del orden detectar e investigar delitos. y proteger a los niños".

La Internet Watchdog Foundation, una organización que garantiza que Internet sea seguro para los niños mediante la eliminación de imágenes de abuso sexual infantil, pidió la implementación de medidas de seguridad en línea más estrictas en respuesta al informe de la NCA. 

“El aumento de la actividad en línea de los delincuentes, descrito como la nueva 'primera línea' por la NCA, significa que no podemos esperar que los niños naveguen de forma segura los riesgos en línea por su cuenta”, dijo la directora ejecutiva de IWF, Susie Hargreaves OBE, en un comunicado el mes  pasado  . “Necesitamos asegurarnos de que existan salvaguardas tecnológicas para proteger a los niños”. 

Hargreaves enfatizó que es "vital" que las empresas que usan o planean usar el cifrado de extremo a extremo también introduzcan medidas de seguridad para evitar el abuso de niños en línea. 

"Algunas plataformas en línea continúan brindando a los depredadores una forma de iniciar el contacto con los niños, lo que brinda oportunidades para la preparación, el abuso sexual infantil en línea y el abuso físico", continuó.

"Existe el peligro de que, si las empresas de tecnología introducen el cifrado de extremo a extremo en sus plataformas, será aún más difícil identificar y detener a los depredadores en línea".

Como explica la IWF en su sitio web , el cifrado de extremo a extremo es una forma de privacidad en línea, pero va más allá del cifrado estándar y señala que, en las redes sociales, "los mensajes cifrados de extremo a extremo solo pueden ser visto por el emisor y el receptor".

“Teóricamente, eso suena bien”, declaró IWF. “Pero sin garantías adicionales, no hay oportunidad, ni siquiera para la empresa que proporciona la plataforma de mensajería, de detectar y evitar que se comparta contenido delictivo, como imágenes de abuso sexual infantil”. 

En junio, el FBI emitió una advertencia sobre cómo los actores maliciosos pueden usar la IA para editar imágenes o videos de personas para que parezcan más sexuales, y algunas de las víctimas en estos casos de sextorsión han sido menores. La sextorsión es un delito que consiste en manipular a una víctima mediante el uso de imágenes o videos sexualmente explícitos.

"Los actores maliciosos usan tecnologías y servicios de manipulación de contenido para explotar fotos y videos, generalmente capturados de la cuenta de redes sociales de un individuo, Internet abierto o solicitados por la víctima, en imágenes de temática sexual que parecen reales en semejanza a una víctima, luego circularlos en las redes sociales, foros públicos o sitios web pornográficos”, advirtió el FBI, según informó Fox News . 

Según el FBI, las víctimas a menudo no saben que alguien ha manipulado su imagen y la ha hecho circular por Internet. La agencia también notó un aumento del 463 % en los casos de sextorsión denunciados entre 2021 y 2022, y señaló que la IA ha facilitado que los depredadores exploten a las víctimas.

Sin embargo, Yaron Litwin, ejecutivo de Canopy, habría desarrollado un software de inteligencia artificial que bloquea este tipo de imágenes manipuladas y envía alertas.

"Nuestra tecnología es una plataforma de IA que se ha desarrollado durante 14 años... y puede reconocer imágenes con video y una imagen en fracciones de segundo", dijo Litwin a Fox News Digital.

"La plataforma en sí también filtrará en tiempo real cualquier imagen explícita mientras navega por un sitio web o una aplicación y realmente evitará que aparezca mucha pornografía en línea".