100226VER_2031476918_.jpg

Crear porno deepfake con sólo unos pocos clics del ratón: esto es posible con los llamados Herramientas de nudificación. Estas aplicaciones y sitios web utilizan inteligencia artificial para crear fotografías de desnudos a partir de fotografías de personas vestidas. Más de cien organizaciones internacionales pidieron el martes una prohibición global de esta tecnología. Esto se utiliza cada vez más para crear imágenes (criminales) de mujeres y menores sin su consentimiento.

Esto tiene consecuencias de gran alcance para las víctimas, afirma Lotte Kreuwel de Victim Support Holanda. “Saben que las imágenes son falsas, pero como parecen tan realistas, otras personas no lo saben”, dice por teléfono. “Esto puede causar mucho miedo y vergüenza. A menudo se trata de víctimas jóvenes que no se atreven a hablar de ello”.

El hecho de que todo el mundo pueda utilizar las herramientas de IA con tanta facilidad también significa que no siempre está claro quién manipuló las imágenes, afirma Kreuwel. “Y no sabes dónde podrían resurgir las imágenes”.

Sextorsión y abuso infantil

Imágenes creadas con el Herramientas de nudificación se utilizan para sextorsión (chantaje con fotografías de desnudos), ciberacoso y abuso infantil. Los firmantes del llamamiento del martes, entre ellos Interpol y el relator nacional holandés sobre la trata de personas y la violencia sexual contra los niños, piden por lo tanto una prohibición global inmediata: “Esta función no tiene ningún propósito útil y debería declararse ilegal de manera explícita y generalizada”.

No es casualidad que la convocatoria se publique con motivo del Día Mundial de una Internet Segura, que cada año llama la atención sobre un entorno en línea seguro para los menores. A principios de esta semana, Unicef ​​​​publicó una declaración sobre imágenes sexuales de niños generadas por IA.

Según la organización de la ONU, se trata de una “amenaza en rápido crecimiento”. En una nueva encuesta realizada en 11 países en colaboración con Interpol, 1,2 millones de niños dijeron el año pasado que sus fotografías fueron manipuladas para convertirlas en falsificaciones sexuales. Al igual que Apoyo a las Víctimas, Unicef ​​no ve la falta de autenticidad de las imágenes como una circunstancia atenuante. “El abuso de los deepfake es abuso, y el daño que causa no es malo”, afirmó UNICEF.

Leer también

Cualquiera puede hacer porno con IA, el abuso acecha. “Hago realidad mi fantasía sexual”

Comisión Europea

La agencia especializada en abusos en línea Offlimits también firmó el manifiesto. El director general Robbert Hoving califica de “poderoso” el carácter internacional de la convocatoria. “En cuanto a las regulaciones, los países varían enormemente. En los Países Bajos, la producción de pornografía basada en IA está prohibida, pero si todavía está permitida en los EE. UU., por ejemplo, es posible que todavía haya víctimas aquí”.

Según Hoving, los Países Bajos también deben tomar medidas en los ámbitos de aplicación y supervisión. Por el momento esto es posible. Herramientas de nudificación todavía se puede encontrar a través de motores de búsqueda.

Un grupo de 57 diputados ya pidió la prohibición de las “aplicaciones para vestir” en una comunicación a la Comisión

El tema también recibió mucha atención en Bruselas el mes pasado, incluso en respuesta a informes sobre el X-chatbot Grok, que inundó Internet con pornografía de mujeres y niños mediante IA. Un grupo de 57 eurodiputados de todo el espectro político pidió la prohibición de las “aplicaciones para desnudar” en una comunicación a la Comisión Europea. Esto debería estar regulado en la legislación europea sobre IA.

Al director de Offlimits, Hoving, le gustaría ver eso. “Tenemos un artículo en la ley europea de IA con aplicaciones prohibidas, pero no está incluido”. Hoving encuentra esto “extraño”, por decir lo menos. “¿Por qué debería ser posible? Nosotros decimos: abordar a las empresas y a las personas que están detrás de ellas”.

Leer también

X trae nuevas restricciones al uso de Grok, pero desvestir a la gente sigue siendo fácil

Según X, se han realizado ajustes en los algoritmos de Grok para evitar que los usuarios simplemente soliciten imágenes de mujeres en bikini generadas por IA.





Principios periodísticos de la NRC

Referencia

About The Author