La pornografía deepfake podría ser un problema creciente en medio de la carrera de la IA

Avatar del Listín Diario
Haleluya Hadero / APNueva York, Estados Unidos

Las imágenes de inteligencia artificial se pueden utilizar para crear arte, probarse ropa en probadores virtuales o ayudar a diseñar campañas publicitarias.

Pero los expertos temen que el lado más oscuro de las herramientas de fácil acceso pueda empeorar algo que daña principalmente a las mujeres: la pornografía falsificada no consentida.

Deepfakes son videos e imágenes que se han creado o alterado digitalmente con inteligencia artificial o aprendizaje automático. La pornografía creada con la tecnología comenzó a difundirse por Internet hace varios años cuando un usuario de Reddit compartió clips que colocaban los rostros de celebridades femeninas sobre los hombros de actores porno.

Desde entonces, los creadores de deepfakes han difundido videos e imágenes similares dirigidos a personas influyentes en línea, periodistas y otras personas con un perfil público. Existen miles de videos en una gran cantidad de sitios web. Y algunos han estado ofreciendo a los usuarios la oportunidad de crear sus propias imágenes, esencialmente permitiendo que cualquiera convierta a quien desee en fantasías sexuales sin su consentimiento, o use la tecnología para dañar a sus exparejas.

El problema, dicen los expertos, creció a medida que se hizo más fácil hacer deepfakes sofisticados y visualmente atractivos. Y dicen que podría empeorar con el desarrollo de herramientas de inteligencia artificial generativa que se entrenan en miles de millones de imágenes de Internet y arrojan contenido novedoso utilizando datos existentes.

“La realidad es que la tecnología continuará proliferando, continuará desarrollándose y seguirá siendo tan fácil como presionar un botón”, dijo Adam Dodge, fundador de EndTAB, un grupo que brinda capacitación sobre el abuso habilitado por la tecnología. . “Y mientras eso suceda, la gente indudablemente... seguirá haciendo un mal uso de esa tecnología para dañar a otros, principalmente a través de la violencia sexual en línea, la pornografía falsa y las imágenes falsas de desnudos”.

Noelle Martin, de Perth, Australia, ha experimentado esa realidad. La joven de 28 años encontró pornografía falsa de sí misma hace 10 años cuando, por curiosidad, un día usó Google para buscar una imagen de sí misma. Hasta el día de hoy, Martin dice que no sabe quién creó las imágenes falsas o los videos de ella teniendo relaciones sexuales que luego encontraría. Ella sospecha que alguien probablemente tomó una foto publicada en su página de redes sociales o en otro lugar y la transformó en pornografía.

Horrorizado, Martin se puso en contacto con diferentes sitios web durante varios años en un esfuerzo por eliminar las imágenes. Algunos no respondieron. Otros lo quitaron, pero ella pronto lo volvió a encontrar.

“No puedes ganar”, dijo Martin. “Esto es algo que siempre va a estar ahí fuera. Es como si te hubiera arruinado para siempre.

Cuanto más hablaba, dijo, más se intensificaba el problema. Algunas personas incluso le dijeron que la forma en que se vestía y publicaba imágenes en las redes sociales contribuyó al acoso, esencialmente culpándola a ella por las imágenes en lugar de a los creadores.

Finalmente, Martin centró su atención en la legislación y abogó por una ley nacional en Australia que multaría a las empresas con 555 000 dólares australianos (370 706 USD) si no cumplen con los avisos de eliminación de dicho contenido de los reguladores de seguridad en línea.

Pero gobernar Internet es casi imposible cuando los países tienen sus propias leyes para el contenido que a veces se hace al otro lado del mundo. Martin, actualmente abogada e investigadora legal en la Universidad de Australia Occidental, dice que cree que el problema debe controlarse a través de algún tipo de solución global.

Mientras tanto, algunos modelos de IA dicen que ya están restringiendo el acceso a imágenes explícitas.

OpenAI dice que eliminó el contenido explícito de los datos utilizados para entrenar la herramienta de generación de imágenes DALL-E, lo que limita la capacidad de los usuarios para crear ese tipo de imágenes. La compañía también filtra las solicitudes y dice que bloquea a los usuarios para que no creen imágenes de IA de celebridades y políticos prominentes. Midjourney, otro modelo, bloquea el uso de ciertas palabras clave y alienta a los usuarios a señalar las imágenes problemáticas a los moderadores.

El portavoz de Stability AI, Motez Bishara, dijo que el filtro utiliza una combinación de palabras clave y otras técnicas como el reconocimiento de imágenes para detectar desnudez y devuelve una imagen borrosa. Pero es posible que los usuarios manipulen el software y generen lo que quieran, ya que la empresa lanza su código al público. Bishara dijo que la licencia de Stability AI "se extiende a aplicaciones de terceros basadas en Stable Diffusion" y prohíbe estrictamente "cualquier uso indebido con fines ilegales o inmorales".

Algunas compañías de redes sociales también han endurecido sus reglas para proteger mejor sus plataformas contra materiales dañinos.

TikTok dijo el mes pasado que todos los deepfakes o contenido manipulado que muestra escenas realistas deben etiquetarse para indicar que son falsos o están alterados de alguna manera, y que ya no se permiten deepfakes de figuras privadas y jóvenes. Anteriormente, la compañía había prohibido el contenido sexualmente explícito y las falsificaciones profundas que engañan a los espectadores sobre eventos del mundo real y causan daño.

La plataforma de juegos Twitch también actualizó recientemente sus políticas sobre imágenes explícitas de falsificación profunda después de que se descubriera que un popular transmisor llamado Atrioc tenía un sitio web de pornografía falsa abierto en su navegador durante una transmisión en vivo a fines de enero. El sitio presentaba imágenes falsas de otros streamers de Twitch.

Twitch ya prohibió los deepfakes explícitos, pero ahora muestra un atisbo de dicho contenido, incluso si tiene la intención de expresar indignación, "se eliminará y dará lugar a una aplicación", escribió la compañía en una publicación de blog. Y promover, crear o compartir el material intencionalmente es motivo de una prohibición instantánea.

Otras empresas también han intentado prohibir las falsificaciones profundas en sus plataformas, pero mantenerlas alejadas requiere diligencia.

Apple y Google dijeron recientemente que eliminaron una aplicación de sus tiendas de aplicaciones que estaba ejecutando videos falsos de actrices sexualmente sugerentes para comercializar el producto. La investigación sobre la pornografía deepfake no es frecuente, pero un informe publicado en 2019 por la firma de inteligencia artificial DeepTrace Labs descubrió que estaba casi completamente armada contra las mujeres y que las personas más atacadas eran las actrices occidentales, seguidas de los cantantes de K-pop de Corea del Sur.

La misma aplicación eliminada por Google y Apple había publicado anuncios en la plataforma de Meta, que incluye Facebook, Instagram y Messenger. El portavoz de Meta, Dani Lever, dijo en un comunicado que la política de la compañía restringe tanto el contenido para adultos generado por IA como el que no lo es y ha restringido la publicidad de la página de la aplicación en sus plataformas.

En febrero, Meta, así como sitios para adultos como OnlyFans y Pornhub, comenzaron a participar en una herramienta en línea, llamada Take It Down, que permite a los adolescentes denunciar imágenes y videos explícitos de sí mismos en Internet. El sitio de informes funciona con imágenes regulares y contenido generado por IA, que se ha convertido en una preocupación creciente para los grupos de seguridad infantil.

“Cuando la gente le pregunta a nuestro liderazgo sénior cuáles son las rocas que bajan de la colina que nos preocupan. El primero es el cifrado de extremo a extremo y lo que eso significa para la protección infantil. Y en segundo lugar está la IA y específicamente las falsificaciones profundas”, dijo Gavin Portnoy, portavoz del Centro Nacional para Niños Desaparecidos y Explotados, que opera la herramienta Take It Down.

“Todavía no hemos podido formular una respuesta directa”, dijo Portnoy.