Skip to main content

Verificado por Psychology Today

Pornografía

¿El porno ultrafalso puede afectar tu vida?

La imagen artificial proporciona nuevas herramientas para el abuso sexual.

Los puntos clave

  • Las herramientas de imágenes artificiales han trasladado el mundo de la fantasía sexual al mundo de la realidad sexual.
  • Las víctimas del porno Deepfake tienen poca o ninguna reparación porque no es ilegal.
  • Una vez que las imágenes de Deepfake llegan a Internet, casi siempre está ahí para quedarse.
Shutterstock, metamorworks
Shutterstock, metamorworks

Joaquín se sienta en su computadora portátil y abre el programa de imágenes artificiales conocido como Dall-E. Ingresa una imagen de sí mismo y algunas palabras aleatorias: flores azules y azotea. A partir de esto, Dall-E crea una imagen realista de Joaquín de pie en una azotea vestido completamente con flores azules. Es gracioso. Lo hace reír. Lo publica en Instagram si quiere, o simplemente lo elimina y crea algo más.

Además de ser muy divertido para jugar, Dall-E y programas similares son útiles para artistas gráficos, anunciantes e incluso artistas con buenos puestos que trabajan en medios digitales. Pero hay un inconveniente en las imágenes digitales. Ese inconveniente es la pornografía de Deepfake o Ultrafalsa.

Un estudio en la revista CyberPsychology, Behavior y Networking define las imágenes de Deepfake como “material sintetizado en el que la cara de una persona se superpone a otro cuerpo”. El artículo afirma además: “La mayoría de los defectos que se encuentran en línea son pornográficos, y las personas representadas en ellos rara vez consienten en su creación y publicidad”.

La tecnología Deepfake no es un fenómeno nuevo. La gente ha estado cortando y pegando la cabeza de una persona en el cuerpo de otra y publicando los resultados en línea durante varias décadas. Pero hasta hace poco, la tecnología para hacerlo no era exactamente engañar a las personas. Las falsificaciones eran generalmente obvias. No tanto.

Como un artículo en el International Journal of Evidence and Proof State, “en última instancia, a medida que la tecnología mejora, las tecnologías paralelas deberán desarrollarse y utilizarse para identificar y exponer videos falsos”. Lo que significa que, a partir de ahora, los Deepfake bien producidos pueden pasar fácilmente como reales.

En el pasado, la imagen artificial de alta gama era exclusiva de los maestros de efectos especiales de Hollywood. Pero en estos días, con tecnologías como Dall-E, Lensa e incluso las aplicaciones relativamente poco sofisticadas de intercambio de caras en Google y Apple, se ha vuelto gratuita y fácil de usar. Casi cualquier persona ahora puede producir contenido sexualmente explícito sin el consentimiento o el conocimiento de los involucrados.

Si esto no te asusta, debería. Debido a que es completamente posible que abras tu correo electrónico mientras disfrutas de tu café con leche una buena mañana y encuentres una imagen pornográfica de ti que nunca tomaste ni consentiste. O tal vez esa imagen se enviará a tu familia o a tu empleador o simplemente se publique en sitios pornográficos en todo el mundo.

La pornografía de Deepfake puede ser un gran problema para las víctimas. Considera la siguiente declaración de un artículo en The Vanderbilt Law Review: “No solo la pornografía de Deepfake rompe la privacidad sexual de las víctimas, su permanencia en línea también inhibe su capacidad de [sentirnos seguros usando] Internet y encontrar [o mantener] un trabajo”. Kristen Zaleski, directora de salud mental forense de la Clínica de Derechos Humanos Keck de la USC, dijo recientemente al Washington Post que ha estado trabajando con una maestra de escuela que perdió su trabajo después de que los padres y administradores se enteraron sobre imágenes porno hechas con Deepfake usando su semejanza.

Si las imágenes fueron creadas y publicadas por un ex novio enojado, un estudiante descontento o incluso un extraño total que vio la cara de la maestro de escuela en las redes sociales y quería verla unida a un cuerpo desnudo no se sabe y probablemente nunca se sepa. Lo que sí sabemos es que una maestra de escuela inocente fue sexualizada de una manera muy pública, sin su consentimiento, con serias consecuencias para ella y sin consecuencias para el autor.

¿Y adivina qué? Ella y otras víctimas del porno de Deepfake tienen poca o ninguna reparación porque el porno Deepfake no es ilegal. Sí, Estados Unidos promulgó la Iniciativa Nacional de Inteligencia Artificial en 2021, pero esa es simplemente una estrategia en lugar de parte de un Código Penal. Otros gobiernos han establecido marcos similares, y la Unión Europea está trabajando para promulgar algunas leyes reales contra el Deepfake, en particular, la legislación que prohíbe los programas de imágenes artificiales que plantean “un riesgo inaceptable”. Pero, ¿qué significa realmente el “riesgo inaceptable”?

Sin mencionar el hecho de que es muy imposible vigilar Internet porque la tecnología cambia continuamente. Tal es especialmente el caso de la tecnología sexualizada, ya que los desarrolladores crean nuevas formas de ser sexuales casi a diario. Los perpetradores de Deepfakes (y lo que venga a continuación) siempre encontrarán formas de actuar con el anonimato y al mismo tiempo encontrar soluciones de solución a cualquier regla que existan en un momento dado. La legislación y la aplicación de la ley simplemente no pueden mantener el ritmo.

Esta es una noticia infeliz para las personas que son víctimas de la tecnología, la mayoría de las cuales son mujeres. Un estudio reciente informa que el 96 por ciento de las víctimas de Deepfake son sexualizadas, y casi todas ellas son mujeres, aunque los hombres (especialmente los políticos) e incluso los niños también han sido abusados de esta manera. La misma investigación encuentra que muchas víctimas son acosadas o extorsionadas en función de estas imágenes generadas artificialmente.

Nos guste o no, la pornografía generada artificialmente es ahora una cosa, y debido a que está casi completamente no regulado, absolutamente cualquier persona puede ser víctima. Además, la cantidad de pornografía profunda que está disponible ha aumentado casi exponencialmente en el último año o dos, gracias a la reciente proliferación de herramientas de imágenes de alta gama.

El foro en línea Reddit, conocido durante mucho tiempo como un refugio para todo lo que es lícito e ilícito, tiene numerosos hilos dedicados a la imagen artificial, con creadores (y aspirantes a ceradores) que comparten información sobre qué programas funcionan mejor y cómo modificarlos para trabajar de manera que satisfaga la plantilla de excitación personal de uno. Además, por supuesto, hay innumerables publicaciones de Deepfake para ser admiradas, comentadas y compartidas libremente.

Peor aún, una vez que las imágenes de Deepfake llegan a Internet, casi siempre están ahí para quedarse. Incluso si el creador se siente arrepentido y elimina las publicaciones iniciales, otros lo habrán descargado y vuelto a publicarlo. Y si estas imágenes de alguna manera se eliminan completamente de Internet, se pueden generar más con solo tocar un botón.

En el mundo de hoy, las herramientas de imágenes artificiales han trasladado el mundo de la fantasía sexual al mundo de la realidad sexual. Es un hecho. La transformación está jugando con vidas y emociones humanas de manera dolorosa. La tecnología que nos permite fantasear también puede usarse para lastimar: una mala ruptura puede adquirir una dimensión completamente nueva; un extraño al azar puede perpetrar violación sexual a miles de kilómetross de distancia. Lamentablemente, cualquiera y todos están en riesgo. Incluso tú.

A version of this article originally appeared in English.

publicidad
Acerca de
Robert Weiss

El Dr. Robert Weiss, Maestría en Trabajo Social, es autor de Out of the Doghouse: A Step-by-Step Relationship-Saving Guide for Men Caught Cheating.

Más de Robert Weiss Ph.D., LCSW, CSAT
Más de Psychology Today
Más de Robert Weiss Ph.D., LCSW, CSAT
Más de Psychology Today