San Francisco demanda a sitios web que crean desnudos falsos con inteligencia artificial

La herramienta de inteligencia artificial utilizada para crear los dañinos "deepfakes" todavía es fácilmente accesible en internet y promete "desnudar cualquier foto" que se suba al sitio web en cuestión de segundos.

"La proliferación de estas imágenes ha explotado a una cantidad alarmante de mujeres y niñas en todo el mundo", dijo David Chiu, el fiscal electo de la ciudad de San Francisco que presentó el caso contra un grupo de sitios web muy visitados con sede en Estonia, Serbia, el Reino Unido y otros lugares.
Getty Images

Casi un año después de que imágenes de chicas de secundaria desnudas generadas por inteligencia artificial revolucionaran una comunidad en el sur de España, un tribunal de menores condenó este verano a 15 de sus compañeros de clase a un año de libertad condicional.

Pero la herramienta de inteligencia artificial utilizada para crear los dañinos "deepfakes" todavía es fácilmente accesible en internet y promete "desnudar cualquier foto" que se suba al sitio web en cuestión de segundos.

Ahora se está llevando a cabo un nuevo esfuerzo para cerrar la aplicación y otras similares en California, donde San Francisco presentó esta semana una demanda única en su tipo que, según los expertos, podría sentar un precedente, pero que también enfrentará muchos obstáculos.

"La proliferación de estas imágenes ha explotado a una cantidad alarmante de mujeres y niñas en todo el mundo", dijo David Chiu, el fiscal electo de la ciudad de San Francisco que presentó el caso contra un grupo de sitios web muy visitados con sede en Estonia, Serbia, el Reino Unido y otros lugares.

"Estas imágenes se utilizan para intimidar, humillar y amenazar a mujeres y niñas", indicó en una entrevista con The Associated Press (AP). "Y el impacto en las víctimas ha sido devastador para su reputación, salud mental, pérdida de autonomía y, en algunos casos, ha provocado que algunas se vuelvan suicidas", agregó.

La demanda presentada en nombre de los ciudadanos de California alega que los servicios violaron numerosas leyes estatales contra las prácticas comerciales fraudulentas, la pornografía no consentida y el abuso sexual de niños. Pero puede ser difícil determinar quién administra las aplicaciones, que no están disponibles en las tiendas digitales, pero aún así se encuentran fácilmente en internet.

El año pasado, la AP se puso en contacto con un servicio que, según un correo electrónico, afirmaba que su "director ejecutivo tiene su base y se mueve por todo Estados Unidos", pero se negó a proporcionar pruebas ni a responder a otras preguntas. La AP no nombra las aplicaciones específicas que están siendo demandadas para no promocionarlas.

"Hay varios sitios en los que no sabemos exactamente en este momento quiénes son estos operadores y desde dónde operan, pero tenemos herramientas de investigación y autoridad para citar a los testigos para investigar eso", dijo Chiu. "Y sin duda utilizaremos nuestros poderes en el curso de este litigio", advirtió.

Muchas de las herramientas se están utilizando para crear falsificaciones realistas que "desnudan" fotos de mujeres adultas vestidas, incluidas celebridades, sin su consentimiento. Pero también han aparecido en escuelas de todo el mundo, desde Australia hasta Beverly Hills en California, generalmente con niños que crean imágenes de compañeras de clase que luego circulan ampliamente por las redes sociales.

En uno de los primeros casos ampliamente publicitados el pasado mes de septiembre en Almendralejo, España, una médica cuya hija estaba entre un grupo de niñas que fueron víctimas de acoso el año pasado y ayudó a sacarlo a la luz pública dijo que está satisfecha por la severidad de la sentencia que enfrentan sus compañeros de clase después de una decisión judicial a principios de este verano.

Pero "no es solo responsabilidad de la sociedad, de la educación, de los padres y las escuelas, sino también de los gigantes digitales que se benefician de toda esta basura", dijo la Dra. Miriam al Adib Mendiri en una entrevista el viernes.

Aplaudió la acción de San Francisco, pero opinó que se necesitan más esfuerzos, incluso de empresas más grandes como Meta Platforms, con sede en California, y su subsidiaria WhatsApp, que se utilizó para hacer circular las imágenes en España.

Mientras que las escuelas y las fuerzas del orden han tratado de castigar a quienes crean y comparten los "deepfakes", las autoridades han tenido dificultades para decidir qué hacer con las propias herramientas.

En enero, el poder ejecutivo de la Unión Europea explicó en una carta a un miembro español del Parlamento Europeo que la aplicación utilizada en Almendralejo "no parece" estar sujeta a las nuevas y amplias normas del bloque para reforzar la seguridad en línea porque no es una plataforma lo suficientemente grande.

Las organizaciones que han estado siguiendo el crecimiento del material de abuso sexual infantil generado por inteligencia artificial seguirán de cerca el caso de San Francisco.

La demanda "tiene el potencial de sentar un precedente legal en esta área", expresó Emily Slifer, directora de políticas en Thorn, una organización que trabaja para combatir la explotación sexual de niños.

Una investigadora de la Universidad de Stanford indicó que debido a que muchos de los acusados ​​están radicados fuera de Estados Unidos, será más difícil llevarlos ante la justicia.

Chiu "tiene una batalla cuesta arriba con este caso, pero podría lograr que algunos de los sitios sean retirados del mercado si los acusados ​​que los administran ignoran la demanda", expresó Riana Pfefferkorn de Stanford.

Agregó que eso podría suceder si la ciudad gana por defecto en su ausencia y obtiene órdenes que afecten a los registradores de nombres de dominio, los proveedores de servicios web y los procesadores de pagos "que efectivamente cerrarían esos sitios incluso si sus propietarios nunca aparecen en el litigio".

Contáctanos