Si Taylor Swift no puede derrotar al porno deepfake, nadie podrá

0
54


si alguien puede reunir una base, es Taylor Swift.

Cuando esta semana circularon en las redes sociales imágenes falsas sexualmente explícitas, probablemente generadas por IA, de Swift, galvanizó a sus fanáticos. Swifties encontró frases y hashtags relacionados con las imágenes y los inundó con videos y fotos de Swift actuando. “Protect Taylor Swift” se volvió viral y se volvió tendencia cuando los Swifties hablaron no solo en contra de los deepfakes de Swift, sino también en contra de todas las imágenes explícitas y no consensuadas hechas de mujeres.

Swift, posiblemente la mujer más famosa del mundo en este momento, se ha convertido en la víctima de alto perfil de una forma muy frecuente de acoso. Todavía no ha comentado públicamente las fotos, pero su estatus le da poder para ejercer en una situación en la que tantas mujeres se han quedado con pocos recursos. El porno deepfake se está volviendo más común a medida que la inteligencia artificial generativa mejora: se subieron 113.000 videos deepfake a los sitios web porno más populares en los primeros nueve meses de 2023, un aumento significativo con respecto a los 73.000 videos subidos a lo largo de 2022. En 2019, una investigación de una startup encontró que 96 por ciento de los deepfakes en Internet eran pornográficos.

El contenido es fácil de encontrar en motores de búsqueda y redes sociales, y ha afectado otras celebridades femeninas y adolescentes. Sin embargo, muchas personas no comprenden el alcance total del problema ni su impacto. Swift y la manía mediática que la rodea tienen el potencial de cambiar eso.

“Parece que este podría ser uno de esos eventos desencadenantes” que podrían conducir a cambios legales y sociales en torno a los deepfakes no consensuales, dice Sam Gregory, director ejecutivo de Witness, una organización sin fines de lucro centrada en el uso de imágenes y videos para proteger los derechos humanos. Pero Gregory dice que la gente todavía no entiende cuán común es la pornografía deepfake y cuán dañina y violatoria puede ser para las víctimas.

En todo caso, este desastre deepfake recuerda a la filtración de iCloud de 2014 que llevó a que fotos de celebridades desnudas como Jennifer Lawrence y Kate Upton se difundieran en línea. incitando llamadas para una mayor protección de las identidades digitales de las personas. Apple en última instancia características de seguridad mejoradas.

Un puñado de estados Tenemos leyes sobre los deepfakes no consensuados y también hay medidas para prohibirlos a nivel federal. El representante Joseph Morelle (demócrata por Nueva York) ha introducido una factura en el Congreso que haría ilegal crear y compartir pornografía deepfake sin el consentimiento de una persona. Otra casa factura de la representante Yvette Clarke (demócrata por Nueva York) busca brindar recursos legales a las víctimas de pornografía deepfake. El representante Tom Kean, Jr. (republicano por Nueva Jersey), quien en noviembre presentó un proyecto de ley que exigiría etiquetar el contenido de IA, aprovechó el momento viral de Swift para llamar la atención sobre sus esfuerzos: “Ya sea que la víctima sea Taylor Swift o cualquier joven en todo nuestro país: necesitamos establecer salvaguardias para combatir esta tendencia alarmante”, dijo Kean en un declaración.

Esta no es la primera vez que Swift o Swifties intentan responsabilizar a las plataformas y a las personas. En 2017, Swift ganó una demanda que presentó contra un DJ de radio que, según ella, la manoseó durante un encuentro. Ella estaba premiado con $1—la cantidad que demandó y lo que su abogado Douglas Baldridge llamó una suma simbólica “cuyo valor es inconmensurable para todas las mujeres en esta situación”.



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here