Dubai Telegraph - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 3.847595
AFN 70.955217
ALL 98.129555
AMD 407.873345
ANG 1.877009
AOA 956.396496
ARS 1052.049047
AUD 1.610027
AWG 1.888176
AZN 1.778779
BAM 1.955374
BBD 2.102782
BDT 124.452883
BGN 1.956627
BHD 0.394854
BIF 3076.35906
BMD 1.047532
BND 1.403708
BOB 7.23656
BRL 6.114418
BSD 1.041483
BTN 88.395715
BWP 14.228171
BYN 3.408322
BYR 20531.622365
BZD 2.099283
CAD 1.462931
CDF 3007.463637
CHF 0.932508
CLF 0.03692
CLP 1018.737053
CNY 7.590098
CNH 7.59878
COP 4598.402514
CRC 530.489476
CUC 1.047532
CUP 27.759591
CVE 110.855692
CZK 25.335395
DJF 185.46313
DKK 7.457905
DOP 62.766923
DZD 140.965938
EGP 52.004718
ERN 15.712976
ETB 127.496637
FJD 2.382454
FKP 0.826835
GBP 0.833641
GEL 2.870045
GGP 0.826835
GHS 16.546166
GIP 0.826835
GMD 74.374398
GNF 8977.129671
GTQ 8.084076
GYD 219.097457
HKD 8.151698
HNL 26.318517
HRK 7.472315
HTG 136.711517
HUF 411.800971
IDR 16654.445463
ILS 3.862223
IMP 0.826835
INR 88.266649
IQD 1364.328775
IRR 44074.898841
ISK 145.481021
JEP 0.826835
JMD 165.915433
JOD 0.743012
JPY 161.935842
KES 135.658433
KGS 90.613407
KHR 4193.126388
KMF 494.957723
KPW 942.778181
KRW 1468.838686
KWD 0.322504
KYD 0.867927
KZT 520.016622
LAK 22876.452218
LBP 93263.459457
LKR 303.119741
LRD 189.027228
LSL 18.793764
LTL 3.093089
LVL 0.633642
LYD 5.085989
MAD 10.535438
MDL 18.996224
MGA 4861.033639
MKD 61.641022
MMK 3402.342273
MNT 3559.512841
MOP 8.35024
MRU 41.439366
MUR 49.056254
MVR 16.194626
MWK 1805.940983
MXN 21.368218
MYR 4.674611
MZN 66.947912
NAD 18.793764
NGN 1768.715105
NIO 38.322016
NOK 11.58104
NPR 140.650696
NZD 1.79238
OMR 0.403283
PAB 1.04728
PEN 3.94914
PGK 4.193126
PHP 61.827942
PKR 289.212844
PLN 4.334985
PYG 8130.3837
QAR 3.819351
RON 4.976436
RSD 117.00301
RUB 108.876923
RWF 1421.703797
SAR 3.932779
SBD 8.78204
SCR 15.752477
SDG 630.091354
SEK 11.518303
SGD 1.411093
SHP 0.826835
SLE 23.810185
SLL 21966.222062
SOS 595.175999
SRD 37.181136
STD 21681.792335
SVC 9.113188
SYP 2631.954808
SZL 18.787265
THB 36.265313
TJS 11.15323
TMT 3.666361
TND 3.327129
TOP 2.453421
TRY 36.221028
TTD 7.073459
TWD 34.008644
TZS 2775.959214
UAH 43.086435
UGX 3869.619193
USD 1.047532
UYU 44.537316
UZS 13361.088752
VES 48.47434
VND 26633.494828
VUV 124.365075
WST 2.92428
XAF 655.820364
XAG 0.034027
XAU 0.000392
XCD 2.831007
XDR 0.792243
XOF 655.820364
XPF 119.331742
YER 261.804392
ZAR 18.924922
ZMK 9429.03573
ZMW 28.770281
ZWL 337.304797
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

K.Javed--DT