Dubai Telegraph - Indignación en EEUU por imágenes pornográficas falsas de Taylor Swift

EUR -
AED 4.102936
AFN 77.459209
ALL 99.457975
AMD 432.778937
ANG 2.014982
AOA 1037.198836
ARS 1075.462107
AUD 1.637702
AWG 2.010723
AZN 1.896412
BAM 1.957567
BBD 2.257397
BDT 133.610576
BGN 1.967095
BHD 0.420956
BIF 3240.766592
BMD 1.117068
BND 1.443677
BOB 7.725834
BRL 6.060991
BSD 1.118089
BTN 93.516982
BWP 14.711012
BYN 3.658936
BYR 21894.534621
BZD 2.253583
CAD 1.51451
CDF 3207.102402
CHF 0.945106
CLF 0.037685
CLP 1039.834343
CNY 7.868957
CNH 7.865561
COP 4652.867874
CRC 579.176012
CUC 1.117068
CUP 29.602304
CVE 110.361631
CZK 25.09773
DJF 199.096109
DKK 7.459401
DOP 67.11516
DZD 147.697258
EGP 54.203943
ERN 16.756021
ETB 128.672268
FJD 2.455148
FKP 0.850713
GBP 0.838751
GEL 3.049838
GGP 0.850713
GHS 17.609655
GIP 0.850713
GMD 76.520298
GNF 9660.63171
GTQ 8.642567
GYD 233.866865
HKD 8.701854
HNL 27.734781
HRK 7.594958
HTG 147.340329
HUF 394.325395
IDR 16862.310423
ILS 4.193842
IMP 0.850713
INR 93.28429
IQD 1464.608618
IRR 47020.184922
ISK 152.323096
JEP 0.850713
JMD 175.656948
JOD 0.791665
JPY 158.837019
KES 144.22468
KGS 94.14088
KHR 4537.973401
KMF 493.018125
KPW 1005.36065
KRW 1485.761989
KWD 0.340516
KYD 0.931732
KZT 535.488455
LAK 24688.058616
LBP 100120.360598
LKR 340.334086
LRD 223.60779
LSL 19.480105
LTL 3.298412
LVL 0.675704
LYD 5.325711
MAD 10.842591
MDL 19.510432
MGA 5037.455838
MKD 61.670102
MMK 3628.193592
MNT 3795.79733
MOP 8.97552
MRU 44.25794
MUR 51.251405
MVR 17.158436
MWK 1938.706188
MXN 21.561716
MYR 4.671621
MZN 71.324681
NAD 19.480105
NGN 1831.914005
NIO 41.146764
NOK 11.711141
NPR 149.618968
NZD 1.787354
OMR 0.430023
PAB 1.118089
PEN 4.197394
PGK 4.438966
PHP 61.937515
PKR 310.954552
PLN 4.274947
PYG 8727.720029
QAR 4.076069
RON 4.974525
RSD 117.085522
RUB 103.440971
RWF 1505.731882
SAR 4.191907
SBD 9.279414
SCR 14.899487
SDG 671.918347
SEK 11.341279
SGD 1.439918
SHP 0.850713
SLE 25.521993
SLL 23424.35363
SOS 638.970916
SRD 33.347817
STD 23121.054172
SVC 9.782741
SYP 2806.667024
SZL 19.465218
THB 36.952903
TJS 11.884819
TMT 3.909738
TND 3.386365
TOP 2.61629
TRY 38.074039
TTD 7.59979
TWD 35.674679
TZS 3042.560594
UAH 46.331582
UGX 4151.672326
USD 1.117068
UYU 45.930216
UZS 14243.726675
VEF 4046637.851088
VES 41.058342
VND 27412.851
VUV 132.620568
WST 3.124956
XAF 656.537735
XAG 0.035844
XAU 0.00043
XCD 3.018932
XDR 0.828633
XOF 656.537735
XPF 119.331742
YER 279.630082
ZAR 19.542269
ZMK 10054.950521
ZMW 29.096607
ZWL 359.69547
Indignación en EEUU por imágenes pornográficas falsas de Taylor Swift
Indignación en EEUU por imágenes pornográficas falsas de Taylor Swift / Foto: Michael Tran - AFP/Archivos

Indignación en EEUU por imágenes pornográficas falsas de Taylor Swift

Fanáticos de la cantante pop Taylor Swift, políticos estadounidenses e incluso la Casa Blanca expresaron su indignación el viernes por imágenes pornográficas falsas de la estrella, generadas por inteligencia artificial, que se volvieron virales en la red social X y todavía estaban disponibles en otras plataformas.

Tamaño del texto:

Una de esas imágenes fue vista 47 millones de veces en X, antes Twitter, antes de su eliminación el jueves. Según medios estadounidenses, la publicación estuvo visible en la plataforma durante aproximadamente 17 horas.

Las imágenes pornográficas "deepfake" -falsas pero extremadamente realistas- de celebridades no son nuevas. Pero a activistas y autoridades les preocupa que herramientas fáciles de usar que emplean inteligencia artificial (IA) generativa creen una avalancha incontrolable de contenido tóxico o dañino.

El ataque a Swift, la segunda artista más escuchada del mundo en la plataforma Spotify después del rapero canadiense Drake, podría arrojar nueva luz sobre el fenómeno.

"El único lado positivo de que esto le haya sucedido a Taylor Swift es que probablemente tenga suficiente poder para aprobar una legislación que lo elimine. Ustedes están enfermos", escribió la influencer Danisha Carter en X.

- "Alarmados" -

Incluso la Casa Blanca expresó su preocupación sobre el tema.

"Estamos alarmados por las noticias sobre la circulación de estas imágenes falsas", dijo a los periodistas Karine Jean-Pierre, secretaria de prensa del presidente Joe Biden.

"Infortunadamente, con demasiada frecuencia notamos que la falta de aplicación de la ley tiene un impacto desproporcionado en las mujeres y las niñas, los principales blancos del acoso en línea", añadió.

X es una de las plataformas de contenido pornográfico más grandes del mundo, afirman algunos analistas, ya que sus políticas sobre desnudez son más flexibles que las de Facebook o Instagram, propiedad de Meta.

Apple y Google tienen la potestad de intervenir para controlar los contenidos que circulan en las aplicaciones mediante las reglas que imponen sus sistemas operativos móviles, pero hasta ahora ambos han tolerado esta situación en X.

En un comunicado, X aclaró que "publicar imágenes de desnudos no consensuales (NCN) está estrictamente prohibido" en su plataforma. "Tenemos una política de tolerancia cero hacia ese contenido".

La red social, propiedad del magnate Elon Musk, afirmó que estaba "eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas".

Además, resaltó que estaba "vigilando de cerca la situación para garantizar que cualquier otra violación se aborde de inmediato y se elimine el contenido".

Los representantes de Swift no respondieron de inmediato a una solicitud de comentarios de la AFP.

-"Barreras necesarias"-

Yvette Clarke, congresista demócrata de Nueva York que ha respaldado una legislación para luchar contra las fotos pornográficas falsas, resaltó que "con los avances en IA, crear deepfakes es más fácil y barato".

De su lado, el legislador republicano Tom Kean, advirtió que "la tecnología de inteligencia artificial está avanzando más rápido que las barreras necesarias". "Ya sea que la víctima sea Taylor Swift o cualquier joven de nuestro país, debemos establecer salvaguardias para combatir esta tendencia alarmante", añadió.

Un estudio de 2019 estimó que el 96% de los vídeos del tipo "deepfake" eran pornográficos.

Según una investigación citada por la revista Wired, en los primeros nueve meses de 2023 se subieron 113.000 vídeos "deepfake" a los sitios web pornográficos más populares.

A.El-Nayady--DT