Dubai Telegraph - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

EUR -
AED 3.847878
AFN 71.355775
ALL 98.683518
AMD 407.90528
ANG 1.887605
AOA 956.471645
ARS 1045.95529
AUD 1.603226
AWG 1.888324
AZN 1.781822
BAM 1.966431
BBD 2.114632
BDT 125.156641
BGN 1.966151
BHD 0.394734
BIF 3093.725774
BMD 1.047614
BND 1.411632
BOB 7.237126
BRL 6.077208
BSD 1.047362
BTN 88.402636
BWP 14.308356
BYN 3.42753
BYR 20533.229892
BZD 2.111113
CAD 1.462317
CDF 3007.698713
CHF 0.934451
CLF 0.037128
CLP 1024.488044
CNY 7.587893
CNH 7.587411
COP 4598.762534
CRC 533.484204
CUC 1.047614
CUP 27.761765
CVE 110.864372
CZK 25.355423
DJF 186.50833
DKK 7.465217
DOP 63.121256
DZD 140.612199
EGP 51.738619
ERN 15.714207
ETB 128.216383
FJD 2.384317
FKP 0.826899
GBP 0.833093
GEL 2.870782
GGP 0.826899
GHS 16.547461
GIP 0.826899
GMD 74.380234
GNF 9027.807516
GTQ 8.084709
GYD 219.114611
HKD 8.154522
HNL 26.46709
HRK 7.4729
HTG 137.483283
HUF 411.178923
IDR 16702.682523
ILS 3.88451
IMP 0.826899
INR 88.456578
IQD 1372.017612
IRR 44078.349107
ISK 146.33087
JEP 0.826899
JMD 166.852061
JOD 0.742864
JPY 161.438289
KES 135.633281
KGS 90.645526
KHR 4216.797496
KMF 495.000342
KPW 942.851996
KRW 1471.38375
KWD 0.322508
KYD 0.872819
KZT 522.947237
LAK 23005.375183
LBP 93789.056763
LKR 304.828008
LRD 189.042028
LSL 18.899678
LTL 3.093331
LVL 0.633691
LYD 5.114652
MAD 10.536263
MDL 19.103279
MGA 4888.428571
MKD 61.864461
MMK 3402.60866
MNT 3559.791534
MOP 8.397299
MRU 41.673301
MUR 49.080863
MVR 16.196605
MWK 1816.118578
MXN 21.342527
MYR 4.680756
MZN 66.953146
NAD 18.899678
NGN 1777.488252
NIO 38.538352
NOK 11.546605
NPR 141.4447
NZD 1.789386
OMR 0.40317
PAB 1.047362
PEN 3.971471
PGK 4.216797
PHP 61.745272
PKR 290.845514
PLN 4.335303
PYG 8176.203443
QAR 3.81965
RON 5.007898
RSD 117.641009
RUB 108.641335
RWF 1429.729623
SAR 3.933191
SBD 8.782728
SCR 14.351263
SDG 630.139998
SEK 11.502008
SGD 1.409512
SHP 0.826899
SLE 23.812353
SLL 21967.941912
SOS 598.535896
SRD 37.184018
STD 21683.489915
SVC 9.164547
SYP 2632.160877
SZL 18.893143
THB 36.239583
TJS 11.154103
TMT 3.666648
TND 3.327389
TOP 2.45362
TRY 36.218968
TTD 7.113458
TWD 34.134924
TZS 2785.961894
UAH 43.329253
UGX 3869.922166
USD 1.047614
UYU 44.540803
UZS 13436.643239
VES 48.775996
VND 26629.29442
VUV 124.374812
WST 2.924509
XAF 659.522612
XAG 0.033459
XAU 0.000386
XCD 2.831229
XDR 0.796707
XOF 659.522612
XPF 119.331742
YER 261.824842
ZAR 18.888413
ZMK 9429.782938
ZMW 28.932419
ZWL 337.331207
  • AEX

    13.6800

    879.8

    +1.58%

  • BEL20

    69.4500

    4228.29

    +1.67%

  • PX1

    41.8400

    7255.01

    +0.58%

  • ISEQ

    17.2700

    9613.97

    +0.18%

  • OSEBX

    3.8100

    1468.66

    +0.26%

  • PSI20

    48.3400

    6409

    +0.76%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    86.5000

    2989.04

    +2.98%

  • N150

    24.5300

    3295.3

    +0.75%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: Stefani REYNOLDS - AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

G.Gopinath--DT