Dubai Telegraph - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

EUR -
AED 3.960396
AFN 73.447869
ALL 98.17705
AMD 416.219845
ANG 1.938152
AOA 983.904305
ARS 1071.534094
AUD 1.620622
AWG 1.943543
AZN 1.828548
BAM 1.954963
BBD 2.17135
BDT 128.51497
BGN 1.955721
BHD 0.406484
BIF 3174.711149
BMD 1.078248
BND 1.426776
BOB 7.457807
BRL 6.13804
BSD 1.07543
BTN 90.742723
BWP 14.358718
BYN 3.51946
BYR 21133.666586
BZD 2.167752
CAD 1.496713
CDF 3089.181143
CHF 0.941332
CLF 0.037423
CLP 1032.616997
CNY 7.708505
CNH 7.676368
COP 4661.536942
CRC 549.459626
CUC 1.078248
CUP 28.57358
CVE 110.218827
CZK 25.253439
DJF 191.506221
DKK 7.457057
DOP 64.651717
DZD 143.947272
EGP 53.160985
ERN 16.173724
ETB 132.385085
FJD 2.440011
FKP 0.825042
GBP 0.831173
GEL 2.938257
GGP 0.825042
GHS 17.637611
GIP 0.825042
GMD 77.068855
GNF 9271.943772
GTQ 8.299408
GYD 224.995744
HKD 8.378259
HNL 27.131131
HRK 7.428085
HTG 141.478107
HUF 404.968176
IDR 16897.390771
ILS 4.017607
IMP 0.825042
INR 90.972401
IQD 1408.809815
IRR 45399.6443
ISK 148.302352
JEP 0.825042
JMD 170.195544
JOD 0.764806
JPY 164.759541
KES 138.727729
KGS 92.950329
KHR 4369.088641
KMF 491.627059
KPW 970.423222
KRW 1493.799764
KWD 0.330602
KYD 0.896225
KZT 528.618549
LAK 23604.673586
LBP 96660.403031
LKR 314.672339
LRD 204.331558
LSL 18.799376
LTL 3.183787
LVL 0.652221
LYD 5.21072
MAD 10.635646
MDL 19.287562
MGA 4959.830207
MKD 61.533191
MMK 3502.108403
MNT 3663.887737
MOP 8.609593
MRU 42.845256
MUR 50.031815
MVR 16.615522
MWK 1864.784207
MXN 21.377245
MYR 4.724128
MZN 68.905423
NAD 18.799724
NGN 1813.106578
NIO 39.572688
NOK 11.738328
NPR 145.187484
NZD 1.794162
OMR 0.41514
PAB 1.075439
PEN 4.064897
PGK 4.316112
PHP 62.983178
PKR 298.888744
PLN 4.313508
PYG 8347.348258
QAR 3.919658
RON 4.975575
RSD 116.980678
RUB 105.665953
RWF 1473.855228
SAR 4.050156
SBD 9.00103
SCR 15.141832
SDG 648.552853
SEK 11.547134
SGD 1.425339
SHP 0.825042
SLE 24.573024
SLL 22610.324177
SOS 614.631115
SRD 37.690105
STD 22317.562736
SVC 9.409927
SYP 2709.131478
SZL 18.793778
THB 36.700879
TJS 11.431852
TMT 3.773869
TND 3.346651
TOP 2.525369
TRY 37.061118
TTD 7.294809
TWD 34.574568
TZS 2900.48807
UAH 44.46095
UGX 3947.346359
USD 1.078248
UYU 44.710648
UZS 13775.229217
VEF 3906011.094509
VES 47.583895
VND 27283.994862
VUV 128.011836
WST 3.020372
XAF 655.670162
XAG 0.031965
XAU 0.000396
XCD 2.91402
XDR 0.806347
XOF 655.670162
XPF 119.331742
YER 269.400021
ZAR 18.712298
ZMK 9705.514146
ZMW 29.14425
ZWL 347.195511
  • AEX

    0.0900

    878.66

    +0.01%

  • BEL20

    3.8400

    4275.65

    +0.09%

  • PX1

    -22.2800

    7403.42

    -0.3%

  • ISEQ

    14.8200

    9893.67

    +0.15%

  • OSEBX

    1.1400

    1422.36

    +0.08%

  • PSI20

    57.1400

    6405.65

    +0.9%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -11.5100

    2864.91

    -0.4%

  • N150

    -2.3300

    3324.87

    -0.07%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: Stefani REYNOLDS - AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

G.Gopinath--DT