Dubai Telegraph - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 3.763231
AFN 72.850006
ALL 97.694547
AMD 406.591622
ANG 1.84648
AOA 934.411543
ARS 1062.248328
AUD 1.664135
AWG 1.846795
AZN 1.736231
BAM 1.944988
BBD 2.068662
BDT 124.974053
BGN 1.954509
BHD 0.386211
BIF 3030.759153
BMD 1.024574
BND 1.40122
BOB 7.0792
BRL 6.26107
BSD 1.024584
BTN 88.173729
BWP 14.419966
BYN 3.352923
BYR 20081.658581
BZD 2.05802
CAD 1.476032
CDF 2940.528185
CHF 0.939099
CLF 0.037458
CLP 1033.593404
CNY 7.5129
CNH 7.539234
COP 4443.773917
CRC 517.165471
CUC 1.024574
CUP 27.151222
CVE 109.657025
CZK 25.089775
DJF 182.450011
DKK 7.46088
DOP 62.895278
DZD 139.378051
EGP 51.808018
ERN 15.368616
ETB 128.564054
FJD 2.395608
FKP 0.811444
GBP 0.83802
GEL 2.894432
GGP 0.811444
GHS 15.112172
GIP 0.811444
GMD 73.254945
GNF 8858.66843
GTQ 7.905974
GYD 214.355142
HKD 7.977808
HNL 26.056189
HRK 7.349176
HTG 133.845103
HUF 413.40964
IDR 16661.731633
ILS 3.778979
IMP 0.811444
INR 88.250231
IQD 1342.143853
IRR 43121.77089
ISK 144.720915
JEP 0.811444
JMD 160.646968
JOD 0.726732
JPY 161.820224
KES 132.610938
KGS 89.137705
KHR 4141.301968
KMF 489.797505
KPW 922.116403
KRW 1509.945982
KWD 0.31608
KYD 0.85382
KZT 540.716391
LAK 22355.472053
LBP 91748.23774
LKR 301.786793
LRD 191.589916
LSL 19.470574
LTL 3.025301
LVL 0.619755
LYD 5.064047
MAD 10.296712
MDL 19.149046
MGA 4851.409942
MKD 61.552087
MMK 3327.777741
MNT 3481.503737
MOP 8.216069
MRU 40.886712
MUR 47.981137
MVR 15.776551
MWK 1776.562849
MXN 21.18114
MYR 4.607001
MZN 65.473182
NAD 19.472275
NGN 1580.344618
NIO 37.700424
NOK 11.728093
NPR 141.077083
NZD 1.843045
OMR 0.394431
PAB 1.024584
PEN 3.85507
PGK 4.107228
PHP 60.070287
PKR 285.3184
PLN 4.267248
PYG 8044.906728
QAR 3.734938
RON 4.974688
RSD 117.087295
RUB 104.775483
RWF 1425.188693
SAR 3.845993
SBD 8.646813
SCR 14.606998
SDG 615.768956
SEK 11.494957
SGD 1.40566
SHP 0.811444
SLE 23.308477
SLL 21484.816349
SOS 585.490987
SRD 35.967637
STD 21206.621833
SVC 8.964081
SYP 2574.27421
SZL 19.468296
THB 35.526607
TJS 11.177835
TMT 3.58601
TND 3.288519
TOP 2.399654
TRY 36.284048
TTD 6.954881
TWD 33.860651
TZS 2564.985173
UAH 43.324992
UGX 3788.237078
USD 1.024574
UYU 44.731991
UZS 13274.402282
VES 55.101523
VND 25993.452969
VUV 121.639527
WST 2.830681
XAF 652.381368
XAG 0.033719
XAU 0.000381
XCD 2.768964
XDR 0.788976
XOF 652.340208
XPF 119.331742
YER 255.374896
ZAR 19.596524
ZMK 9222.397022
ZMW 28.302875
ZWL 329.912544
  • AEX

    -5.0200

    890.79

    -0.56%

  • BEL20

    -62.3800

    4239.66

    -1.45%

  • PX1

    -64.4200

    7425.82

    -0.86%

  • ISEQ

    -88.3200

    9617.51

    -0.91%

  • OSEBX

    6.9200

    1479.81

    +0.47%

  • PSI20

    -94.0500

    6303.64

    -1.47%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -1.6100

    3225.02

    -0.05%

  • N150

    -26.4800

    3283.51

    -0.8%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

A.El-Nayady--DT