Dubai Telegraph - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

EUR -
AED 3.766568
AFN 72.914596
ALL 97.781164
AMD 406.953016
ANG 1.848117
AOA 935.240708
ARS 1062.018828
AUD 1.66908
AWG 1.848433
AZN 1.747392
BAM 1.946712
BBD 2.070496
BDT 125.084856
BGN 1.957145
BHD 0.386572
BIF 3033.446266
BMD 1.025483
BND 1.402462
BOB 7.085476
BRL 6.280229
BSD 1.025493
BTN 88.251905
BWP 14.432751
BYN 3.355896
BYR 20099.463259
BZD 2.059845
CAD 1.489201
CDF 2943.136063
CHF 0.93984
CLF 0.037515
CLP 1035.163783
CNY 7.519562
CNH 7.551092
COP 4455.979221
CRC 517.623998
CUC 1.025483
CUP 27.175295
CVE 109.754248
CZK 25.104029
DJF 182.24921
DKK 7.467262
DOP 62.951042
DZD 139.334285
EGP 51.791557
ERN 15.382242
ETB 128.678041
FJD 2.398301
FKP 0.812164
GBP 0.840043
GEL 2.89703
GGP 0.812164
GHS 15.12557
GIP 0.812164
GMD 73.325971
GNF 8866.522649
GTQ 7.912983
GYD 214.545193
HKD 7.988255
HNL 26.079291
HRK 7.355692
HTG 133.963772
HUF 413.762205
IDR 16732.956986
ILS 3.778509
IMP 0.812164
INR 88.391954
IQD 1343.333817
IRR 43160.012072
ISK 144.839589
JEP 0.812164
JMD 160.7894
JOD 0.727482
JPY 161.713554
KES 132.728636
KGS 89.217365
KHR 4144.973704
KMF 490.232455
KPW 922.933964
KRW 1511.689901
KWD 0.316366
KYD 0.854577
KZT 541.195798
LAK 22375.292726
LBP 91829.583004
LKR 302.054362
LRD 191.759782
LSL 19.487836
LTL 3.027985
LVL 0.620305
LYD 5.068537
MAD 10.305841
MDL 19.166024
MGA 4855.71127
MKD 61.514971
MMK 3330.728196
MNT 3484.590487
MOP 8.223353
MRU 40.922963
MUR 48.023749
MVR 15.796269
MWK 1778.137975
MXN 21.24606
MYR 4.611088
MZN 65.532176
NAD 19.489539
NGN 1591.006216
NIO 37.73385
NOK 11.76824
NPR 141.202164
NZD 1.844062
OMR 0.394366
PAB 1.025493
PEN 3.858488
PGK 4.11087
PHP 60.512755
PKR 285.571367
PLN 4.269649
PYG 8052.039455
QAR 3.738249
RON 4.980877
RSD 117.193241
RUB 104.230108
RWF 1426.452286
SAR 3.849445
SBD 8.65448
SCR 14.727599
SDG 616.315522
SEK 11.508587
SGD 1.405326
SHP 0.812164
SLE 23.330115
SLL 21503.865086
SOS 586.010091
SRD 35.999613
STD 21225.423919
SVC 8.972029
SYP 2576.556598
SZL 19.485557
THB 35.613006
TJS 11.187746
TMT 3.58919
TND 3.291435
TOP 2.401787
TRY 36.315119
TTD 6.961047
TWD 33.955073
TZS 2567.25936
UAH 43.363404
UGX 3791.595782
USD 1.025483
UYU 44.771651
UZS 13286.171552
VES 55.18254
VND 26016.499127
VUV 121.747374
WST 2.833191
XAF 652.959778
XAG 0.033731
XAU 0.000381
XCD 2.771419
XDR 0.789675
XOF 652.918582
XPF 119.331742
YER 255.601965
ZAR 19.595798
ZMK 9230.579631
ZMW 28.327969
ZWL 330.205049
  • AEX

    -5.5500

    890.3

    -0.62%

  • BEL20

    -67.9700

    4233.93

    -1.58%

  • PX1

    -59.1700

    7431.04

    -0.79%

  • ISEQ

    -89.2900

    9616.17

    -0.92%

  • OSEBX

    6.9200

    1479.81

    +0.47%

  • PSI20

    -97.8900

    6299.98

    -1.53%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -5.1600

    3219.73

    -0.16%

  • N150

    -27.4700

    3282.33

    -0.83%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

I.Khan--DT