Dubai Telegraph - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

EUR -
AED 3.84909
AFN 70.983076
ALL 98.168084
AMD 408.033489
ANG 1.877746
AOA 956.772304
ARS 1045.934567
AUD 1.608014
AWG 1.888917
AZN 1.780997
BAM 1.956142
BBD 2.103608
BDT 124.501747
BGN 1.96788
BHD 0.392672
BIF 3077.56693
BMD 1.047943
BND 1.404259
BOB 7.239401
BRL 6.098928
BSD 1.041892
BTN 88.430422
BWP 14.233758
BYN 3.409661
BYR 20539.683689
BZD 2.100107
CAD 1.461529
CDF 3008.644792
CHF 0.933707
CLF 0.036935
CLP 1019.137039
CNY 7.592031
CNH 7.595984
COP 4600.207983
CRC 530.697762
CUC 1.047943
CUP 27.770491
CVE 110.899218
CZK 25.334232
DJF 185.535949
DKK 7.457456
DOP 62.791567
DZD 139.877767
EGP 51.749446
ERN 15.719146
ETB 127.546696
FJD 2.385066
FKP 0.827159
GBP 0.83215
GEL 2.871065
GGP 0.827159
GHS 16.552662
GIP 0.827159
GMD 74.404001
GNF 8980.654359
GTQ 8.08725
GYD 219.183481
HKD 8.154967
HNL 26.32885
HRK 7.475249
HTG 136.765194
HUF 411.595345
IDR 16624.306486
ILS 3.879155
IMP 0.827159
INR 88.307488
IQD 1364.864451
IRR 44092.203499
ISK 146.344923
JEP 0.827159
JMD 165.980576
JOD 0.743093
JPY 161.794551
KES 135.676997
KGS 90.649326
KHR 4194.772734
KMF 495.143365
KPW 943.148344
KRW 1467.769713
KWD 0.322609
KYD 0.868268
KZT 520.220796
LAK 22885.434193
LBP 93300.07746
LKR 303.238754
LRD 189.101446
LSL 18.801143
LTL 3.094303
LVL 0.63389
LYD 5.087986
MAD 10.539574
MDL 19.003682
MGA 4862.942225
MKD 61.540749
MMK 3403.678134
MNT 3560.910412
MOP 8.353519
MRU 41.455637
MUR 49.074871
MVR 16.201526
MWK 1806.650049
MXN 21.359806
MYR 4.668554
MZN 66.973635
NAD 18.801143
NGN 1769.410365
NIO 38.337062
NOK 11.559514
NPR 140.70592
NZD 1.790636
OMR 0.401068
PAB 1.047692
PEN 3.95069
PGK 4.194773
PHP 61.7584
PKR 289.326398
PLN 4.334357
PYG 8133.57593
QAR 3.820851
RON 4.978251
RSD 117.724856
RUB 108.694151
RWF 1422.262
SAR 3.934395
SBD 8.785488
SCR 14.270629
SDG 630.340687
SEK 11.508746
SGD 1.410154
SHP 0.827159
SLE 23.819809
SLL 21974.846653
SOS 595.409683
SRD 37.195668
STD 21690.30525
SVC 9.116766
SYP 2632.988191
SZL 18.794642
THB 36.22582
TJS 11.157609
TMT 3.667801
TND 3.328435
TOP 2.454385
TRY 36.218374
TTD 7.076236
TWD 34.002924
TZS 2777.049042
UAH 43.103352
UGX 3871.138521
USD 1.047943
UYU 44.554803
UZS 13366.334712
VES 48.817231
VND 26630.85264
VUV 124.413904
WST 2.925428
XAF 656.077858
XAG 0.034259
XAU 0.000393
XCD 2.832119
XDR 0.792554
XOF 656.077858
XPF 119.331742
YER 261.90718
ZAR 18.9268
ZMK 9432.745885
ZMW 28.781577
ZWL 337.437233
  • AEX

    2.2900

    882.11

    +0.26%

  • BEL20

    25.7900

    4253.91

    +0.61%

  • PX1

    42.8100

    7297.98

    +0.59%

  • ISEQ

    33.6500

    9647.98

    +0.35%

  • OSEBX

    8.3700

    1477.1

    +0.57%

  • PSI20

    27.5600

    6436.79

    +0.43%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    86.5000

    2989.04

    +2.98%

  • N150

    17.7900

    3313.12

    +0.54%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

H.Sasidharan--DT