Dubai Telegraph - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

EUR -
AED 3.826681
AFN 70.961758
ALL 98.138602
AMD 405.652886
ANG 1.877182
AOA 951.190259
ARS 1045.720247
AUD 1.602814
AWG 1.877897
AZN 1.775245
BAM 1.955573
BBD 2.102956
BDT 124.465544
BGN 1.955294
BHD 0.392554
BIF 3076.642669
BMD 1.041829
BND 1.403837
BOB 7.197164
BRL 6.043693
BSD 1.041579
BTN 87.914489
BWP 14.229347
BYN 3.408604
BYR 20419.848375
BZD 2.099456
CAD 1.456529
CDF 2991.091432
CHF 0.930957
CLF 0.036923
CLP 1018.83097
CNY 7.54601
CNH 7.562783
COP 4573.368835
CRC 530.538382
CUC 1.041829
CUP 27.608468
CVE 110.252195
CZK 25.343745
DJF 185.478458
DKK 7.457729
DOP 62.772709
DZD 139.835759
EGP 51.726992
ERN 15.627435
ETB 127.508391
FJD 2.371151
FKP 0.822333
GBP 0.831435
GEL 2.855018
GGP 0.822333
GHS 16.456089
GIP 0.822333
GMD 73.970229
GNF 8977.957272
GTQ 8.040066
GYD 217.904692
HKD 8.110066
HNL 26.320943
HRK 7.431636
HTG 136.72412
HUF 411.522823
IDR 16610.452733
ILS 3.856892
IMP 0.822333
INR 87.968134
IQD 1364.44153
IRR 43834.955489
ISK 145.523076
JEP 0.822333
JMD 165.930728
JOD 0.738765
JPY 161.244275
KES 134.884334
KGS 90.122166
KHR 4193.512952
KMF 492.268155
KPW 937.645704
KRW 1463.259646
KWD 0.320727
KYD 0.867999
KZT 520.059599
LAK 22878.342838
LBP 93271.167197
LKR 303.144792
LRD 187.998165
LSL 18.795317
LTL 3.076251
LVL 0.630192
LYD 5.086409
MAD 10.478083
MDL 18.997794
MGA 4861.435378
MKD 61.522855
MMK 3383.819949
MNT 3540.134882
MOP 8.35093
MRU 41.443187
MUR 48.810083
MVR 16.10707
MWK 1806.090235
MXN 21.283008
MYR 4.654932
MZN 66.583684
NAD 18.795317
NGN 1767.675143
NIO 38.325549
NOK 11.53576
NPR 140.663663
NZD 1.785942
OMR 0.400943
PAB 1.041579
PEN 3.949541
PGK 4.193513
PHP 61.404399
PKR 289.239507
PLN 4.337676
PYG 8131.055634
QAR 3.798559
RON 4.978071
RSD 116.991412
RUB 108.671879
RWF 1421.834864
SAR 3.911473
SBD 8.734231
SCR 14.272055
SDG 626.663972
SEK 11.497837
SGD 1.402931
SHP 0.822333
SLE 23.68116
SLL 21846.638123
SOS 595.230868
SRD 36.978718
STD 21563.75683
SVC 9.113941
SYP 2617.626467
SZL 18.788818
THB 35.922648
TJS 11.092512
TMT 3.646401
TND 3.309016
TOP 2.440072
TRY 35.9978
TTD 7.074178
TWD 33.946439
TZS 2770.578216
UAH 43.089995
UGX 3848.553017
USD 1.041829
UYU 44.294855
UZS 13362.448044
VES 48.506662
VND 26482.251319
VUV 123.688032
WST 2.90836
XAF 655.880824
XAG 0.033274
XAU 0.000384
XCD 2.815595
XDR 0.792308
XOF 655.880824
XPF 119.331742
YER 260.379151
ZAR 18.915093
ZMK 9377.71492
ZMW 28.772658
ZWL 335.468513
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: Martin BUREAU - AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

A.Murugan--DT