Dubai Telegraph - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 3.82663
AFN 70.961809
ALL 98.138672
AMD 405.653176
ANG 1.877183
AOA 951.190967
ARS 1044.167695
AUD 1.599646
AWG 1.877898
AZN 1.768925
BAM 1.955574
BBD 2.102957
BDT 124.465633
BGN 1.955296
BHD 0.392555
BIF 3076.644867
BMD 1.04183
BND 1.403838
BOB 7.197169
BRL 6.043616
BSD 1.04158
BTN 87.914552
BWP 14.229358
BYN 3.408607
BYR 20419.862965
BZD 2.099458
CAD 1.456197
CDF 2991.093261
CHF 0.930624
CLF 0.036923
CLP 1018.831698
CNY 7.545955
CNH 7.559141
COP 4573.372102
CRC 530.538761
CUC 1.04183
CUP 27.608488
CVE 110.252274
CZK 25.306722
DJF 185.47859
DKK 7.457725
DOP 62.772754
DZD 139.835859
EGP 51.650195
ERN 15.627446
ETB 127.508482
FJD 2.371152
FKP 0.822334
GBP 0.831137
GEL 2.854575
GGP 0.822334
GHS 16.4561
GIP 0.822334
GMD 73.969495
GNF 8977.963687
GTQ 8.040072
GYD 217.904848
HKD 8.10981
HNL 26.320962
HRK 7.431641
HTG 136.724218
HUF 410.920048
IDR 16610.464601
ILS 3.856615
IMP 0.822334
INR 87.968197
IQD 1364.442504
IRR 43834.985936
ISK 145.522363
JEP 0.822334
JMD 165.930847
JOD 0.738756
JPY 161.24407
KES 134.88443
KGS 90.11281
KHR 4193.515949
KMF 492.261294
KPW 937.646374
KRW 1463.260366
KWD 0.320727
KYD 0.868
KZT 520.05997
LAK 22878.359185
LBP 93271.23384
LKR 303.145008
LRD 187.9983
LSL 18.79533
LTL 3.076253
LVL 0.630192
LYD 5.086413
MAD 10.478091
MDL 18.997807
MGA 4861.438851
MKD 61.522899
MMK 3383.822366
MNT 3540.137411
MOP 8.350936
MRU 41.443216
MUR 48.810137
MVR 16.1068
MWK 1806.091526
MXN 21.300719
MYR 4.654898
MZN 66.582998
NAD 18.79533
NGN 1767.669283
NIO 38.325576
NOK 11.541432
NPR 140.663763
NZD 1.785677
OMR 0.400944
PAB 1.04158
PEN 3.949544
PGK 4.193516
PHP 61.40439
PKR 289.239713
PLN 4.332887
PYG 8131.061444
QAR 3.798562
RON 4.980248
RSD 116.991496
RUB 108.510536
RWF 1421.83588
SAR 3.911475
SBD 8.734237
SCR 14.271984
SDG 626.658476
SEK 11.49581
SGD 1.402926
SHP 0.822334
SLE 23.680862
SLL 21846.653733
SOS 595.231293
SRD 36.978666
STD 21563.772237
SVC 9.113948
SYP 2617.628337
SZL 18.788831
THB 36.0395
TJS 11.09252
TMT 3.646404
TND 3.309018
TOP 2.440069
TRY 35.958741
TTD 7.074183
TWD 33.946456
TZS 2770.580196
UAH 43.090026
UGX 3848.555767
USD 1.04183
UYU 44.294887
UZS 13362.457591
VES 48.506696
VND 26482.270241
VUV 123.688121
WST 2.908362
XAF 655.881293
XAG 0.033274
XAU 0.000384
XCD 2.815597
XDR 0.792309
XOF 655.881293
XPF 119.331742
YER 260.379266
ZAR 18.844783
ZMK 9377.714007
ZMW 28.772679
ZWL 335.468752
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

S.Saleem--DT