Dubai Telegraph - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.100541
AFN 77.413379
ALL 99.399129
AMD 432.522876
ANG 2.01379
AOA 1036.582754
ARS 1074.840314
AUD 1.638402
AWG 2.009533
AZN 1.897724
BAM 1.956408
BBD 2.256061
BDT 133.531523
BGN 1.965931
BHD 0.42069
BIF 3238.849139
BMD 1.116407
BND 1.442823
BOB 7.721263
BRL 6.056951
BSD 1.117427
BTN 93.461652
BWP 14.702308
BYN 3.656772
BYR 21881.580359
BZD 2.25225
CAD 1.514613
CDF 3205.205045
CHF 0.946283
CLF 0.037662
CLP 1039.219035
CNY 7.873799
CNH 7.872619
COP 4650.114928
CRC 578.833333
CUC 1.116407
CUP 29.58479
CVE 110.296334
CZK 25.090913
DJF 198.97831
DKK 7.459754
DOP 67.075451
DZD 147.825397
EGP 54.173877
ERN 16.746107
ETB 128.596137
FJD 2.455869
FKP 0.85021
GBP 0.83926
GEL 3.047887
GGP 0.85021
GHS 17.599236
GIP 0.85021
GMD 76.474898
GNF 9654.915838
GTQ 8.637454
GYD 233.728494
HKD 8.699742
HNL 27.718371
HRK 7.590465
HTG 147.253152
HUF 394.292293
IDR 16913.28939
ILS 4.20618
IMP 0.85021
INR 93.316901
IQD 1463.742058
IRR 46992.371728
ISK 152.289464
JEP 0.85021
JMD 175.553018
JOD 0.791199
JPY 160.503655
KES 144.139301
KGS 94.085197
KHR 4535.288434
KMF 492.726608
KPW 1004.765812
KRW 1489.013615
KWD 0.340571
KYD 0.931181
KZT 535.171625
LAK 24673.45152
LBP 100061.122739
LKR 340.132722
LRD 223.475489
LSL 19.46858
LTL 3.29646
LVL 0.675304
LYD 5.32256
MAD 10.836176
MDL 19.498889
MGA 5034.475344
MKD 61.633614
MMK 3626.046911
MNT 3793.551484
MOP 8.970209
MRU 44.231754
MUR 51.22014
MVR 17.147489
MWK 1937.559121
MXN 21.703614
MYR 4.686123
MZN 71.282382
NAD 19.46858
NGN 1830.829635
NIO 41.122419
NOK 11.727561
NPR 149.530444
NZD 1.789646
OMR 0.429775
PAB 1.117427
PEN 4.194911
PGK 4.43634
PHP 62.087309
PKR 310.770571
PLN 4.277173
PYG 8722.55613
QAR 4.073657
RON 4.974597
RSD 117.085453
RUB 103.966336
RWF 1504.840991
SAR 4.189301
SBD 9.273924
SCR 15.205395
SDG 671.516557
SEK 11.363724
SGD 1.441756
SHP 0.85021
SLE 25.506892
SLL 23410.494226
SOS 638.592859
SRD 33.328128
STD 23107.374219
SVC 9.776953
SYP 2805.006413
SZL 19.453701
THB 36.873802
TJS 11.877787
TMT 3.907425
TND 3.384361
TOP 2.614734
TRY 38.083886
TTD 7.595294
TWD 35.710288
TZS 3046.342404
UAH 46.304169
UGX 4149.215921
USD 1.116407
UYU 45.903041
UZS 14235.29914
VEF 4044243.591204
VES 41.033447
VND 27452.452093
VUV 132.542101
WST 3.123107
XAF 656.149283
XAG 0.035721
XAU 0.000428
XCD 3.017146
XDR 0.828143
XOF 656.149283
XPF 119.331742
YER 279.464658
ZAR 19.611015
ZMK 10049.009427
ZMW 29.079391
ZWL 359.48265
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

S.Saleem--DT