Dubai Telegraph - Expertos preocupados porque la inteligencia artificial ya engaña a humanos

EUR -
AED 3.826681
AFN 70.961758
ALL 98.138602
AMD 405.652886
ANG 1.877182
AOA 951.190259
ARS 1045.720247
AUD 1.602814
AWG 1.877897
AZN 1.775245
BAM 1.955573
BBD 2.102956
BDT 124.465544
BGN 1.955294
BHD 0.392554
BIF 3076.642669
BMD 1.041829
BND 1.403837
BOB 7.197164
BRL 6.043693
BSD 1.041579
BTN 87.914489
BWP 14.229347
BYN 3.408604
BYR 20419.848375
BZD 2.099456
CAD 1.456529
CDF 2991.091432
CHF 0.930957
CLF 0.036923
CLP 1018.83097
CNY 7.54601
CNH 7.562783
COP 4573.368835
CRC 530.538382
CUC 1.041829
CUP 27.608468
CVE 110.252195
CZK 25.343745
DJF 185.478458
DKK 7.457729
DOP 62.772709
DZD 139.835759
EGP 51.726992
ERN 15.627435
ETB 127.508391
FJD 2.371151
FKP 0.822333
GBP 0.831435
GEL 2.855018
GGP 0.822333
GHS 16.456089
GIP 0.822333
GMD 73.970229
GNF 8977.957272
GTQ 8.040066
GYD 217.904692
HKD 8.109446
HNL 26.320943
HRK 7.431636
HTG 136.72412
HUF 411.522823
IDR 16610.452733
ILS 3.863061
IMP 0.822333
INR 87.968134
IQD 1364.44153
IRR 43834.955489
ISK 145.523076
JEP 0.822333
JMD 165.930728
JOD 0.738765
JPY 161.242873
KES 134.884334
KGS 90.122166
KHR 4193.512952
KMF 492.268155
KPW 937.645704
KRW 1463.259646
KWD 0.320727
KYD 0.867999
KZT 520.059599
LAK 22878.342838
LBP 93271.167197
LKR 303.144792
LRD 187.998165
LSL 18.795317
LTL 3.076251
LVL 0.630192
LYD 5.086409
MAD 10.478083
MDL 18.997794
MGA 4861.435378
MKD 61.522855
MMK 3383.819949
MNT 3540.134882
MOP 8.35093
MRU 41.443187
MUR 48.810083
MVR 16.10707
MWK 1806.090235
MXN 21.281613
MYR 4.654932
MZN 66.583684
NAD 18.795317
NGN 1767.675143
NIO 38.325549
NOK 11.531328
NPR 140.663663
NZD 1.78585
OMR 0.400943
PAB 1.041579
PEN 3.949541
PGK 4.193513
PHP 61.404399
PKR 289.239507
PLN 4.337676
PYG 8131.055634
QAR 3.798559
RON 4.978071
RSD 116.991412
RUB 108.671879
RWF 1421.834864
SAR 3.911473
SBD 8.734231
SCR 14.272055
SDG 626.663972
SEK 11.501974
SGD 1.402931
SHP 0.822333
SLE 23.68116
SLL 21846.638123
SOS 595.230868
SRD 36.978718
STD 21563.75683
SVC 9.113941
SYP 2617.626467
SZL 18.788818
THB 35.922648
TJS 11.092512
TMT 3.646401
TND 3.309016
TOP 2.440072
TRY 36.018972
TTD 7.074178
TWD 33.946439
TZS 2770.578216
UAH 43.089995
UGX 3848.553017
USD 1.041829
UYU 44.294855
UZS 13362.448044
VES 48.506662
VND 26482.251319
VUV 123.688032
WST 2.90836
XAF 655.880824
XAG 0.033274
XAU 0.000384
XCD 2.815595
XDR 0.792308
XOF 655.880824
XPF 119.331742
YER 260.379151
ZAR 18.862746
ZMK 9377.71492
ZMW 28.772658
ZWL 335.468513
Expertos preocupados porque la inteligencia artificial ya engaña a humanos
Expertos preocupados porque la inteligencia artificial ya engaña a humanos / Foto: Kirill KUDRYAVTSEV - AFP/Archivos

Expertos preocupados porque la inteligencia artificial ya engaña a humanos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

A.El-Ahbaby--DT