Le IA che addestrano sé stesse sono a rischio collasso
Iniziano a produrre contenuti senza senso
Le Intelligenze Artificiali generative, come ChatGpt, rischiano di sovraffollare di contenuti il web, con il risultato di imparare in modo ciclico e su contenuti che esse stesse producono, innescando un meccanismo a spirale che le porterebbe a produrre contenuti senza senso e quindi al collasso. Lo indica lo studio guidato da Ilia Shumailov, dell'Universit di Oxford e pubblicato sulla rivista Nature. Il rischio, avvertono gli esperti, è che internet rischia di saturarsi di contenuti generati da sistemi di IA alimentandosi in modo tossico, fino al collasso degli attuali modelli di IA generativa. Le IA generative sono sempre più diffuse, sia per produrre testi che per creare immagini o video di ogni tipo e il fatto che il web si stia sempre più popolando di contenuti prodotti dalle IA stesse potrebbe iniziare a essere un grosso problema. Le IA imparano infatti dai materiali, testi o foto, che gli si mette a disposizione e su cui vengono addestrate. Attualmente questi di contenuti sono prodotti da esseri umani, come le pagine di Wikipedia o set di fotografie di animali. Ma internet si sta rapidamente popolando di contenuti creati dalle stelle IA e questi materiali, a loro volta, vengono usati per addestrare i modelli. Per capire a che cosa può condurre questo processo, i ricercatori britannici hanno addestrato un sistema IA con i materiali che esso stesso aveva prodotto, quindi hanno utilizzato i nuovi materiali prodotti dal sistema per addestrare un altro modello di IA, e così via. E' emerso così che questo apprendimento che di chatbot in chatbot genera progressivamente un peggioramento delle qualità. Per esempio, i sistemi di IA cominciano a produrre testi con molte frasi ripetute, fino a al collasso. Perdono infatti completamente la capacità di distinguere gli oggetti, come una chiesa da una lepre.
A.Murugan--DT