Američki istraživači otkrili su da se umjetna inteligencija "kanibalizira" tako što gubi na kvaliteti korištenjem samogeneriranih podataka i tako sve češće daje netačne rezultate.
Studija Univerziteta Rice u Houstonu nedavno je pokazala da AI modeli jako pate kada im se daju podaci generirani AI-jem.
Ovaj samopojačavajući proces, koji istraživači nazivaju "MAD" (Model Autophagy Disorder), dovodi do značajnog gubitka kvalitete. Nažalost, modeli generativne slike "DALL-E 3" i "Midjourney" bili bi posebno jaki.
U dugotrajnim studijama američki su naučnici otkrili da modeli koji se u povratnoj petlji hrane isključivo sintetičkim podacima bivaju "nepopravljivo oštećeni" nakon samo nekoliko generacija. Ovi modeli proizvode sve više iskrivljene slike koje su prožete generativnim artefaktima i više ne mogu ponuditi realne prikaze.
Dodatna komplikacija je izobličenje uzrokovano ljudskim preferencijama u podacima o obuci sadržavalo bi neproporcionalan broj cvijeća i nasmijanih ljudi, što dovodi do netačnih pretpostavki AI modela. To u konačnici kulminira činjenicom da AI modeli više ne mogu stvarati realne slike ljudi koji plaču ili druge rjeđe scenarije.