Dirbtinio intelekto modeliai rimtai priklauso nuo įvairaus duomenų srauto, kuris maitina jų interpretacijas ir kūrybines galimybes. Susidūrus su žmogaus sukurtų įvesties trūkumu, šie AI sistemų pakliūva į savireferencinį ciklą, potencialiai vedantį prie neramumų pasekmių, kai jos maitinasi savo išvestimi.
Neseniai atliktas tyrimas, kurį atliko žinomų universitetų tyrėjai, atskleidė treniruotų generatyvių AI modelių poveikį sintetiniams įvesties duomenims, o ne žmogaus kilmės duomenims. Šis reiškinys, pavadintas Modelio Autofagijos Sutrikimu (MAD), atspindi neurologinę sutrikimą, atsirandančią bandant suvibruoti karves. Be naujų realiųjų duomenų, pavojuje yra AI modelių kokybė ir įvairovė jų išvestyse.
Skaičiuotinės inžinerijos specialistas Richardas Baraniukas pabrėžia realių duomenų svarbą treniruojant ateities generatyvius modelius, kad išvengtų „MADness”. Eksperimentai parodė, kad modeliai, kurie yra treniruojami tik sintetiniais duomenimis, laikui bėgant išplėšia iškraipymus ir artefaktus savo išvestyse, pabrėžiant, kad reikalingas subalansuotas įvesties mišinys.
Kaip internete generuojamo AI turinio apimtis auga, kyla susirūpinimas dėl galimo duomenų kokybės blogėjimo ir „Šlapalo” – negrįžtamo AI sukurto turinio – atsiradimo. Ekspertai įspėja, kad stoka įvairių realiųjų duomenų gali sukelti neatpažįstamas pasekmes AI kūrybos evoliucijoje. Iššūkis, su kuriuo reikės susidoroti, yra išlaikyti pusiausvyrą tarp autentiškumo ir naujovių duomenų, kurie maitina AI inovacijas.