Neseniai patvirtinti atvejai patvirtina augantį dirbtinio intelekto (AI) naudojimą moksliniuose publikavimuose, kuris veikia jų kokybę. Nors įrankiai, tokie kaip ChatGPT, yra naudingi turinio kūrimui ir vertimui, naujausi atšaukimai atskleidžia nesąžiningų praktikų problemą.
Vienas atvejis susijęs su ratai su per dideliais genitalijomis vaizdu, dėl ko buvo atšauktas studijos išleidimas, kurį paskelbė garsus akademinis leidėjas. Kita studija buvo atšaukta dėl vaizdo parodymo, kuriame buvo rodoma nerealistiškai didelė kaulų skaičiaus žmogaus kojoje.
Be defektų iliustracijose, ChatGPT, AI pagrįstas bendravimo įrankis, sektoriaus keičiasi. Elsevier studija, kuriame buvo naudojamas ChatGPT, tapo virusine ir demonstravo įrankio potencialą.
Ekspertai pripažįsta iššūkius nustačiant AI sukurtą turinį, su tikėtinu AI pagamintų straipsnių nuotraukų augimu. Susirūpinimas kyla, kad plintančios sukčiavimo praktikos, įskaitant plagiato ir padirbtų straipsnių, didėja. Mikrobiologė Elisabeth Bik įspėja apie „straipsnių fabrikų” augimą, kurį skatina AI, prisidedantį prie prastos kokybės leidinių ir etinių nuostolių.
AI padidina neišsenkančią straipsnių paklausą, sukurianti aštrią akademinę aplinką. Pagrindiniai apsaugos nuo sukčiavimo būdai lieka nepakankami, todėl leidėjai turės naudoti AI pagrįstus aptikimo paslaugas, kad kovotų su piktnaudžiavimu.
Nors yra pastangų kovoti su AI susijusiomis nesąžiningomis praktikomis, neseniai įvykdytas incidentas atskleidė mokslininko paties darbo AI sukurtą versiją, kurią publikavo gerbiamas žurnalas. Incidentas pabrėžia nuolatinę kovą palaikyti publikacijų teisingumą sparčiai vystantis AI technologijoms akivaizdoje.