Innovatiivinen tekoälymalli tarkastelun alla plagioinnin vuoksi

Stanfordin opiskelijoiden tekoälymalli herättää kysymyksiä teknologiayhteisössä

Stanfordin yliopiston tietojenkäsittelytieteen opiskelijatiimi on luonut aallon teknologia-alalla kehittämällä tekoälymallin nimeltä Llama 3-V. Aksh Garg, Siddharth Sharma ja Mustafa Aljadery ovat kehittäneet mallin, jonka yhteydet ovat epäselvät. Llama 3-V sai maailmanlaajuista huomiota korkeasta suorituskyvystään heti julkaisun jälkeen viime viikolla, ja tutkimusryhmä julisti sen kovan kilpailijan johtaville tekoälymalleille.

Vaikuttavalla budjetilla toteutettua tekoälyä vastaan syytökset plagioinnista

Huolimatta siitä, että Llama 3-V saavutti paikan viiden parhaan trendien joukossa suositulla tekoälyalustalla Hugging Facessa, Llama 3-V:n juhlat katkesivat lyhyeen. Esitettiin syytöksiä siitä, että malli oli kopio MiniCPM-Llama3-V 2.5 -mallista, joka oli yhteistyössä luotu Thanh Hoa -yliopiston Kielenkäsittelylaboratorion ja pekingiläisen tekoälyaloitteen ModelBestin toimesta.

Sekä Llama 3-V:n rakenne että koodi osoittautuivat lähes samanlaisiksi kuin sen edeltäjänsä avoimen lähdekoodin GitHub-alustalla. ModelBestin perustaja Liu Zhiyuan ilmaisi WeChatin kautta vahvan epäilynsä siitä, että Stanfordin tiimi oli kopioinut heidän projektinsa.

MiniCPM-Llama3-V2.5 -mallin huomionarvoinen piirre on sen kyky tunnistaa muinaiset kiinalaiset merkit, joukko, jota ei oltu julkaistu julkisesti. Samanlaisuudet merkitunnistuksessa kahden mallin välillä lisäsivät syytöksiä.

Annettu anteeksipyynnön kanta Stanfordin tutkijoiden taholta

Maanantaina antamassaan lausunnossa Garg ja Sharma myönsivät MiniCPM-Llama3-V 2.5 -mallin hämmästyttävät samankaltaisuudet ja pyysivät anteeksi alkuperäisiltä tekijöiltä. He myös paljastivat, että Aljadery oli vastuussa projektin koodauksesta ja otti syyt niskoilleen epäonnistumisen lähdevarmennuksessa.

Kyseessä aiheutti melkoisen kohun verkossa, erityisesti Kiinassa. Stanfordin tekoälyn laboratorion professori Christopher Manning kritisoi jäljitelmää häpeällisenä. Tapaus herätti keskusteluja Kiinan edistymisestä tekoälyn saralla, kuten Googlen DeepMindin tutkija Lucas Beyer totesi, MiniCPM-Llama3-V 2.5:n saamasta huomiosta huolimatta se ei ehkä saanut haluttua huomiota mahdollisesti sen kiinalaisen alkuperän vuoksi.

Tunnustaen eron kiinalaisten tekoälymallien ja johtavien länsimaisten projektien välillä Liu Zhiyuan painotti Kiinan tekoälysektorin merkittäviä harppauksia viimeisen vuosikymmenen aikana. Tämä kiistakysymys herättää eettisiä huolenaiheita tieteellisessä tutkimuksessa ja korostaa myös Kiinan nopeaa edistymistä tekoälyteknologian kilpailullisessa maisemassa.

Keskeiset kysymykset ja vastaukset:

1. Minkälaisia seurauksia plagioinnista voi olla tekoälyn kehityksessä? Plagioinnin seurauksena voi olla luottamuksen menetys, mahdolliset oikeudelliset ongelmat, maineen vahingoittuminen ja alkuperäisen innovaation haittaaminen. Se horjuttaa tieteellisen yhteisön uskottavuutta ja eheyttä.

2. Kuinka kehittäjät voivat varmistaa, että heidän tekoälymallinsa ovat alkuperäisiä? Tiimit voivat suorittaa perusteellisia kirjallisuuskatsauksia, käyttää plagioinnin havaitsemisohjelmistoja, dokumentoida kehitysprosessinsa huolellisesti ja antaa asianmukaista tunnustusta olemassa olevalle työlle sitä hyödyntäessään.

3. Miksi kiinalaiset tekoälymallit eivät ehkä saa yhtä paljon huomiota? Tekijöitä voivat olla kielimuurit, geopoliittiset kysymykset ja ennakkoluulot teknologiayhteisössä, jotka suosivat länsimaisia kehityksiä.

Päähaasteet tai kiistakysymykset:

Eettiset huolenaiheet: Tällaiset syytökset korostavat eettisiä rajoja, jotka voivat hämärtyä tekoälyn kehityksessä, missä immateriaalioikeuksia saatetaan mahdollisesti rikkoa.

Avoin tekoälyssä: Käydään jatkuvaa keskustelua siitä, kuinka paljon tekoälyn kehitysprosessista tulisi tehdä avointa lähdekoodia ja miten alkuperäisyyttä mitataan alalla, joka usein perustuu aiempaan työhön.

Edut: Llama 3-V osoittaa pienempien tiimien kyvyn tehdä merkittäviä panoksia, mikä voi mahdollisesti demokratisoida tekoälytutkimusta. Jos malli on menestyksekäs, se voi nopeasti saada kansainvälistä tunnustusta.

Haitat: Tapahtuma heijastaa riskejä, jotka liittyvät mutkien leikkaamiseen. Syytökset plagioinnista voivat aiheuttaa korjaamatonta haittaa tutkijoiden ja heidän laitostensa uskottavuudelle.

Lisätietoja tekoälyyn liittyvistä aiheista löytyy seuraavilta verkkosivustoilta:
Association for Computational Linguistics
Google AI
DeepMind
Facebook AI Research
OpenAI

Muistutamme, että annetut linkit ovat vain pääverkkotunnuksia ja olivat voimassa tietojen katkaisupäivänä.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact