Pavojingas AI įrankis Sora su galimais rizikos veiksniais

Sora, naujausias teksto į vaizdo įrankis, sukurtas „OpenAI“, iškelia bangas generatyvios AI srityje. Nors Sora technologija be abejo yra revoliucinga, ekspertai išsako susirūpinimą dėl jos galimybės sukurti giliąsias feikavimo vaizdo įrašus, kurie palaiko rasinius ir lyčių stereotipus.

Sora, skirtingai nei jos pirmtakas ChatGPT, į tekstinius užklausimus paverčia juos į vienos minutės trukmės vaizdo įrašus. „OpenAI“ aprašo Sorą kaip gebančią generuoti sudėtingus vaizdus, įtraukiančius kelis personažus, specifinę judesio detalizaciją ir tikslų fono turinį. Įrankio aukštas realizmas pasiekiamas naudojant du AI požiūrius. Pirmasis yra difuzijos modeliai, tokie kaip DALLE-E, kurie konvertuoja atsitiktinius vaizdo pikselius į nuoseklius vaizdus. Antrasis požiūris yra „transformatorių architektūra“, kuri naudojama kontekstualizuoti ir sudėlioti sekančius duomenis.

Kol prieiga prie Soros šiuo metu ribojama išrinktai vizualinių menininkų, filmų kūrėjų ir dizainerių grupei, yra ženklų, kad netrukus bus sukurta laukimo sąrašas plačiau prieigai. Prieigą turintys asmenys, vadinami raudonosios komandos nariais, turi ekspertizę tokiuose srityse kaip dezinformacija, neapykantos turinys ir iškraipymas, siekdami geriau suprasti susijusias rizikas.

„OpenAI“ pripažįsta galimus Soros grėsmingus veiksnius ir užtikrina vartotojus, kad deda pastangas kovoti su klaidinančiu turiniu. Jie planuoja kurti aptikimo klasifikatorių, galintį atpažinti Soros sukurtus vaizdo įrašus, ir pritaikys esamus saugumo procedūras iš įrankių kaip DALLE3. Įmonė teigia, kad įgyvendino patikimus vaizdo klasifikatorius peržiūrėti kiekvieną sugeneruoto vaizdo kadro prieš suteikiant prieigą.

Nors „OpenAI“ siekia dalintis savo tyrimo pažanga ir rinkti atsiliepimus iš išorinių partnerių, įrankio prieinamumas visuomenei išlieka neaiškus. Susirūpinimas dėl giliųjų feikavimo vaizdų kūrimo, kurie sustiprina neigiamus stereotipus, toliau kelia nerimą. AI sukurtas turinio dezinformacija ir neteisybės tebėra svarbios problema įvairiose pramonės šakose.

Sora atstovauja paradigmos poslinkį generatyvioje AI srityje. Didėjant jos prieinamumui, „OpenAI“ privalo pirmenybę teikti rizikos mažinimo priemonėms, susijusioms su šios galingos technologijos galimu piktnaudžiavimu.

UKK Skyrius:

1. Kas yra Sora?
– Sora yra teksto į vaizdo įrankis, sukurtas „OpenAI“, kuris gali paversti teksto užklausas į vienos minutės trukmės vaizdo įrašus.

2. Kaip Sora pasiekia aukštą realizmo lygį sugeneruotuose vaizdo įrašuose?
– Sora derina du AI požiūrius: difuzijos modelius kaip DALLE-E, kurie konvertuoja atsitiktinai parinktus vaizdo pikselius į nuoseklius vaizdus, ir „transformatorių architektūrą“, kuri kontekstualizuoja ir sudeda sekančius duomenis.

3. Kas šiuo metu turi prieigą prie Soros?
– Prieiga prie Soros šiuo metu ribojama išrinktai vizualinių menininkų, filmų kūrėjų ir dizainerių grupei, kuriems teikiami raudonosios komandos nariai.

4. Ar prieiga prie Soros bus išplėsta ateityje?
– Yra ženklų, kad „OpenAI“ netrukus gali sukurti laukimo sąrašą, kuris suteiks plačią prieigą prie Soros.

5. Kokias priemones „OpenAI“ taiko kovai su klaidinančiu turiniu, sukurtu Soros?
– „OpenAI“ planuoja kurti aptikimo klasifikatorių, specialiai skirtą atpažinti Soros sukurtus vaizdo įrašus. Jie taip pat pritaikys egzistuojančias saugumo procedūras iš įrankių kaip DALLE3 ir įgyvendins patikimus vaizdo klasifikatorius peržiūrėti kiekvieną sugeneruoto vaizdo kadrą.

6. Ar „OpenAI“ yra susipažinę su galimomis Soros susijusiomis rizikomis?
– Taip, „OpenAI“ pripažįsta galimus Soros grėsmingus veiksnius ir aktyviai siekia jų mažinti. Jie ieško ekspertų pagalbos iš asmenų, turinčių žinių tokiomis srityse kaip dezinformacija, neapykantos turinys ir iškraipymas, norėdami geriau suprasti ir sušvelninti rizikas.

Apibrėžimai:
– Generatyvi AI: Tai nuoroda į AI sistemas ar modelius, kurie gali kurti naują turinį, tokią kaip tekstą, vaizdus ar vaizdo įrašus, remiantis duotu įvestimi ar užklausomis.
– Giliųjų feikavimo vaizdų įrašai: Vaizdo įrašai, kurie yra sukuriami ar manipuliuojami naudojant AI, kad atrodytų, tarsi kažkas pasakytų ar padarė kažką, ko iš tikrųjų ne pasakė ar nepadarė, įprastai keičiant veidus ar keičiant balsą.

Susijęs nuoroda:
OpenAI

The source of the article is from the blog enp.gr

Privacy policy
Contact