Skarleta Johansone un AI balsu kontroverze.

Scarleta Johansona, slavenā amerikāņu aktrise, izjuta pārsteigumu un īsi nokaitējumu, atklājot, ka transformācijas gulta no AI lietotnes ChatGPT bija izrādījusies vienāda ar viņas pašas balsi. Platformas izveidotāji OpenAI nolēma apturēt minēto balsi, kas tika saukta par “Sky”, saņemot atsauksmes, kas atklāja tā līdzību ar Johansonas balsi.

Problēma radās, kad lietotāji pamanīja līdzību starp Johansonas balsi un Sky balss iespēju AI lietotnes, īpaši pēc jaunās atjaunināšanas, kas bija vērsta uz ChatGPT čatbota padarīšanu par lielākā mērā sarīkojamu. Johansona, kura bija aizdevusi savu balsi AI saskarnei 2013. gadā iznākušajā filmā “Her”, bija pārsteigta par jaunā AI sistēmas balsi līdzību ar savējo – tik ļoti, ka pat viņas tuvie draugi un mediji grūti spēja atšķirt abas.

Reaģējot uz notiekošo, OpenAI sabiedrībā pievērsās minētajai lietai, norādot, ka viņi neplānoja imitēt Johansonas atšķirīgo balsi un argumentējot, ka apspriežamā balse nāca no citiem aktrises. Viņi uzsvēra, ka AI balsu izraudzīšanas process bija rūpīgs, iesaistot profesionālus aktierus un nozares konsultantus piecu mēnešu laikā.

Tomēr Johansona atklāja, ka OpenAI izpilddirektors iepriekš viņai klātienē piedāvāja izmantot viņas balsi savā sistēmā, liekot tādējādi mazināt lietotāju diskomfortu, mijiedarbojoties ar AI. Pēc personīgām apsvērumiem viņa atteicās no piedāvājuma. Pēc vairākiem mēnešiem atklājot, ka Sky balsij ir līdzība ar viņas balsi, Johansona uzsāka tiesvedību, pēc kuras OpenAI negribīgi izņēma balsi no lietošanas.

Uzņēmums uzstāja, ka AI balsīm nevajadzētu nodomāti imitēt slavenību atšķirīgo balsi un apgalvoja, ka tā saistīta ar aizsardzību pret personisko privātumu, tātad neizpaužot faktisko balsu mākslinieku. Tā laikā OpenAI ir ieviesis savu jaunāko AI modeli, GPT-4o, iezīmējot progresu sarīkojamā valodas spēju ziņā.

Juridiskās un ētiskās implikācijas AI balsu imitācija

Galvenā izaicinājums, kas saistās ar slavenību līdzīgu balsu izmantošanu AI lietotnēs, apgriežas ap juridiskām un ētiskām bažām. Lai gan tehnoloģijas ļauj balsu atkārtot ar augstu precizitāti, rodas jautājums: kur ir robeža starp iedvesmu un pārkāpumu? Scarleta Johansonas lieta uzsvēra nepieciešamību pēc skaidrākām vadlīnijām un noteikumu attiecībā uz intelektuālā īpašuma tiesībām mūsdienu AI laikmetā.

Sabiedrības uztvere un uzticība AI tehnoloģijām

Vēl viens pretrunīgs moments ir tas, kā šāda līdzība var ietekmēt sabiedrības uzticību AI tehnoloģijai. Lietošana balsim, kas cieši līdzinās kādas labi pazīstamas figūras balsij bez piekrišanas, var novest pie uzticības zaudēšanas lietotāju vidū un radīt bažas par privātumu un iespējamu ļaunprātīgu izmantošanu, piemēram, deepfake krāpšanas vai maldinošu atbalstu.

AI izmantošanas priekšrocības un trūkumi, izmantojot slavenību līdzīgu balsi

Teorētiski balsu izmantošana, kas līdzinās slavenībām, var padarīt AI sistēmas pievilcīgākas un atbilstošākas lietotājiem, iespējams, paaugstinot lietotāju iesaistīšanos. Taču potenciālie trūkumi ietver juridiskos riskus, ētiskus jautājumus un iespēju, ka šādu balsu izmantošana bez piekrišanas var sabojāt AI izstrādātāju reputāciju un ierobežot industrijas izaugsmi neuzticības dēļ.

Attiecībā uz OpenAI un turpmākās informācijas par viņu vadlīnijām un jauninājumiem, piemēram, par viņu AI modeļiem, apmeklējiet viņu oficiālo tīmekļa vietni: OpenAI.

Privacy policy
Contact