Scarlett Johansson uttrycker oro över AI-röstliknande.

Scarlett Johansson, känd för sina roller i filmer som ”Avengers,” ”Lost in Translation,” och ”Marriage Story,” har uttryckt sin oro över den slående likheten mellan hennes egen röst och rösten hos en AI-chattbot skapad av OpenAI. Chattboten, som till en början inte skulle ha en röst som Johansson, hade en oroande likhet med skådespelarens karakteristiska röstton, vilket ledde till att hon sökte juridisk rådgivning för en utredning av den AI-genererade rösten.

Även om OpenAI hade tagit bort rösten, känd som ”Sky,” innan Johanssons uttalande, bekräftade företagets VD, Sam Altman, att rösten i fråga tillhörde en annan skådespelerska och inte var en avsiktlig imitation av Johansson. Trots Altmans försäkringar hade Johanssons innersta krets, inklusive hennes fans, noterat den otäcka likheten mellan ”Sky”-systemet och hennes röst.

I sin strävan efter AI-röstutvecklingens integritet meddelade OpenAI att de anser att AI-röster inte bör medvetet härma kändisar och förklarade att de hade arbetat med professionella röstskådespelare för sina olika AI-personor som Breeze, Cove, Ember, Juniper, och den kontroversiella Sky.

Reflektionen över Johanssons röst blev särskilt märkbar på grund av likheten mellan ”Sky” och hennes röstroll i den profetiska filmen ”Her” från 2013, där en man blir kär i en AI-chattbot. Altmans enordsinlägg, ”Her,” på sociala medieplattformen ”X” skruvade ytterligare upp spekulationerna om avsiktlig imitation.

Detta incident belyser den eskalerande debatten i Hollywood om rättigheterna att använda skådespelares röster och likheter i samband med artificiell intelligens-teknologi. Med lanseringen av OpenAIs senaste GPT-4o, som har en mer mänsklig och engagerande röst, återigen diskuteras de etiska konsekvenserna och skyddet av personliga egenskaper i AI-applikationer.

Den etiska dilemmat kring artificiell intelligens som efterliknar verkliga röster som Scarlett Johanssons illustrerar den bredare frågan om användningen av biometriska data i AI utan samtycke. Tekniken som används för att syntetisera röster har blivit alltmer sofistikerad, vilket möjliggör mer realistiska imitationer av individuella talstilar och tonfall.

Viktiga frågor och svar:

Får en AI lagligt efterlikna en persons röst utan deras tillåtelse? Juridiskt sett beror detta på faktorer som jurisdiktion och befintliga lagar om publicitets- och integritetsrättigheter. Generellt sett kan användning av någons likhet eller röst utan samtycke leda till rättsliga problem, men AI-lagens ungdom innebär att gråzoner fortfarande är vanliga.

Vilka är de främsta utmaningarna med AI-röstlikhet? Utmaningar innefattar att navigera samtycke, säkerställa integritet, förebygga missbruk av en persons röst för bedrägliga ändamål, samt att hantera moraliska och etiska frågor kring identitet och autenticitet.

Vilka kontroverser uppstår kring AI-röstlikhet? Kontroverser härstammar från potentialen för deepfakes, användningen av kändisröster utan samtycke, och påverkan på en individs personliga varumärke och utkomst.

Fördelar och nackdelar:

Fördelar med AI-röstlikhet innefattar innovativa underhållningserfarenheter, tillgänglighetsfunktioner för personer med funktionsnedsättningar, samt en ny horisont för kreativt uttryck.

Nackdelar inkluderar risken för förfalskningar och bedrägerier, förlust av integritet och nedvärdering av en individs unika röst och varumärke. Det väcker också frågor om äkthet och samtycke i medieproduktion.

Samtalet kring AI och röstlikhet är mångfacetterat och involverar aspekter av lag, etik, teknologi och kreativt uttryck. Det kräver en noggrann balans mellan innovation och individens rättigheter.

För att ta reda på mer om de etiska diskussioner som pågår inom AI eller för att lära dig mer om AI-teknologi, kan du hänvisa till organisationer och grupper som OpenAI, som aktivt deltar i dessa samtal. Observera att direkta länkar till specifika händelser eller undersidor som diskuterar Scarlett Johanssons fall har uteslutits på grund av kravet på att endast referera till huvuddomäner.

The source of the article is from the blog macnifico.pt

Privacy policy
Contact