OpenAI zawiesza sztuczną inteligencję imitującą głos Scarlett Johansson

Kontrowersyjny Głos Wywołuje Zamieszanie

To, co można jedynie opisać jako mieszankę postępu technologicznego i zaciekłej debaty, spowodowało, że organizacja badawcza sztucznej inteligencji OpenAI znalazła się pod presją prawną ze strony aktorki Scarlett Johansson. Po wydaniu głosu AI, który wyraźnie przypominał jej dobrze znany ton głosu, OpenAI postanowiło zawiesić używanie asystenta głosowego o nazwie „Sky”, po otrzymaniu wielu powiadomień prawnych.

Rzucające się w oczy Podobieństwo

Analizowany głos został użyty do zaktualizowania asystenta ChatGPT 4.0. Użytkownicy oraz sama aktorka szybko zidentyfikowali podobieństwo do głosu Scarlett Johansson, szczególnie przypominającego jej rolę Samanthy, asystentki AI z filmu „Ona”. Niesamowite podobieństwo zaostrzyło napięcia, gdyż aktorka znana jest z obrony przed nieautoryzowanym wykorzystywaniem podobieństw celebrytów.

Poszukiwanie Ochrony Przed Regulacjami

Reakcja Scarlett Johansson na tę sytuację była pełna głębokiej troski o ochronę praw jednostki w obliczu zaawansowanych technologii deepfake i replikacji AI. Według CNN, z zapałem nawoływała do ustaw, które zabezpieczyłyby prawa jednostek nad ich tożsamością i pracami.

Obrona OpenAI

W obliczu krytyki, OpenAI wydało oświadczenia wyjaśniające, że głos Sky został stworzony przy użyciu innego profesjonalnego aktora głosowego. Dyrektor generalny Sam Altman podkreślił, że celem nie było naśladowanie głosu Johansson, lecz stworzenie przyjaznego i godnego zaufania asystenta.

Punkt Zwrotny w Etyce AI

O niedawno zrezygnowany dyrektor wykonawczy OpenAI, Jan Leike, publicznie skrytykował priorytety firmy, sugerując potrzebę większego finansowania monitorowania, bezpieczeństwa i wpływu społecznego, a nie samego rozwoju produktów i mocy. Kierownictwo OpenAI przyznaje, że konieczna jest jeszcze znaczna praca nad równoważeniem postępu z odpowiedzialnością.

Hollywood i AI na Krawędzi Starcia

Zamieszanie pojawia się zaledwie kilka miesięcy po zakończeniu strajków aktorów z Hollywood związanych z użyciem ich wizerunków przez AI. Podkreśla to trwający konflikt twórców o zachowanie kontroli nad ich artystycznymi wkładami w szybko ewoluującym świecie integracji AI.

Najważniejsze pytania i odpowiedzi:

1. Co skłoniło OpenAI do zawieszenia użycia AI z podobieństwem do Scarlet Johansson?
OpenAI zawiesiło użycie głosu AI po otrzymaniu wielu powiadomień prawnych, prawdopodobnie z obaw o prawa własności intelektualnej i nieautoryzowane użycie podobizn Johansson.

2. Jakie obawy wyraziła Scarlett Johansson w związku z głosem AI?
Wyraziła głęboką troskę o ochronę praw jednostki, szczególnie w kontekście nieautoryzowanego użycia podobieństw celebrytów przy wykorzystaniu technologii deepfake i replikacji AI.

3. Jak zareagowała OpenAI na kontrowersje?
OpenAI broniło się, stwierdzając, że głos został wygenerowany przy użyciu innego profesjonalnego aktora głosowego, a podobieństwo było przypadkowe. Ponadto podkreślili, że celem projektu było stworzenie godnego zaufania głosu, a nie replikowanie głosu Johansson.

Kluczowe Wyzwania i Kontrowersje:
Wydarzenie z OpenAI prowadzi do szerszej rozmowy na temat etycznego użycia AI w replikowaniu ludzkich podobieństw.
– Ramy prawne dotyczące deepfake’ów i AI wciąż się rozwijają, a działające przepisy mogą nie obejmować w pełni nowych problemów stwarzanych przez takie technologie.
– Istnieje napięcie między potrzebą innowacji w rozwoju AI a koniecznością szanowania praw jednostek i prywatności.

Zalety:
– Praca AI w zakresie głosu może przynieść korzyści w zakresie usług dostępności, rozrywki oraz technologii asystentów wirtualnych, zmniejszając potrzebę udziału ludzi i umożliwiając skalowalność.

Wady:
– AI imitujące prawdziwych ludzi może prowadzić do wyzwań prawnych i etycznych, zwłaszcza gdy dochodzi do tego bez zgody.
– Może to zaszkodzić osobistemu i zawodowemu reputacji osób replikowanych, jeśli jest to wykorzystywane w szkodliwych lub wprowadzających w błąd kontekstach.

Związane Wyzwania i Przyszłe Obawy:
– Ustanowienie ram zgody i zapewnienie przejrzystego użycia technologii syntezy głosu.
– Zarządzanie własnością danych głosowych i dystrybucją tych danych do użytku w systemach AI.
– Rozwiązanie potencjalnego nadużycia głosowego AI w celach oszustw, takich jak ataki phishingowe.

Powiązane Linki:
OpenAI
Screen Actors Guild‐American Federation of Television and Radio Artists (SAG-AFTRA)
Electronic Frontier Foundation (dla informacji na temat praw cyfrowych i prywatności)

Privacy policy
Contact