Tytuł

Sora: Narzędzie AI zmieniające grę z potencjalnymi ryzykami

Sora, najnowsze narzędzie do tworzenia tekstu na wideo opracowane przez OpenAI, robi furorę w dziedzinie sztucznej inteligencji generatywnej. Podczas gdy technologia stojąca za Sorą jest niewątpliwie przełomowa, eksperci wyrazili obawy co do jej potencjału tworzenia deepfake’ów, które utrwalają stereotypy rasowe i płciowe.

W odróżnieniu od swojego poprzednika, ChatGPT, Sora przekształca tekstowe sugestie w jednominutowe filmy. OpenAI opisuje Sorę jako narzędzie mające możliwość generowania skomplikowanych scen, włączając w to wielu bohaterów, konkretne ruchy oraz precyzyjne detale subiektywnych aspektów i tła. Wysoki poziom realizmu narzędzia jest osiągany poprzez połączenie dwóch podejść AI. Pierwsze to wykorzystanie modeli dyfuzji, takich jak DALLE-E, które przekształcają losowe piksele obrazu w spójne wizualizacje. Drugie podejście to „architektura transformatora,” używana do kontekstualizacji i składania danych sekwencyjnych.

Obecnie dostęp do Sory jest ograniczony do wybranej grupy artystów wizualnych, filmowców i projektantów, ale istnieją wskazania, że w niedalekiej przyszłości zostanie utworzona lista oczekujących na szerszy dostęp. Osoby posiadające dostęp, określane jako członkowie czerwonego zespołu, posiadają wiedzę w obszarach takich jak dezinformacja, treści nienawistne i uprzedzenia, aby lepiej zrozumieć ryzyka związane z narzędziem.

OpenAI uznaje potencjalne zagrożenia stwarzane przez Sorę i zapewnia użytkowników, że podejmują działania w celu zwalczania dezinformacji. Planują opracować klasyfikator wykrywający zdolny do rozpoznawania filmów stworzonych przez Sorę oraz dostosować istniejące procedury bezpieczeństwa z narzędzi takich jak DALLE3. Firma informuje, że wdrożyła solidne klasyfikatory obrazu do przeglądania każdej klatki wygenerowanych filmów przed udzieleniem dostępu.

Podczas gdy OpenAI stara się dzielić postępami swoich badań i zbierać opinie zewnętrznych partnerów, dostęp narzędzia do publiczności pozostaje niepewny. Nadal podnoszone są obawy związane z tworzeniem deepfake’ów, które wzmacniają negatywne stereotypy. Fałszywe informacje i dezinformacja napędzane przez zawartość generowaną przez AI pozostają istotnymi obawami w różnych branżach.

Sora stanowi przełom w dziedzinie sztucznej inteligencji generatywnej. W miarę zwiększania dostępności OpenAI musi priorytetowo traktować łagodzenie ryzyka związanego z potencjalnym nadużyciem tej potężnej technologii.

Sekcja FAQ:

1. Co to jest Sora?
– Sora to narzędzie do tworzenia tekstu na wideo opracowane przez OpenAI, które potrafi przekształcać tekstowe sugestie w jednominutowe filmy.

2. Jak Sora osiąga wysoki poziom realizmu w generowanych filmach?
– Sora łączy dwa podejścia AI: modele dyfuzji, takie jak DALLE-E, które przekształcają losowe piksele obrazu w spójne wizualizacje, oraz „architekturę transformatora,” która kontekstualizuje i składa dane sekwencyjne.

3. Kto obecnie ma dostęp do Sory?
– Dostęp do Sory jest obecnie ograniczony do wybranej grupy artystów wizualnych, filmowców i projektantów, którzy są określani jako członkowie czerwonego zespołu.

4. Czy dostęp do Sory będzie rozszerzony w przyszłości?
– Istnieją wskazania, że OpenAI może w niedalekiej przyszłości utworzyć listę oczekujących na szerszy dostęp do Sory.

5. Jakie środki podejmuje OpenAI w celu zwalczania dezinformacji generowanej przez Sorę?
– OpenAI planuje opracować klasyfikator wykrywający specjalnie zaprojektowany do rozpoznawania filmów stworzonych przez Sorę. Adaptują również istniejące procedury bezpieczeństwa z narzędzi takich jak DALLE3 i wdrożą solidne klasyfikatory obrazu do przeglądania każdej klatki wygenerowanych filmów.

6. Czy OpenAI zdaje sobie sprawę z potencjalnych zagrożeń związanych z Sorą?
– Tak, OpenAI uznaje potencjalne zagrożenia stwarzane przez Sorę i aktywnie pracuje nad ich łagodzeniem. Poszukują ekspertyzy od osób posiadających wiedzę w obszarach takich jak dezinformacja, treści nienawistne i uprzedzenia, aby lepiej zrozumieć i zająć się zagrożeniami.

Definicje:
– Sztuczna inteligencja generatywna: Odnosi się do systemów lub modeli AI zdolnych do tworzenia nowych treści, takich jak tekst, obrazy czy filmy, na podstawie podanego wejścia lub sugestii.
– Deepfake: Filmy, które są tworzone lub manipulowane przy użyciu AI, aby sprawiać wrażenie, że ktoś powiedział lub zrobił coś, czego naprawdę nie powiedział ani nie zrobił, zwykle poprzez wymianę twarzy lub zmianę głosu.

Powiązane Łącze:
OpenAI

The source of the article is from the blog macholevante.com

Privacy policy
Contact