Bliźniak: Sztuczna Inteligencja Google z ulepszonymi funkcjami weryfikacji

Sztuczna inteligencja generatywna Google podnosi poprzeczkę dokładności działania chatbotów

W listopadzie 2023 roku przestrzeń sztucznej inteligencji stanęła w obliczu znaczącego wydarzenia, które ujawniła firma startupowa Vectara – zespół liczący w swoich szeregach byłych pracowników Google. Według ich danych, stopa halucynacji w ChatGPT firmy OpenAI wynosi 3%. Procent ten może wydać się mały, ale nieprawidłowa odpowiedź chatbota może mieć poważne konsekwencje, zwłaszcza gdy wprowadza w błąd specjalistów, takich jak lekarze, menedżerowie czy analitycy.

Problem dezinformacji generowanej przez sztuczną inteligencję nie jest wyłącznie związany z ChatGPT; inne chatboty oparte na dużych modelach językowych również czasami generują niedokładne wyniki. Jednak Google wyróżnił się wprowadzeniem sztucznej inteligencji o nazwie Gemini, która posiada innowacyjną funkcję potwierdzania autentyczności dostarczonych informacji.

W przeciwieństwie do darmowej wersji ChatGPT, która może nie mieć dostępu do aktualnych informacji internetowych, Gemini potrafi przeszukać i włączyć najnowsze dane online w swoje odpowiedzi. Ta funkcja jest kluczowa z dwóch powodów: użytkownicy otrzymują aktualne odpowiedzi oraz są w stanie ocenić rzetelność dostarczanych informacji przez chatbota.

To, co wyróżnia Gemini, to unikalna cecha. Przy każdej odpowiedzi wygenerowanej przez Geminiego znajduje się ikona „G” z logo Google. Po kliknięciu w tę ikonę, Gemini przeprowadza wyszukiwanie internetowe, analizując wiarygodność tekstu generowanego przez AI.

Po zakończeniu wyszukiwania Gemini podkreśla pewne fragmenty swojej odpowiedzi kolorem zielonym lub pomarańczowym. Zielone frazy oznaczają „zweryfikowane” informacje poparte online, które użytkownicy mogą potwierdzić, klikając na dostarczony link do wiarygodnego źródła. Google jednak wyjaśnia, że podany link niekoniecznie musi być dokładnym źródłem, jakiego Gemini użył do pierwotnej odpowiedzi.

Z kolei frazy zaznaczone pomarańczowym oznaczają potencjalne niezgodności i stanowią ostrzeżenie, że konieczne może być dalsze potwierdzenie. Może to również oznaczać brak znalezienia odpowiednich informacji, w którym to przypadku link jest dostępny, jeśli istnieje.

Wreszcie mogą być fragmenty tekstu, które nie zostały zaznaczone kolorem zielonym ani pomarańczowym, co oznacza brak wystarczających informacji do oceny stwierdzeń chatbota, lub to, że stwierdzenia te nie mają na celu przekazania obiektywnej informacji. W takich sytuacjach zaleca się stosowanie zdrowego rozsądku przez użytkownika w celu dalszej weryfikacji.

Podsumowując, chociaż inne narzędzia AI, takie jak Copilot od Microsoftu czy Perplexity, również dostarczają pomocnych linków do weryfikacji tekstu, bezpośrednie podejście Geminiego do weryfikacji faktów w interfejsie stanowi pochwałę krok w stronę dostarczania niezawodnych i dokładnych interakcji z chatbotami opartymi na AI.

Fakty:

– Gemini to sztuczna inteligencja stworzona przez Google, która zawiera ulepszone funkcje weryfikowalności.
– Duże modele językowe, takie jak ten zasilający ChatGPT, czasami generują niedokładne lub wprowadzające w błąd informacje, określane jako „halucynacje”.
– Gemini oferuje bezpośrednią weryfikację wygenerowanych informacji, podkreślając tekst w różnych kolorach w zależności od weryfikowalności tych informacji.

Kluczowe pytania i odpowiedzi:

Pytanie: Jak weryfikuje informacje dostarczane przez Gemini?
Odpowiedź: Gemini analizuje swoje odpowiedzi i używa systemu z kodowaniem kolorów, aby wskazać weryfikowalność informacji. Zielony kolor oznacza zweryfikowane informacje, pomarańczowy sugeruje potencjalne błędy, a tekst bez koloru może oznaczać brak wystarczających danych do oceny lub jest subiektywny.

Pytanie: Dlaczego weryfikowalność odpowiedzi AI jest ważna?
Odpowiedź: Zapewnienie, że informacje pochodzące od AI są dokładne i weryfikowalne, jest istotne, szczególnie w środowiskach zawodowych, gdzie dezinformacja może prowadzić do poważnych konsekwencji.

Wyzwania i kontrowersje:

– Zapewnienie, że treści generowane przez AI są dokładne i pozbawione stronniczości, pozostaje istotnym wyzwaniem dla programistów.
– Mogą wystąpić problemy z poleganiem na aktualnych danych internetowych, ponieważ opiera się to na założeniu, że wszystkie poprawne informacje są dostępne i zindeksowane online.
– Może pojawić się problem prywatności użytkowników, gdy systemy AI mają zdolność do przeprowadzania wyszukiwań internetowych w tle.

Zalety:

– Gemini dostarcza użytkownikom większą pewność co do dokładności treści generowanych przez AI.
– Możliwość sprawdzenia weryfikowalności informacji na miejscu zwiększa zaufanie użytkowników oraz niezawodność chatbota.
– Informacje, które są aktualne i przeszły proces weryfikacji, mogą być bezpieczniejsze w procesie podejmowania decyzji.

Wady:

– Nadmierne poleganie na narzędziach weryfikacyjnych może skłonić użytkowników do zaniedbywania krytycznego myślenia podczas interakcji z AI.
– Istnieje ryzyko błędów, jeśli Gemini błędnie oznacza poprawne informacje jako niezweryfikowane (fałszywe negatywy) lub błędne informacje jako zweryfikowane (fałszywe pozytywy).

Zaproponowane powiązane linki:

– Aby uzyskać więcej informacji na temat AI i modeli obliczeniowych: Google AI
– Dla nowości wśród AI chatbotów i modeli językowych: OpenAI
– Dla informacji na temat narzędzi AI od Microsoftu: Microsoft AI

Należy pamiętać, że choć staram się podać dokładne adresy URL, zaleca się zweryfikowanie ich, ponieważ nie mogę przeglądać internetu w celu potwierdzenia ich ważności.

The source of the article is from the blog dk1250.com

Privacy policy
Contact