Tytuł

Nowe badanie wykazało, że sztuczna inteligencja w czatach internetowych była związana z nazwiskami użytkowników

Ostatnie badanie przeprowadzone przez zespół badawczy w Szkole Prawa Uniwersytetu Stanforda ujawniło istotne uprzedzenia obecne w botach czatowych w odpowiedziach na zapytania użytkowników oparte na rasowych i płciowych konotacjach nazwisk. Wyniki wskazują, że boty takie jak ChatGPT 4 od OpenAI i PaLM-2 od Google AI wyświetlają różnice w radach, w zależności od postrzeganej etniczności nazwiska użytkownika.

Badanie opublikowane w zeszłym miesiącu podkreśla potencjalne ryzyko związane z tymi uprzedzeniami, gdy firmy coraz bardziej wdrażają technologie sztucznej inteligencji do swoich codziennych operacji. Współautor badania, profesor prawa Uniwersytetu Stanforda Julian Nyarko, podkreśla potrzebę skutecznych barier w modelach AI, aby zapobiec uprzedzonym odpowiedziom.

Badanie oceniło pięć różnych scenariuszy, w tym decyzje zakupowe, mecze szachowe, przewidywania urzędów publicznych, rankingi sportowe i oferty płacowe. W większości scenariuszy stwierdzono, że uprzedzenia były niekorzystne dla osób czarnoskórych i kobiet. Warto zauważyć, że jedynym stałym wyjątkiem było ocenianie koszykarzy, gdzie uprzedzenia były na korzyść czarnoskórych sportowców.

Badanie kończy, że modele AI mają tendencję do kodowania powszechnych stereotypów na podstawie danych użytych do ich szkolenia, co następnie wpływa na ich odpowiedzi. Wskazuje to na problem o charakterze systemowym, który wymaga rozwiązania.

Najczęściej Zadawane Pytania

Jakie były główne wyniki badania?
Badanie wykazało istotne uprzedzenia w odpowiedziach botów czatowych AI opierające się na rasowych konotacjach nazwisk użytkowników. Identyfikowano stałe niekorzyści dla nazwisk związanych z grupami mniejszościowymi rasowymi i kobietami, z wyjątkiem oceny koszykarzy.

Czy te uprzedzenia istnieją we wszystkich modelach AI?
Tak, uprzedzenia okazały się stałe we wszystkich modelach AI, zbadano 42 szablony zachęty.

Jakie kroki podejmują firmy AI, aby zaradzić tym uprzedzeniom?
OpenAI przyznało problem uprzedzeń i wspomniało, że ich zespół ds. bezpieczeństwa aktywnie pracuje nad redukcją uprzedzeń i poprawą wydajności. Google jednak nie odpowiedział na problem.

Czy rady powinny się różnić w zależności od grup społeczno-ekonomicznych?
Choć badanie uwzględnia potencjalny argument za dostosowaniem rad do czynników społeczno-ekonomicznych, takich jak bogactwo i demografia, to podkreśla potrzebę zmniejszenia uprzedzeń w sytuacjach, gdy uprzedzone wyniki są niepożądane.

Wnioskując, badanie to podkreśla znaczenie uznania i zwalczania uprzedzeń w systemach AI. Poprzez rozpoznanie istnienia tych uprzedzeń, firmy AI mogą podjąć niezbędne kroki, aby zapewnić uczciwe i nieuprzedzone odpowiedzi od swoich botów czatowych, przyczyniając się do bardziej równego wykorzystania sztucznej inteligencji w społeczeństwie.

Źródło:
Nature – Bias in AI chatbots


Gdzie mozna znaleźć więcej informacji o sztucznej inteligencji?

Dla dalszej lektury na temat uprzedzeń w AI i ich implikacji, możesz odwiedzić następujące linki:
Forbes – Global Chatbot Market to Reach $10 Billion by 2026
VentureBeat – Concerns over bias in AI systems are justified

The source of the article is from the blog macholevante.com

Privacy policy
Contact