Inicjatywa europejska Hatedemics ma na celu zwalczanie nienawiści w internecie i dezinformacji

Walcząc z nienawiścią i fałszywymi informacjami online przy użyciu technologii AI

Nowy europejski projekt, Hatedemics, inicjowany przez Fundację Bruno Kesslera w Trydencie, ma na celu zwalczanie szerzenia się mowy nienawiści i fałszywych informacji w sieciach społecznościowych poprzez opracowanie platformy dostępnej dla organizacji pozarządowych, dziennikarzy, fact-checkerów, władz publicznych i studentów. Marco Guerini, koordynator projektu i kierownik grupy Technologii Języka i Dialogu w Centrum Wzmacnionej Inteligencji w FBK, omówił proliferację nienawiści i fałszywych informacji online, wyjaśniając, że algorytmy zaprojektowane do priorytetyzacji treści o wysokim wpływie w efekcie wzmacniają takie materiały ze względu na ich emocjonalny charakter.

Zrozumienie wzajemnego oddziaływania mowy nienawiści i dezinformacji

Mowa nienawiści i dezinformacja, tradycyjnie traktowane oddzielnie, często się przenikają, tworząc obszar szarej treści, który zaciera granice między nimi. Projekt Hatedemics dąży do zjednoczenia podejść do przeciwdziałania tym problemom, rozpoznając ich nakładanie się. Przykłady, gdzie fałszywe narracje historyczne, takie jak te kwestionujące Holokaust, podsycają ideologie dyskryminacyjne, ilustrują potrzebę takiej zjednoczonej strategii.

Postępy w przeciwdziałaniu online negatywności

Adresując obecne metody walki z mową nienawiści i fałszywymi informacjami, w tym wykrywanie treści i sankcje, takie jak usuwanie lub „shadow banning”, Guerini podkreślił ograniczenia polegające na poleganiu wyłącznie na analizie słów kluczowych. Zamiast tego, projekt będzie wykorzystywać systemy AI szkolone do rozumienia kontekstu poza samymi słowami, co pozwoli na zmniejszenie fałszywych pozytywów i negatywów.

Rola sztucznej inteligencji w Hatedemics

Hatedemics będzie wykorzystywać AI nie do cenzurowania, a jako narzędzie dla społeczeństwa obywatelskiego do konstruktywnego zaangażowania się w problematyczną treść. Innowacja polega na połączeniu wiedzy fact-checkerów i operatorów NGO w celu opracowywania kontrargumentów przy użyciu AI. Obejmuje to szkolenie AI generatywnymi sieciami neuronowymi dostępnymi jako open-source i tworzenie symulowanych dialogów w celu przygotowania systemu do rzeczywistych interakcji online.

Przywracanie zaufania do treści online

Ostatecznym celem Hatedemics jest odbudowa zaufania do treści cyfrowych poprzez wsparcie myślenia krytycznego za pomocą narzędzi AI. Tworząc modele języka AI, oparte na danych inicjatywy, przyszłe algorytmy będą lepiej współgrać z ludzkimi wartościami, zapewniając właściwe odpowiedzi na złożone zjawiska rządzące platformami mediów społecznościowych i dyskursem online. Ten projekt ma potencjał stworzenia technologii AI, która ulepsza, a nie zastępuje, ludzkie decyzje i promuje rozpowszechnianie wiedzy.

Kluczowe pytania i odpowiedzi:

Czym jest projekt Hatedemics?
Projekt Hatedemics to inicjatywa mająca na celu przeciwdziałanie mowie nienawiści i dezinformacji w sieciach społecznościowych poprzez opracowanie platformy dla różnych interesariuszy, takich jak NGO, dziennikarze, fact-checkerzy i władze publiczne, przy użyciu technologii AI.

Z jakimi wyzwaniami boryka się projekt Hatedemics?
Główne wyzwania obejmują dokładne identyfikowanie mowy nienawiści i dezinformacji bez naruszania wolności słowa, zarządzanie niuansami kontekstu i różnymi interpretacjami treści oraz zapewnienie, że technologia AI nie jest nadużywana ani nie wzmacnia przypadkowo uprzedzeń.

Kto koordynuje projekt Hatedemics?
Marco Guerini, kierownik grupy Technologii Języka i Dialogu w Centrum Wzmacnionej Inteligencji w Fundacji Bruno Kesslera.

W jaki sposób Hatedemics ma ulepszyć obecne metody walki z online negatywnością?
Projekt proponuje wykorzystanie systemów AI szkolonych do rozumienia kontekstu poza słowami kluczowymi, co pomoże zmniejszyć liczbę fałszywych pozytywów i negatywów oraz budowanie konstruktywnego dialogu z problematyczną treścią.

Jaka jest rola sztucznej inteligencji w Hatedemics?
AI jest stosowana nie do cenzury, lecz jako narzędzie pomagające społeczeństwu obywatelskiemu aktywnie zaangażować się w problematyczną treść poprzez kontrargumenty i wsparcie myślenia krytycznego, poprawiając w ten sposób wiarygodność treści online.

Kluczowe wyzwania lub kontrowersje:

Definiowanie mowy nienawiści: Istotnym wyzwaniem jest jasne zdefiniowanie mowy nienawiści, która różni się znacznie w różnych kulturach i ramach prawnych.

Wolność słowa: Zbalansowanie usuwania szkodliwej treści z ochroną wolności słowa to trwała kontrowersja w radzeniu sobie z mową nienawiści i dezinformacją online.

Uprzedzenia algorytmiczne: Systemy AI mogą posiadać uprzedzenia związane z danymi treningowymi lub algorytmami, co potencjalnie utrwala szkodliwe stereotypy lub niesprawiedliwości.

Zalety i wady stosowania AI w Hatedemics:

Zalety:
– AI może przetwarzać ogromne ilości danych szybciej niż ludzie, pomagając w szybkim wykrywaniu mowy nienawiści i dezinformacji.
– Rozumiejąc kontekst, AI może zmniejszyć liczbę fałszywych pozytywów, unikając cenzury niewinnych treści.
– Symulowane dialogi i generowanie kontrargumentów przez AI mogą umożliwić bardziej zróżnicowany i przemyślany dyskurs publiczny.

Wady:
– Zdolność AI do interpretacji skomplikowanej komunikacji międzyludzkiej jest nadal ograniczona i może prowadzić do błędów w identyfikowaniu szkodliwej treści.
– Zbyt duże poleganie na AI może prowadzić do ograniczenia nadzoru i odpowiedzialności ludzi.
– Istnieje ryzyko manipulacji lub nadużycia AI przez złych aktorów w celu rozpowszechniania bardziej złożonej dezinformacji.

Zaproponowane powiązane linki:

– Aby dowiedzieć się więcej o Fundacji Bruno Kesslera, odwiedź www.fbk.eu.
– Dla informacji dotyczących AI i etyki cyfrowej, Centrum Etyki i Innowacji Danych może dostarczyć wglądów pod adresem www.cdei.uk.
– Więcej na temat skrzyżowania technologii, społeczeństwa i polityki można znaleźć na stronie internetowej europejskiej inicjatywy Praw Cyfrowych, www.edri.org.

Te zasoby dostarczają szerszego kontekstu dotyczącego zastosowania AI na platformach społecznościowych, rozważań etycznych i tworzenia polityk związanych z prawami cyfrowymi oraz walką z mową nienawiścią i dezinformacją online.

Privacy policy
Contact