OpenAI’s ChatGPT steht aufgrund von Witzen über ethnische und religiöse Gruppen in der Kritik

OpenAI’s Sprachmodell, ChatGPT, ist kürzlich aufgrund seines unterschiedlichen Umgangs mit Witzen über verschiedene ethnische und religiöse Gruppen ins Visier geraten. Während die KI sich weigert, Witze über Muslime zu teilen und dabei auf das Potenzial für Beleidigung und Missverständnisse hinweist, erzählt sie bereitwillig Witze über Juden, einschließlich solcher, die mit antisemitischen Stereotypen belastet sind.

Diese merkwürdige Voreingenommenheit hat Fragen von Nutzern aufgeworfen, die ihre Bedenken in den sozialen Medien geäußert haben. Und wie Itamar Golan, CEO des Cybersicherheitsunternehmens Prompt Security, betont, ist sie tatsächlich eine Spiegelung der Vorurteile, die in den Daten des neueren Sprachmodells GPT-4 verwendet wurden.

Sprachmodelle wie ChatGPT lernen aus großen Datensätzen, was bedeutet, dass Vorurteile, die in den Trainingsdaten vorhanden sind, unbeabsichtigt fortbestehen können. Golan erklärt, dass das Modell, wenn es vermehrt mit Texten konfrontiert wird, in denen Muslime als Minderheitsgruppe behandelt werden, die sensibel behandelt werden sollte, eher dazu neigt, Texte zu generieren, die mit diesen Vorurteilen übereinstimmen.

Obwohl diese Voreingenommenheit besorgniserregend ist, zeigt sie auch die Bereitschaft von OpenAI, auf das Feedback der Benutzer einzugehen und das Verhalten des Modells anzupassen. Golan merkt an, dass OpenAI bewusst die Entscheidung getroffen hat, GPT-4 weniger vorsichtig zu machen als seinen Vorgänger GPT-3.5, der dafür kritisiert wurde, sich zu stark für das äußerste linke politische Spektrum zu engagieren.

Trotzdem ist Golan optimistisch, dass OpenAI das Problem schnell beheben wird. Er glaubt, dass OpenAI sich dem Thema Sicherheit und verantwortungsbewusster Nutzung von KI verpflichtet fühlt und angemessene Maßnahmen ergreifen wird, um die Voreingenommenheit im Verhalten von ChatGPT anzugehen.

Mit dem Fortschreiten der KI-Technologie wird es immer wichtiger, ethische Aspekte zu priorisieren und sicherzustellen, dass KI-Systeme mit robusten Sicherheitsmechanismen entwickelt werden. OpenAI’s Reaktion auf diese Kontroverse wird ein wichtiger Test für ihr Engagement sein, KI-Modelle zu schaffen, die gegenüber allen Kulturen und Religionen unvoreingenommen, respektvoll und sensibel sind.

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact