Der Kampf gegen Online-Hass: Spanische Forscher entwickeln KI-gestützte Moderation

Das Phänomen des „Hassredens“ wird auf sozialen Netzwerken immer verbreiteter, was Bedenken hinsichtlich der Kontrolle solchen Verhaltens auf Plattformen wie Facebook, Twitter, YouTube und TikTok aufwirft. Trotz Tools zur Kennzeichnung und Entfernung von beleidigenden Inhalten und zur Meldung potenziell illegaler Aktivitäten an die Polizei nimmt der Trend des Online-Hassredens weiter zu und wird zunehmend schwieriger zu managen.

Spanische Forscher in Europa pionieren Strategien zur Bekämpfung dieses gesellschaftlichen Problems durch das Moderates-Projekt, das Teil der SINAI-Gruppe am Zentrum für Fortgeschrittene Informations- und Kommunikationstechnologien der Universität Jaén ist. Das Team ist für seine Arbeit in der computergestützten Sozialwissenschaft und seine Expertise in der Verarbeitung natürlicher Sprache – modernster Künstlicher Intelligenz-Technologie – anerkannt.

Dieses Projekt nutzt die Verarbeitung natürlicher Sprache, um schädliche Reden zu untersuchen und zu moderieren. Luis Alfonso Ureña und María Teresa Martín, die Hauptforscher des Projekts, betonen die Bedeutung, KI mit hochwertigen sprachlichen Ressourcen, einschließlich Lexika, Textkörpern und Wörterbüchern, zu trainieren, um verschiedene Formen von Hassreden zu erkennen und zu kontern.

Mit fast 300.000 Euro an Fördermitteln vom Ministerium für Wissenschaft und Innovation für ihr Projekt experimentiert das Team seit Ende 2022 mit einem einzigartigen Ansatz. Anstatt nur beleidigende Nachrichten zu entfernen, möchten sie konstruktive Kommunikation fördern, indem sie positive Nachrichten verbreiten, wobei sie Strategien nutzen, die historisch von sozialen Organisationen in Bildungskampagnen verwendet wurden.

Eine Schlüsselinnovation ihres Gegen-Narrativ-Ansatzes ist der Einsatz eines Roboters, der mit ChatGPT-Technologie ausgestattet ist, um die Neutralisierung negativer Inhalte zu verstärken. Diese KI-Fähigkeit verspricht, eine wertvolle Ergänzung zu Aufklärungskampagnen und bestehenden Moderationsteams zu sein.

Ureña betont die Herausforderung, qualitativ hochwertige Werkzeuge zu schaffen, die in der Lage sind, eine Vielzahl von Situationen zu erkennen, einschließlich der nuancierten Interpretation von bildhafter Sprache. Die KI-Technologie muss darauf trainiert werden, komplexe Ausdrücke und Variationen innerhalb der spanischen Sprache korrekt zu interpretieren, was derzeit in der experimentellen Phase verfeinert wird, bevor sie in ein soziales Netzwerk oder Forum integriert werden.

In Spanien nimmt die Verbreitung von Hassreden im Internet aufgrund von Rassismus und Homophobie zu. Ein Bericht von Oberaxe ergab, dass soziale Medienplattformen nur 35% der identifizierten Hassredeinhalte entfernt haben. Ureña weist darauf hin, dass das Lehren menschlichen Wissens an KI nicht fehlerfrei ist aufgrund inhärenter Voreingenommenheiten, ein wichtiger Aspekt bei der Unterscheidung zwischen Hassreden und Meinungsfreiheit.

Die Eskalation von internetbasierten Hassverbrechen im Zusammenhang mit Rassismus, Xenophobie und Diskriminierung aufgrund sexueller Orientierung oder Geschlechtsidentität ist ein drängendes Problem, mit signifikanten Zunahmen, wie das Innenministerium berichtet. Das Moderates-Projekt eröffnet neue Perspektiven für die Moderation von Inhalten auf verschiedenen digitalen Plattformen, von sozialen Netzwerken bis hin zu Foren und Online-Medien.

Der Kampf gegen Online-Hass und der Einsatz KI-gestützter Moderationswerkzeuge wie vom spanischen Forscherteam entwickelt, behandelt ein komplexes und kritisches Thema im digitalen Zeitalter. Hier sind einige relevante Fakten, Fragen, Herausforderungen, Kontroversen, Vorteile und Nachteile, die mit dem Thema verbunden sind:

Relevante Fakten:
– Das Wachstum der sozialen Medien hat zu einer zunehmenden Exposition gegenüber Hassreden im Internet geführt, was ernsthafte psychologische Auswirkungen auf Individuen und gesellschaftliche Konsequenzen haben kann.
– KI-basierte Moderation muss zwischen Hassreden, legitimer Meinungsfreiheit und Satire unterscheiden, was kulturell und kontextspezifisch sein kann.
– Die Möglichkeit, dass KI Inhalte falsch klassifiziert, kann zu ungerechter Zensur oder dem Übersehen wirklich schädlicher Inhalte führen, was die Qualität des KI-Trainings unerlässlich macht.
– Datenschutzbedenken entstehen, wenn KI-Moderationswerkzeuge nutzergenerierte Inhalte analysieren und moderieren.
– KI-Modelle, einschließlich solcher, die zur Moderation verwendet werden, können die in den Trainingsdaten vorhandenen Voreingenommenheiten übernehmen, was zu unfairer Moderationspraxis führt.
– Die spanischen Forscher nutzen die ChatGPT-Technologie, die für ihre dialogischen Fähigkeiten und das Sprachverständnis bekannt ist.

Wesentliche Fragen:
– Wie genau ist KI bei der Identifizierung und Moderation von Hassreden, ohne die Meinungsfreiheit zu verletzen?
– Welche Maßnahmen werden ergriffen, um sicherzustellen, dass die KI-Systeme frei von Voreingenommenheiten sind?
– Wie wird sich die Implementierung der KI-gestützten Moderation auf das Nutzerverhalten und -erfahrungen in sozialen Netzwerken auswirken?

Wesentliche Herausforderungen/Kontroversen:
– Sicherstellung, dass KI-Moderationswerkzeuge auf vielfältigen und repräsentativen Datensätzen trainiert werden, um Voreingenommenheiten zu minimieren.
– Ausbalancieren der Notwendigkeit einer effektiven Hassrede-Moderation mit dem Recht auf freie Meinungsäußerung und Vermeidung von Überzensur.
– Entwicklung von KI, die den Kontext, Sarkasmus und Nuancen in der Sprache versteht, um falsche Positive und Negative zu vermeiden.
– Behandlung der ethischen Implikationen, dass KI darüber entscheidet, was auf sozialen Plattformen als akzeptable Rede gilt.

Vorteile:
– KI kann riesige Datenmengen viel schneller als menschliche Moderatoren analysieren, was zu effizienteren Moderationsprozessen führt.
– Es besteht das Potenzial, die Exposition menschlicher Moderatoren gegenüber psychisch schädlichen Inhalten zu reduzieren.
– KI-Tools können eine kontinuierliche, Echtzeit-Moderation ohne Ermüdung bieten.

Nachteile:
– KI versteht den Kontext und die Nuancen möglicherweise nicht so gut wie menschliche Moderatoren, was zu Fehlern in der Beurteilung führen kann.
– Die Abhängigkeit von KI könnte zu weniger Transparenz in den Moderationsprozessen und Entscheidungsfindung führen.
– Die Sicherstellung von Fairness bei KI und das Vermeiden algorithmischer Voreingenommenheiten sind eine komplexe und fortwährende Herausforderung.

Für weitere Informationen zu diesem Thema und verwandten Forschungen, könnten Sie in Betracht ziehen, die folgenden Ressourcen zu besuchen:
Facebook
Twitter
YouTube
TikTok

Diese Links führen zu den Hauptplattformen, die im Zusammenhang mit dem Thema erwähnt wurden, und könnten weitere Einblicke in deren derzeitige Moderationsrichtlinien und Herausforderungen bieten.

The source of the article is from the blog agogs.sk

Privacy policy
Contact