Soziale-Medien-KI-Software behindert polizeiliche Ermittlungen in Fällen von sexuellem Kindesmissbrauch

Eine kürzlich durchgeführte Untersuchung des Guardian hat enthüllt, dass soziale Medienunternehmen, die auf Künstliche Intelligenz (KI) Software zur Moderation ihrer Plattformen angewiesen sind, unbrauchbare Berichte über Fälle von sexuellem Kindesmissbrauch erstellen. Dies erschwert die polizeilichen Ermittlungen in den USA und verzögert die Identifizierung potenzieller Täter. Diese Unternehmen sind gesetzlich verpflichtet, alle auf ihren Plattformen entdeckten Materialien des sexuellen Kindesmissbrauchs dem National Center for Missing & Exploited Children (NCMEC) zu melden, das die Hinweise dann an die relevanten Strafverfolgungsbehörden weiterleitet.

Im Jahr 2022 erhielt das NCMEC über 32 Millionen Meldungen über vermuteten sexuellen Kindesmissbrauch, wobei Meta der größte Melder war und für über 27 Millionen Berichte verantwortlich war. Die Verwendung von KI-generierten Berichten stellt jedoch eine erhebliche Herausforderung für die Strafverfolgungsbehörden dar. Aufgrund des Datenschutzes gemäß dem Vierten Zusatzartikel dürfen Beamte und das NCMEC Berichte ohne Durchsuchungsbefehl nicht öffnen, es sei denn, ein Mitarbeiter des sozialen Medienunternehmens hat den Inhalt überprüft. Diese rechtliche Voraussetzung führt zu Verzögerungen von mehreren Wochen, was dazu führt, dass potenzielle Beweismittel verloren gehen und Täter für längere Zeiträume unentdeckt bleiben.

Kindersicherheitsexperten und Anwälte haben Bedenken über die schädlichen Auswirkungen dieser Verzögerungen auf die Sicherheit der Gemeinschaft geäußert. Ermittlungen kommen ins Stocken und die Strafverfolgungsbehörden können keine sofortigen Maßnahmen zum Schutz potenzieller Opfer ergreifen. In einigen Fällen deaktivieren sogar soziale Medienunternehmen Benutzerkonten, nachdem sie einen Bericht eingereicht haben, was dazu führen kann, dass entscheidende Beweismittel von ihren Servern entfernt werden.

KI-generierte Hinweise werden oft nicht untersucht, da ihnen die spezifischen Informationen fehlen, die benötigt werden, um eine Urkunde für einen Durchsuchungsbefehl zu erhalten. Dies bedeutet eine zusätzliche Belastung für bereits überlastete Strafverfolgungsbehörden, die nicht über die notwendigen Ressourcen verfügen, um diese Hinweise prioritär zu behandeln.

Die Abhängigkeit von KI für die Inhaltsmoderation wird von Experten als eine unzureichende Lösung angesehen. Obwohl KI dazu beitragen kann, die Arbeitsbelastung der Strafverfolgungsbeamten zu verringern, kann sie nicht den Bedarf an menschlichem Eingreifen ersetzen. Wie ein Staatsanwalt aus Massachusetts betonte, kann KI möglicherweise kein neues Material zum Kindesmissbrauch identifizieren und kann nur vorhandene Datenpunkte analysieren. Die Bedeutung einer menschlichen Überprüfung darf nicht unterschätzt werden, wenn es um diese sensiblen Fälle geht.

Die aktuelle Situation hat Bedenken hinsichtlich der Effektivität der KI-Moderation und der Notwendigkeit erhöhter Ressourcen und Unterstützung für Strafverfolgungsbehörden aufkommen lassen, um dem wachsenden Problem des sexuellen Kindesmissbrauchs online entgegenzuwirken.

The source of the article is from the blog elektrischnederland.nl

Privacy policy
Contact