Fehleinschätzungen der Künstlichen Intelligenz

Die Künstliche Intelligenz (KI) hat in den letzten Jahren beachtliche Erfolge erzielt und verschiedene Aspekte der Gesellschaft revolutioniert. Von der Strafverfolgung und Gesundheitsversorgung über Sozialfürsorge und Justiz – KI dringt rasch in alle Lebensbereiche ein. Doch trotz der Begeisterung über diese Fortschritte müssen wir uns auch mit den unbeabsichtigten Folgen auseinandersetzen, die entstehen, wenn KI ohne sorgfältige Überlegung implementiert wird.

Im Sommer 2016 erhielt eine Frau in Amsterdam einen Brief vom Bürgermeisteramt, der das Leben ihrer Familie für immer verändern würde. Der Brief enthüllte, dass einer ihrer Söhne, der eine problematische Vergangenheit mit der Polizei hatte, nun auf einer Liste jugendlicher Gewaltverbrecher stand. Schockierenderweise enthielt der Brief auch die Information, dass ihr anderer Sohn auf einer separaten Datenbank von Teenagern geführt wurde, die als Risiko für zukünftige Kriminalität eingestuft wurden. Diese Listen wurden mithilfe von ProKid erstellt, einem maschinellen Lernsystem, das von Akademikern in Zusammenarbeit mit der niederländischen Polizei entwickelt wurde.

ProKid nutzte eine Vielzahl von Daten wie die Adresse einer jungen Person, Beziehungen, vergangene Interaktionen mit der Strafverfolgung (auch wenn keine Anklage erhoben oder Verurteilung erfolgt war) und Schulbesuchsdaten, um ihre Wahrscheinlichkeit einzuschätzen, kriminelle Aktivitäten zu betreiben. Die zugrunde liegende Annahme war, dass eine frühzeitige Intervention, wie soziale Dienste, psychologische Unterstützung und Schulengagement, diese Kinder davon abhalten könnte, in ein Leben der Kriminalität zu geraten.

Die Realität war jedoch weit von dem beabsichtigten Ergebnis entfernt. Anstatt potenzielles kriminelles Verhalten zu mildern, hatte ProKid oft den gegenteiligen Effekt. Viele dieser Kinder fühlten sich aufgrund ihrer Aufnahme in diese Listen stigmatisiert, sahen ihren Wert in den Augen der Behörden gemindert und wandten sich infolgedessen als direkte Reaktion auf die Wahrnehmung, dass sie bereits als Kriminelle angesehen wurden, der Kriminalität zu. Die Mutter eines 16-jährigen Jungen aus Amsterdam bezeichnet das System als „verrückt“, da es das Leben ihres Sohnes irreparabel beschädigt hat.

Dieses beunruhigende Szenario, das an Philip K. Dicks Novelle „Minority Report“ erinnert, verdeutlicht ein größeres Problem im Zusammenhang mit KI-Systemen: das Fehlen von Transparenz und Verantwortlichkeit. Wie in Madhumita Murgias nachdenklichem Buch „Code Dependent“ hervorgehoben wird, gibt es oft wenig Erklärung darüber, wie KI-Systeme zu ihren Entscheidungen gelangen oder wie diese Entscheidungen geändert werden können. Selbst die Stadtverwaltung Amsterdams gab bei der Anfrage nach Informationen zu, dass sie nur ein begrenztes Verständnis dafür hatte, warum ProKid bestimmte Familien gegenüber anderen auswählte. Tatsächlich sind diese Algorithmen oft als „undurchsichtige Systeme“ konzipiert, deren Funktionsweise selbst für ihre Schöpfer undurchsichtig bleibt.

„Code Dependent“ geht tiefgründig auf die Auswirkungen von KI auf die Gesellschaft ein, beleuchtet das Leben, das von diesen unverständlichen Systemen beeinflusst und sogar ruiniert wurde. Murgia, die erste KI-Redakteurin der Financial Times, konzentriert sich auf gewöhnliche Einzelpersonen, insbesondere aus marginalisierten Gemeinschaften, die sich im Schatten der KI wiederfinden. In zehn geschickt geschriebenen Kapiteln erforscht sie, wie maschinelles Lernen grundlegende Aspekte unseres Lebens beeinflusst, von unseren Rechten und Identitäten bis hin zu unseren Körpern und Lebensgrundlagen.

Während die Fortschritte und Komplexitäten der KI hauptsächlich aus dem Silicon Valley stammen, vermeidet Murgia bewusst dieses Innovationszentrum und richtet stattdessen die Aufmerksamkeit auf die Erlebnisse gewöhnlicher Menschen weltweit, die mit den Auswirkungen von KI kämpfen. Auf diese Weise lenkt sie unseren Blick auf die dringende Notwendigkeit eines umfassenden Verständnisses der weitreichenden Auswirkungen von KI auf die Gesellschaft.

FAQs

1. Was ist Künstliche Intelligenz (KI)?
Künstliche Intelligenz, im Volksmund als KI bezeichnet, ist ein Bereich der Informatik, der darauf abzielt, intelligente Maschinen zu schaffen, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern. Diese Aufgaben können Spracherkennung, Problemlösung, Entscheidungsfindung und Mustererkennung umfassen.

2. Wie funktioniert ProKid?
ProKid ist ein maschinelles Lernsystem, das von Akademikern in Zusammenarbeit mit der niederländischen Polizei entwickelt wurde. Es verwendet eine Vielzahl von Daten wie die Adresse einer jungen Person, Beziehungen, Verhaftungsdaten (unabhängig von Anklagen oder Verurteilungen) und Schulbesuchsdaten, um die Wahrscheinlichkeit für ihre Beteiligung an kriminellen Aktivitäten vorherzusagen.

3. Welche unbeabsichtigten Folgen hat KI?
Obwohl KI zahlreiche Vorteile und Innovationen bietet, kann sie auch unbeabsichtigte Folgen haben. Diese Folgen können auf voreingenommenen Daten, mangelnder Transparenz in Entscheidungsprozessen und der Verstärkung bestehender gesellschaftlicher Ungleichheiten beruhen. Zum Beispiel können KI-Systeme wie ProKid, wie in „Code Dependent“ hervorgehoben, Einzelpersonen stigmatisieren und zur Reproduktion kriminellen Verhaltens führen.

4. Wie können wir die negativen Auswirkungen von KI angehen?
Um die negativen Auswirkungen von KI zu bekämpfen, ist es entscheidend, Transparenz und Rechenschaftspflicht bei der Gestaltung und Implementierung dieser Systeme zu priorisieren. Regelmäßige Audits, öffentliche Überprüfungen und vielfältige Perspektiven können helfen, Vorurteile zu identifizieren und zu mildern. Darüber hinaus können ethische Diskussionen fördern und marginalisierte Gemeinschaften in Entscheidungsprozesse einbeziehen, um eine gerechtere Integration von KI in die Gesellschaft zu gewährleisten.

(Quelle: The Guardian – [link](https://www.theguardian.com/books/2021/oct/28/code-dependent-undoes-your-liberty-identity-and-livelihood-by-madhumita-murgia-review))

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact