Die Bedenken und Vorhersagen rund um Superkünstliche Intelligenz

Der ehemalige OpenAI-Mitarbeiter Carroll Wainwright hat kürzlich vor den Risiken gewarnt, die mit der Entwicklung von Künstlicher Allgemeiner Intelligenz (AGI) verbunden sind, einer Form von KI, die die menschliche Intelligenz übertreffen könnte. Wainwright, der daran arbeitete, die Ausrichtung leistungsstarker KI-Modelle an menschlichen Werten sicherzustellen, glaubt, dass wir möglicherweise innerhalb von fünf Jahren AGI sehen könnten, obwohl er auch einräumt, dass es auch erheblich länger dauern könnte.

Verständnis von AGI und seinem potenziellen Einfluss

AGI unterscheidet sich von generativer KI, die derzeit in der Lage ist, menschliche Aufgaben wie das Schreiben oder Zeichnen zu imitieren. AGI hingegen hätte die Fähigkeit, die Komplexitäten und den Kontext seiner Handlungen zu verstehen. Obwohl diese Technologie noch nicht existiert, ist ihre Entwicklung ein Thema globaler Diskussionen, mit unterschiedlichen Ansichten über ihren Zeitpunkt von einigen Jahren bis zu mehreren Jahrzehnten.

OpenAIs Änderung der Vision

Der Auslöser für Wainwrights Warnung war laut Wainwright eine Änderung des Fokus von OpenAI. Ursprünglich als gemeinnütziges Forschungslabor mit dem Ziel gegründet, der Menschheit zu dienen, schlägt er vor, dass die täglichen Motivationen des Unternehmens jetzt hauptsächlich von Profit getrieben scheinen, insbesondere nach dem Erfolg von ChatGPT.

Das langfristige Ausrichtungsrisiko von AGI

Wainwright hebt drei Kernrisiken von AGI hervor: das Potenzial, menschliche Arbeitskräfte zu ersetzen, insbesondere in qualifizierten Berufen; seinen sozialen und mentalen Einfluss, da Einzelpersonen möglicherweise KI-Freunde oder persönliche Assistenten haben könnten; und die Kontrolle über die Technologie selbst. Die Sicherstellung der Ausrichtung von AGI an menschlichen Zielen ist entscheidend, um zu verhindern, dass Maschinen ihre eigenen Agenden verfolgen, was Wainwright besorgniserregend findet.

Er glaubt, dass große KI-Unternehmen wahrscheinlich Vorschriften einhalten werden, aber derzeit sind keine angemessenen Vorschriften vorhanden. Daher fordern Branchenmitarbeiter einen Mechanismus, um unabhängige Organisationen über die Gefahren zu informieren, die sie an ihren Arbeitsplätzen erkennen.

Der Faktor der Eile in der KI-Entwicklung

Wainwright betrachtet den Wettbewerb zwischen Giganten wie OpenAI und Google als potenzielles Problem, der durch die Eile in der KI-Entwicklung angeheizt wird. Obwohl Vorschriften langsam in Kraft treten, mit der AI-Verordnung der EU als erster weltweiter Regulierung und US-Regulierungsbehörden, die kartellrechtliche Untersuchungen prüfen, bleibt die Sicherstellung der Sicherheit in diesem Streben nach Exzellenz in der KI eine paradoxale Herausforderung.

[…]
[ … ]

The source of the article is from the blog kewauneecomet.com

Privacy policy
Contact