Die Insider des Silicon Valley schlagen Alarm über das Entwicklungstempo der KI

Spannungen nehmen unter informierten Persönlichkeiten zu, die Einblicke in die Arbeitsweise von OpenAI im Herzen des Silicon Valley haben. Diese Insider äußern zunehmend Bedenken über die schnelle Entwicklung der künstlichen Intelligenz (KI), insbesondere hinsichtlich der Sicherheitsmaßnahmen – oder des Mangels dieser – bei der Verfolgung der Allgemeinen Künstlichen Intelligenz (AGI).

Die Kern dieser Bedenken liegt in der offensichtlichen Absicht von Sam Altmans Team, AGI schneller zu erreichen als erwartet, ohne notwendige Sicherheitsprotokolle. Quellen berichten, dass dieser Ansatz zu erheblichen inneren Turbulenzen bei OpenAI geführt hat, wie durch Altmans vorübergehende Absetzung und anschließende Rückkehr an die Macht belegt. Der Vorfall führte zum allmählichen Abgang anderer Teammitglieder.

Eine umfangreiche Berichterstattung der New York Times beleuchtet eine Unternehmenskultur des Unternehmens mit Sitz in San Francisco, die von Rücksichtslosigkeit und Geheimhaltung geprägt ist. Ein Wettlauf, die leistungsfähigsten KI-Systeme aller Zeiten zu entwickeln, ist in vollem Gange. Neun aktuelle und ehemalige Mitarbeiter von OpenAI haben sich zusammengeschlossen, um über gemeinsame Bedenken zu berichten, dass das Unternehmen nicht genug tut, um zu verhindern, dass ihre Systeme gefährlich werden.

OpenAI, bekannt für die Veröffentlichung von ChatGPT im Jahr 2022, begann als gemeinnütziges Forschungslabor, hat aber seitdem seinen Fokus auf Profit und Wachstum verschoben und sich dabei auf die Schaffung von AGI konzentriert. Es sind Anschuldigungen aufgetaucht, dass OpenAI starke Maßnahmen ergreift, um die Bedenken der Mitarbeiter über seine Technologien zum Schweigen zu bringen, einschließlich restriktiver Vereinbarungen für diejenigen, die ausscheiden.

Die Sorge um die Entwicklung von AGI veranlasst Maßnahmen unter Branchenexperten. Insbesondere Daniel Kokotajlo, ein ehemaliger Governance-Forscher bei OpenAI, ist zu einer führenden Stimme in einer Gruppe geworden, die darauf abzielt, potenzielle Katastrophen zu verhindern. Dieses Kollektiv hat einen offenen Brief veröffentlicht, in dem führende Unternehmen, einschließlich OpenAI, aufgefordert werden, mehr Transparenz zu schaffen und Whistleblower zu schützen.

Weitere prominente Mitglieder der Gruppe sind ehemalige Mitarbeiter von OpenAI wie der Forscher William Saunders sowie drei andere Personen, Cara Weineck, Jacob Hilton und Daniel Ziegler. Die Angst vor einer Vergeltung durch OpenAI hat viele dazu veranlasst, den Brief anonym zu unterstützen, wobei Unterschriften auch von Personen bei Google DeepMind stammen.

Ein Sprecher von OpenAI, Lindsey Helm, äußerte stolz darauf, dass das Unternehmen KI-Systeme liefert, die leistungsfähig und sicher sind, betonte die Verpflichtung zu rigorosen Diskussionen über die Verwaltung von Risiken im Zusammenhang mit der Technologie. Ein offizieller Vertreter von Google lehnte es ab, zu kommentieren.

Diese Kampagne entsteht in einer anfälligen Phase für OpenAI, das sich noch von der umstrittenen Altman-Affäre erholt und mit rechtlichen Auseinandersetzungen über angebliche Urheberrechtsverletzungen kämpft. Darüber hinaus wurden jüngste Präsentationen, wie einem hyperrealistischen Sprachassistenten, von öffentlichen Auseinandersetzungen beeinträchtigt, einschließlich einer mit der Schauspielerin Scarlett Johansson.

Als Reaktion auf die Abgänge der leitenden KI-Forscher Ilya Sutskever und Jan Leike von OpenAI vertreten viele die Ansicht, dass dies einen Rückschritt im Engagement der Organisation für Sicherheit darstellt. Diese Abgänge haben ehemalige Mitarbeiter dazu inspiriert, sich zu Wort zu melden und ihre Stellung in der Verteidigung einer verantwortungsbewussten KI-Entwicklung zu erheben. Ehemalige Mitarbeiter, die mit der Bewegung des „Effektiven Altruismus“ verbunden sind, betonen die Verhinderung existenzieller KI-Bedrohungen und ziehen Kritik von jenen auf sich, die das Feld als alarmistisch betrachten.

Kokotajlo, der 2022 als Forscher zu OpenAI stieß und mit der Prognose des Fortschritts in der KI betraut wurde, überarbeitete seine anfänglich optimistischen Vorhersagen nach dem Zeugen jüngster Fortschritte und schreibt AGI jetzt eine 50%ige Wahrscheinlichkeit zu, bis 2027 aufzutauchen, und einer 70%igen Chance, dass fortgeschrittene AGI potenziell die Menschheit zerstört oder schädigt. Trotz Sicherheitsprotokollen, einschließlich einer Zusammenarbeit mit Microsoft, die als „Safety Review Council“ bezeichnet wurde, beobachtete Kokotajlo, dass die Dringlichkeit von Produktveröffentlichungen oft eine gründliche Risikobewertung in den Schatten stellt.

Privacy policy
Contact