AI-Unternehmen drängen die britische Regierung zur Verbesserung der Sicherheitstests

Mehrere führende AI-Unternehmen, darunter OpenAI, Google DeepMind, Microsoft und Meta, haben die britische Regierung aufgefordert, ihre Sicherheitstestverfahren für KI-Systeme zu beschleunigen. Diese Unternehmen haben zugestimmt, dass ihre KI-Modelle vom neu gegründeten AI Safety Institute (AISI) evaluiert werden dürfen, äußern jedoch Bedenken hinsichtlich des gegenwärtigen Tempos und der Transparenz des Evaluierungsprozesses. Während die Unternehmen bereit sind, etwaige Mängel, die vom AISI identifiziert werden, anzugehen, sind sie nicht verpflichtet, die Veröffentlichung ihrer Technologien aufgrund der Evaluierungsergebnisse zu verzögern oder anzupassen.

Ein großer Streitpunkt für die AI-Anbieter ist die mangelnde Klarheit in Bezug auf die Testprotokolle. Sie suchen nach detaillierteren Informationen über die durchgeführten Tests, die Dauer der Evaluierung und den Feedback-Mechanismus. Es herrscht auch Unsicherheit darüber, ob die Tests jedes Mal wiederholt werden müssen, wenn es eine geringfügige Aktualisierung des KI-Modells gibt – eine Anforderung, die KI-Entwickler als belastend empfinden könnten.

Die Bedenken dieser Unternehmen sind angesichts der Unklarheit rund um den Evaluierungsprozess berechtigt. Wenn andere Regierungen ähnliche KI-Sicherheitsbewertungen in Betracht ziehen, wird die aktuelle Verwirrung über die Verfahren in Großbritannien umso stärker werden, da immer mehr Behörden vergleichbare Anforderungen an KI-Entwickler stellen.

Laut der Financial Times hat die britische Regierung bereits mit den Tests von KI-Modellen durch Zusammenarbeit mit den jeweiligen Entwicklern begonnen. Die Tests umfassen den Zugang zu hochentwickelten KI-Modellen für Tests vor der Bereitstellung, sogar für nicht veröffentlichte Modelle wie Googles Gemini Ultra. Diese Initiative war eine der Schlüsselvereinbarungen, die die Unternehmen auf dem in Großbritannien im November abgehaltenen AI Safety Summit unterzeichnet haben.

Es ist entscheidend, dass die britische Regierung und andere staatliche Stellen eng mit AI-Unternehmen zusammenarbeiten, um klare, standardisierte Sicherheitstestverfahren zu etablieren. Transparente und effiziente Evaluierungen werden nicht nur das Vertrauen in KI-Technologien stärken, sondern auch eine verantwortungsvolle Bereitstellung dieser Systeme in verschiedenen Sektoren gewährleisten.

FAQ-Bereich

The source of the article is from the blog yanoticias.es

Privacy policy
Contact