Spoločnosti v oblasti AI žiadajú britskú vládu, aby zlepšila testovacie postupy pre bezpečnosť

Viacero popredných firiem pôsobiacich v oblasti umelej inteligencie (AI), vrátane OpenAI, Google DeepMind, Microsoft a Meta, vyzvalo britskú vládu, aby urýchlila postupy pri testovaní bezpečnosti systémov AI. Tieto spoločnosti sa zhodli na tom, že umožnia posúdenie svojich modelov AI nedávno zriadeným Inštitútom pre bezpečnosť AI (AI Safety Institute – AISI), no vyjadrili obavy ohľadom súčasného tempa a transparentnosti posudzovacieho procesu. Aj keď sú tieto spoločnosti ochotné vyriešiť akékoľvek nedostatky identifikované AISI, nezaväzujú sa odložiť alebo modifikovať uvoľnenie svojich technológií na základe výsledkov hodnotenia.

Jedným z hlavných bodov sporu medzi výrobcami systémov AI je nejasnosť týkajúca sa testovacích protokolov. Žiadajú podrobnosti o testoch, ktoré sa vykonávajú, o dĺžke hodnotenia a o spätnej väzbe. Existuje tiež neistota, či je potrebné opakovať testovanie pri každej menšej aktualizácii modelu AI, čo môže AI vývojári považovať za zdĺhavé.

Výhrady, ktoré tieto spoločnosti vyjadrili, sú opodstatnené, keďže existuje nejasnosť okolo procesu hodnotenia. S ďalšími vládami, ktoré uvažujú o podobných posúdeniach bezpečnosti AI, bude akákoľvek súčasná zmätok v postupoch Spojeného kráľovstva iba eskalovať, keďže ďalšie orgány budú klásť podobné požiadavky na vývojárov AI.

Podľa Financial Times už britská vláda začala testovať modely AI v spolupráci s príslušnými vývojármi. Testovanie zahŕňa prístup k sofistikovaným modelom AI na predimplementačné testovanie, dokonca aj pre nezverejnené modely ako Google Gemini Ultra. Táto iniciatíva bola jednou z kľúčových dohôd podpísaných spoločnosťami na britskom AI Safety Summit v novembri.

Je nevyhnutné, aby britská vláda a ostatné regulačné orgány tesne spolupracovali s firmami pôsobiacimi v oblasti AI pri stanovení jasných a štandardizovaných postupov testovania bezpečnosti. Transparentné a efektívne posudzovania nielen posilnia dôveru v AI technológie, ale tiež zaistia zodpovedné nasadenie týchto systémov v rôznych odvetviach.

ČASTO KLADENÉ OTÁZKY

1. Aké spoločnosti vyzvali britskú vládu, aby urýchlila postupy testovania bezpečnosti systémov AI?
Tieto výzvy predniesli niektoré popredné spoločnosti pôsobiace v oblasti AI, vrátane OpenAI, Google DeepMind, Microsoft a Meta.

2. Akú úlohu má novozriadený Inštitút pre bezpečnosť AI (AI Safety Institute – AISI)?
Spoločnosti súhlasili s posúdením svojich modelov AI AISI.

3. Budú spoločnosti odložiť alebo modifikovať uvoľnenie svojich technológií na základe výsledkov hodnotenia?
Nie, spoločnosti nie sú povinné odložiť alebo modifikovať uvoľnenie svojich technológií na základe výsledkov hodnotenia.

4. Aké obavy vyjadrili tieto spoločnosti ohľadom procesu hodnotenia?
Spoločnosti vyjadrili obavy ohľadom súčasného tempa, transparentnosti a nejednoznačnosti testovacích protokolov. Požadujú podrobnejšie informácie o vykonávaných testoch, dĺžke hodnotenia a spätnej väzbe.

5. Existuje neistota o tom, či je potrebné opakovať testy pri menších aktualizáciách modelov AI?
Áno, existuje neistota o tom, či je potrebné opakovať testovanie pri každej menšej aktualizácii modelu AI, čo AI vývojári môžu považovať za značne zaťažujúce.

Kľúčové termíny / žargón

– AI: Skratka pre umelej inteligencie (Artificial Intelligence).
– AI Safety Institute (AISI): Novo zriadený inštitút, ktorý má posudzovať modely AI z hľadiska bezpečnosti.
– Model AI: Odkazuje na systém alebo algoritmus umelej inteligencie vyvinutý spoločnosťami.
– Testovacie protokoly: Postupy a smernice, ktoré sa nasledujú pri hodnotení a testovaní modelov AI.
– Predimplementačné testovanie: Testovanie, ktoré sa vykonáva pred oficiálnym nasadením alebo uvoľnením modelu AI.

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact