Veľkí britskí technologickí giganti žiadajú testy bezpečnosti umelou inteligenciou (AI)

Veľkí britskí technologickí giganti, vrátane OpenAI, Google DeepMind, Microsoft a Meta, vyzývajú britskú vládu, aby zrýchlila testy bezpečnosti pre systémy umelé inteligencie (AI). Tieto spoločnosti sa zaviazali, že otvorí svoje najnovšie generatívne modely AI na posúdenie novozriadeným Inštitútom pre bezpečnosť AI (AISI), ale žiadajú konkrétnu definíciu testov, časových plánov a spätnú väzbu.

V porovnaní s právne záväznými dohodami tieto dobrovoľné záväzky poukazujú na výzvy spojené s oslaním sa na samoreguláciu priemyslu v rýchlo sa rozvíjajúcom oblasti AI. Na oplátku britská vláda zdôrazňuje potrebu budúcich záväzných požiadaviek, aby vývojári AI niesli zodpovednosť za bezpečnosť systému.

AISI, ktorý má významnú úlohu v predstave premiéra Rishiho Sunaka o Veľkej Británii ako lídere v riešení potenciálnych rizík AI, už začal testovať existujúce modely AI. Má tiež prístup k nepredstaveným modelom, ako je napríklad Gemini Ultra od Googlu. Tieto testy sú zamerané na zmiernenie rizík spojených s nesprávnym používaním AI, najmä v kybernetickej bezpečnosti. Spolupráca s Národným centrom kybernetickej bezpečnosti (NCSC) v rámci hlavnej správy vládnej komunikácie (GCHQ) poskytuje odborné znalosti v tejto dôležitej oblasti.

Nedávne vládne zmluvy odhaľujú, že AISI pridelil 1 milión libier na nákup schopností testovať náchylnosť AI chatbotov na jailbreaking a zabezpečenie pred spear-phishingovými útokmi. Okrem toho AISI vyvíja automatizované systémy na zjednodušenie reverzného inžinierstva zdrojového kódu, čo umožňuje dôkladné posúdenie modelov AI.

Google DeepMind prejavil svoje záväzky spolupracovať s AISI s cieľom zlepšiť hodnotenie a bezpečnostné postupy modelov AI. Na druhej strane OpenAI a Meta sa odmietli vyjadriť k tejto otázke.

Celkovo pripúšťanie veľkých britských technologických gigantov na testy bezpečnosti AI odráža dôležitosť zodpovedného vývoja a regulácie s cieľom efektívne riešiť potenciálne riziká spojené s pokrokmi v oblasti AI. Snaha vlády o záväzné požiadavky a spolupráca priemyslu má za cieľ zabezpečiť bezpečnosť a zodpovednosť v rýchlo sa rozvíjajúcom odvetví AI technológie.

Často kladené otázky: Veľkí britskí technologickí giganti žiadajú testy bezpečnosti AI

1. Na čo vyzývajú veľkí britskí technologickí giganti britskú vládu, aby zrýchlila?
Veľkí britskí technologickí giganti, vrátane OpenAI, Google DeepMind, Microsoft a Meta, vyzývajú britskú vládu, aby zrýchlila testy bezpečnosti pre systémy umelé inteligencie (AI).

2. Aké záväzky tieto spoločnosti urobili?
Tieto spoločnosti sa zaviazali, že otvorí svoje najnovšie generatívne modely AI na posúdenie novozriadeným Inštitútom pre bezpečnosť AI (AISI).

3. Aké sú výzvy spojené s oslaním sa na samoreguláciu priemyslu v oblasti AI?
Tieto dobrovoľné záväzky poukazujú na výzvy spojené s oslaním sa na samoreguláciu priemyslu v rýchlo sa rozvíjajúcom oblasti AI.

4. Akú potrebu zdôrazňuje britská vláda?
Britská vláda zdôrazňuje potrebu budúcich záväzných požiadaviek, aby vývojári AI niesli zodpovednosť za bezpečnosť systému.

5. Akú úlohu zohráva AISI v predstave vlády?
AISI, ktorý je podporovaný vládou, má významnú úlohu v predstave premiéra Rishiho Sunaka o Veľkej Británii ako lídri v riešení potenciálnych rizík AI.

6. Čo AISI už začal testovať?
AISI už začal testovať existujúce modely AI, vrátane prístupu k nepredstaveným modelom, ako je napríklad Gemini Ultra od Googlu.

7. Na aké riziká sa zameriavajú testy bezpečnosti AI?
Tieto testy sa zameriavajú na zmiernenie rizík spojených s nesprávnym používaním AI, najmä v kybernetickej bezpečnosti.

8. S kým spolupracuje AISI, aby poskytol odborné znalosti v kybernetickej bezpečnosti?
AISI spolupracuje s Národným centrom kybernetickej bezpečnosti (NCSC) v rámci hlavnej správy vládnej komunikácie (GCHQ) na poskytnutie odborných znalostí v kybernetickej bezpečnosti.

9. Aké schopnosti získava AISI za 1 milión libier?
AISI pridelil 1 milión libier na nákup schopností testovať náchylnosť AI chatbotov na jailbreaking a zabezpečenie pred spear-phishingovými útokmi.

10. Aké automatizované systémy vyvíja AISI?
AISI vyvíja automatizované systémy na zjednodušenie reverzného inžinierstva zdrojového kódu, čo umožňuje dôkladné posúdenie modelov AI.

11. Aké záväzky prejavil Google DeepMind AISI?
Google DeepMind prejavil svoje záväzky spolupracovať s AISI s cieľom zlepšiť hodnotenie a bezpečnostné postupy modelov AI.

12. Na čom sa sústredí vláda v oblasti AI technológie?
Vláda sa sústredí na záväzné požiadavky a spoluprácu priemyslu s cieľom zabezpečiť bezpečnosť a zodpovednosť v rýchlo sa rozvíjajúcom odvetví AI technológie.

Definície:
– AI: Umená inteligencia
– AISI: Inštitút pre bezpečnosť AI
– Generatívne modely AI: Modely AI, ktoré dokážu vytvárať nový obsah alebo generovať nové údaje na základe existujúcich vzorov alebo informácií.
– Samoregulácia: Schopnosť priemyslu alebo organizácie regulovať sa bez externého zásahu vlády.

Súvisiace odkazy:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Centrum pre komunikáciu a vládnu správu (GCHQ)

The source of the article is from the blog portaldoriograndense.com

Privacy policy
Contact