חברות יישום AI דוחות על הממשלה הבריטית לשפר את הבדיקה לשם בטיחות

מספר חברות מובילות בתחום AI, כולל OpenAI, Google DeepMind, Microsoft ו-Meta, הקראו לממשלה הבריטית כדי למהר את התהליכים של בדיקת הבטיחות למערכות AI. חברות אלה הסכימו לאפשר את הערכת מודלי ההבנה שלהם על ידי מכון הבטיחות למערכות AI (AISI) החדשה שהוקמה לצורך זה, אך הן הביעו חששות לגבי קצב התהליך הנוכחי ונכונותו לצורך שקיפות. למרות שהחברות מוכנות לטפל בכל תקלה שיתגלה על ידי AISI, הן אינן חוייבות להשהות או לשנות את יצואן של טכנולוגיותיהן על סמך תוצאות ההערכה.

אחד הנקודות הסכסוך המרכזיות עבור ספקי המערכות היא הרקיעות הקיימת בנוגע לפרוטוקולי הבדיקה. הן מחפשות מידע מפורט יותר על המבחנים שהוערכים, משך ההערכה וחוקר המשוב. יש גם סבולת כלשהי בקשר לכך האם צריך לשטח את הבדיקה בכל פעם שיש שדרוג מזערי למודל הממצא המתוכנן, משהו שפיתחי AI עשויים לחשוב מעמיס.

החששות שהובעו על ידי החברות האלה הן תקפות בשל חוסר הבהירות הקיימת בנוגע לתהליך ההערכה. עם ממשלות אחרות החוקרות את הערכות הבטיחות הנוספות לAI, הסבלנות שלבטחון של מחלוקות גידול בבריטניה רק תחזק ככמות הרשויות הידועות בדרישות גידול של פיתחי AI.

על פי ה Financial Times, הממשלה הבריטית כבר תחילה את תהליכי הבדיקה של מודלי הAI דרך שיתוף פעולה עם המפתחים הרלוונטיים. תהליכי הבדיקה כוללים גישה למודלי הAI מתקדמים למבחנים קדימיים אף עבור מודלים לא יציאת עולם כגון ה-"Gemini Ultra" של Google. היישות הזו היא אחת מההסכמות המרכזיות שחתמו החברות באמורה לקיים בקיץ הכנס הביטחון לAI של בריטניה שהתקיים בנובמבר.

זה חיוני לממשלה הבריטית ולמוסדות ממשלתיים נוספים לעבוד בקרבה עם חברות AI בכדי להקים את תהליכי בחינה ברורים וחד של בדיקת בטיחות. הערכות שצפות ויעילות לא ישפרו רק את האמון בטכנולוגיות AI, אלא יבטיחו גם את הפיצוץ האחראי של מערכות אלה במגוון המחוזות.

מאגורת נפוצות

1. אילו חברות קראו לגורמי ההשתדלות הבריטיים למהר את תהליכי בדיקות הבטיחות למערכות AI?
מספר חברות AI מובילות כוללות OpenAI, Google DeepMind, Microsoft ו-Meta, פנו בקריאה הזו.

2. מהו התפקיד של מכון הבטיחות למערכות AI (AISI) החדשה?
החברות הסכימו לאפשר את הערכת מודלי ההבנה שלהן על ידי AISI.

3. האם החברות ישהוו את יצואן של טכנולוגיותיהן על פי תוצאות ההערכה?
לא, החברות אינן חוייבות להשהות או לשנות את יצואןן של טכנולוגיותיהן על סמך תוצאות ההערכה.

4. אילו חששות נבעו לחברות אלה בנוגע לתהליך ההערכה?
החברות הבעו חששות לגבי הקצב הנוכחי, השקיפות וחוסר הבהירות שמעניינת את פרוטוקולי הבדיקה. הן מחפשות מידע מפורט יותר על הבדיקות שבוצעו, משך ההערכה והמכניזם של משוב.

5. האם יש סבולת כלשהי בקשר לכך האם צריך להבחין בבחינה בכל שדרוג מזערי של מודלי הAI?
כן, יש סבולת כלשהי בקשר לכך האם צריך להבחין מחדש בכל שדרוג מזערי למודל הAI, משהו שפיתחי AI עשויים לחשוב כמעמיס.

מונחים עיקריים/גארגון

– AI: ראשי תיבות של Artificial Intelligence (בראשי תיבות).
– AISI: מכון חדש מיועד להערכת מודלי AI למערכות בטיחות.
– מודל AI: מתייחס למערכת אמיתות מלאכותית או לאלגוריתם מפותח על ידי חברות.
– פרוטוקולי בדיקה: הלכויות והנחיות המתקיימות לערכת ובדיקת מודלי AI.
– בדיקות מבנה-אפשר לבדוק שהבניה של המודל מקיימת את הדרישות והציפיות.

The source of the article is from the blog regiozottegem.be

Privacy policy
Contact