להגברת התקנות בשימוש לא תקף של AI: חובת חוקים ושקיפות טובים יותר

אוסטרליה זיהתה את הצורך בתקנות חזקות יותר למנוע ולהתייחס לנזקים הפוטנציאליים שנגרמים על ידי הבינה המלאכותית (AI) ולמידת מכונה. יו"ר ועדת הניירות וההשקעות של אוסטרליה, ג'ו לונגו, הכיר בכך שחוקים קיימים משמשים כדי להחזיק חברות אחראיות, אך נחוצות תיקונים על מנת להסדיר ביעילות טכנולוגיות חדשות.

עובדה שהחוקים המקומיים כוללים עקרונות מרחביים הניתנים ליישום בכל תחומי הכלכלה, קיימת התקלה החוקית הנוגעת לנושאים ספציפיים הקשורים ל AI. נזקים שנגרמים על ידי מערכות AI "אטומות" קשים יותר לזהות מהפשעים המסורתיים בעלי מעמד גבוה, ולכן חיוני להיות לרשות תקנות המותאמות לפשעים הבוצעים דרך אלגוריתמים או AI. לונגו הדגיש כי אף על פי שהחוקים הקיימים יכולים להיות ספיקים לענישת פעולות לא תקשורתיות, היכולת שלהם למנוע נזקים היא מוגבלת.

לונגו דגיש תרחישים פוטנציאליים בהם ייתכן שיתרחש תחום שימוש לא כשורה ב-AI, כגון סחר פנימי או פעולות השטלניות. למרות שענישות עשויה להיכרז בתוך ההנהלה הקיימת, חוקים ספציפיים ל AI יהיו יותר אפקטיביים במניעת ובמרתיעת הפרות ממנו. שקיפות ושלטון אמינים חיוניים למניעת שיטות בלתי הוגנות, אך ההיקף החוקתי הקיים עשוי לא להבטיח זאת במידה נדרשת.

הועלו גם דאגות בנוגע להגנה על הצרכן מנזקים שנגרמים בעזרת AI. אתגרים נוכחיים כוללים היעדר שקיפות בשימוש ממוחשב של AI, הטעות הלא חודרת והקושי בערעור החלטות אוטומטיות והקמת אחריות על נזקים. יש צורך להתמודד עם מגוון הבעיות הללו ולוודא דרכי פיצוי לאנשים אשר יוענקו הפרדה בלתי הוגנת או עשויים להיפגע מהחלטות AI אשר מטעות.

תגובת הממשלה לסקירה של חוק פרטיות הסכימה "בעיקר" להכניס את הזכות לבקש מידע משמעותי על אופן קבלת ההחלטות האוטומטיות. יחד עם זאת, תקנת הגנת המידע הכללית בברית האיחוד האירופי מתקדמת יותר ועושה אסודה בהכרעה מוגבלת נגזרת מעיבוד אוטומטי.

שאלות נפוצות:

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact