הממשלה מוציאה עדויות על תיוג מודלי AI ומניעת תוכן בלתי חוקי

הממשלה הוציאה לאחרונה עדויות לפלטפורמות רשת חברתיות ולאמצעים אחרים, דורשת מהם לתייג מודלי AI בניסוי ולמנוע את הארחת התוכן הלא חוקי. משרד האלקטרוניקה וטכנולוגיות המידע פרסם את ההדרכה הזו ב-1 במרץ, מדגיש שעיון עשוי לגרום לפעולות פליליות.

נתוני ההדרכה קוראיים לכל מערכות ופלטפורמות לוודא כי המשאבים המחשבתיים שלהם אינם מאפשרים למשתמשים לארח, להציג, להעלות, לשנות, לפרסם, לשדר, לאחסן, לעדכן או לשתף תוכן בלתי חוקי. כמו כן, נדגש כי כל הפלטפורמות, אמצעים ותוכנות מאפשרות תהיינה אחראיות על הפרות של הוראות אלו.


ההדרגה הזו באה לאחר מחלוקת אחרונה הכוללת את פלטפורמת ה-AI של גוגל, Gemini, ואת תגובתה לשאלות הנוגעות למדיניות של ראש הממשלה נרנדרה מודי. הממשלה פינתה מאוד לתגובות של Gemini, מתייחסת אליהן כלהפרת חוקי ה-IT.

בעקבות המאורע הזה, שר האלקטרוניקה והטכנולוגיות המידע, ראג'יב צ'נדרשקר, הדגיש את הצורך לפלטפורמות לחשוף באופן פתוח ולבקש אישור מהצרכנים לפני פרסום כל מודלים בניסוי או שגויים על האינטרנט בהודו. הוא הדגיש כי אחריות אינה יכולה להימנע חלא מהנפצות מאוחרות.


ההדרגה גם מדגישה את הדרישה לפלטפורמות לבקש אישור מהממשלה לפני פרסום מודלי AI בניסוי או לא אמינים. היא ממליצה שמודלים כאלה יתייגו ככלי להכרה של האפשרות שלהם להיות שגויים או לא אמינים.


כדי להבטיח מודעות למשתמש, ההדרגה ממליצה על שימוש במנגנון קופץ להסכמה, שמיידיע בבירור למשתמשים על כל אפשרות שגיאה או לא אמינות בפלט שנוצר באמצעות מודלי AI.


שר צ'נדרשקר נירקר כי הכוונה של הממשלה אינה לקחת במערכת אלא ליצור אקוסיסטמה בריאה וסבילית. הם מאמינים כי לא לאפשר לכל פלטפורמה באינטרנט בלי תקנון ראוי אינה מועילה לכלל רווחת המרחב הדיגיטלי.


ההדרגה הזו בונה על הוראת קודם כן שיצאה בדצמבר 2023, שמכוונת לטיפול בdeepfakes ובשקרים. דרך ההדרגות האלו, הממשלה יוצרת תקנים לרגולציה של שימוש במודלי AI במהלך הגנה על עצמה מפצת תוכן בלתי חוקי.


The source of the article is from the blog radardovalemg.com

Privacy policy
Contact