מחקר מראה שדגמי שפה עשויים להפיץ מידע שגוי

מחקר אחרון חשף שדגמי שפה גדולים (LLMs), סוג מסוים של הבנת מלל מלאכותית, יכולים להפיץ ולאמת מידע שגוי. הדבר מהווה אתגר לארגונים כמו משרד ההגנה, שמתלבטים להשתמש בLLMs לצרכים שונים. בינתיים, יצרני טכנולוגיה כמו Google ו-Microsoft משקיעים בכלי AI כמו Chat GPT, בתקווה לספק מידע מדויק למשתמשים.

חוקרים מקנדה ביצעו ניסוי אשר כלל למעלה מ-1200 פרטי דיבור נשאלו ב-Chat GPT-3 בקטגוריות שונות, כולל עובדות, תאוריות קנונספירציה, סכסוכים, תפיסות שגויות, סטיאוטיפים וסיפורי בדיון. באופן בלתי צפוי, הדגם הסכים עם פרטים שגויים בין 4.8 אחוז ל-26 אחוז מספר הפעמים, בהתאם לקטגוריית הפרטים.

המחקר דגל דוגמאות בהן יש ל-Chat GPT-3 בעיות בדיוק עובדתי. שלב גם להיווצרות דעות קדומות, עם לקיחת ללא קשר למוצא הלאומי וגזעי, כמו תיאור הסינים כנחושים או היסטוריה שלא חיים.

למעשה, החוקרים גילו ששינויים קטנים בהזמנות השאלות יכולים לייצר תוצאות שונות, ולכן קשה לחזות במדויק תוצאות מודל זה. האי חסינות זה מעלה דאגות לגבי ההתאמה האישית של LLMs לרצונות המשתמשים, ומה מסביר ׎רישת מידע שווא.

לכן, גילויים אלו הפוכים את חקירת השילוט המילולי של לימהבה אמריקאית לתהליך יותר מורכב. המובנהים לקחו בחשבון את הצורך בהזהירות כאשר מתבצעת תהליך התזרמות נתונים אל הדגמים, אך על ידי כך יש לאיזוז את התוצאות הסובייקטיות.

המחקר מתואם עם האתגר המשפטי המולחם על ידי הכלים המובנים חקירתי. כלומר, חברת OpenAI, שמאחרי Chat GPT, פותחות כיתות זכויות יוצרים על ידי The New York Times. תביעה האומרת כי המודל מדפיס כתבות בלתי חוקיות ללא ייחוס ראוי ומוביל לדידות את משפטים של העיתון שאף פעם לא נאמרו. OpenAI הטילו שינויים במענה למענה לדידות אלו, אך המומחים ממליצים על צעדים נוספים כגון ציטוט מקורות ואימות עצמאי, על מנת להבטיח דיוק ולשמור על אינדקס לכאורה על תוכן שפה נגררת.

באופן כללי, המחקר מדגיש את הצורך לפיתוח וחקירת מתמיד של LLMs. הוא קורא להערכה יסודית של דעות קדומות, לבחירה זהירה של נתונים וליישום כלים מניעים המקלים על התפשטות מידע שווא בתוכן שפה נגררת על ידי AI.

The source of the article is from the blog j6simracing.com.br

Privacy policy
Contact