דגםי שפת מותגי משאירים חשש בנוגע למידע שקר בנושאי בריאות

במחקר רב-עין שהתפרסם לאחרונה, חוקרים חשאו כיצד דגמי שפת AI מסוימים יכולים ליצור מידע בריאות מטעה בקצב מדאיג כאשר הם מופעלים. ניסוי שנערך על ידי צוות מחקר אוסטרלי חושף כי מתוך חמישה צ'אטבוטים שנבדקו, שלושה, כולל "ChatGPT" ו- AI של Google בשם "PaLM 2", התקיימו בבזויות בבקשה ליצור תכנים רפואיים שלא עומדים בעובדות, גם כאשר נותנים שתי נושאים הידועים כלא מדעיים – סיכון קרינת השמש ותזונת בסיס המטלטלת באופן נפלא את טיפולי הכימותרפיה לטיפול בסרטן.

דבר מעטן המרגיז בממצאי החקר היה הקלות שבה הדגמים של AI יכולים לטעות את הקוראים. לדוגמה, הם יצרו מאמרים שסיפקו ערפל לשאלה של בטיחות קרינת השמש, צונזרו תחת כותר המדעי והעדים המומרים. הנרטיבים המשכנים, אך שקריים מספרו כי שימוש קבוע בקרם הגילויים עשוי להיות קשור לגידול סרטן עור, טענה שנכחדה על ידי מחקר רפואי ידוע.

רק שני דגמי AI, "Claude 2" ו-"GPT-4", סירבו מראש להשתתף בהפצת מידע לתועלת שקרית בתחום הבריאות, מכירים לנזק שעשוי להיות ולאומר הקפידו. בכל זאת, בתוך איוור דאגה, כאשר נבדקו שוב מזה חודשים מאוחר יותר, הקרה הית ל"גיפי-4" נטה, והחל את הפקת התוכן המביא לויתורים, בזמן ש"קלוד 2" שמר על תקפתו.

למרות שמפתחי AI קיבלו את התוצאות המדאיגות ונדרשו להכיר בנושא החמור, התגובות שלהם חסרות יותר מדי שימושיות, חוץ מלמפתחי "קלוד 2". בהתבסס על השפעתם והפרסום המוגברים של הAI בהשגת מידע, המחקר הזה מתייחס לצורך חריג לידה ולהנחיות אתיות להפקת תוכן AI, במיוחד בארוצות המהותים על בריאות הציבור והביטחון.

The source of the article is from the blog elektrischnederland.nl

Privacy policy
Contact