Meta רואה יתרונות בזיהוי ותיוג תמונות שנוצרו באמצעות AI כדי להבטיח אמינות ושקיפות

Meta, החברה האם של Facebook, Instagram ו-Threads, מבצע צעדים בכדי לזהות ולתייג תמונות שנוצרו באמצעות AI במרכזי התקשורת שלה. הפעולה היא חלק ממאמצי Meta להילחם במרמה ולהעניש את אלה שמטעים מתכונתית אחרים. כיום, תמונות המראה הפוטוריאליות שנוצרו על ידי AI של Meta כבר מסומנות בצורה מוחלטת. אך בפוסט בלוג ישן, ניק קלג, הנשיא של Meta לעניינים גלובלים, הודיע כי תוכניית החברה הייחודית כוללת תיווי מורחב של תמונות שיצרו באמצעות AI בשירותים יריבים.

ייתכן ותמונות של Meta הנוצרות באמצעות AI מכילות כבר מידע על המקור וסימנים רוחניים בלתי נראים המציינים את מקורן המתמקד בפיתוח הכלים הנדרשים לגילוי של סימנים אלה, כאשר הם משמשים בשירותים אחרים כמו Google, OpenAI, Microsoft, Adobe, Midjourney ו-Shutterstock. על ידי זיהוי ותיווי של תוכן של AI, Meta מתכוונת לפתור את הקו הדק בין תוכן אנושי ותוכן סינתטי, ולספק למשתמשים שקיפות בנוגע לטכנולוגיה שמאחורי התמונות בהם הם מתמודדים.

בחודשים הקרובים, תוכנית החברה היא לממש תהיות זו בכל השפות. החברה מכירה בחשיבות המאמצים הללו, במיוחד בתקופת בחירות גלובליות משמעותיות שמתרחשות בשנה הבאה. עם זאת, חשוב לשים לב שכרגע התיווי מוגבל לתמונות בלבד, ותכולת וידאו וקול אשר נוצרו על ידי AI אינן כוללות את הסימנים הללו.

לצד התיווי, Meta מתכנתת תוויות חשובות יותר על תמונות, וידאו או שמע שעברו עיבוד דיגיטלי או שינויים ברמה גבוהה ויש להם סיכון גבוה להטעות את הציבור. בנוסף, החברה מבצעת בחינה של טכנולוגיה לזיהוי אוטומטי של תוכן שיצר AI, גם כשהסימנים הרוחניים הנראים התאימו אינם נמצאים או נמחקים.

הנשיא של Meta הכיר את תרבות הכאוב של מרחב זה ואת הצורך בחדשנות שמתקיימת במשך הזמן כדי להפסיק את אלה שמחפשים להטעות באמצעות אוכלוסיות שנוצרו על ידי AI. כיוון שכבר קיימים אי קיום deepfakes AI במחזור הבחירות הנשיאותיות של ארה"ב ויש הוכחות אחדות כמו השנוי המגוחך של תמונות באוסטרליה, מאמצי Meta לזהות ולתיווי של תוכן שנוצר על ידי AI חיוניים להתמודד עם שיטות מזימה אלו.

על ידי יצירת שקיפות ומענה למשתמשים בקשר למידע על מהות התוכן שהם פוגשים, Meta שואפת ליצור סביבה דיגיטלית מאובטחת יותר בה יכולים האנשים לנווט ולהתמודד עם מדיה באחריות.

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact