اینیشیاتیو اروپایی Hatedemics به منظور مقابله با سخنرانی های نفرت انگیز و اطلاعات غلط آنلاین هدفمند است.

مبارزه با نفرت و اطلاعات غلط آنلاین با فناوری هوش مصنوعی

یک پروژه اروپایی جدید به نام Hatedemics، زیر نظر بنیاد برونو کسلر در ترنتو، به اهداف مبارزه با گسترش سخنان نفرت‌انگیز و اخبار جعلی در شبکه‌های اجتماعی اقدام می‌کند، این پروژه با توسعه یک پلتفرمی قابل دسترس برای سازمان‌های غیردولتی، روزنامه‌نگاران، افراد اطلاعات صحیح، مقامات عمومی و دانشجویان می‌باشد. مارکو گورینی، هماهنگ کننده پروژه و سرپرست گروه فناوری زبان و گفتمان در مرکز هوش مصنوعی افرازشده در FBK در ترنتو، در مورد شیوع آنلاین نفرت و اطلاعات غلط صحبت کرده و بیان کرد که الگوریتم‌های طراحی شده برای اولویت‌بندی محتوای با تأثیر بالا به صورت ناخودآگاه مواد چنینی را به دلیل طبیعت تحریک‌آمیز آن افزایش می‌دهند.

شناخت تعامل بین سخنان نفرت‌انگیز و اطلاعات گمراه‌کننده

گفت‌وگوهای نفرت‌انگیز و اطلاعات گمراه‌کننده که به طور سنتی به طور جداگانه بررسی می‌شوند، اغلب به هم تنیده می‌شوند و یک منطقه خاکستری از محتوا را ایجاد می‌کنند که مرزهای بین آن‌ها را غیرواضح می‌کند. پروژه Hatedemics به دنبال ادغام رویکردها برای مقابله با این مسائل با تشخیص این امر است که آن‌ها به همراهی هم تلاقی دارند. مواردی که در آن‌ها داستان‌های تاریخی غلط، مانند کسانی که شک و تردید به قضاوت درباره هولوکاست می‎افکنند، ایدئولوژی‌های تبعیضی را تحت نمونه قرار می‌دهند نیاز به این استراتژی واحد را نشان می‌دهند.

پیشرفت‌های مخالفت با بخش بد آنلاین

به تداوم روش‌های فعلی مبارزه با گفت‌وگوهای نفرت‌انگیز و اخبار جعلی، که شامل تشخیص محتوا و تحریم‌هایی مانند حذف یا «سایه کردن» است، گورینی بر محدودیت‌های وابستگی افرازشده به تحلیل کلمات کلیدی تأکید کرد. به‌جای این‌که تنها به تحلیل کلمات کلیدی اتکا کند، پروژه از سیستم‌های هوش مصنوعی استفاده خواهد کرد که آموزش دیده‌اند تا از زمینه خارج از کلمات ساده متوجه شوند و از این طریق تعداد مثبت‌های غلط و منفی‌ها را کاهش دهند.

نقش هوش‌مصنوعی در Hatedemics

Hatedemics هوش مصنوعی را نه برای سانسور بلکه به عنوان یک ابزار برای مشارکت سازمان‌های مدنی در مواجهه محتوای مشکل‌ساز به کار می‌برد. نوآوری در اینجا در ادغام تخصص افرازشده و اپراتوران سازمان‌های غیردولتی برای تولید ضدمحتواهای با استفاده از هوش مصنوعی قرار دارد. این کار شامل آموزش یادگیری هوش مصنوعی با شبکه‌های عصبی متن‌باز و ایجاد گفتمان‌های شبیه‌سازی شده برای آماده‌سازی سیستم برای تعامل‌های واقعی آن‌لاین می‌باشد.

بازیابی اعتماد به محتوای آنلاین

هدف نهایی Hatedemics از حمایت از تفکر بحرانی از طریق ابزارهای هوش‌مصنوعی برای بازسازی اعتماد به محتوای دیجیتال است. با ایجاد مدل‌های زبان هوش‌مصنوعی که توسط داده‌های این ابتکار اطلاع‌رسانی شده‌است، الگوریتم‌های آینده با ارزش‌های انسانی هماهنگ‌تر بوده، اطمینان حاصل خواهند کرد که پاسخ‌های متناسبی را نسبت به پدیده‌های پیچیده ای که به چالش کشیدن پلتفرم‌های رسانه‌های اجتماعی و گفتمان‌های آنلاین می‌پردازند، ارائه خواهند داد. این پروژه وعده فناوری هوش مصنوعی را دارد که تصمیم‌گیری انسانی را تقویت می‌کند، نه آن‌را جایگزین می‌کند و گسترش انتشار دانش را ترویج می‌دهد.

پرسش‌ها و پاسخ‌های کلیدی:

پروژه Hatedemics چیست؟
پروژه Hatedemics یک فعالیت طراحی شده است برای مقابله با گفت‌وگوهای نفرت‌انگیز و اطلاعات گمراه‌کننده در شبکه‌های اجتماعی با توسعه یک پلتفرم برای نهادهای مختلف مانند سازمان‌های غیردولتی، روزنامه‌نگاران، افراد اطلاعات صحیح و مقامات عمومی با استفاده از فناوری هوش مصنوعی.

چالش‌های پروژه Hatedemics چیست؟
چالش‌های کلیدی شناسایی دقیق گفت‌وگوهای نفرت‌انگیز و اطلاعات گمراه‌کننده بدون تجاوز به آزادی بیان، مدیریت ظرفیت‌های زمینه و تفسیرهای مختلف محتوا و اطمینان از اینکه فناوری هوش مصنوعی به نحو مورد نیاز استفاده شده یا مورد سوءاستفاده قرار نمی‌گیرد یا این که بی‌خودی بیهوشی آن‌ها را تقویت نمی‌کند.

کی پروژه Hatedemics را هماهنگ می‌کند؟
مارکو گورینی، سرپرست گروه فناوری زبان و گفتمان در مرکز هوش مصنوعی افرازشده در بنیاد برونو کسلر.

چگونه Hatedemics بهبود روش‌های جاری مختلف مبارزه با بخش بد آنلاین می‌دهد؟
این پروژه پیشنهاد تازه استفاده از سیستم‌های هوش مصنوعی آموزش دیده برای درک زمینه خارج از کلمات کلیدی می‌باشد که به کاهش تعداد مثبت‌های و نقیض‌های غلط کمک می‌کند و به وسیله مشارکت سازمان‌های مدنی با محتوای مشکل‌ساز سازنده است.

نقش هوش‌مصنوعی در Hatedemics چیست؟
هوش مصنوعی برای سانسور استفاده نمی‌شود بلکه به عنوان یک ابزار برای کمک به مشارکت انجمن‌های مدنی با محتوای مشکل‌زا از طریق ضد‌دستور‌های و پشتیبانی از تفکر بحرانی به‌ کار می‌رود، بنابراین به بهبود قابل اطمینان محتوای آنلاین می‌توان کمک کرد.

چالش‌ها یا اختلافات کلیدی:

تعریف شدن و تفکر درباره گفت‌وگوهای نفرت‌انگیز: یک چالش مهم تعریف واضح گفت‌وگوهای نفرت‌انگیز است که بسیار در فرهنگ‌ها و چارچوب‌های قانونی مختلف متفاوت است.

آزادی بیان: توازن کردن حذف محتوای مضر با حفظ حق آزادی بیان یک اختلاف همیشگی در مواجهه با گفت‌وگوهای نفرت‌انگیز آنلاین و اطلاعات گمراه‌کننده است.

تعصب الگوریتمی: سیستم‌های هوش‌مصنوعی ممکن است دارای تناقض‌هایی از داده‌ها یا الگوریتم‌ها باشند که ممکن است منجر به ترویج اسناد تبعیض‌آمیز یا ناعادلانه شود.

مزایا و معایب استفاده از هوش‌مصنوعی در Hatedemics:

مزایا:
– هوش‌مصنوعی قادر به پردازش حجم زیادی از داده‌ها به سرعت بالاتر از انسان‌ها است که در تشخیص به موقع گفت‌وگوهای نفرت‌انگیز و اطلاعات گمراه‌کننده کمک می‌کند.
– با درک زمینه، هوش‌مصنوعی می‌تواند تعداد مثبت‌های غلط را کاهش دهد و جلوی سانسور محتوای بی‌خطر را بگیرد.
– گفتمان‌های شبیه‌سازی شده و تولید ضدمحتواهای توسط هوش‌مصنوعی می‌تواند به گفتمان عمومی اطلاعاتی بیشتر و دقیق‌تر بدهد.

معایب:
– توانایی هوش‌مصنوعی در تفسیر ارتباطات پیچیده انسانی هنوز محدود است و می‌تواند منجر به خطاها در تشخیص محتوای آسیب‌زا شود.
– اعتماد زیاد به هوش‌مصنوعی ممکن است منجر به کاهش نظارت انسانی و پاسخگویی شود.
– وجود ریسک این است که هوش‌مصنوعی به وسیله فعالان بد استفاده یا بازیابی شود تا اطلاعات گمراه‌کننده پیچیده‌تری رواج بیابد.

پیوندهای مرتبط پیشنهادی:

– برای آشنایی بیشتر با بنیاد برونو کسلر، به وب‌سایت www.fbk.eu مراجعه فرمایید.
– برای اطلاعات درمورد هوش‌مصنوعی و اخلاق دیجیتال، مرکز اخلاق د

Privacy policy
Contact