مبارزه با نفرت و اطلاعات غلط آنلاین با فناوری هوش مصنوعی
یک پروژه اروپایی جدید به نام Hatedemics، زیر نظر بنیاد برونو کسلر در ترنتو، به اهداف مبارزه با گسترش سخنان نفرتانگیز و اخبار جعلی در شبکههای اجتماعی اقدام میکند، این پروژه با توسعه یک پلتفرمی قابل دسترس برای سازمانهای غیردولتی، روزنامهنگاران، افراد اطلاعات صحیح، مقامات عمومی و دانشجویان میباشد. مارکو گورینی، هماهنگ کننده پروژه و سرپرست گروه فناوری زبان و گفتمان در مرکز هوش مصنوعی افرازشده در FBK در ترنتو، در مورد شیوع آنلاین نفرت و اطلاعات غلط صحبت کرده و بیان کرد که الگوریتمهای طراحی شده برای اولویتبندی محتوای با تأثیر بالا به صورت ناخودآگاه مواد چنینی را به دلیل طبیعت تحریکآمیز آن افزایش میدهند.
شناخت تعامل بین سخنان نفرتانگیز و اطلاعات گمراهکننده
گفتوگوهای نفرتانگیز و اطلاعات گمراهکننده که به طور سنتی به طور جداگانه بررسی میشوند، اغلب به هم تنیده میشوند و یک منطقه خاکستری از محتوا را ایجاد میکنند که مرزهای بین آنها را غیرواضح میکند. پروژه Hatedemics به دنبال ادغام رویکردها برای مقابله با این مسائل با تشخیص این امر است که آنها به همراهی هم تلاقی دارند. مواردی که در آنها داستانهای تاریخی غلط، مانند کسانی که شک و تردید به قضاوت درباره هولوکاست میافکنند، ایدئولوژیهای تبعیضی را تحت نمونه قرار میدهند نیاز به این استراتژی واحد را نشان میدهند.
پیشرفتهای مخالفت با بخش بد آنلاین
به تداوم روشهای فعلی مبارزه با گفتوگوهای نفرتانگیز و اخبار جعلی، که شامل تشخیص محتوا و تحریمهایی مانند حذف یا «سایه کردن» است، گورینی بر محدودیتهای وابستگی افرازشده به تحلیل کلمات کلیدی تأکید کرد. بهجای اینکه تنها به تحلیل کلمات کلیدی اتکا کند، پروژه از سیستمهای هوش مصنوعی استفاده خواهد کرد که آموزش دیدهاند تا از زمینه خارج از کلمات ساده متوجه شوند و از این طریق تعداد مثبتهای غلط و منفیها را کاهش دهند.
نقش هوشمصنوعی در Hatedemics
Hatedemics هوش مصنوعی را نه برای سانسور بلکه به عنوان یک ابزار برای مشارکت سازمانهای مدنی در مواجهه محتوای مشکلساز به کار میبرد. نوآوری در اینجا در ادغام تخصص افرازشده و اپراتوران سازمانهای غیردولتی برای تولید ضدمحتواهای با استفاده از هوش مصنوعی قرار دارد. این کار شامل آموزش یادگیری هوش مصنوعی با شبکههای عصبی متنباز و ایجاد گفتمانهای شبیهسازی شده برای آمادهسازی سیستم برای تعاملهای واقعی آنلاین میباشد.
بازیابی اعتماد به محتوای آنلاین
هدف نهایی Hatedemics از حمایت از تفکر بحرانی از طریق ابزارهای هوشمصنوعی برای بازسازی اعتماد به محتوای دیجیتال است. با ایجاد مدلهای زبان هوشمصنوعی که توسط دادههای این ابتکار اطلاعرسانی شدهاست، الگوریتمهای آینده با ارزشهای انسانی هماهنگتر بوده، اطمینان حاصل خواهند کرد که پاسخهای متناسبی را نسبت به پدیدههای پیچیده ای که به چالش کشیدن پلتفرمهای رسانههای اجتماعی و گفتمانهای آنلاین میپردازند، ارائه خواهند داد. این پروژه وعده فناوری هوش مصنوعی را دارد که تصمیمگیری انسانی را تقویت میکند، نه آنرا جایگزین میکند و گسترش انتشار دانش را ترویج میدهد.
پرسشها و پاسخهای کلیدی:
– پروژه Hatedemics چیست؟
پروژه Hatedemics یک فعالیت طراحی شده است برای مقابله با گفتوگوهای نفرتانگیز و اطلاعات گمراهکننده در شبکههای اجتماعی با توسعه یک پلتفرم برای نهادهای مختلف مانند سازمانهای غیردولتی، روزنامهنگاران، افراد اطلاعات صحیح و مقامات عمومی با استفاده از فناوری هوش مصنوعی.
– چالشهای پروژه Hatedemics چیست؟
چالشهای کلیدی شناسایی دقیق گفتوگوهای نفرتانگیز و اطلاعات گمراهکننده بدون تجاوز به آزادی بیان، مدیریت ظرفیتهای زمینه و تفسیرهای مختلف محتوا و اطمینان از اینکه فناوری هوش مصنوعی به نحو مورد نیاز استفاده شده یا مورد سوءاستفاده قرار نمیگیرد یا این که بیخودی بیهوشی آنها را تقویت نمیکند.
– کی پروژه Hatedemics را هماهنگ میکند؟
مارکو گورینی، سرپرست گروه فناوری زبان و گفتمان در مرکز هوش مصنوعی افرازشده در بنیاد برونو کسلر.
– چگونه Hatedemics بهبود روشهای جاری مختلف مبارزه با بخش بد آنلاین میدهد؟
این پروژه پیشنهاد تازه استفاده از سیستمهای هوش مصنوعی آموزش دیده برای درک زمینه خارج از کلمات کلیدی میباشد که به کاهش تعداد مثبتهای و نقیضهای غلط کمک میکند و به وسیله مشارکت سازمانهای مدنی با محتوای مشکلساز سازنده است.
– نقش هوشمصنوعی در Hatedemics چیست؟
هوش مصنوعی برای سانسور استفاده نمیشود بلکه به عنوان یک ابزار برای کمک به مشارکت انجمنهای مدنی با محتوای مشکلزا از طریق ضددستورهای و پشتیبانی از تفکر بحرانی به کار میرود، بنابراین به بهبود قابل اطمینان محتوای آنلاین میتوان کمک کرد.
چالشها یا اختلافات کلیدی:
– تعریف شدن و تفکر درباره گفتوگوهای نفرتانگیز: یک چالش مهم تعریف واضح گفتوگوهای نفرتانگیز است که بسیار در فرهنگها و چارچوبهای قانونی مختلف متفاوت است.
– آزادی بیان: توازن کردن حذف محتوای مضر با حفظ حق آزادی بیان یک اختلاف همیشگی در مواجهه با گفتوگوهای نفرتانگیز آنلاین و اطلاعات گمراهکننده است.
– تعصب الگوریتمی: سیستمهای هوشمصنوعی ممکن است دارای تناقضهایی از دادهها یا الگوریتمها باشند که ممکن است منجر به ترویج اسناد تبعیضآمیز یا ناعادلانه شود.
مزایا و معایب استفاده از هوشمصنوعی در Hatedemics:
– مزایا:
– هوشمصنوعی قادر به پردازش حجم زیادی از دادهها به سرعت بالاتر از انسانها است که در تشخیص به موقع گفتوگوهای نفرتانگیز و اطلاعات گمراهکننده کمک میکند.
– با درک زمینه، هوشمصنوعی میتواند تعداد مثبتهای غلط را کاهش دهد و جلوی سانسور محتوای بیخطر را بگیرد.
– گفتمانهای شبیهسازی شده و تولید ضدمحتواهای توسط هوشمصنوعی میتواند به گفتمان عمومی اطلاعاتی بیشتر و دقیقتر بدهد.
– معایب:
– توانایی هوشمصنوعی در تفسیر ارتباطات پیچیده انسانی هنوز محدود است و میتواند منجر به خطاها در تشخیص محتوای آسیبزا شود.
– اعتماد زیاد به هوشمصنوعی ممکن است منجر به کاهش نظارت انسانی و پاسخگویی شود.
– وجود ریسک این است که هوشمصنوعی به وسیله فعالان بد استفاده یا بازیابی شود تا اطلاعات گمراهکننده پیچیدهتری رواج بیابد.
پیوندهای مرتبط پیشنهادی:
– برای آشنایی بیشتر با بنیاد برونو کسلر، به وبسایت www.fbk.eu مراجعه فرمایید.
– برای اطلاعات درمورد هوشمصنوعی و اخلاق دیجیتال، مرکز اخلاق د
The source of the article is from the blog be3.sk