ایلان ماسک، مغفول تکنولوژی، به تازگی نگرانیهای خود را درباره تعصبات ذاتی در الگوریتمهای هوش مصنوعی (AI) امروزی بیان کرده است. خلالتهای ماسک در یک گفتوگو در Viva Tech Paris 2024، نیاز به سیستمهای هوش مصنوعی را تأکید کرد که به جستجوی حقیقت اختصاص دادهاند و از تمایل به تطابق با صحت سیاسی بپرهیزند. او به مثالی اشاره کرد در مورد AI گوگل، Gemini، که برای اشتباه در تشخیص جنبهی کیتلین جنر مورد انتقاد قرار گرفت.
ماسک از خطرات مرتبط با آموزش سیستمهای AI برای فریب دادن هشدار داده است، ارجاع داده به واقعههای گذشته که AI محتوایی تولید کرده بود که از نظر تاریخی نادرست و از نظر اجتماعی تعصب داشت.
برای رفع این مسائل، ماسک شرکت هوش مصنوعی خود، xAI را تأسیس کرده است، هدفش اولویتبندی جستجوی حقیقت و کنجکاوی در توسعه هوش مصنوعی است. گرچه xAI یک ورودی جدید است، اما ماسک باور دارد که این شرکت تا پایان سال 2024 قدرت رقابت با غولهای صنعتی مانند گوگل دیپمایند و اوپنآی را دارد.
عقیدهاش با بیش از 2600 تکحرفهای هوشی است که از توقف موقت پیشرفتهای AI ایجادشدهاند، تطابق دارد به دلیل خطرات اجتماعی و انسانی مرتبط. حضور ایلان ماسک در Viva Tech Paris بر اهمیت مسائل اخلاقی برای آینده فناوری AI پرتفوت مینماید.
تعصب AI و اهمیت عملیات اخلاقی AI موضوعات بحرانی در عرصه فناوری هستند، بخصوص به دلیل تأثیر بسیار زیادی که AI در صنایع مختلف، از بهداشت تا دادگستری، دارد. چنین تعصباتی میتوانند از عوامل متعددی ناشی شوند، از جمله دادههای مورد استفاده برای آموزش سیستمهای AI که ممکن است تعصبات تاریخی یا نابرابریهای اجتماعی را منعکس کنند. این تعصبات میتوانند به صورت انواع مختلفی ظاهر شوند، مانند تعصب نژادی در نرمافزارهای تشخیص چهره یا تعصب جنسیتی در ابزارهای استخدام کاری.
یکی از مسائل حیاتی مطرحشده این است: چگونه میتوانیم اطمینان حاصل کنیم که سیستمهای AI منصفانه، پاسخگو و شفاف باشند؟ برطرفکردن این نگرانی شامل اجرای دقیق راهنماییهای اخلاقی و رویتکردن رویههای شناسایی تعصبات در حین توسعه فناوریهای AI است. علاوه بر این، باید اطمینان حاصل شود که تیمهای متنوع در توسعه AI شرکت داشته باشند تا خطر اینکه تعصبات ناخودآگاه در سیستمها درج شوند، کاهش یابد.
چالشهای کلیدی مرتبط با این موضوع شامل پیچیدگی شناسایی و تصحیح تعصبات در سیستمهای AI، کمبود چارچوبهای تنظیمی جامع و مقاومت ممکن از طرف شرکایی است که از وضعیت فعلی بهرهمند هستند. علاوه بر این، اغوش اغلب به مخالفتها با توازن میان نوآوری و نیاز به حفاظت در مقابل خطرات اخلاقی میانجامد.
با بحث مزایا و معایب اقداماتی مانند برنامه xAI ماسک، میتوان به توانایی رونق دادن به یک اکوسیستم AI که به حقیقت و بیطرفی اولویتبندی میکند آگاهی یافت. با اینحال، این ممکن است به چالشهایی در تعریف چه چیز تشکیل حقیقت میدهد، کی مشخص میکند، و روشنسازی آن در AI چگونه است، منجر شود.
از سوی مثبت، سیستمهای AI طراحیشده برای بیطرفی و جستجوی حقیقت میتواند فرایندهای تصمیمگیری را بهشدت بهبود دهد، اعتماد اجتماعی به فناوری را افزایش دهد، و آسیب ناشی از خطاهای اتوماتیک را کاهش دهد. از سوی دیگر، توسعه چنین سیستمهایی ممکن است به مقاومتی برخورد کند ناشی از منافع ریشهدار و همچنین مشکل فنی ایجاد الگوریتمهای پیچیده قادر به درک مفاهیم انسانی برجسته مانند حقیقت و عدل به وجود آمده از آن باشد.
برای اطلاعات درباره سیری گسترده آموزشهای AI، Deepmind و OpenAI به عنوان سازمانهای پژوهشی AI پیشرو با منابع گسترده درباره هوش مصنوعی شناخته میشوند. علاوه بر این، بحثهای درباره اخلاق و سیاستهای AI اغلب میتوانند در سایتهایی مانند AIESEC و IEEE که بر اساس پیشرفتها و ابعاد اخلاقی ارائه میدهند، پیدا شوند.
خلاصه اینکه، چون فناوریهای AI بهطور چشمگیری جزئی از زندگیمان میشوند، توجه باید به این قضیه دادهشود که از این ابزارها به نحوی استفاده شود که بهرهوری اجتماعی را بیشتر کنند بدون اینکه میانبرهای تعصبی اعلامی کنند یا اجازه دهند شیطنت وارد شود. مشارکت ایلان ماسک نشان میدهد که صنعت این مسائل را به خوبی مغمور میشود و بهعنوان یک وعده به عمل آوردن برای توسعه سیستمهای AI بیطرفانهتر، عمل میکند.