الون ماسک نگران بی‌طرفی هوش مصنوعی در کنفرانس Viva Tech پاریس

ایلان ماسک، مغفول تکنولوژی، به تازگی نگرانی‌های خود را درباره تعصبات ذاتی در الگوریتم‌های هوش مصنوعی (AI) امروزی بیان کرده است. خلالت‌های ماسک در یک گفت‌وگو در Viva Tech Paris 2024، نیاز به سیستم‌های هوش مصنوعی را تأکید کرد که به جستجوی حقیقت اختصاص داده‌اند و از تمایل به تطابق با صحت سیاسی بپرهیزند. او به مثالی اشاره کرد در مورد AI گوگل، Gemini، که برای اشتباه در تشخیص جنبه‌ی کیتلین جنر مورد انتقاد قرار گرفت.

ماسک از خطرات مرتبط با آموزش سیستم‌های AI برای فریب دادن هشدار داده است، ارجاع داده به واقعه‌های گذشته که AI محتوایی تولید کرده بود که از نظر تاریخی نادرست و از نظر اجتماعی تعصب داشت.

برای رفع این مسائل، ماسک شرکت هوش مصنوعی خود، xAI را تأسیس کرده است، هدفش اولویت‌بندی جستجوی حقیقت و کنجکاوی در توسعه هوش مصنوعی است. گرچه xAI یک ورودی جدید است، اما ماسک باور دارد که این شرکت تا پایان سال 2024 قدرت رقابت با غول‌های صنعتی مانند گوگل دیپ‌مایند و اوپن‌آی را دارد.

عقیده‌اش با بیش از 2600 تک‌حرفه‌ای هوشی است که از توقف موقت پیشرفت‌های AI ایجاد‌شده‌اند، تطابق دارد به دلیل خطرات اجتماعی و انسانی مرتبط. حضور ایلان ماسک در Viva Tech Paris بر اهمیت مسائل اخلاقی برای آینده فناوری AI پرتفوت می‌نماید.

تعصب AI و اهمیت عملیات اخلاقی AI موضوعات بحرانی در عرصه فناوری هستند، بخصوص به دلیل تأثیر بسیار زیادی که AI در صنایع مختلف، از بهداشت تا دادگستری، دارد. چنین تعصباتی می‌توانند از عوامل متعددی ناشی شوند، از جمله داده‌های مورد استفاده برای آموزش سیستم‌های AI که ممکن است تعصبات تاریخی یا نابرابری‌های اجتماعی را منعکس کنند. این تعصبات می‌توانند به صورت انواع مختلفی ظاهر شوند، مانند تعصب نژادی در نرم‌افزارهای تشخیص چهره یا تعصب جنسیتی در ابزارهای استخدام کاری.

یکی از مسائل حیاتی مطرح‌شده این است: چگونه می‌توانیم اطمینان حاصل کنیم که سیستم‌های AI منصفانه، پاسخگو و شفاف باشند؟ برطرف‌کردن این نگرانی شامل اجرای دقیق راهنمایی‌های اخلاقی و رویت‌کردن رویه‌های شناسایی تعصبات در حین توسعه فناوری‌های AI است. علاوه بر این، باید اطمینان حاصل شود که تیم‌های متنوع در توسعه AI شرکت داشته باشند تا خطر اینکه تعصبات ناخودآگاه در سیستم‌ها درج شوند، کاهش یابد.

چالش‌های کلیدی مرتبط با این موضوع شامل پیچیدگی شناسایی و تصحیح تعصبات در سیستم‌های AI، کمبود چارچوب‌های تنظیمی جامع و مقاومت ممکن از طرف شرکایی است که از وضعیت فعلی بهره‌مند هستند. علاوه بر این، اغوش اغلب به مخالفت‌ها با توازن میان نوآوری و نیاز به حفاظت در مقابل خطرات اخلاقی می‌انجامد.

با بحث مزایا و معایب اقداماتی مانند برنامه xAI ماسک، می‌توان به توانایی رونق دادن به یک اکوسیستم AI که به حقیقت و بی‌طرفی اولویت‌بندی می‌کند آگاهی یافت. با اینحال، این ممکن است به چالش‌هایی در تعریف چه چیز تشکیل حقیقت می‌دهد، کی مشخص می‌کند، و روشن‌سازی آن در AI چگونه است، منجر شود.

از سوی مثبت، سیستم‌های AI طراحی‌شده برای بی‌طرفی و جستجوی حقیقت می‌تواند فرایندهای تصمیم‌گیری را به‌شدت بهبود دهد، اعتماد اجتماعی به فناوری را افزایش دهد، و آسیب ناشی از خطاهای اتوماتیک را کاهش دهد. از سوی دیگر، توسعه چنین سیستم‌هایی ممکن است به مقاومتی برخورد کند ناشی از منافع ریشه‌دار و همچنین مشکل فنی ایجاد الگوریتم‌های پیچیده قادر به درک مفاهیم انسانی برجسته مانند حقیقت و عدل به وجود آمده از آن باشد.

برای اطلاعات درباره سیری گسترده آموزش‌های AI، Deepmind و OpenAI به عنوان سازمان‌های پژوهشی AI پیشرو با منابع گسترده درباره هوش مصنوعی شناخته می‌شوند. علاوه بر این، بحث‌های درباره اخلاق و سیاست‌های AI اغلب می‌توانند در سایت‌هایی مانند AIESEC و IEEE که بر اساس پیشرفت‌ها و ابعاد اخلاقی ارائه می‌دهند، پیدا شوند.

خلاصه اینکه، چون فناوری‌های AI به‌طور چشمگیری جزئی از زندگی‌مان می‌شوند، توجه باید به این قضیه داده‌شود که از این ابزارها به نحوی استفاده شود که بهره‌وری اجتماعی را بیشتر کنند بدون اینکه میانبرهای تعصبی اعلامی کنند یا اجازه دهند شیطنت وارد شود. مشارکت ایلان ماسک نشان می‌دهد که صنعت این مسائل را به خوبی مغمور می‌شود و به‌عنوان یک وعده به عمل آوردن برای توسعه سیستم‌های AI بی‌طرفانه‌تر، عمل می‌کند.

Privacy policy
Contact