رئیس اجرایی پلتفرم متا بر توسعه یادگیری ماشین از طریق بازخورد تاکید می کند
متا پلتفرمها، به رهبری رئیس اجرایی مارک زاکربرگ، ارزش حلقههای بازخورد را از مخازن دادههای ساده برای بهبود مدلهای هوش مصنوعی بیشتر میداند. در یک مصاحبه با خبری تکنولوژی به نام Command Line، زاکربرگ تأکید کرد که مدلهای هوش مصنوعی با گذشت زمان از طریق حلقههای بازخورد تکامل مییابند و از نتایج قبلی برای تنظیم رفتارشان یاد میگیرند.
این تکاهم فناورانه بر اهمیت بازخورد کاربر در بهبود و دقیقتر کردن محصولات، ایجاد تفاوتهای بلندمدت تأکید کرد. پیروی از منابع دادهای جدید به طور نظری برای بهبود هوش مصنوعی، موجب شیوق شرکتهایی میشود که در رقابت برتری هوش مصنوعی هستند.
راهکارهای نوآورانه برای محدودیت داده
غولهای فناوری مانند OpenAI، گوگل، امازون و پلتفرمهای متا راهکارهای جسورانهای را بررسی کردهاند. به گزارش New York Times، پلتفرمهای متا یکبار از خرید شرکت نشر Simon & Schuster حرف زده بود، و حتی با احتمال دادن دادخواههای حق تکثیر برای دسترسی به دادههای بیشتر مواجه شده بود.
یک راهبرد دیگر برای محدودیت داده صنعتیسازی دادهها است. این دادههای به صورت مصنوعی تولید شده وقایق رویدادهای واقعی را تقلید میکنند، یک حوزه علاقه زاکربرگ است، او معتقد است این کار به مدلهای هوش مصنوعی کمک خواهد کرد تا به بهبود چالشهای مختلف بیشتری برسند.
Anthropic، توسعهدهنده چتبات کلود، و OpenAI که به خلق ChatGPT شهرت دارد، دادههای تولیدی داخلی را به مدلهای هوش مصنوعی شان اضافه میکنند. رئیس اجرایی OpenAI، سام التمن، بر اهمیت مدلهای هوش مصنوعی که میتوانند دادههای تولیدی مصنوعی با کیفیت بالا تولید کنند تأکید دارد.
تیغ دولبه حلقههای بازخورد
هرچند زاکربرگ حلقههای بازخورد را برای ساختن مدلهای قوی هوش مصنوعی اساسی میداند، اما خطراتی که با وابستگی بیش از میزان به این حلقهها همراه است وجود دارد. اگر مدلهای هوش مصنوعی از ابتدا بر روی “دادههای خوب” تربیت نشوند، ممکن است این مدلها تعصبات و اشتباهات را تقویت کنند.
گزارشهای اخیر نشان دادهاند که تلاشهای فشرده پلتفرمهای متا و دیگر غولهای فناوری برای جذب دادههای جدید برای آموزش هوش مصنوعی با رهبری متا1 روزانه مطرح میکردند.
تکانه رو به جلو از حق تکثیر
New York Times فاش کرد که متا پلتفرمها تا به حاضر روی حقوق نشر عناوین Simon & Schuster حساس شده و برای خلاصه کردن مجموعهای از کتابها و مقالات، حتی به دادخواهیهای حقوقی مواجه شدهاند. نگرانیهای اخلاقی در مورد استفاده از اموال فکری مطرح شد، اما متا تصمیم گرفت جلو بپیچد با توجه به پیشینههایی مانند خدمات کتابهای گوگل با استفاده از خدمات استفاده منصفانه.
همانطور که سیستمهای هوش مصنوعی بهتر میشوند، شرکتهای فناوری مجبور به جستجوی فشرده داده میشوند، گاهی اوقات به ریسک نقض حق تکثیر. این واقعه بر دقیق بودن تعادل بین فشردن مرزهای فناوری و احترام به حقوق اموال فکری مانند دستبرد میزند.
حلقههای بازخورد در آموزش هوشمصنوعی در مقابل جمعآوری دادههای خام:
سوالات اصلی:
– چرا حلقههای بازخورد در آموزش هوش مصنوعی اهمیت دارند؟
– چالشهایی که با حلقههای بازخورد ارتباط دارند چه هستند؟
– چگونه حلقههای بازخورد ممکن است تعصبها را در مدلهای هوش مصنوعی کاهش یا ایجاد کنند؟
– نقش داده مصنوعی در زمینه حلقههای بازخورد و محدودیتهای داده چیست؟
– چگونه حقوق اموال فکری با رویههای جمعآوری دادههای هوش مصنوعی همپیوند دارد؟
پاسخها:
حلقههای بازخورد در آموزش هوشمصنوعی اهمیت دارند چرا که به سیستمهای هوشی امکان سازگاری و بهبود بر اساس نتایج اقدامات یا تصمیمات گذشتهشان میدهند. این فرآیند تکراری یادگیری و توسعه پیوسته را تغذیه میکند و مدلهای هوش مصنوعی را تولید میکند که به مرور زمان دقیق تر و کارآمدتر هستند.
یکی از چالشهای حلقههای بازخورد اطمینان از آن است که دادههایی که پایه حلقهها را تشکیل میدهند با کیفیت بالا باشند. دادههای کیفیت پایین یا تعصبدار میتواند منجر به تقویت تعصبات موجود یا خطاهای بیشتر در سیستم شود. اطمینان از تنوع و نمایانی در داده برای تسلیم این ریسک ضروری است.
حلقههای بازخورد میتوانند تعصبها را یا کاهش دهند با بهروز کردن پاسخهای هوش مصنوعی بر اساس رخدادهای بازخورد گسترده، فرایند یادگیری جامع را ترویج میدهند یا اگر بازخورد خود تعصبدار باشد یا اگر مجموعه اولیه داده شامل تعصباتی باشد که به مرور زمان تقویت شود، تعصبها را ایجاد کنند.
داده مصنوعی میتواند به عنوان یک راهکار برای محدودیتهای داده وارد شود و میتواند تنوعی در تمرینات مدرنیتههای تربیتی ارائه دهد که میتواند در ایجاد مدلهای هوش مصنوعی بیشتر عمومی و قوی موثر باشد. با این حال کیفیت و واقعیت داده مصنوعی برای به تمرین سیستمهای هوشی کمک خواهد کرد.
تلاقی هوش مصنوعی و حقوق مالکیت فکری به طور فزایندهای یک فضای بحثی جدی شده است زیرا شرکتها تلاش میکنند دادههای آموزش هوش مصنوعی شان را گسترش دهند در عین حال که خواهان و سوالات حقوقی و اخلاقی مرتبط با حق تکثیر و استفاده از داده میباشند.
چالشها و اختلافات:
تعامل بین نوآوری و مسائل اخلاقی یک چالش قابل توجه برای توسعه هوش مصنوعی است. مسائلی مانند رضایت، حریمخصوصی و احتمال سواستفاده از دادههای به دست آمده به طور عمومی، اختلافات اخلاقی در حوزه هوش مصنوعی هستند. علاوه بر این، جلوگیری از نقض قوانین حق تکثیر در حالی که سعی در گسترش مجموعه دادهها برای آموزش هوش مصنوعی است، به چالش قابل توجهی برای شرکتهای فناوری تبدیل شده است.
مزایا و معایب:
مزایای حلقههای بازخورد در هوش مصنوعی شامل دقت بیشتر، انطباق بیشتر و بهبود مداوم مدلهای هوشی میباشد. این حلقهها به سیستمها امکان میدهند تا بهتر به نیازهای و انتظارات کاربران بپاسخند و تجارب کاربر بهتری ایجاد کنند.
از سوی دیگر، حلقههای بازخورد ممکن است ضرر داشته باشند اگر تعصبهایی درون سیستمهای هوش مصنوعی ایجاد یا تقویت شود. همچنین خطر وجود دارد که حلقههای بازخورد مبتنی بر دادههای نادرست منجر به قوت دادههای نادرست مرتبط در یک شیوهِ استفاده از خود برآوردهشود.
پیوندهای پیشنهادی مرتبط:
– OpenAI
– پلتفرمهای متا
– گوگل
– امازون
– Anthropic
لطفا توجه داشته باشید که اگر میخواهید از این پیوندها پیروی کنید، توصیه میشود اطمینان حاصل کنید که در حال بازدید از وبسایت رسمی هستید تا از خطرات امنیتی جلوگیری شود.
The source of the article is from the blog japan-pc.jp