مدل هوش مصنوعی نوآورانه تحت بازرسی برای سرقت ادبیات

مدل هوش مصنوعی دانشجویان استنفورد توجه عمومی را جلب کرده است

تیمی از دانشجویان رشته علوم کامپیوتر دانشگاه استنفورد با مدل هوش مصنوعی خود به نام Llama 3-V موجی در صنعت فناوری ایجاد کردند. این مدل توسط اکش گارگ، سیدهارت شرما و مصطفی الجعدری، که وابستگی آنها نامعلوم است، توسعه یافته و بلافاصله پس از انتشار آن در هفته گذشته، با عملکرد بالا خود، توجه جهانی را جلب کرد، و تیم تحقیقاتی آن اعلام کرد که این مدل رقیبی شدید برای مدل‌های برتر هوش مصنوعی است.

موفقیت بودجه ایمن و متهم به کپی رای

اگرچه Llama 3-V موفقیتی کسب کرد که در پنج گرایش محبوب پلتفرم هوش مصنوعی هاگینگ فیس قرار گرفت، جشن Llama 3-V کوتاه شد. ادعاها ظاهر شد که این مدل نمونه‌ای از MiniCPM-Llama3-V 2.5 است که به تعاونی از آزمایشگاه پردازش زبان دانشگاه تان هوا و مدل بست، یک استارتاپ هوش مصنوعی از بیجینگ، است.

ساختار و کد هر دو مدل Llama 3-V بیش از حد به مشابهت نزدیکی با مدل پیشین خود بر پلتفرم متن باز GitHub رسید. همراه بنیانگذار ModelBest، لیو ژی‌یوان، از طریق ویچت، شکایات قوی خود را نسبت به اینکه تیم استنفورد پروژه آنها را کپی کرده باشند، ابراز کرد.

یک ویژگی قابل توجه از MiniCPM-Llama3-V2.5 قابلیت تشخیص کاراکترهای چینی باستان است، یک مجموعه داده ای که به عموم منتشر نشده است. خطاهای تطبیق کاراکتر در بهره برداری بین دو مدل بیشتر از حد ادعاها را شدت بخشید.

قدم عذرخواهانه از محققان استنفورد

در بیانیه‌ای در روز یکشنبه، گارگ و شرما به تشابه چشمگیر با MiniCPM-Llama3-V 2.5 اعتراف کردند و به نویسندگان اصلی عذرخواهی کردند. آنها همچنین اعلام کردند که الجعدری مسئول برنامه نویسی این پروژه بوده و مسئول شکست در تأیید منابع است.

این واقعه به ویژه در چین آشوب آنلاینی ایجاد کرد. استاد کریستوفر منینگ از آزمایشگاه هوش مصنوعی استنفورد این تقلید را مومیایی خواند. این واقعه بحث ها در مورد پیشرفت های چین در حوزه هوش مصنوعی را به حرکت انداخت، همانطور که توسط پژوهشگرانی گوگل دیپ‌مایند مثل لوکاس بایر، که توجه دلخواه مورد نظر را به MiniCPM-Llama3-V 2.5 نکرده بود، تأیید می‌کند.

لیو ژی‌یوان، با تأکید بر پله‌های معتبری که بخش هوش مصنوعی چین در دهه گذشته برداشته است، موضوع پرسش نه تنها نگرانی های اخلاقی در تحقیقات علمی را مطرح می کند، بلکه پیشرفت سریع چین در منظر رقابتی فناوری هوش مصنوعی را نیز بیان می کند.

سوالات و پاسخ‌های کلیدی:

1. عواقب کپی رای در توسعه هوش مصنوعی چیست؟ کپی رای در حوزه هوش مصنوعی می‌تواند منجر به از دست دادن اعتماد، مسائل حقوقی احتمالی، صدمه به شهرت و مانع از نوآوری اصیل شود. این موضوع معتبدینت و اعتبار جامعه علمی را تضعیف می‌کند.

2. چگونه توسعه دهندگان می‌توانند مطمئن شوند که مدل‌های هوش مصنوعی آنها اصیل هستند؟ تیم‌ها می توانند بررسی‌های دقیق ادبیاتی را انجام داده، از نرم‌افزارهای مشخصه‌یابی کپی استفاده کنند، فرآیند توسعه خود را به دقت مستند کنند و موقعیت مناسب برای کارهای موجود را ارائه دهند هنگام ساختن بر پایه آنها.

3. چرا ممکن است مدل‌های هوش مصنوعی چینی توجه کمتری جذب کنند؟ عوامل ممکن شامل موانع زبانی، مشکلات ژئوپلیتیکی و تعصبات داخلی در جامعه فناوری است که تمایل به توسعه های غربی را دارند.

چالش‌ها یا اختلافات کلیدی:

نگرانی های اخلاقی: اتهامات مانند اینها نقطه‌های اخلاقی را که در توسعه هوش مصنوعی ممکن است مبهم شوند، با احتمال شکستن حقوق مالکیت معنوی.

شفافیت در هوش مصنوعی: یک بحث پایدار در مورد اینکه چه مقدار از فرآیند توسعه هوش مصنوعی باید باز شده و چگونه اصالت در حوزه‌ای که اغلب بر پایه اعمال مسبوقه قبلی ساخته می‌شود، اندازه گیری می‌شود.

مزایا: Llama 3-V نشان می دهد که تیم‌های کوچک قادرند به مشارکت های قابل توجهی داشته باشند و ممکن است مطالعاتی را برجسته سازند. در صورت موفقیت یک مدل، ممکن است به سرعت شهرت بین‌المللی بیابد.

معایب: این واقعه پا را بریدن در کناره‌ها را انعکاس می‌دهد. اتهامات کپی رای می توانند به خطر افکندنی‌های بی درمان در اعتبار پژوهشگران و نهادهایشان منجر شود.

برای کسب اطلاعات بیشتر در مورد موضوعات مربوط به هوش مصنوعی، در نظر گرفتن مراجعه به وب‌گاه‌های زیر را در نظر بگیرید:
انجمن پردازش زبان انجمنی
گوگل هوش مصنوعی
دیپ‌مایند
تحقیقات فیسبوک در هوش مصنوعی
OpenAI

لطفاً به یاد داشته باشید که لینک‌های ارائه شده تنها برای دامین های اصلی بوده و تا تاریخ قطع دانش معتبرشده‌اند.

The source of the article is from the blog jomfruland.net

Privacy policy
Contact