مدل هوش مصنوعی دانشجویان استنفورد توجه عمومی را جلب کرده است
تیمی از دانشجویان رشته علوم کامپیوتر دانشگاه استنفورد با مدل هوش مصنوعی خود به نام Llama 3-V موجی در صنعت فناوری ایجاد کردند. این مدل توسط اکش گارگ، سیدهارت شرما و مصطفی الجعدری، که وابستگی آنها نامعلوم است، توسعه یافته و بلافاصله پس از انتشار آن در هفته گذشته، با عملکرد بالا خود، توجه جهانی را جلب کرد، و تیم تحقیقاتی آن اعلام کرد که این مدل رقیبی شدید برای مدلهای برتر هوش مصنوعی است.
موفقیت بودجه ایمن و متهم به کپی رای
اگرچه Llama 3-V موفقیتی کسب کرد که در پنج گرایش محبوب پلتفرم هوش مصنوعی هاگینگ فیس قرار گرفت، جشن Llama 3-V کوتاه شد. ادعاها ظاهر شد که این مدل نمونهای از MiniCPM-Llama3-V 2.5 است که به تعاونی از آزمایشگاه پردازش زبان دانشگاه تان هوا و مدل بست، یک استارتاپ هوش مصنوعی از بیجینگ، است.
ساختار و کد هر دو مدل Llama 3-V بیش از حد به مشابهت نزدیکی با مدل پیشین خود بر پلتفرم متن باز GitHub رسید. همراه بنیانگذار ModelBest، لیو ژییوان، از طریق ویچت، شکایات قوی خود را نسبت به اینکه تیم استنفورد پروژه آنها را کپی کرده باشند، ابراز کرد.
یک ویژگی قابل توجه از MiniCPM-Llama3-V2.5 قابلیت تشخیص کاراکترهای چینی باستان است، یک مجموعه داده ای که به عموم منتشر نشده است. خطاهای تطبیق کاراکتر در بهره برداری بین دو مدل بیشتر از حد ادعاها را شدت بخشید.
قدم عذرخواهانه از محققان استنفورد
در بیانیهای در روز یکشنبه، گارگ و شرما به تشابه چشمگیر با MiniCPM-Llama3-V 2.5 اعتراف کردند و به نویسندگان اصلی عذرخواهی کردند. آنها همچنین اعلام کردند که الجعدری مسئول برنامه نویسی این پروژه بوده و مسئول شکست در تأیید منابع است.
این واقعه به ویژه در چین آشوب آنلاینی ایجاد کرد. استاد کریستوفر منینگ از آزمایشگاه هوش مصنوعی استنفورد این تقلید را مومیایی خواند. این واقعه بحث ها در مورد پیشرفت های چین در حوزه هوش مصنوعی را به حرکت انداخت، همانطور که توسط پژوهشگرانی گوگل دیپمایند مثل لوکاس بایر، که توجه دلخواه مورد نظر را به MiniCPM-Llama3-V 2.5 نکرده بود، تأیید میکند.
لیو ژییوان، با تأکید بر پلههای معتبری که بخش هوش مصنوعی چین در دهه گذشته برداشته است، موضوع پرسش نه تنها نگرانی های اخلاقی در تحقیقات علمی را مطرح می کند، بلکه پیشرفت سریع چین در منظر رقابتی فناوری هوش مصنوعی را نیز بیان می کند.
سوالات و پاسخهای کلیدی:
1. عواقب کپی رای در توسعه هوش مصنوعی چیست؟ کپی رای در حوزه هوش مصنوعی میتواند منجر به از دست دادن اعتماد، مسائل حقوقی احتمالی، صدمه به شهرت و مانع از نوآوری اصیل شود. این موضوع معتبدینت و اعتبار جامعه علمی را تضعیف میکند.
2. چگونه توسعه دهندگان میتوانند مطمئن شوند که مدلهای هوش مصنوعی آنها اصیل هستند؟ تیمها می توانند بررسیهای دقیق ادبیاتی را انجام داده، از نرمافزارهای مشخصهیابی کپی استفاده کنند، فرآیند توسعه خود را به دقت مستند کنند و موقعیت مناسب برای کارهای موجود را ارائه دهند هنگام ساختن بر پایه آنها.
3. چرا ممکن است مدلهای هوش مصنوعی چینی توجه کمتری جذب کنند؟ عوامل ممکن شامل موانع زبانی، مشکلات ژئوپلیتیکی و تعصبات داخلی در جامعه فناوری است که تمایل به توسعه های غربی را دارند.
چالشها یا اختلافات کلیدی:
– نگرانی های اخلاقی: اتهامات مانند اینها نقطههای اخلاقی را که در توسعه هوش مصنوعی ممکن است مبهم شوند، با احتمال شکستن حقوق مالکیت معنوی.
– شفافیت در هوش مصنوعی: یک بحث پایدار در مورد اینکه چه مقدار از فرآیند توسعه هوش مصنوعی باید باز شده و چگونه اصالت در حوزهای که اغلب بر پایه اعمال مسبوقه قبلی ساخته میشود، اندازه گیری میشود.
مزایا: Llama 3-V نشان می دهد که تیمهای کوچک قادرند به مشارکت های قابل توجهی داشته باشند و ممکن است مطالعاتی را برجسته سازند. در صورت موفقیت یک مدل، ممکن است به سرعت شهرت بینالمللی بیابد.
معایب: این واقعه پا را بریدن در کنارهها را انعکاس میدهد. اتهامات کپی رای می توانند به خطر افکندنیهای بی درمان در اعتبار پژوهشگران و نهادهایشان منجر شود.
برای کسب اطلاعات بیشتر در مورد موضوعات مربوط به هوش مصنوعی، در نظر گرفتن مراجعه به وبگاههای زیر را در نظر بگیرید:
– انجمن پردازش زبان انجمنی
– گوگل هوش مصنوعی
– دیپمایند
– تحقیقات فیسبوک در هوش مصنوعی
– OpenAI
لطفاً به یاد داشته باشید که لینکهای ارائه شده تنها برای دامین های اصلی بوده و تا تاریخ قطع دانش معتبرشدهاند.
The source of the article is from the blog jomfruland.net