منظره هوش مصنوعی با طرز برهمخوردن دوباره ما را با شکستن مرزها بین داستان و واقعیت متحیر کرده است. فناوریهای هوش مصنوعی اکنون آینههایی از ویژگیهای بصری و شنوایی انسان ایجاد میکنند که باعث شک و تردید در مورد اصالت آنچه که میبینند و میشنوند شده است. یک نمونه اصلی از این پیشرفت پیشرو، مکالمهای است که بین بنیانگذار LinkedIn، رید هافمن، و هویت آیآی او برقرار شده که حاصل آن توجه گسترده ای را جلب کرده است.
در ویدیویی که بیش از حد انبوه پرده برافشانده شده است، هافمن با نسخه مصنوعی خود که توسط مدلهای پیشرفته GPT توسط OpenAI معرفی شده اند، مکاتباتی دارد. این هوش مصنوعی با پیشینه دیجیتال گسترده کسبوکار مانند صدا، رفتار، و دانش هافمن آموزش دیده شده است و به اقتدار تقلید واقعی هافمن را رقم زده است. هرچند که این ویدیو برای ارائه ویرایش شده است، واقعگرایی آن بسیار قابل توجه است.
کلون هوش مصنوعی حرکات و عباراتی شبیه به هافمن نشان میدهد. این موفق به قلدری قانع کننده از حرکات، الگوهای گفتاری و پاسخهای شنوایی او است. حتی اقدامات شبیه به انسانی نظیر پاک کردن چیزی از میز را نیز نمایش میدهد.
هافمن هنگام بحث درباره تجربه خود، دیدگاه خود را ابراز کرد که آواتارهای هوش مصنوعی میتوانند به عنوان ابزاری تعریف کننده برای افکار و شخصیتهای ما عمل کنند، با فرض اینکه با احتیاط طراحی شوند. او به این نکته اشاره کرد که این آواتارها ممکن است گاهی ناراحتی ایجاد کنند، با این حال هافمن هنوز هم توسط جنبههای مثبتی که ممکن است نمایانگر این آواتارها باشند، جذب شده است.
توسعه این مدل هوش مصنوعی یک تلاش همکارانه بود، زیرا نمایش بصری آن توسط شرکتی با نام Hour One صورت گرفت و 11ElevenLabs مدلسازی صدا را فراهم کرد. هوش مصنوعی با دههها از سخنرانیها، نوشتهها، پادکستها، مصاحبهها، و زبان بدن هافمن آموزش دیده شده است. این یک نمونه اصلی از پیشرفت هوش مصنوعی است که با ادغام یک مجموعه غنی از دادههای شخصی، تعاملات بسیار زنده مانند خلق میکند.
سوالات اساسی و پاسخها:
1. در نظر گرفتن اخلاقی ساخت آواتارهای هوش مصنوعی که واقعیت افراد را تقلید میکنند چه مسائل اخلاقی دخیل است؟
وقتی به آواتارهای هوش مصنوعی که میتوانند ویژگیهای واقعی افراد را تقلید کنند میپردازیم، چندین مسئله اخلاقی درگیر است. این شامل مواردی نظیر رضایت، حریم خصوصی، امکان سوء استفاده (مثلا کلاهبرداریهای دیپفیک)، و تاثیر روانی بر هر دو موضوع و بینندگان میشود. همچنین، سوال اصالت و تبدیل میشود به چالشهایی مانند کاهش اعتماد به رسانههای دیجیتال، زیرا که به جرعت به مورد تشخیص تصویر و صداهای واقعی از بینیهمنتزعه میشود.
2. چقدر فناوری پشت آواتارهای هوش مصنوعی قابل اعتماد است و چه محدودیتهای فعلی وجود دارد؟
هر چند که فناوری به طور چشمگیری پیش بلغزیده است، مسائلی نظیر اعتبار قابلیتها وجود دارد، مانند امکان اشتباهات در تقلید خصوصیتهای یک فرد تا انتقالهای طولانیمدت قانعکننده. محدودیتها همچنین شامل کیفیت دادههای مورد استفاده برای آموزش هوش مصنوعی، منابع محاسباتی مورد نیاز، و امکان واکنشهای درهاوز اوری که در آن آواتار واقعگرا است اما هنوز از هوش مصنوعی هست که مشخص به عنوان غیر انسانی شناسا برای انتشار میباشد.
چالشها و اختلافات اصلی:
یک چالش اساسی در زمینه ایجاد آواتارهای هوش مصنوعی حفظ تعادل بین نوآوری و روش اخلاقی میباشد. اختلاف معمولاً اطرح میشود خصوصاً در مورد استفاده از ویژگی شخصیتی یک فرد بدون اجازه و تبعات آزاردهنده که چنین فناوریای ممکن است داشته باشد زمانی که سو استفاده شود.
مزایا و معایب:
مزایای آواتارهای هوش مصنوعی شامل توانایی گسترش حضور فرد، که بعنوان یک رابط شخصی برای تعامل در برنامههای مختلف از آموزش تا خدمات مشتری عمل میکند.
معایب شامل احتمال دیپفیکها و اطلاعات غلط، از دست دادن شغل برای هنرپیشهها یا هنرمندان صوتی، و امکان فرسایش اعتماد به ارتباطات دیجیتال میباشد. علاوه بر این، مخاوفی در مورد پیامدهای فلسفی از آشفتگی خطوط بین انسان و ماشین وجود دارد.
پیوندهای مرتبط:
برای کسب اطلاعات بیشتر در مورد پیشرفتهای فناوری هوش مصنوعی به سایتهای زیر مراجعه کنید:
– OpenAI
– Hour One
– 11ElevenLabs
این پیوندها به عنوان نقطههای شروع برای کاوش درباره سازمانهایی که در توسعه آواتارهای هوش مصنوعی و تکنولوژی سنتز گفتار شرکت کردهاند، خدمت میکند. اهمیت دارد که با این فناوریها در تعامل و درک آنها ادامه دهیم زیرا که به طور چشمگیری هر روزه به زندگی روزمره ما یکپارچهتر میشوند.
The source of the article is from the blog exofeed.nl