مردیت ویتاکر، یک محقق هوش مصنوعی معتبر آمریکایی و برنده جایزه آینده Helmut-Schmidt، برای حضورش در یک رویداد در هامبورگ دیدگاههای خود را درباره تأثیر صنعت فناوری ارائه کرد. ویتاکر که به عنوان رئیس در Signal فعالیت میکند، تماس به عمل تقدیم کرد و ادعا کرد که هیچ نیازی به رقابت بر اساس شرایط تعیین شده توسط شرکتهای فناوری نیست. او توضیح داد که این شرکتها اغلب یک داستان از هوش مصنوعی فوققدرتمند و قابلیتهای بیشتری روایت میکنند که گاهاً با پیشبینیهای نیمهمذهبی در مورد موجودات هوشمند و رایانههای فوقانسانی تلفیق میشوند. او ادعا کرد این سخنرانی، بخشی از یک استراتژی برای گسترش کنترل آنها بر روی جنبههای مختلف زندگی در سراسر جهان است.
همچنین، ویتاکر بر مشکلات فوری در دیوانگی فعلی هوش مصنوعی تأکید کرد و مدلهای تجاری رایج ریشه در نظارت را سم خواند. به نظر او، حجابی وجود دارد که باید چاک شود – که جلوی دغدغههای واقعی شرکتهای فناوری بزرگ را پشت یک پنهان سازی از خردهگفتمان خیرخواهانه که اغلب بیشتر بازاریابی است، میگیرد.
به گفته ویتاکر، تنها زمانی میتواند جامعه واقعیاش را بازبینی و بازشکل دهد که این داستان فریبنده افشای شود. او امیدوار است که هنوز امکان ایجاد آیندهای روشن و پایدار در میان این چالشها وجود داشته باشد.
جایزه آینده Helmut-Schmidt در سال 2022 توسط روزنامه هفتگی DIE ZEIT به همراه بنیاد فدرال مقام فدرال Helmut Schmidt و THE NEW INSTITUTE معرفی شد تا موفقیتهای پیشبینیگونه در زمینه دموکراسی، جامعه و فناوری را افتخار دهد. در سال سوم، این جایزه به مردیت ویتاکر اعطا شد، پس از تاخت در قدمتهای فعال محیطی اواندا Vanessa Nakate و رئیسجمهور پیشین فنلاند Sanna Marin.
برای اطلاعات بیشتر یا پرسشهای اضافی، رسانهها تشویق میشوند تا با بخش ارتباطات شرکتی و رویدادهای DIE ZEIT تماس بگیرند.
سوالات و پاسخهای مهم:
– چه چالشهای کلیدی با تأثیر صنعت تکنولوژی بر هوش مصنوعی وارد شدهاند؟
تأثیر صنعت تکنولوژی بر هوش مصنوعی چالشهایی مانند نگرانیهای اخلاقی درباره حریم خصوصی و نظارت، پتانسیل کنترل تکاماننایی، و شکلدهی نرمافزارهای جامعهای برای حمایت از منافع شرکتی به جای خیر عمومی دارد. به علاوه، اضطراب هوش مصنوعی میتواند به انتظارات غیر واقعی و پتانسیل برای تشدید نابرابریهای اجتماعی منجر شود.
– چه جدالاتی احاطه بر تحقیق و توسعه هوش مصنوعی دارد؟
جدالات در تحقیق و توسعه هوش مصنوعی اغلب بر سرحریمی دادهها، انحیاز الگوریتمی، تأثیر بر اشتغال، و قدرت صنعت تکنولوژی در تأثیرگذاری بر جهت و اخلاقیات پیشرفتهای هوش مصنوعی تمرکز دارند. یکی دیگر از جدالات شامل تأثیر محیط زیستی آموزش مدلهای بزرگ هوش مصنوعی است.
– چه مزایا و معایبی از مشارکت صنعت تکنولوژی در هوش مصنوعی وجود دارد؟
مزایا شامل نوآوری سریع، سرمایهگذاریهای قابل توجه در تحقیقات، و توسعه فناوریهای مفید که میتواند در بهبود بسیاری از جنبههای زندگی نقش داشته باشد. معایب شامل خطر داد و ستد سود به اخلاق، احتمال از دست دادن حریم خصوصی، سوءاستفاده احتمالی از فناوریهای هوش مصنوعی، و تأثیر سنگین بیش از حد بر منظر فضای مقرراتی میتواند.
پیوندهای مرتبط:
– برای یادگیری بیشتر درباره هوش مصنوعی و پیامدهای آن از دیدگاههای مختلف، میتوانید به وبسایت MIT مراجعه کنید که خانه مؤسسه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) است.
– برای دسترسی به سیاستهای هوش مصنوعی و ملاحظات اخلاقی، به وبسایت دانشگاه استنفورد به موسسه هوش مصنوعی متمرکز بر انسان (HAI) مراجعه کنید.
– میتوانید اطلاعاتی درباره تأثیر هوش مصنوعی بر جامعه و کار را در دانشگاه هاروارد کشف کنید، به ویژه از طریق مرکز برکمن کلاین برای اینترنت و جامعه.
حقایق مربوط دیگر که در مقاله ذکر نشده است:
– مردیت ویتاکر پیشینهای در هر دو صنعت فناوری و دانشگاه دارد و در گوگل کار کرده و مؤسسان موسسه AI Now در دانشگاه نیویورک بوده است که بر روی تبعات اجتماعی هوش مصنوعی تمرکز دارد.
– نگرانی ویتاکر درباره مدلهای تجاری نظارت اشاره دارد به روشهایی که بسیاری از شرکتهای فناوری برای جمعآوری حجم عظیمی از دادهها از کاربران استفاده میکنند، بطور معمول بدون شفافیت یا رضایت کافی. این دادهها میتواند به سیستمهای هوش مصنوعی کمک کند که ممکن است منافع شرکتی را بیشتر از منافع عمومی خدمت کند.
– حمایت از هوش مصنوعی اخلاقی و تنظیم فناوری به طور هر چه بیشتر هم در جامعه فناوری هم در میان سیاستگذاران در حال رشد است. گروههای علاقهمند و مقننهها به دلیل مواجهه با خطرات حفظ حریم خصوصی و دیگر ریسکهای مرتبط با هوش مصنوعی، تماس افزایشی برای مقررات قویتر را دارند.
– یک بحث درباره تعادل بین نوآوری و مسئولیت اخلاقی در حال ادامه است. چالش این است که پیشرفت فناوری را با حفظ هماهنگی توسعه هوش مصنوعی با ارزشها و اخلاق جامعه انجام دهیم.
The source of the article is from the blog trebujena.net