باز کردن ظرفیت هوش مصنوعی: موانع و فرصت‌ها

هوش مصنوعی (AI) قدرتی دارد که می‌تواند بخش‌های مختلفی از جامعه را نقل‌مکان دهد، از جمله بهداشت، انرژی و اقتصاد. اما پیشرفت و کاربرد آن ممکن است توسط مقررات سخت محدود شود. فرهنگیان برجسته از شرکت‌های فناوری برجسته و شرکت‌های سرمایه‌گذاری ونچر فراخوانی برای بازنگری رویکردهای رویه‌ای به منظور تسهیل نوآوری در حوزه هوش مصنوعی و بهره‌مندی از فواید بالقوه آن است. آنان برای نظارت منصفانه‌ای که از سیاست‌های طرف‌داری و محدودیت‌های بیش از اندازه که ممکن است پیشرفت فناوری را مانع شود، پرداختند.

شرکت‌های بزرگ فناوری مانند گوگل، OpenAI، و آندریسن هورویتز در یک رویداد در واشنگتن برجسته کردند که چقدر ضروری است که چارچوب‌های تنظیمی که ممکن است تأثیر متحول‌کننده هوش مصنوعی را در بخش‌های حیاتی از جامعه نظیر بهداشت، انرژی و مبارزه با فقر مسدود کنند، بازنگری شوند. وکیل ارشد گوگل بر ضرورت اقدامات تنظیمی غیرطرفانه و شفاف تأکید کرد، تأکید می‌کند که هوش مصنوعی، یک فناوری مقایسه‌ای با واکسن‌های mRNA در بالقوه‌اش، نباید توسط سیاست‌های قدیمی یا اختلافات سیاسی کاهش یابد.

اما اجرای قوانین ضدتکانه پیشوندی همچنان یک اولویت برای مقامات نظارتی مانند کمیسیون تجارت فدرال (FTC) است که در مقابل هرگونه مستثنی از قوانینی که فعالیت‌های تکلیف‌گری را ممنوع می‌کنند، مقاومت نشان داده است، علی رغم چشم‌اندازهای روشن زیبایی که هوش مصنوعی ارائه می‌دهد. طبیعت متصل شرکت‌های نوپا دارای جایگاه چالش‌برانگیز است که به نظر می‌رسد این شرکت‌های بزرگ ممکن است از منابع خود برای حفظ اولویت بازار استفاده کنند، همچنین از طریق سرمایه‌گذاری و همکاری با کارگاه‌های هوش مصنوعی رو به رشد این شرکت‌ها پُیشی‌بردار.

هوش مصنوعی به مرکز اقتصاد مدرن تبدیل شده است، که برنامه‌های آن در بخش‌های گوناگون غلبه کرده است. در علوم بهداشتی، سامانه‌های هوش مصنوعی برای اهداف تشخیصی، بهبود مراقبت از بیماران و کشف داروها استفاده می‌شود، در حوزه انرژی به پیش‌بینی تقاضا، بهینه‌سازی عملیات توری و توسعه راه‌حل‌های پایدار انرژی کمک می‌کنند. در حوزه اقتصاد، هوش مصنوعی به تجزیه‌وتحلیل بازار، مدیریت خطر و پیش‌بینی تقاضای‌ریاضی کمک می‌کند.

پیش‌بینی‌های بازاری برای هوش مصنوعی بسیار خوش‌بینانه است، که رشد نمایهای نامتناسبی را پیش‌بینی می‌کند. طبق گزارشی از گرند ویو ریسرچ، انتظار می‌رود اندازه بازار هوش‌مصنوعی جهان تا سال ۲۰۲۸ به ارزش ۹۹۷.۷۷ میلیارد دلار برسد و با نرخ رشد سالانه ۴۰.۲٪ از سال ۲۰۲۱ تا ۲۰۲۸ رشد کند. این نشان‌دهنده تأثیر تحول‌زا انتظاری است که هوش مصنوعی در بخش‌های گوناگون و اقتصاد به طور کلی ایجاد خواهد کرد.

اما صنعت هوش مصنوعی با مسائل خود روبه‌رو است. نگرانی‌هایی درباره حریم خصوصی داده، مسائل اخلاقی، پیامدهای خودکار نیروی کار و احتمال تعصب در سامانه‌های هوش مصنوعی وجود دارد. تضمین اینکه سامانه‌های هوش مصنوعی شفاف، عادلانه و قابل‌اعتماد باشند چالشی باقی مانده است.

درباره محیط نظارتی، رهبران صنعت برای رویه‌های نظارتی نهادگرا با توجه به ارتقا نوآوری و اطمینان از کاربردهای اخلاقی تأکید دارند. آن‌ها تلاش می‌کنند که با محدودیت‌های بیش از حد صنعت را کبود نکنند، اما می‌خواهند اطمینان حاصل کنند که توسعه و انتشار مسئولانه فناوری‌های هوش مصنوعی را تضمین کنند. فریاد برای رویه‌های نظارتی غیرطرف در راستای انعقاد محیطی حمایتی است که هوش مصنوعی بتواند به حداکثر برسد بدون تخلیه حریم خصوصی، امنیت و یا ارزش‌های جامعه‌ای.

با وجود جذابیت هوش مصنوعی، اجرای قوانین ضدتکانه همچنان یک نگرانی کلیدی است، به ویژه زمانی که شرکت‌های فناوری پیشگام سرمایه‌گذاری‌های خود را در این فضا افزایش می‌دهند. نهادهای نظارتی مانند کمیسیون تجارت فدرال (FTC) اصرار دارند که به کاربرد قوانین موجود برای جلوگیری از رفتارهای ضدرقابتی عمل کنند. نظارت مداوم FTC اطمینان حاصل می‌کند که به دلیل استفاده از یافته‌های اخیر یا همکاری‌های بین شرکت‌های فناوری بزرگ و کارگاه‌های هوش مصنوعی در حال ظهور، این گونه تمایلهای تکلیف‌پذیر نسل خود را نخشه‌کار نکند.

سرمایه‌گذاری‌های شرکت‌های فناوری بزرگ نظیر Microsoft، Google، Amazon، و Nvidia بنابراین به دقت پایش می‌شوند. هدف از این کار حفظ یک بازار رقابتی است که به نفع مصرف‌کنندگان عمل نماید در حالی که نوآوری را ترویج کند. به عبارت دیگر، هر نوع حرکت در صنعت برای تأثیر آن بر دینامیک بازار، موارد دسترسی رقابتی و سلامت و تنوع به‌طور کلی بخش فناوری ارزیابی می‌شود.

آینده هوش مصنوعی با امکانات بسیار زیاد و چالش‌های قابل توجهی روبرو است. گام‌به‌گام بزرگی این صنعت عمدتاً به تأثیر آن که چقدر مؤثر این دغدغه‌های رقابتی توسط مقررات، صنعت‌ها و جامعه به‌طور کلی موازنه می‌شود.

Privacy policy
Contact