دنیای فناوری به طور مداوم در حال تکامل است و ما را با ایدهها و مفاهیم جدیدی آشنا میکند که زندگیهای ما را تحت تأثیر قرار میدهند. یکی از مفاهیمی که در سالهای اخیر توجه زیادی به خود جلب کرده است، مفهوم «آسیبهای شناختی» است. اینها ایدهها یا محتواهایی هستند که توانایی آسیب رساندن به افراد را فقط از طریق مصرف یا مشارکت در آنها دارند. اگرچه آسیبهای شناختی اغلب با دنیای علمی-تخیلی ارتباط داشتهاند، توسعههای اخیر در فناوری و رسانهها سوال راجع به وجود واقعی آنها را مطرح کردهاند.
ترم «آسیب شناختی» توسط پروژه داستانهای مشترک SCP معرفی شد و به ایدههایی اطلاق میشود که فقط با فکر کردن به آنها ممکن است آسیب رسان باشند. این ایده به معنایی بزرگی اهمیت یافته است زمانی که اثر برخی محتواها و فناوریها بر روی تفکر و رفاه روانیمان را بررسی مینماییم.
یکی از مثالهای امروزی آسیبهای شناختی، بروز ویدیوهای deepfake است. Deepfakes ویدیوهای تولید شده توسط هوش مصنوعی هستند که با قدرت تعویض و جایگزینی چهرهها، محتواهای واقعی ولی مجازی ایجاد میکنند. این ویدیوها میتوانند بسیار گولآور باشند، تا جایی که برای بینندگان دشوار است تشخیص دهند کدام چیز واقعی است و کدام ساختگی. حتی اگر کسی به آنها اطلاع داده شود که دارند یک ویدیوی deepfake تماشا میکنند، قدرت روانشناسی اجتماعی پشت آن میتواند به آنها منجر شود که همچنان آن را به عنوان واقعیت بپذیرند. این وضعیت نگرانیهایی را در خصوص خطرات پتانسیلی این محتواها ایجاد میکند و نیاز به کاهش گردش آنها را آشکار میسازد.
یک جنبه دیگر از آسیبهای شناختی، در اختلاس توجه واقع شده است. در دنیای دیجیتالی آنچه به دست آمده، جذابیت خوراکی کرده است. کسبوکارها و پلتفرمهای رسانهای به دنبال وقت و توجه ما هستند و از تکنیکهایی استفاده میکنند که وارداتمان را به هامان اساسی خود وا میدارد. از اعلانهای فشار داده شده پیوسته تا جذابیت وابسته کردن به نوسین محتوا، این ابزارهای اقتصاد توجه میتوانند آسیبهای شناختی حقیقی شوند و ما را مجاب به تعیین شرایط آنها و منحرف کردن توجهمان از جنبههای مهمتر زندگی میسازند.
یکی از مثالهای محتوای مختصر «idle» یا «clicker» است. این بازیها طراحی شدهاند تا کاربران را با بهبودات و بهروزرسانیهای مداوم به خویش ببندند و به آنها کمک کنند تا به اهدافی که استراحت تلاش یک بازی را در یک ساختار ساده فشرده کردهاند که کاربران ممکن است با گم شدن در این بازیها تصمیمگیری دشواری داشته باشند.
به طور مشابه، محتوای غیر تعاملی مانند «ویدیوهای دومینو» نیز میتواند تأثیر آسیبهای شناختی داشته باشد. این ویدیوها به فرایندهایی که رو به روی ایجاد میشوند بازتاب میدهند و بینندگان را به خویش جلب میکنند و حس هیجان فراوانی از پیشرفت و کمال به آنها تزریق میکنند.
اگرچه نامعلوم است که آسیبهای شناختی چگونه میتوانند واقعاً بر زندگیهای ما تأثیر بگذارند، اما مهم است تئوریهای خطرات پتانسیلی آنها را به آگاهی آوریم. تماس مداوم با محتواهای جذاب و چندانگیزانه ریسکی برای تحلیل شناختیمان ایجاد میکنند و ممکن است منجر به اعتیاد و تلف وقت و بهرهوری خود شوند. تازگی برخورداری ما با فناوری و رسانهها ادامه پیدا میکند، اهمیت دارد مراقب و آگاه از خطرات پتانسیلی ارائه شدەوسایز معلومات سلامت روانی خود بمانیم.
FAQ
چیست آسیبهای شناختی؟ آسیبهای شناختی ایدهها یا محتواهایی هستند که توانایی آسیب رساندن به افراد را فقط از طریق مصرف و یا مشارکت در آنها دارند. آنها میتوانند به سلامت شناختیمان آسیب برسانند، به اعتیاد، تلف وقت و تأثیرات منفی روانی ممکن.
آیا ویدیوهای deepfake به عنوان آسیبهای شناختی در نظر گرفته میشوند؟. ویدیوهای deepfake که ویدیوهایی توسط هوش مصنوعی تولید شده و به طور قانونی چهرههای افراد را جایگزین میکنند، میتوانند به عنوان آسیبهای شناختی در نظر گرفته شوند. این ویدیوها میتوانند بسیار گولآور باشند و باعث تغییر دیدگاه ما از واقعیت شوند.
مثالهای دیگر از محتواهای اختلاس توجه چیست؟. مثالهایی از محتواهای اختلاس توجه شامل بازیهای «idle» یا «clicker» هستند که با بهبودات و بهروزرسانیهای مداوم کاربران را خویش ببندند و به آنها کمک کنند تا به اهدافی که استراحت تلاش یک بازی را در یک ساختار ساده فشرده کردهاند. محتوای غیر تعاملی مانند «ویدیوهای دومینو» نیز بینندگان را حول خویش جلب کرده و حس هیجان فراوانی از تکامل و تکمیل آنها تزریق میکند.
چگونه میتوانیم از خطرات آسیبهای شناختی خود را حفاظت کنیم؟ حفاظت از خود در برابر خطرات آسیبهای شناختی الزاماً شناخت و تأثیرات پتانسیلی آنها را میطلـی. مهم است که توجه و کنترل خود را هنگام مشارکت با محتوای جذاب داشته باشیم. تعیین محدوده و اختصاص زمان مشخصی برای استفاده از فناوری میتواند کمک کند تا تعادل سالم، زندگیامان را حفظ نماییم.
ارتفاع از ویدیوهای deepfake تنها یک مثال از خطرات پتانسیلی است که در دنیای مدرن وجود دارد. کارشناسان حوزه نگرانیهای خود را در مورد پیامدهای گستردهتر این فناوری بیان کردهاند. آنها هشدار میدهند که deepfakes میتواند برای اهداف خبیث، مانند گسترش اطلاعات غلط، ترویج نظر عمومی و یا حتی انتقاد افراد به کار رود. در حالی که فناوری deepfake به سرعت است و محدوده تعمیراشته شدهاست، نیازی به قوانین و تدابیر حفاظتی برای پشتیبانی از اثرات مخرب این ویدیوهای تولیدشده توسط هوش مصنوعی وجود دارد.
علاوه بر deepfakes، مشکلات دیگری مربوط به صنعت و پیشبینی بازار وجود دارد. یکی از این مشکلات، استفاده اخلاقی از هوش مصنوعی است. با پیشرفت فناوری، AI به قسمتی اساسی از انواع مختلفی از صنایع، از بهداشت تا مالی تبدیل شده است. با این حال، مسائل اخلاقی مربوط به استفاده از AI، به ویژه در زمینه حریم خصوصی، تعصب و از مشتخت کار مورد نگرانی واقع شدهاند. زمانی که صنعت AI ادامه به رویا داشته باشد، ضروری است که این اعتبارات اخلاقی را مطرح و اطمینان حاصل نماییم که AI به طور مناسب توسعه و اجرا شود.
پیشایندصادرات نشان دادهاست که تقاضای فناوری AI و محتوا به میزان significant برای سالهای آینده در حال شکلگیری است. طبق یک گزارش توسط MarketsandMarkets، بازار deepfake تا سال 2026 به ۲.۴۸ میلیارد دلار میرسد، با نرخ رشد سالانه مرکب (CAGR) 34.9٪ از ۲۰۲۱ تا ۲۰۲۶. این نشاندهنده بالاپترونی را از بازار deepfake و راه حلهای مربوطه نشان میدهد. با این حال، باید توجه داشت که بیانات بیرونی از تأثیرات مختلفی، از پیشرفتهای فناوری، تغییرات قوانینی و ادراک عمومی است.
مهم است که آگاه به ریسکها و موارد مرتبط با آسیبهای شناختی باشیم و اقداماتی برای حفاظت از خود بگیریم. تماس مداوم با محت
The source of the article is from the blog papodemusica.com