عقبه اخلاقی هوش مصنوعی پس از مرگ

در یک صنعت نوآورانه اما مورد اختلاف، شرکت‌ها اکنون <b>تکثیر دیجیتال افراد فوت شده</b> را ارائه می‌دهند که عزیزان امکان ارتباط با چت‌بات‌های هوش مصنوعی را مهیا می‌کند که شخصیت و الگوهای گفتاری افراد فوت شده را تقلید می‌کنند. این حوزه ظهوری ارائه می‌دهد که به طوری جلب حضور ادامه دهنده فراوانی فراتر از قبر را امکان‌پذیر می‌سازد، اما نگرانی‌هایی راجع به ریسک‌های روانشناختی و پیامدهای اخلاقی وارد کرده است.

تحقیقات اخیر به ریاست کارشناسان در مرکز لوروهولم برای آینده هوش، بخشی از دانشگاه کمبریج، مدیریت شده، نشان می‌دهد که چنین خدماتی ممکن است اثرات عاطفی ضررآوری داشته باشد که منجر به مشکلات روانی شدید، به ویژه در میان افراد زیرسن، می‌شود. توماش هولانک و کاتارجینا نواچیک-باسینسکا جانشین مطالعه بودند که شک و شبهه‌های پتانسیلیک در نجات دیجیتال افراد فوت شده را به عنوان فرصتی بالا از نظریه‌پردازی مواد هوش مصنوعی معرفی می‌کنند.

این مطالعه به ویژه ریسک‌هایی را که شرکت‌ها احتمالاً به ازای جلوگیری از استفاده بیرونی از ‘ددبات‌ها’ برای بازاریابی محصولات می‌کنند نشان می‌دهد، از طریق اعتمادی که با یک خویشاوند گمشده ارتباط دارد، بهره می‌برند. این فناوری مشکلاتی می‌تواند بوجود آورد اگر به کودکان حمله کند توسط ایجاد وهم اینکه والدین فوت شده هنوز در حالت دیجیتالی حاضر هستند.

علاوه بر این، شرکت‌ها ممکن است از ماده‌های قراردادی استفاده کنند که توافق‌ها برای افرادی که زمانی زنده بودند، باعث می‌شدند که همتایان مجازی خود را به دوره‌های تمدیدی از وجود دیجیتالی بعد از مرگ دچار نگاه میداند. مضمون بر قرار است که به‌عنوان “دیجیتالا عیار شده” می‌تواند با پیام‌های تجاری در ویژگی مواردی خوابناک را تجهیز کند، منجر به تجربه این برخواهد شد که برخی آن را با عبارت “دیجیتالا تعقیبی” توصیف کنند.

By continuing to use this website, you consent to the use of cookies in accordance with our Cookie Policy.

Privacy policy
Contact