האזהרה מהמדען המאוחר, סטיבן הוקינג

המדען המאוחר סטיבן הוקינג הזהיר ביכולות ובסיכונים של הבינה המלאכותית ממשיכים להיות רלוונטיים לאנושות. בראיון בתחנת ה-BBC ב-2014, הוקינג הביע חששות על כך שהתפתחות של בינה מלאכותית מלאה עלולה להוביל בסופו של דבר לנפילת גזר האדם.

הוקינג היה מוביל בזמנו בהבנת השפעה הפוטנציאלית של הבינה המלאכותית על חיינו. הוא תיאר כי פעם שהבינה המלאכותית תגיע לרמה מסוימת, היא תתפרמת מהשכל האנושי ותעצב מחדש בצורה הזוייתית. התאוצה הזו עשויה להשאיר את האדם ללא יכולת להתחרות ולהימלט סופית מציפורני המכונות.

האזהרות שלו לא הגבילו רק בכך. ב-2015, הוקינג הצטרף למומחים אחרים לחתימה על מכתב פתוח לאומות המאוחדות המדגיש את הסיכונים שקשורים לפיתוח בינה מלאכותית שאינו מצופה. וב-2017, הוא הדגיש שוב את חששיו מהפיתוח של בינה מלאכותית שתחליף את האנושי במלואו.

בספרו שפורסם לאחר פטירתו, "תשובות מקצרות לשאלות גדולות", הוקינג חקר עמוק יותר את האיום שהבינה המלאכותית מהווה. הוא דמיין פיצוץ בינה, בו מכונות יעברו את השכל האנושי בצורה גדולה יותר מהיתרונות שלנו על רעמים. הוקינג הדגיש כי להתעלמ מהחששות הללו כפיסות בד ספרד שגודל יהיה טעות קשה ואולי הטעות הגרועה שיוכל לעשות אנושות.

למרות שהאזהרות של הוקינג עשויות להראות מרתיעות, הן משמשות כתזכורת לצורך בפיתוח ובתקנות אחראיים של הבינה המלאכותית. בעוד שהבינה המלאכותית ממשיכה להתקדם, חיוני לנו לתת עדיפות לשיקולים אתיים ולוודא שפיתוחה תואם לטובת האנושות.

The source of the article is from the blog bitperfect.pe

Privacy policy
Contact