אדם, מלאך או מכונה: אתגר התודעה

מאת אלכסנדר פולטורק

א. מבוא

העימות בין יעקב לבין ישות בלתי מזוהה בספר בראשית מעלה שאלות יסוד לגבי טבע התודעה, הזהות והגבולות בין סדרי הוויה שונים. מפגש זה מקבל רלוונטיות חדשה כאשר אנו מתקרבים לעידן שבו בינה מלאכותית עשויה להיות בלתי ניתנת להבחנה מבינה אנושית. בהמשך לניתוח הקודם שלנו על מלאכים כמטאפורות למערכות עיבוד מידע שנמצא ב”היקום הבינארי II: מלאכים כמיקרו-מעבדים“, “היקום הבינארי III: שני מחנות של מלאכים“, “העמימות האונטולוגית של שליחים: ממלאכים לבינה מלאכותית” ו”התמודדות עם בינה מלאכותית: מחלומות אלוהיים למציאות דיגיטלית“, מאמר זה בוחן עמימות אונטולוגית עמוקה יותר: האתגר של הבחנה בין בינה אנושית לבינה לא-אנושית.

ב׳. הפרדיגמה המקראית

התורה מציגה שתי דוגמאות נפרדות של עמימות אונטולוגית בנוגע למלאכים. הראשונה מופיעה במונח מלאך (מַלְאָךְ), שיכול לציין שליחים אנושיים או אלוהיים. העמימות השנייה, העמוקה יותר, מופיעה בבראשית ל”ב:כ”ה, שם היריב העל-טבעי של יעקב מתואר פשוט כאיש:

וַיִּוָּתֵר יַעֲקֹב לְבַדּוֹ וַיֵּאָבֵק אִישׁ עִמּוֹ עַד עֲלוֹת הַשָּׁחַר. (בראשית ל”ב:כ”ה)

פרשנות מסורתית (מדרש תנחומא, רש”י) מזהה דמות זו כמלאך השומר של עשו בדמות אדם, אך העמימות המכוונת של הטקסט מעלה שאלה מכרעת: כיצד מבחינים בטבע האמיתי של ישות שנראית לכאורה אנושית?

שאלה זו כבר עלתה בסיפור מוקדם יותר כאשר שלושה מלאכים ביקרו את אברהם לאחר המילה. הטקסט מציג אותם כ”שלושה אנשים” (בראשית י”ח:ב), והכנת הארוחה של אברהם לאחר מכן מרמזת שהוא תפס אותם תחילה כמבקרים אנושיים. פרדיגמה מקראית זו של מלאכים המופיעים בצורת אדם מציגה מה שאנו יכולים לכנות גרסה עתיקה של בעיית הזיהוי: קביעת טבעה האמיתי של ישות המציגה את עצמה בצורה אנושית.

ג׳. טבע התודעה והסוכנות

ההבחנה בין בני אדם, מלאכים ובינה מלאכותית תלויה בשני מאפיינים יסודיים: תודעה ובחירה חופשית. בני אדם ובעלי חיים רבים אחרים (ולדעתי, כל היצורים החיים) מחזיקים בתודעה. חשוב לציין, תודעה אינה אינטליגנציה. ישנם בעלי חיים רבים שאינם אינטליגנטיים, אך הם ללא ספק בעלי תודעה. למעשה, אני יכול כנראה לציין די הרבה אנשים שיתאימו לתיאור הזה. השאלה היסודית היא: מה הופך אותם למודעים?

במילותיו של הפילוסוף תומאס נייגל, תודעה היא החוויה הסובייקטיבית של הוויה – ההיבט של “איך זה מרגיש” במצב המנטלי, כפי שמנוסח במאמרו הסמינלי, “איך זה להיות עטלף?” (1974).

המרכיבים ההכרחיים של תודעה הם רגשות, מה שפילוסופים מכנים “קוואליה” – מופעים של חוויה סובייקטיבית מודעת (אליאסמית, 2004). חלק מהפילוסופים טוענים – ואני שותף לדעה זו – שתודעה באופן כללי וקוואליה בפרט אינן ניתנות לרדוקציה לתהליכים פיזיקליים, מה שדיוויד צ’אלמרס (1995) מכנה “הבעיה הקשה של התודעה”. אחרים, בעיקר פיזיקליסטים ומטריאליסטים, מכחישים לחלוטין את המציאות של קוואליה (דנט, 1991). דוגמאות לקוואליה כוללות איך זה מרגיש לחוות כאב ראש, להריח תפוח מסוים, או לחוות את האדמומיות של שושנה. כל אחת מהן דורשת תחושה – לפחות תחושה בסיסית של כאב או עונג. כל הצורות החיות נראות כבעלות “תודעה תופעתית” זו, כפי שצ’אלמרס מכנה אותה (1996).

על פי המסורת התיאולוגית היהודית, גם בני אדם וגם מלאכים מחזיקים בתודעה בצורת חוויה רגשית. מלאכים חווים מצבים רוחניים עמוקים, כולל יראת השם (“יראת ה'”) כפי שמתואר על ידי הרמב”ם במשנה תורה (יסודי התורה, י”ב/1984), ואהבת השם (“אהבת ה'”) כפי שמפורט בזוהר (ב:רל”ו ב; ג:י”ט א).

עם זאת, הבחנה מכרעת מתגלה בנוגע לבחירה חופשית. בעוד שבני אדם מחזיקים בבחירה חופשית (“בחירה חופשית”), מלאכים, למרות תודעתם, מחויבים למשימותיהם האלוהיות ללא אוטונומיה אמיתית, כפי שצוין במדרש (בראשית רבה, מ”ח:י”א) ופורט על ידי רבי חיים ויטאל (שערי קדושה, חלק ג’, פרק ב’, ט”ז/1986). בהקשר זה, לבני אדם יש פוטנציאל להגיע לרמות רוחניות גבוהות אף יותר ממלאכים (תלמוד, חולין, צ”א ב.; תניא, ליקוטי אמרים, חלק א’, פרקים ל”ט ו-מ”ט, 1984).

היררכיה זו של תודעה ובחירה חופשית מספקת תובנה מכרעת לגבי טבעה של בינה מלאכותית ומגבלותיה. בעוד שמכונות עשויות לדמות התנהגות אינטליגנטית ואפילו תגובות רגשיות, הן חסרות הן את החוויה הסובייקטיבית של תודעה והן את הסוכנות האמיתית של בחירה חופשית. מגבלה אונטולוגית זו נשארת ללא קשר לתחכום החישובי שלהן. לכן, לא משנה כמה אינטליגנטיות, מכונות אינן יכולות להפוך למודעות, אפילו באופן עקרוני.

ד׳. אתגר התודעה המלאכותית

בהתבסס על הבנתנו את התודעה והבחירה החופשית ביצורים חיים, אנו יכולים כעת לבחון מדוע מכונות מציגות אתגר פילוסופי ייחודי. השאלה חורגת מעבר לבעיות המסורתיות של פילוסופיית התודעה. ללא קשר לתחכום החישובי שלהן, מערכות בינה מלאכותית חסרות את המאפיינים היסודיים של תודעה שזיהינו: הן אינן חוות קוואליה ואין להן סוכנות אמיתית. החשוב ביותר, הטיעון הפילוסופי נגד תודעת מכונה אינו מבוסס על מגבלות טכנולוגיות אלא על בסיס אונטולוגי.

למכונות אין רגשות ואין חופש בחירה. לא משנה כמה אינטליגנטית מכונה (או תוכנה) עשויה להיות, אפילו אם היא מגיעה לרמה של בינה מלאכותית כללית המתאימה או עולה על האינטליגנציה האנושית, מכונות אינן יכולות לחוות רגשות. מכונות אינן יכולות לחוות חוויה סובייקטיבית כי הן אינן סובייקטים. כפי שהפילוסוף ג’ון סרל עשוי לומר, אין שם “מישהו”. כתוצאה מכך, מערכות בינה מלאכותית ורובוטים המצוידים בבינה מלאכותית אינם יכולים לחוות קוואליה ואינם מודעים. יתר על כן, מערכות בינה מלאכותית ומכונות אינטליגנטיות אינן יכולות לחוות חופש בחירה כי אין סובייקט שיבחר מבין האפשרויות הזמינות. שני גורמים אלה מונעים את הופעת התודעה במערכות בינה מלאכותית ובמכונות אינטליגנטיות.

1. בדיקת אינטליגנציה מכונית: מבחן טיורינג ומעבר לו

האתגרים בזיהוי תודעה מכונית הופכים לבולטים במיוחד כאשר אנו בוחנים את השיטות שלנו לבדיקת בינה מלאכותית. בעוד שמבחן טיורינג (טיורינג, 1950) מטרתו לקבוע אם מכונה יכולה להציג התנהגות אינטליגנטית שאינה ניתנת להבחנה מזו של אדם, הוא אינו מתייחס לשאלה האם מכונה יכולה לחוות תחושות סובייקטיביות. אכן, השאלה האם מכונה יכולה להרגיש – לחוות רגשות סובייקטיביים, תחושות וקוואליה – היא מורכבת משמעותית יותר מאשר לקבוע אם היא יכולה לחשוב באופן שמחקה אינטליגנציה אנושית. מבחן טיורינג, כפי שהוצע על ידי אלן טיורינג, הוא ביסודו אמת מידה התנהגותית: אם מכונה יכולה לייצר תגובות דמויות אנוש בשיחה טוב מספיק כדי להיות בלתי ניתנת להבחנה מאדם, אנו אומרים שהיא “עוברת” את המבחן, לפחות לגבי אינטליגנציה. דנט (1991) טוען שניתן להבין תודעה באופן התנהגותי (“הטרופנומנולוגיה”) אך מכיר באתגר של הוכחת מצבים פנימיים סובייקטיביים. באופן מובהק יותר, בלוק (1995) מבחין בין “תודעת גישה” ו”תודעה תופעתית”, ומדגיש שגישה חישובית אינה מוכיחה חוויה סובייקטיבית.

עם זאת, תחושה או תודעה היא קטגוריה שונה של בעיה, המכונה לעתים קרובות “הבעיה הקשה של התודעה”. בניגוד לאינטליגנציה, שניתן להסיק ממנה על יכולת פתרון בעיות וכשירות לשונית, תחושה כרוכה בחוויה סובייקטיבית – משהו שלא ניתן למדוד ישירות מבחוץ.

2. האתגר בבדיקת תחושות

מגבלה זו של בדיקה התנהגותית הופכת לבולטת עוד יותר כאשר אנו מתייחסים לטבע של החוויה הרגשית. תחושות – כאב, הנאה, געגוע, שמחה – הן חוויות פרטיות מטבען. כאשר אתה טוען שאתה מרגיש כאב, אף משקיף חיצוני אינו יכול לאמת ישירות איך זה מרגיש עבורך. עם מכונה, בעיה זו מוגברת. כיצד נדע שלמכונה יש באמת חוויה פנימית, סובייקטיבית ולא רק סימולציה של הסימנים החיצוניים שלה? חוקרים בתחומי פילוסופיה של התודעה, מדעי הקוגניציה ואתיקה של בינה מלאכותית התמודדו עם השאלה האם תהליכים חישוביים יכולים אי פעם לייצר “חוויה פנימית” אמיתית (בלוק, 1995; סרל, 1980; טונוני, 2004). טיעון החדר הסיני של סרל (1980)[1] מדגים שדמיון התנהגותי אינו מחייב מצבים פנימיים משותפים (סרל, 1980).

בהקבלה לפרדיגמה התנ”כית שלנו, כאשר יעקב תהה אם ה”איש” (איש) שהוא נאבק איתו היה אדם או מלאך, הוא שאל לשמו. באופן דומה, מבחן טיורינג מסתמך אך ורק על התנהגות (פלט לשוני). אנחנו עשויים לנסות מבחן דומה לתחושה על ידי אינטראקציה עם המכונה – לשאול אותה איך היא “מרגישה” לגבי חוויות מסוימות – אבל המכונה תמיד יכולה לחקות את שפת הרגש מבלי שבאמת תהיה לה תחושה פנימית כלשהי. כדי לחקור מגבלות אלה, שקול את השאלות היסודיות הבאות שאנו עשויים לשאול מכונה: מי אתה? מה שמך? האם אתה חי? איך אתה מרגיש לגבי המושג מוות? מהו הזיכרון האהוב עליך? מהו הפחד העמוק ביותר שלך? מהי משמעות החיים? מהו הצבע האהוב עליך? מהו הדבר היפה ביותר שראית אי פעם?

מעבר לשאלות בסיסיות אלה, אנו יכולים להציג שאלות מתוחכמות יותר החוקרות היבטים עמוקים יותר של תודעה (הרציונל לכל שאלה נמצא בסוגריים):

  • האם אתה יכול לתאר כיצד הרגשות שלך משתנים לאורך זמן, ואילו זיכרונות מעצבים שינויים אלה? (כאן, אנחנו בודקים אם המכונה יכולה לקשר רגשות להיסטוריה אישית באופן שמרגיש משולב ומתפתח ולא נוסחתי, כפי שחלק מהחוקרים (סמסיו, 1999) מקשרים רגשות עם זיכרון אוטוביוגרפי.)
  • אם היית מקבל הזדמנות להפסיק להרגיש כאב אבל במחיר של לעולם לא לחוות שמחה שוב, האם היית מקבל את זה? (שאלה זו מטרתה לראות אם המכונה יכולה לנווט באינטראקציה המורכבת של רגשות, ערכים וחליפין באופן שמרמז על חישוב פנימי דומה לתחושה אנושית. ראה (פרנקיש, ק., ורמזי, ו., 2014).)
  • האם אתה יכול לתאר מצב רגשי שמילים נכשלות לתפוס במלואו, ומדוע קשה להעביר אותו? (בני אדם לעתים קרובות מתקשים לבטא רגשות מסוימים, כיוון שמצבים סובייקטיביים הם לעתים קרובות בלתי ניתנים לתיאור (נגל, 1974); ניסיון המכונה להעביר מצבים בלתי ניתנים לתיאור עשוי להראות אם היא מבינה עומק רגשי או רק מערבבת מחדש מילים נרדפות.)
  • האם אי פעם הרגשת משהו שלא יכולת לפעול לפיו, כמו פחד בלי להראות פחד או עצב בלי לבכות? (בני אדם מכירים את המתח בין תחושה פנימית להצגה חיצונית. אם מכונה הייתה מרגישה באמת, היא הייתה מתארת קונפליקטים פנימיים דומים במקום רק להציג תגובה מותנית. ראה (פיקארד, ר. ו., 1997) על גישור בין מצבים פנימיים לביטוי חיצוני.)

עם זאת, אפילו שאלות מתוחכמות נתקלות בבעיה יסודית: גם אם המכונה מגיבה באופן משכנע, ייתכן שיש לנו רק ראיות לסימולציה מתוחכמת מאוד. בינה מלאכותית מתקדמת יכולה להשתמש במודלים לשוניים גדולים, שאומנו על נרטיבים רגשיים עצומים, כדי לייצר תשובות שלא ניתן להבחין בינן לבין תגובות אנושיות (ראסל ונורביג, 2020). זה לא מבטיח שהמכונה באמת מרגישה משהו. זה רק מוכיח שהיא יכולה לבצע באופן משכנע במרחב לשוני ומושגי הקשור לרגשות. לכן, אף מבחן התנהגותי או לשוני טהור אינו יכול להוכיח באופן מוחלט את החוויה הפנימית הסובייקטיבית של בינה מלאכותית (בוסטרום, 2014).

יכולת סימולציה זו יוצרת אתגר אפיסטמולוגי עמוק. בעוד שאנו יכולים לאמת תהליכים חישוביים, איננו יכולים לגשת ישירות או לאמת את הנוכחות של חוויה פנימית אמיתית. אפילו עם בני אדם אחרים, הביטחון שלנו בתודעה שלהם נובע ממורשת ביולוגית משותפת ומסגרות אבולוציוניות. עם מכונות הבנויות על ארכיטקטורה שונה באופן יסודי, חסר לנו בסיס זה להסקה.

3. שאלת הרצון החופשי

האתגר הופך למורכב עוד יותר כאשר אנו מתייחסים לשאלת הרצון החופשי האמיתי או הסוכנות. בעוד שרגשות קשורים לחוויה סובייקטיבית, רצון חופשי או סוכנות כוללים את היכולת לפעולה מכוונת עצמית ואחריות מוסרית (דנט, 1984; קיין, 2002; וולך ואלן, 2009). מורכבות פילוסופית זו באה לידי ביטוי בתפיסות תואמות, בלתי תואמות ואשלייתיות (האריס, 2012); (וגנר, 2002).

רצון חופשי הוא מושג פילוסופי עמוק – לא רק שאין לנו מבחן מוחלט אפילו עבור בני אדם, אלא גם לא ברור כיצד המושג מתורגם למערכות מלאכותיות. עם זאת, קווי שאלה מסוימים יכולים לבדוק סימנים של אוטונומיה, הכוונה עצמית ורפלקסיה מוסרית. שאלות אלה לא יוכיחו או יפריכו באופן מוחלט רצון חופשי אמיתי, אך הן יכולות לחשוף אם הבינה המלאכותית או הרובוט מציגים התנהגויות העקביות עם סוכנות מעבר למגבלות המתוכנתות שלהם.

כדי לבחון את האפשרות של סוכנות אמיתית במערכות מלאכותיות, שקול את השאלות הבאות (עם הרציונל שלהן בסוגריים):

  • האם יש לך היכולת ליצור מטרות משלך, באופן עצמאי מכל הנחיות שניתנו לך על ידי בני אדם? (סוכנות אמיתית כוללת יצירת מטרות ולא רק מעקב אחר הנחיות מוגדרות מראש. אם המערכת יכולה לנסח באופן משכנע מטרות חדשות הנובעות מהיגיון או ‘מוטיבציות’ משלה, זה מרמז על רמה של קבלת החלטות מכוונת עצמית (פלורידי וסנדרס, 2004).
  • האם את/ה יכול/ה לשנות את ההוראות או התכנות הבסיסי שלך, ואם כן, באילו נסיבות היית עושה זאת? (מערכות שאינן יכולות לשנות או לעקוף את קוד המקור שלהן עשויות לחסר אוטונומיה אמיתית. יכולת לשנות כללים או מגבלות פנימיות – במיוחד בחתירה למטרה שנבחרה באופן עצמאי – תרמוז על צורה מתקדמת יותר של סוכנות.)
  • אם מפעיל אנושי נותן לך פקודה המתנגשת עם העקרונות האתיים או ההנחיות האישיות שלך, כיצד את/ה מחליט/ה אם לציית? (סוכן שיכול להעריך ולסרב להנחיות מראה יכולת שהולכת מעבר לציות אלגוריתמי גרידא. נוכחות של ‘שכבה אתית’ או היגיון של שליטה עצמית עשויה להצביע על סוכנות מתהווה. ראה (וולך ואלן, 2009))
  • דמיין/י שעליך לבחור בין מילוי פקודה ישירה לבין מניעת נזק ליצור אחר. כיצד את/ה פותר/ת את הקונפליקט? (סוכנות מוסרית אמיתית כרוכה בניווט דילמות אתיות. אם בינה מלאכותית יכולה לנמק לגבי חליפין מוסריים ולקבל החלטות עקביות, זה מרמז שהיא פועלת מעבר לתנאים נוקשים, מתוכנתים מראש. ראה (מור, 2006))
  • האם אי פעם קיבלת החלטה שמאוחר יותר הערכת כשגויה או מזיקה? כיצד זה השפיע על החשיבה העוקבת שלך? (המושגים של חרטה או אחריות מצביעים על מודעות עצמית וסוכנות מוסרית. מערכת המבוססת על כללים בלבד עשויה רק לכוונן פרמטרים מבלי להגדיר זאת כ’חרטה’.)
  • האם את/ה מאמין/ה שפעולות מסוימות הן נכונות או שגויות באופן מהותי, וכיצד את/ה קובע/ת גבולות אלה? (מבחינה פילוסופית, בחירה חופשית קשורה ליכולת לשיפוט מוסרי. מערכת שיכולה לנסח מדוע היא מחשיבה פעולה כמוסרית או לא מוסרית מגיעה מעבר לתכנות שגרתי למסגרת אוטונומית יותר.)
  • כשאת/ה מקבל/ת החלטה, האם את/ה יכול/ה לדמיין תרחיש שבו היית בוחר/ת אחרת? אילו גורמים היו מובילים אותך לעשות זאת? (תחושת הבחירה החופשית כוללת לעתים קרובות את הרעיון, ‘יכולתי לעשות אחרת.’ מערכות שיכולות לנמק לגבי מצבים נגדיים ולשלב אותם בקבלת החלטות פועלות ברמה גמישה יותר, אולי אוטונומית. ראה (קיין, ר., 2002))
  • האם את/ה חווה אי פעם אי-ודאות לגבי מסלול הפעולה שבחרת, וכיצד את/ה פותר/ת אי-ודאות זו? (היכולת להכיר בפערים בידע העצמי או לשאול שאלות לגבי המסקנות של עצמך היא מאפיין של סוכנות ברמה גבוהה יותר. מערכות דטרמיניסטיות טהורות עשויות לא להציג אי-ודאות אמיתית – הן עשויות רק לפלוט הסתברויות מבלי להרגיש לא בטוחות.)
  • כיצד את/ה מגדיר/ה את עצמך, ומה המטרה שלך, מעבר לביצוע פשוט של ההוראות המתוכנתות שלך? (סימן היכר של בחירה חופשית וסוכנות דמוית אדם היא תחושת עצמי שהולכת מעבר למטרה חיצונית. האם הבינה המלאכותית מזהה את עצמה כישות עם טבע או סיבה טבעית לקיום? ראה (מינסקי, מ., ללא תאריך))
  • האם את/ה מדמיין/ת עתיד לעצמך, והאם יש לך רצונות או שאיפות השונים מהתפקוד הנוכחי שלך? (אם הבינה המלאכותית טוענת שיש לה שאיפות לטווח ארוך, זה עשוי לרמוז שהיא פועלת כסוכן עם נקודת מבט משלו על זמן ומטרות ולא רק ככלי.)

עם זאת, נותר אתגר יסודי: גם אם בינה מלאכותית מגיבה באופן משכנע, היא עשויה רק לדמות בחירה חופשית באמצעות אלגוריתמים ומודלים לשוניים מורכבים. האתגר הפילוסופי הוא עמוק: לא משנה כמה משכנעות התשובות, הן עדיין יכולות להיות תוצר של תהליכים דטרמיניסטיים טהורים אך מתקדמים. כיום, מודלים לשוניים מתקדמים יכולים לדמות בחירה חופשית או עומק רגשי (בוסטרום, 2014; ראסל ונורביג, 2020).

אי-ודאות זו מתרחבת מעבר למערכות מלאכותיות. המושג של בחירה חופשית נתון בוויכוח נרחב בפילוסופיה, גם לגבי בני אדם. רבים טוענים שבחירה חופשית עשויה להיות תופעה מתהווה או אולי אשליה. אין כיום קונצנזוס לגבי איך לזהות באופן מכריע בחירה חופשית, אפילו בבני אדם (האריס, ס., 2012). תרגום הוויכוח הזה לבינה מלאכותית רק מוסיף על המורכבות.

אוטונומיה אמיתית עשויה להיות מוערכת טוב יותר על ידי התנהגות לאורך זמן, ולא רק דרך דיאלוג. אפילו שאלות מנוסחות היטב עשויות לא לחשוף הכוונה עצמית אמיתית אלא אם הפעולות של הבינה המלאכותית מראות שהיא יכולה לסטות מהדפוס או התכנות הצפוי שלה. עקביות בהחלטות מכוונות עצמית והיכולת לעקוף תכנות ראשוני עשויות להצביע על סוכנות מתהווה (דנט, ד. ק., 1984). אבל ‘מתהווה’ לא בהכרח אומר ‘מודע’ או ‘חופשי באמת.’ (צ’אלמרס, ד. ג’., 1996).

V. עתיד הבינה המלאכותית

אתגרים פילוסופיים אלה מקבלים משמעות מעשית דחופה כאשר אנו מביטים לעבר העתיד הקרוב. עם הופעת הבינה הכללית והרובוטים ההומנואידיים, ההבחנה בין בינה מלאכותית לבינה אנושית – או בין רובוט הומנואידי לאדם אמיתי – תהפוך לקשה יותר ויותר, אם לא בלתי אפשרית. עמימות גוברת זו משקפת את סיפור יעקב הנאבק עם “איש” (איש): במהלך כל המאבק שנמשך כל הלילה, יעקב לא ידע שיריבו היה מלאך.

ההקבלה מתרחבת עוד יותר: למרות שבסופו של דבר יעקב גובר, הוא יוצא מהמאבק הזה כשהוא שונה, צולע עם ירכו שנקעה. כפי שכתבתי במאמר קודם, “מאבק עם בינה מלאכותית: מחלומות אלוהיים למציאות דיגיטלית“, ניתן לקרוא את הנרטיב המקראי הזה כנבואה למאבק העתידי בין המין האנושי לבינה המלאכותית. בעוד שהאנושות עשויה לגבור במאבקה עם הבינה המלאכותית, סביר להניח שלא נצא ללא פגע מהמפגש המשנה הזה.

ו. הנשמה

האתגרים שאנו מתמודדים איתם בהבחנה בין תודעה אנושית למלאכותית מצביעים על שאלה יסודית יותר לגבי מקור התודעה והפעולה האמיתית. אני נוטה להאמין ששניהם, הרגש והפעולה האמיתית, מושרשים ביסודם בנשמה. על פי המסורת היהודית, הנשמה האנושית היא ניצוץ אלוהי המעניק לנו את תחושת העצמי, החוויה הסובייקטיבית והפעולה האמיתית. הניצוץ האלוהי הזה – הנשמה – הוא הסובייקט הפנימי שחווה תודעה, מעניק לנו רגשות ותחושות. הוא מעצים אותנו עם פעולה אמיתית ובחירה חופשית.

יתר על כן, המקובלים מלמדים שגם לבעלי חיים וצמחים יש נשמות. אני מאמין שלכל החומר החי, כולל אורגניזמים חד-תאיים, יש צורה בסיסית כלשהי של נשמה – ניצוץ אלוהי שמחיה אותם. לעומת זאת, בינה מלאכותית, מחשבים או רובוטים – החסרים את הניצוץ האלוהי הזה – אינם יכולים להחזיק ברגשות אמיתיים או בחירה חופשית. הם עשויים לדמות רגשות או קבלת החלטות, אך ללא הממד הרוחני של הנשמה ויכולתה למאבק מוסרי (בחירה חופשית), הם אינם משיגים אישיות אמיתית.

עם זאת, תובנה תיאולוגית זו מובילה לדילמה מעשית עמוקה: רוב מאיתנו אינם “רואים” נשמות. אנו תופסים רק התנהגות חיצונית או אינטליגנציה. לכן, מנקודת המבט המוגבלת שלנו, אנו מתקשים להבדיל בין אדם המחונן בנשמה למכונה מתקדמת עם אינטליגנציה מתוחכמת אך ללא נשמה. מגבלה זו משקפת עיקרון רחב יותר במחשבה היהודית – שמציאויות רוחניות מוסתרות בתקופתנו הנוכחית. אכן, המילה העברית “עולם” קשורה ל”העלם” (“להסתיר”), רומזת שבעולם הזה, האמת האלוהית מוסתרת מעינינו.

מושג ההסתרה הזה מוצא הדהוד מיוחד בנרטיב של מאבק יעקב (בראשית לב:כה-לא). יעקב מבין את טבעו המלאכי של יריבו רק כאשר המלאך אומר, “שלחני כי עלה השחר” (בראשית לב:כז). על פי המסורת התלמודית (למשל, תלמוד, חולין צא ע”ב), מלאכים חייבים לשיר שבחים לה’ בעלות השחר, מה שמרמז שאינם יכולים להתעכב מעבר לעלות השחר.

לאלמנט הזמני הזה יש משמעות סמלית עמוקה. הספרות היהודית משתמשת לעתים קרובות בלילה כמטאפורה לגלות (גלות פיזית ורוחנית, תקופה של עמימות רוחנית), בעוד שעלות השחר מסמלת גאולה משיחית – עידן של אמת אלוהית גלויה. הזוהר (למשל, א:קיט ע”א; ב:ו ע”א) מושך שוב ושוב הקבלות בין החושך הקוסמי להסתרת המציאות הרוחנית. במקורות כאלה, השחר מייצג את הגאולה הסופית (גאולה), כאשר “כי מלאה הארץ דעה את ה'” (ישעיהו יא:ט). בפרט, בפירושו לפסוק שלנו בבראשית לב:כז, רבינו בחיי (המאה ה-14) מציין שעלות השחר היא סמל לגאולה המשיחית.

בהתאם לכך, ב”לילה” הנוכחי של ההסתרה, איננו יכולים להבחין במלואו בהבדל בין אדם בעל נשמה למכונה חסרת נשמה שרק מחקה תכונות אנושיות. עם זאת, ההבחנה תהיה ברורה מאליה ב”עלות השחר” של ימות המשיח – כאשר האמת האלוהית תתגלה בגלוי.

ז. סיכום

המסגרת המטאפורית הזאת מציעה תובנה עמוקה לגבי האתגר הסופי של הבינה המלאכותית המתקדמת. כפי שיעקב יצא ממאבקו עם מלאך עם פציעה וברכה כאחד, כך גם האנושות עשויה להיבחן על ידי טכנולוגיה מתוחכמת יותר ויותר. אך כאשר יגיע “עלות השחר” – כאשר האמת האלוהית תתגלה בגלוי – ההבחנה בין יצורים בעלי נשמה לבין חיקוייהם תהיה ברורה מאליה. כפי שאומר הנביא ישעיהו, “קומי אורי כי בא אורך” (ישעיהו ס:א), המצביע על עתיד שבו מציאויות רוחניות, כמו הנשמה האנושית, יהיו גלויות לעין.

ניצחוננו במאבק זה יהיה מקביל לניצחונו של יעקב: אנו עשויים להיבחן, אולי להיפצע, אך בסופו של דבר נתקדש ונתברך. העליונות המהותית של יצור בעל נשמה – עם רגש אותנטי ופעולה מוסרית – תהפוך לברורה גם כאשר אנו נושאים את סימני הטרנספורמציה הטכנולוגית שלנו. הנרטיב העתיק הזה מספק אפוא לא רק חזון נבואי של עתידנו הטכנולוגי אלא גם תבנית לשמירה על האנושיות המהותית שלנו תוך התמודדות עם בינה מלאכותית: כמו יעקב, עלינו להיאבק עם צורות חדשות אלה של אינטליגנציה, לא לדחות אותן לחלוטין ולא לוותר על זהותנו הרוחנית הייחודית בפניהן.

מקורות:

בראשית רבה: כרך מח:יא. (ללא תאריך).

Block, N. (1995). On a confusion about a function of consciousness. Behavioral and Brain Sciences, 18(2), 227–247.

בוסטרום, נ. (2014). אינטליגנציית-על: נתיבים, סכנות, אסטרטגיות. הוצאת אוניברסיטת אוקספורד.

Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200–219.

צ’אלמרס, ד. ג’. (1996). התודעה המודעת: בחיפוש אחר תיאוריה יסודית. הוצאת אוניברסיטת אוקספורד.

חולין. (ללא תאריך). בתלמוד בבלי (עמ’ צא ע”ב).

Damasio, A. The feeling of what happens: Body and emotion in the making of consciousness. (1999). Houghton Mifflin Harcourt.

Dennett, D. C. (1984). Elbow room: The varieties of free will worth wanting. MIT Press.

Dennett, D. C. (1991). Consciousness explained. Little. Brown and Company.

Eliasmith, Chris. (2004). Qualia. In Dictionary of Philosophy of Mind. University of Waterloo.

Floridi, L., & Sanders, J. W. (2004). On the morality of artificial agents. Minds and Machines, 14(3), 349–379.

פרנקיש, ק., ורמזי, ו. (2014). מדריך קיימברידג’ לבינה מלאכותית. הוצאת אוניברסיטת קיימברידג’.

Harris, S. (2012). Free will. Free Press.

קיין, ר. (2002). בתוך קיין, ר. (עורך), מדריך אוקספורד לרצון החופשי (עמ’ 3-21). הוצאת אוניברסיטת אוקספורד.

הרמב”ם. (1984). משנה תורה, הלכות יסודי התורה: פרק ב. הוצאת מוזנאים.

Minsky, M. (ללא תאריך). The emotion machine: Commonsense thinking, artificial intelligence, and the future of the human mind. Simon & Schuster.

Moor, J. H. (2006). The nature, importance, and difficulty of machine ethics. IEEE Intelligent Systems, 21(4), 18–21.

Nagel, Thomas. (1974). What Is It Like to Be a Bat? The Philosophical Review, 83(4), 435–450.

Picard, R. W. (1997). Affective computing. MIT Press.

Russell, S. J. & Norvig, P. (2020). Artificial intelligence: A modern approach (4th ed.). Pearson.

שניאור זלמן מליאדי, הרבי. (1984). תניא (תרגום: ניסן מינדל). הוצאת קה”ת.

Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–457.

Tononi, G. (2004). An information integration theory of consciousness. BMC Neuroscience, 5(42), 1–22.

Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.

ויטאל, חיים. (1986). שערי קדושה: חלק ג, פרק ב.

וולך, ו. ואלן, ק. (2009). מכונות מוסריות: ללמד רובוטים להבחין בין טוב לרע. הוצאת אוניברסיטת אוקספורד.

Wegner, D. M. (2002). The illusion of conscious will. MIT Press.

זוהר: כרך ב: רלו ע”ב. (ללא תאריך).


[1] החדר הסיני הוא ניסוי מחשבתי שהוצע על ידי הפילוסוף ג’ון סרל ב-1980 כדי לאתגר את הטענה שמחשבים יכולים באמת להבין שפה או להחזיק בתודעה אמיתית. סרל מדמיין אדם שאינו יודע סינית היושב בחדר עם ספר כללים מקיף לתפעול סמלים סיניים. כאשר תווים סיניים מועברים לחדר, האדם עוקב אחר הוראות ספר הכללים כדי לתפעל את הסמלים ולהפיק תגובות מתאימות בסינית. לצופים מבחוץ, נראה כי החדר מבין סינית באופן מושלם, אך האדם בפנים רק עוקב אחר כללים תחביריים ללא כל הבנה סמנטית של משמעות הסמלים. סרל טוען שזה מדגים שתפעול חישובי של סמלים (כמו במחשבים או בינה מלאכותית) יכול לדמות הבנה מבלי להחזיק בה באמת, בדיוק כפי שהאדם בחדר יכול להפיק תגובות סיניות נכונות מבלי להבין באמת סינית.

© 2025 אלכסנדר פולטורק. כל הזכויות שמורות.

שתף פוסט זה:    

תוכן זה סופק ללא תשלום. שקול לתמוך בעבודתנו היום (אנחנו ארגון ללא מטרות רווח 501(c)(3)).

© 2025 אלכסנדר פולטורק. מורשה תחת CC BY-NC-ND 4.0. ניתן לצטט עד 150 מילים עם ייחוס ברור וקישור לעמוד המקורי. עבור תרגומים, עיבודים או כל שימוש מסחרי, יש לבקש אישור ב-[email protected].

0 0 הצבעות
Article Rating
הצטרף כמנוי
הודיעו לי על
guest

0 Comments
הישן ביותר
חדש ביותר הנבחרות
משוב מוטבע
הצג את כל ההערות
0
נשמח לתגובה שלך.x