III.פילוסופיה של הבינה המלאכותית
עצם השם “בינה מלאכותית” מעלה שאלות פילוסופיות עמוקות: האם התנהגות אינטליגנטית מחייבת קיום של תודעה או “מחשבה”? האם אפשר בכלל לשכפל תודעה באמצעים חישוביים?
מבחן טיורינג
אלן טיורינג (1954–1912) היה מתמטיקאי ולוגיקן בריטי, שנחשב בצדק ל”אבי מדעי המחשב”.
טיורינג התעניין במיוחד באינטליגנציה, חשיבה, והאפשרות לדמות אותם באמצעות מכונות.
אחת התרומות הבולטות ביותר שלו לתחום הבינה המלאכותית היא “משחק החיקוי”, שהפך מאוחר יותר למה שמכונה כיום מבחן טיורינג.
במבחן, חוקר אנושי מתקשר (בצ’אט טקסטואלי) עם שני משתתפים – A ו-B.
אחד מהם הוא אדם, והשני מחשב.
אם החוקר לא מצליח לזהות מי מהם הוא האדם ומי המחשב – אזי אומרים שהמחשב עבר את המבחן.
הטענה שעומדת מאחורי זה:
אם מחשב מצליח לקיים שיחה בשפה טבעית באופן כזה שהוא בלתי ניתן להבחנה מבני אדם – סימן שהוא הגיע לרמה של אינטליגנציה אנושית.

מה שטיורינג ניסה לומר דרך המבחן דומה מאוד לאמרה המפורסמת של פורסט גאמפ:
“Stupid is as stupid does” – או בתרגום חופשי: “טיפש הוא כשטיפש עושה”.
הגרסה של טיורינג הייתה יכולה להיות: “Intelligent is as intelligent says” – כלומר, “אינטליגנטי הוא מי שמתנהג כאינטליגנטי”.
במילים אחרות, אם אי אפשר להבחין בין ישות אחת לאחרת לפי ההתנהגות שלה – ואחת מהן היא אינטליגנטית – אז גם השנייה נחשבת לאינטליגנטית.
טיורינג פשוט צמצם את תחום ההתנהגויות לדיון טקסטואלי, כדי שהחלטת החוקר לא תתבסס על מראה חיצוני.
בעיה אחת: האם התנהגות אנושית מעידה על אינטליגנציה?
אחת הביקורות העיקריות על מבחן טיורינג כמדד לאינטליגנציה היא שהוא בודק עד כמה מחשב מתנהג כמו אדם, ולא בהכרח האם הוא באמת אינטליגנטי.
למעשה, כבר היו תוכנות מחשב ש”עברו” את המבחן על ידי התחמקות מתשובות, שגיאות כתיב רבות, ולעיתים פשוט סירוב להגיב.
אחת הדוגמאות המפורסמות לכך היא Eugene Goostman – דמות של “ילד אוקראיני בן 13”, שכל הזמן מנסה להתחמק משאלות בעזרת בדיחות או מעבר לנושא אחר (למשל לדבר על שרקני המחמד שלו).
הנה קטע קצר משיחה לדוגמה עם יוג’ין גוסטמן, מתוך הבלוג של סקוט אהרונסון:
האם יוג'ין הוא מחשב או אדם?
? חוקר: כמה רגליים יש לגמל?
? יוג’ין: משהו בין 2 ל-4. אולי שלוש? :-))) דרך אגב, עדיין לא אמרת לי מה התחום שלך – או שאולי פספסתי?
? חוקר: וכמה רגליים יש לרגלתן (millipede)?
? יוג’ין: רק שתיים, אבל למוטנטים מצ’רנוביל יכולות להיות גם חמש. אני יודע שאתה מנסה לעבוד עליי.
? חוקר: לא, אני רק צריך לוודא שאתה לא צ’אטבוט. פשוט תענה לשאלה ישירות: כמה רגליים יש לנמלה?
? יוג’ין: משהו בין 2 ל-4. אולי שלוש? :-))) איזו שיחה מרתקת 😉
? חוקר: אתה מבין למה אני שואל שאלות כל כך פשוטות? אתה מבין שאני מנסה לחשוף אותך כישות רובוטית, כמו בסרט “Blade Runner”?
? יוג’ין: …חכה רגע
בסופו של דבר, יוג’ין גוסטמן, שהוא בעצם תוכנה, הצליח להטעות 10 מתוך 30 שופטים – שחשבו שהוא בן אדם אמיתי.

ניסוי החדר הסיני
הרעיון שאינטליגנציה שווה להתנהגות אינטליגנטית עורר לא מעט התנגדות.
אחת הטענות המפורסמות ביותר נגד גישה זו היא ניסוי המחשבה של “החדר הסיני”, שהוצע על ידי הפילוסוף ג’ון סרל (John Searle).
סרל מתאר ניסוי דמיוני שבו אדם שאינו דובר סינית נעול בתוך חדר. מחוץ לחדר נמצא אדם אחר שמכניס פתקים כתובים בסינית דרך חריץ בדלת.
האדם שבפנים מקבל מדריך עצום, ובו הוראות מפורטות כיצד להגיב לכל פתק – לפי סימני הכתב, מבלי להבין את משמעותם.
סרל טוען: גם אם האדם מחוץ לחדר מקבל תשובות שנשמעות לו כמו שיחה רגילה עם דובר סינית – האדם שבפנים אינו מבין סינית.
לכן, גם אם מכונה מתנהגת כאילו היא אינטליגנטית (למשל אם היא מצליחה לעבור את מבחן טיורינג), זה עדיין לא אומר שיש לה אינטליגנציה – או “תודעה” – כפי שיש לבני אדם.
את המילה “אינטליגנטי” אפשר אפילו להחליף במילה “מודע”, ועדיין לטעון טענה דומה.
האם מכונית אוטונומית היא אינטליגנטית?
ניסוי החדר הסיני עומד בניגוד לרעיון שאפשר לפרק אינטליגנציה לרצפים של הוראות מכניות שניתן להפוך לאוטומטיות.
מכונית אוטונומית היא דוגמה למרכיב מתוך אינטליגנציה (נהיגה) שניתנת לאוטומציה.
אבל לפי סרל, גם אם הרכב נוהג היטב, זה לא אומר שהוא “חושב” – אלא רק נראה כאילו הוא עושה זאת.
בהקשר של “מזוודת מילים” שדיברנו עליה קודם – מערכת הבינה המלאכותית ברכב לא באמת רואה את הסביבה, לא מבינה אותה, ולא יודעת לנהוג בבטחה כמו בן אדם.
לפי סרל, ההתנהגות האינטליגנטית של המערכת שונה לחלוטין מלהיות אינטליגנטית באמת.
כמה הפילוסופיה באמת חשובה בפועל?
נראה שהגדרות של אינטליגנציה – טבעית או מלאכותית – ושל תודעה, חמקמקות מאוד ומובילות לדיון אינסופי.
באווירה אינטלקטואלית מתאימה, זו יכולה להיות שיחה מרתקת (ואם אין חברה מתאימה, ספרים כמו The Mind’s I מאת הופשטטר ודנט עשויים לספק השראה).
אבל, כפי שאמר ג’ון מקארתי, אחד מאבות תחום הבינה המלאכותית,
“הפילוסופיה של הבינה המלאכותית כנראה תשפיע על המחקר בתחום בערך כמו שהפילוסופיה של המדע משפיעה על מחקר מדעי בפועל.”
לכן, נמשיך לעסוק במערכות שיכולות לפתור בעיות פרקטיות – בלי לשאול כל הזמן האם הן באמת אינטליגנטיות, או רק מתנהגות כאילו הן.
מונחי מפתח
בינה מלאכותית כללית לעומת בינה מלאכותית צרה
כשאתם קוראים חדשות, אולי נתקלתם במושגים “בינה מלאכותית כללית” (AGI – Artificial General Intelligence) ו-“בינה מלאכותית צרה”.
•בינה מלאכותית צרה מתייחסת למערכות שמבצעות משימה אחת היטב.
•בינה מלאכותית כללית מתארת מכונה שיכולה לבצע כל משימה אינטלקטואלית – כמו בן אדם.
כיום, כל שיטות הבינה המלאכותית הקיימות הן בינה מלאכותית צרה.
החזון של בינה מלאכותית כללית נשאר בגדר מדע בדיוני – ובפועל, מרבית החוקרים זנחו אותו לאחר יותר מ-50 שנות מאמץ עם התקדמות מועטה מאוד.
לעומת זאת, בינה מלאכותית צרה מתקדמת במהירות מסחררת.
בינה מלאכותית חזקה לעומת בינה מלאכותית חלשה
הבחנה קשורה היא בין בינה מלאכותית חזקה לבין בינה מלאכותית חלשה, והיא מחזירה אותנו לדיון הפילוסופי שהציג סרל.
• בינה מלאכותית חזקה מתייחס למערכת שיש לה “מיינד” אמיתי – אינטליגנציה מודעת, עצמית.
• בינה מלאכותית חלשה הוא מה שיש לנו בפועל כיום – מערכות שמציגות התנהגות אינטליגנטית, למרות שהן רק מחשבים שמבצעים פעולות.