II. ההשלכות החברתיות של הבינה המלאכותית
בתחילת הקורס, נגענו בקצרה בחשיבות של בינה מלאכותית בעולם של היום – וגם של מחר. אבל אז, הדיון היה מוגבל מאוד, משום שעוד לא הכרנו מספיק מושגים ושיטות טכניות כדי לדבר על הנושא בצורה מוחשית ומבוססת. עכשיו, כשאנחנו מצוידים בידע טכני רחב יותר – אפשר סוף סוף לצלול לעומק ולבחון מה באמת המשמעות החברתית של בינה מלאכותית.
כעת, לאחר שהבנו טוב יותר את המושגים הבסיסיים של בינה מלאכותית, אנחנו נמצאים בעמדה הרבה יותר טובה כדי להשתתף בדיון רציונלי ומעמיק על ההשלכות של הבינה המלאכותית הקיים כבר היום. לא צריך לחכות לעתיד רחוק או למדע בדיוני – הבינה המלאכותית כבר כאן והשפעותיה מורגשות בכל תחום כמעט. והגיע הזמן לדבר עליהן ברצינות.

השלכה 1: הטיה אלגוריתמית
בינה מלאכותית – ובפרט למידת מכונה – משמשת כיום לקבלת החלטות חשובות במגזרים רבים:
?? קבלה לעבודה,
? אישור הלוואות,
? קבלה ללימודים,
ועוד ועוד.
וזה מוביל אותנו לאחד המושגים הקריטיים ביותר: הטיה אלגוריתמית.
מה זה אומר?
הכוונה היא לכך שהמערכת עשויה לפעול באופן שיטתי באופן מפלה – למשל לפי מוצא אתני, מגדר, או מאפיינים אחרים – גם אם אף אחד לא התכוון לכך במפורש. כלומר, אם אלגוריתם קובע מי יתקבל לעבודה או מי יקבל אשראי והוא מתבסס על נתונים מהעבר שכבר היו מוטים, הוא עלול לשמר ואף להחריף את ההפליה – רק הפעם עם חותמת של “מדע” או “טכנולוגיה מתקדמת”.
? הערה:
שוב פעם – הכול מתחיל בנתונים
הסיבה המרכזית להטיה אלגוריתמית היא פשוטה (ומטרידה):
ההטיה האנושית שכבר קיימת בנתונים.
לדוגמה:
אם כלי שמסנן קורות חיים לארגון מאומן על סמך החלטות של מגייסים אנושיים מהעבר – הוא עלול ללמוד, מבלי שהתכוונו, לפעול באופן מפלה כלפי נשים או כלפי מועמדים ממוצא אתני מסוים.
ומה שעוד חשוב להבין, גם אם לא מזינים לאלגוריתם את הגזע או המגדרהוא עדיין עלול ללמוד זאת בעקיפין, דרך פרטים כמו שם פרטי או כתובת מגורים.
כלומר: האלגוריתם לא צריך לדעת ש”שרה כהן” היא אישה – הוא פשוט מזהה תבניות מתוך העבר ומשכפל את ההפליה – במסווה של אובייקטיביות.
הטיה אלגוריתמית היא לא איום תיאורטי שהמציאו חוקרים באקדמיה. זו תופעה אמיתית ומוחשית שכבר משפיעה על אנשים ממש עכשיו.
פרסום מקוון
נמצא כי מפרסמים מקוונים כמו גוגל נוטים להציג מודעות למשרות עם שכר נמוך יותר למשתמשות נשים – בהשוואה לגברים. באופן דומה, כאשר מבצעים חיפוש עם שם שנשמע כמו שם של אפרו־אמריקאי, ייתכן שתוצג מודעה לכלי לאיתור רישומים פליליים – דבר שפחות סביר שיקרה עם שמות אחרים.
רשתות חברתיות
מכיוון שהמלצות התוכן ברשתות החברתיות מבוססות בעיקר על הקליקים של משתמשים אחרים,
הן עלולות להגביר הטיות קיימות – גם אם הן התחילו כזניחות מאוד.
לדוגמה, נמצא כי כאשר מחפשים אנשי מקצוע עם שמות פרטיים נשיים, לינקדאין עלולה לשאול את המשתמש האם בעצם התכוון לשם גברי דומה. כך למשל, חיפוש אחר אריאלה עלול להוביל לשאלה:
“האם התכוונת לאריאל?”
אם אנשים לוחצים על הפרופיל של אריאל – אפילו רק מסקרנות – המערכת תלמד לחזק עוד יותר את אריאל בתוצאות החיפוש הבאות.
ישנם עוד המון דוגמאות דומות ואולי אף ראית כתבות על כך בעצמך. הקושי המרכזי בהסתמכות על בינה מלאכותית ולמידת מכונה, במקום על מערכות מבוססות כללים, הוא היעדר השקיפות.
חלקית, זה נובע מכך שהאלגוריתמים והנתונים נחשבים לסודות מסחריים, שהחברות אינן נוטות לחשוף לעין הציבור. אבל גם אם היו נחשפים לעיתים קרובות קשה מאוד לזהות מהו בדיוק החלק באלגוריתם או בנתונים שגורם להחלטות מפלות.
? הערה:
שקיפות באמצעות רגולציה?
צעד משמעותי לקידום השקיפות הוא תקנות הגנת המידע הכלליות של האיחוד האירופי (GDPR). על פי התקנות, כל חברה שנמצאת באיחוד האירופיאו שיש לה לקוחות מאירופה – חייבת:
- ? למסור מידע על הנתונים שנאספו על כל אדם, לפי בקשה (הזכות לגישה)
- ?️ למחוק את המידע שאינו נדרש לצרכים רגולטוריים אחרים, כאשר מתבקשת לעשות זאת (הזכות להישכח)
- ? לספק הסבר על תהליך עיבוד הנתונים שבוצע על המידע של הלקוח (הזכות להסבר)
הנקודה האחרונה פירושה, במילים אחרות, שחברות כמו פייסבוק וגוגל לפחות כאשר הן מספקות שירותים למשתמשים באירופה חייבות להסביר את תהליכי קבלת ההחלטות האלגוריתמיים שלהן. עם זאת, עדיין לא ברור לחלוטין מה נחשב “הסבר”. האם, למשל, החלטה שהתקבלה על ידי אלגוריתם "השכן הקרוב ביותר" (כפי שנלמד בפרק 4) נחשבת כהחלטה שניתנת להסבר? או שעדיף להשתמש בלוגיסטיק רגרסיה שבה ניתן לראות את מקדמי ההשפעה של כל משתנה? ומה לגבי רשתות נוירונים עמוקות שכוללות מיליוני פרמטרים ואומנו על טרה-בייטים של נתונים?הדיון סביב איך ניתן להסביר החלטות שמבוססות על למידת מכונה הוא כרגע אינטנסיבי ומתמשך. כך או כך לתקנות ה־GDPR יש פוטנציאל ממשי לשפר את השקיפות של טכנולוגיות בינה מלאכותית.

השלכה 2: לראות — משמע להאמין? או שלא?
אנחנו רגילים להאמין למה שאנחנו רואים. כאשר אנחנו רואים מנהיג מדינה בטלוויזיה אומר שארצו עומדת להיכנס למלחמת סחר או דובר רשמי של חברה מוכרת שמכריז על החלטה עסקית חשובה אנחנו נוטים לסמוך על כך יותר מאשר אם רק היינו קוראים על כך בכתבה שמצטטת מישהו אחר.
באותה מידה, כאשר מוצגות תמונות מזירת פשע או תיעוד חזותי של גאדג’ט טכנולוגי חדש, אנחנו מייחסים יותר אמינות להוכחה החזותית מאשר לדיווח כתוב שמתאר את מה שקרה.
כמובן, אנחנו גם יודעים שאפשר לזייף ראיות חזותיות: אנשים יכולים להופיע במקומות שמעולם לא היו בהם, לצד אנשים שמעולם לא פגשו — באמצעות פוטושופ. אפשר גם לשנות את המראה של סצנה שלמה רק על ידי שינוי התאורה או כיווץ הבטן — כמו בפרסומות זולות של “לפני–אחרי” לכדורי דיאטה.
? הערה:
הבינה המלאכותית מעלה את זיוף הראיות לרמה חדשה לגמרי
מערכת בשם Metaphysics Live מסוגלת לבצע החלפת פנים, הצערת מראה הפנים, ועוד טריקים מתקדמים — בזמן אמת.
כלי נוסף, בשם ElevenLabs, מאפשר חיקוי אוטומטי של קול של אדם על בסיס כמה דקות בודדות של הקלטה. למרות שלעיתים התוצאה עדיין נשמעת מעט רובוטית, היא יוצרת רושם די משכנע.

השלכה 3: תפיסות פרטיות משתנות
כבר זמן רב ידוע שחברות טכנולוגיה אוספות כמות אדירה של מידע על המשתמשים שלהן. בעבר, אלה היו בעיקר רשתות שיווק וחנויות קמעונאיות שאספו נתוני קנייה — באמצעות כרטיסי מועדון שהלקוחות קיבלו, מה שאפשר לחנות לקשר בין רכישות לבין אדם ספציפי.
? הערה:
דיוק נתונים חסר תקדים
רמת הדיוק של הנתונים שחברות טכנולוגיה כמו Facebook, Google, Amazon ואחרות אוספות עולה בהרבה על נתוני הקנייה שנאספו בעבר על ידי חנויות רגילות. בפועל, ניתן לתעד כל קליק, כל גלילהואפילו את משך הזמן שאתה מתבונן בתוכן מסוים. אתרים יכולים גם לגשת להיסטוריית הגלישה שלך, כך שאם לא השתמשת במצב גלישה בסתר (או מקבילו) — חיפוש אחר טיסות לברצלונה באתר אחד עלול להוביל להצפה של פרסומות למלונות בברצלונה באתרים אחרים.
עם זאת, רישום הנתונים מהסוג שתואר למעלה עדיין לא נחשב לבינה מלאכותית כשלעצמה. הבעיה מתחילה כאשר נעשה שימוש בבינה מלאכותית שאז עלולות להיווצר צורות חדשות של איום על הפרטיות, שקשה הרבה יותר להימנע מהן גם אם אתה נזהר מאוד לא לחשוף את הזהות שלך.
שימוש בניתוח נתונים לזיהוי פרטים
דוגמה טובה לבעיה שקשה להימנע ממנה היא דה-אנונימיזציה, כלומר, שבירה של האנונימיות של נתונים שלכאורה נחשבים בטוחים. הבעיה הבסיסית היא שכאשר מדווחים תוצאות של ניתוח נתונים, התוצאות עלולות להיות ספציפיות מדי עד כדי כך שניתן להסיק מהן פרטים אישיים על משתמשים בודדים שהנתונים שלהם נכללו בניתוח. דוגמה קלאסית לכך היא בקשה לנתוני השכר הממוצע של אנשים שנולדו בשנה מסוימת וגרים במיקוד מסוים. לעיתים, מדובר במספר קטן מאוד של אנשים ולפעמים אפילו באדם אחד בלבד כך שמבלי לשים לב, חושפים משכורת של אדם ספציפי. דוגמה מתוחכמת יותר הוצגה על ידי חוקרים מאוניברסיטת טקסס באוסטין. הם חקרו מאגר נתונים ציבורי של Netflix שכלל 10 מיליון דירוגי סרטים של כ־500,000 משתמשים אנונימיים. החוקרים הראו שניתן לקשר את המשתמשים ב־Netflix לחשבונותיהם באתר IMDb, משום שרבים מהם דרגו את אותם הסרטים בשני האתרים. כך הצליחו החוקרים לשבור את האנונימיות של הנתונים. אולי לא נראה חשוב במיוחד אם מישהו מגלה איך דירגת את הסרט האחרון של מלחמת הכוכבים אבל יש סרטים שיכולים לחשוף עמדות פוליטיות, נטייה מינית, או אספקטים פרטיים אחרים בחיינו שכל אחד זכאי לשמור לעצמו.
שיטות זיהוי נוספות
גישה דומה של זיהוי לא ישיר ניתנת ליישום כמעט בכל שירות שאוסף מידע מפורט על התנהגות המשתמשים. אחת הדוגמאות המעניינות היא דפוסי הקלדה. חוקרים מאוניברסיטת הלסינקי הראו שניתן לזהות משתמשים לפי המרווחים הקצרים בין לחיצות מקשים מסוימות בעת כתיבת טקסט.
מה זה אומר בפועל?
אם מישהו מחזיק בנתוני הקלדה שלך (למשל, כתבת את שמך בטופס הרשמה באתר מסוים) הוא עשוי לזהות אותך גם בפעמים הבאות שתשתמש באתר, אפילו אם תסרב להזדהות במפורש. בנוסף, ניתן למכור את המידע הזה לכל מי שמעוניין לקנות אותו. בעוד שחלק מהדוגמאות שלעיל היו במידה מסוימת הפתעות (כלומר, לא ציפינו להשלכות מראש – ולכן לא מנענו אותן), יש כיום מחקר פעיל שמנסה להתמודד עם הבעיות הללו. בפרט, תחום בשם דיפרנציאל פרטיות שואף לפתח אלגוריתמים ללמידת מכונה שיבטיחו שהתוצאות יהיו מספיק כלליות כדי למנוע שחזור של פרטי מידע ספציפיים ששימשו לאימון המודל.

השלכה 4: עולם העבודה משתנה
כאשר בני אדם הקדמונים למדו להשתמש באבן חדה כדי לפצח עצמות ולהגיע למקור תזונה חדש, הם שחררו זמן ואנרגיה שאפשרו להם לעסוק בדברים אחרים: מלחמות, מציאת בני זוג, והמצאות חדשות. במאה ה־18, המצאת מנוע הקיטור פתחה גישה נוחה ויעילה יותר לעוצמת מכונה ניידת, מה ששיפר דרמטית את היעילות של מפעלים, אוניות ורכבות. המשותף לכל השלבים האלו: אוטומציה מובילה ליעילות – קבלת יותר תוצר בפחות מאמץ. מאז אמצע המאה ה־20, הטכנולוגיה קידמה אוטומציה בקצב חסר תקדים והבינה המלאכותית היא המשך טבעי למגמה הזו.
כל קפיצה באוטומציה משנה את חיי העבודה:
-
עם האבן החדה – פחות צורך בציד ואיסוף.
-
עם מנוע הקיטור – פחות צורך בסוסים ורוכבים.
-
עם המחשב – פחות צורך בקלדנים, הנהלת חשבונות ידנית ועוד עבודות עיבוד נתונים (וגם יותר צפייה בסרטוני חתולים ?).
-
ועכשיו, עם בינה מלאכותית ורובוטיקה יש פחות צורך בעבודות שגרתיות, מונוטוניות ומשעממות.
? הערה:
ההיסטוריה מלמדת שתמיד נמצא דברים חדשים לעשות
בכל פעם בעבר שתחום עבודה מסוים הפך לאוטומטי, בני האדם מצאו תחומי עיסוק חדשים להחליף אותו. העבודות החדשות היו לרוב פחות שגרתיות ומונוטוניות ויותר מגוונות ויצירתיות. האתגר היום הוא בקצב ההתפתחות: המהפכה של הבינה המלאכותית וטכנולוגיות נוספות מתרחשת כל כך מהר, שבמהלך קריירה של אדם אחד — העולם המקצועי כולו עשוי להשתנות לחלוטין. עבודות כמו נהג משאית או נהג מונית עשויות להיעלם תוך כמה שנים בלבד. שינויים חדים כאלה עלולים להוביל לאבטלה נרחבת, מכיוון שלאנשים אין זמן מספיק ללמוד מקצוע חדש.
⚙️ הפתרון המרכזי למניעת משבר חברתי–תעסוקתי:
חינוך רחב ומגוון לצעירים, שמאפשר להשתלב במגוון תחומים ושלא נמצא בסיכון גבוה להיעלם בקרוב. במקביל, חשוב גם לקדם למידה מתמשכת ולמידה במסגרת העבודה כי מעטים מאיתנו יעסקו באותו מקצוע כל החיים.
קיצור שעות העבודה השבועיות יכול לאפשר חלוקת עבודה שוויונית יותר, אבל בפועל, הכוחות הכלכליים נוטים לדחוף לעבודה מרובהאלא אם כן תונהג מדיניות ציבורית ברורה שמסדירה זאת.
מאחר ואי אפשר לחזות את עתיד הבינה המלאכותית, קשה מאוד גם לחזות את הקצב וההיקף של ההתפתחות הזו. היו ניסיונות להעריך את היקף האוטומציה של משרות למשל מחקר מאוניברסיטת אוקספורד שטען כי 47% מהמשרות בארה״ב נמצאות בסיכון לאוטומציה.
המספרים הספציפיים — כמו 47% ולא 45% או 49% — יחד עם ניסוחי מחקר מורכבים ואוניברסיטאות יוקרתיות שמפרסמות אותם, יוצרים רושם של אמינות ודיוק גבוה. אבל זו אשליה.
למשל, המספר הזה מבוסס על סקירה של תיאורי תפקידים והחלטות סובייקטיביות לגבי אילו משימות נראות ככאלו שניתן לאוטומט. אפשר להבין מדוע אנשים לא קוראים דוח בן 79 עמודים עם ניסוחים כמו “המודל מניח פונקציית ייצור מסוג Cobb-Douglas בקנה מידה קבוע, לצורך יכולת מעקב”…
אבל אם לא קוראים, צריך גם לשמור סקפטיות מסוימת לגבי המסקנות. הערך האמיתי במחקרים כאלה הוא לא במספר “47%”, אלא בהבנה אילו סוגי עבודות נמצאות בסיכון גבוה יותר לאוטומציה. הבעיה היא שהכותרות זועקות: “כמעט מחצית מהמשרות בסיכון”, אבל אף אחד לא טרח לקרוא את האותיות הקטנות.
אז אילו משימות כן נמצאות בסיכון לאוטומציה? יש כבר כמה כיוונים ברורים:
-
רובוטיקה אוטונומית — כלי רכב אוטונומיים, רחפנים, סירות, רובוטי שליחויות — נמצאים ממש על סף כניסה לשוק המסחרי. אמנם הבטיחות עדיין לא לגמרי ברמה הנדרשת, אבל הקצב מטורף והנתונים הולכים ומתרבים.
-
שירות לקוחות — מוקדי שירות, צ׳אטבוטים ועוזרים קוליים משתפרים במהירות — בעיקר בתחומים מצומצמים כמו הזמנת מקום במסעדה או תור לספר. האתגרים הגדולים כיום הם בהבנת שפה, תחביר ולוגיקה.
עם זאת, חשוב לזכור: נהג משאית לא רק “מסובב את ההגה” הוא גם בודק תקינות הרכב, מטפל בסחורה, מתנהל מול לקוחות ומוודא את בטיחות הנסיעה — חלקים אלה קשים הרבה יותר לאוטומציה מאשר עצם הנהיגה.
כמו בכל מהפכה טכנולוגית, הבינה המלאכותית תיצור גם עבודות חדשות: מחקר, פיתוח, יצירתיות, ועבודה בין–אישית. סביר להניח שיותר ויותר עובדים יתמקדו במה שהמכונה לא יכולה לעשות בקלות. אם תרצה לקרוא עוד בנושא, שווה לעיין במאמר של אבהינב סורי “בינה מלאכותית ועליית האי־שוויון הכלכלי”.