כפי שלימדו אותנו הגדר החכמה בעזה וצ'אט-GPT, גם הטכנולוגיה הכי מתקדמת לא תוכל להגן עלינו מהכשלים של עצמנו

טכנולוגיה היא נפלאה. היא מגדלת את המזון שלנו, מחממת אותנו בחורף, מחברת אותנו עם בני אדם מסוימים ומגינה עלינו מאחרים; היא נתנה לנו אופניים חשמליים וקונסולות משחקים; היא אומרת לנו מה לחשוב ולאן ללכת. היא מאפשרת את קיומו של העולם המודרני. לפעמים היא נפלאה עד כדי כך שקל לשכוח שיש לה מגבלות.

כשאנחנו מרשים לעצמנו להסתמך יותר מדי על טכנולוגיה, המגבלות הללו עלולות להתגלות כנקודות תורפה של ממש, כי טכנולוגיה, וטכנולוגיית הייטק במיוחד, מאכזבת אותנו כל הזמן. לפעמים זה קורה משום שהיא לא עושה את מה שהיא תוכננה לעשות, אבל פעמים אחרות אנחנו מתאכזבים משום שהיא עושה בדיוק את מה שהיא תוכננה לעשות. ולפעמים... לפעמים זוהי הקלות המפליאה, הבלתי נתפסת, שבה אפשר לחבל בה.


לטכנולוגיה גבוהה יש נקודות תורפה רבות. שני רובוטים סובלים מקלקולים | Besjunior, Shutterstock

גדר חכמה בלילה

האכזבה הזאת, בבוקר שבת 7 באוקטובר 2023, הייתה מטלטלת, קשה מנשוא. מה קרה לגדר החכמה, המתוחכמת, ששמענו עליה כל כך הרבה?

רבות נכתב, ורבות עוד ייכתב, על הכישלון הרב-מערכתי שהוביל לכך שחמאס הצליחו לפרוץ באמצעות חומר נפץ ומוצרי מדף את הפלא הטכנולוגי החדשני הזה, על סוללת התמיכה שלו המלאה אמצעי תצפית משוכללים ומחסום תת-קרקעי בלתי חדיר.

מאז 2016, מערכות ההגנה לאורך הגבול בין ישראל לרצועת עזה שופצו ושוכללו בהשקעה שמוערכת ב-1.1 מיליארד דולר. "הגדר החכמה" הסתייעה במצלמות ראיית לילה, חיישנים סייסמיים יעילים עד לעומק של שישים מטר, ומערכות רואָה-יורָה – מקלע ואמצעי תצפית מופעלים מרחוק שתפסו את מקום החיילים במגדלי השמירה. אך בבוא רגע האמת, כל המצלמות וציוד התקשורת המשוכלל שלהן פוצצו בתוך דקות ספורות באמצעות רחפנים זולים, שכמותם אפשר להזמין בעלי אקספרס, אחרי שעברו התאמות קלות שיאפשרו להם לשאת פצצות ורימוני יד. צלפים נטרלו את המקלעים האוטומטיים, והגדר החכמה – אותה גדר שהייתה אמורה בבוא היום להקיף את כל גבולות המדינה – נפרצה באמצעות חומרי נפץ זולים.

היו מי שהתרשמו מהיכולת של חמאס לנטרל את הגדר המשוכללת באמצעות עקרונות בסיסיים וכלים פשוטים. "הם זיהו את נקודות התורפה של המערכות האלה, פרצו אותן במהירות וניצלו את הכשל", טען למשל סטיבן דאנר (Danner), קצין הנדסה קרבית לשעבר בצבא ארצות הברית, בריאיון לסוכנות הידיעות AP. אך אחרים גרסו שההישג המרשים היחיד של חמאס היה הצלחתו להטעות את ישראל.

לדברי האנליסט ויקטור טריקו (Tricaud) מחברת הייעוץ הלונדונית Control Risks, הגדר היא רק גדר. לא משנה כמה עמוקה ומשוכללת היא – חומרי נפץ ודחפורים יחוררו אותה אם רק תינתן להם ההזדמנות. כלומר, לדעתו הכשל לא היה טכנולוגי אלא אנושי: שאננות של גורמים בישראל מול הסכנה לגדר, ואמונה עיוורת בטכנולוגיה שריפדה אותה. זה בוודאי לא כל הסיפור, והאמונה שניתנה בטכנולוגיה היא לא הגורם היחיד לכך שההתקפה לא נמנעה. אבל ייתכן  בהחלט שהיא שיחקה כאן תפקיד.


הגדר החכמה לא יכלה לרחפני נפץ פשוטים. רחפנים מופעלים בידי כוח צבאי | Gorodenkoff, Shutterstock

השבב והפטיש

נראה שבני אדם מתקשים לזהות נקודות תורפה של טכנולוגיה, במיוחד מול אמצעים פשוטים ויומיומיים. חלק מהבעיה היא שאנחנו מאמינים בטעות בקיומה של היררכיה טכנולוגית. נדמה לנו שטכנולוגיות חדשות דוחקות את רגליהן של אלה שקדמו להן, כך שהסכנה הגדולה ביותר שנשקפת לפיתוח החדשני והמתקדם שלנו תבוא תמיד מפיתוח עוד יותר מתוחכם. אנחנו מדמיינים מעין מירוץ חימוש שבו אנו חייבים להמשיך ולפתח כל הזמן כדי לא להישאר מאחור. לפי התפיסה הזאת, האתגר הגדול ביותר תמיד יהיה הטכנולוגיה המתקדמת ביותר של הצד השני, וידו של בעל הטכנולוגיה המפותחת ביותר תהיה תמיד על העליונה.

אולי למדנו לקח שגוי מההיסטוריה – אנחנו מדמיינים פרשים נגד טנקים, חרבות נגד רובים; אנחנו שוכחים מבאגים, ממעצורים בלתי מוסברים, מעדכוני תוכנה שרק הורסים. אנחנו שוכחים מה כוח גס עלול לעולל למיליארד דולר של סיליקון, זכוכית וקוד. התפיסה הזאת מעניקה לפתרונות פשוטים וגסים יתרון מובהק: הם לא צפויים. חישבו למשל על רחפנים –אמצעים טכנולוגיים שתופסים מקום יותר ויותר מרכזי באיסוף מודיעין ובלוחמה מודרנית בכלל. אנחנו מצפים שהם יצטרכו להתמודד עם רחפנים אחרים, מצלמות חזקות או יירוט מדויק. אבל מה נעשה מול עיטים מאולפים?

באופן דומה, כשחברות הייטק מנסות להגן על עצמן מפריצות ומשיבושים, הן שמות את מבטחן בטכנולוגיה, והבחירה הזו מכשילה אותן לא פעם. בסן פרנסיסקו, למשל, פועלת קבוצה בשם "מהפכני הרחוב הבטוח" (Safe Street Rebel), ששמה לה למטרה לנטרל את המוניות האוטונומיות שהחלו לפעול בעיר בשנת 2022. חבריה טוענים כי הרובו-מוניות פשוט אינן בטוחות: מאז תחילת 2023 דווח על עשרות תאונות שבהן היו מעורבים כלי רכב אוטונומיים, ובאחת מהן אף נדרס כלב למוות. במאות מקרים נוספים כלי רכב אוטונומיים חסמו את התנועה, נסעו באופן בלתי צפוי או הפריעו לתנועת רכבי הצלה.

מול טכנולוגיה כל כך חדשנית ומתקדמת, נצפה בוודאי ללוחמה אלקטרונית מתוחכמת: צבא האקרים שישתלטו מרחוק על הרובו-מוניות וימטירו עליהן חורבן דיגיטלי נוסח שוברי קופות משנות ה-90. אך הפלא ופלא, מתברר שכשמניחים קונוס תנועה סופר-פשוט על מכסה המנוע הסופר-משוכלל של רכב אוטונומי סופר-משוכלל, מערכת עיבוד התמונה הסופר-משוכללת שלו נכנסת לפאניקה ותוקעת אותו במקום. כך הוא יישאר עד שיגיע עובד אנושי בלתי-משוכלל בעליל ויסיע משם בבושת פנים את מה שהפך למחסום תנועה סופר-יקר.

מלחמת בני לואו-טק בבני הייטק לא נעצרת בקונוס. לפני כמה שנים נולד מנהג ספק אופנתי ספק אקטיביסטי של שימוש באיפור "מסנוור" (Dazzle). המטרה: לבלבל מצלמות זיהוי פנים, שנגועות בהטיות גזעניות רבות ומוכרות שאף הובילו באנגליה ובארצות הברית לשלל מעצרי שווא של אנשים כהי עור. האפקטיביות של איפור כזה מוטלת בספק, מאחר שטכנולוגיית זיהוי הפנים מבוססת גם על מאפיינים כמו צורת האוזן או מבנה הלסת, שקשה לשנות באמצעות איפור. לפעמים היא גם מצליבה מידע עם נתונים אחרים, כמו צורת ההליכה.

עם זאת, האיפור מבוסס על רעיון שמקורו כבר במלחמת העולם הראשונה: שיטת ההסוואה המסנוורת, שבה צבעו כלי שיט במשטחים גיאומטריים ותבניות אור וצל שנועדו לבלבל את האויב ולגרום לו לטעות בהערכת גודל הספינה או כיוון השיט שלה. לפני כמה חודשים נראה שהשיטה זכתה לפופולריות מחודשת, כשחיל הים הרוסי צבע בשחור את קצותיהן של אחדות מספינות הקרב החזקות ביותר שלו. כעת המטרה היא לא לרמות צופה אנושי עם משקפת, אלא להקשות על רחפנים אוקראיניים ולווייני ריגול לזהות את הספינות.

וכאמור, הניסיון להכשיל רחפנים כבר הוליד רעיונות מרהיבים למדי: הצבא הצרפתי וגם המשטרה ההולנדית ניסו לאלף עופות דורסים כדי לצוד רחפנים באזורים רגישים כמו בסיסי צבא ושדות תעופה.


באדיבות מהפכני הרחוב הבטוח בסן פרנסיסקו: רכב אוטונומי סופר-משוכלל יוצא מכלל פעולה כשמניחים על מכסה המנוע שלו קונוס תנועה. אישה נוסעת במכונית אוטונומית | metamorworks, Shutterstock

אמת או חובה

השיטות האלו עובדות בין השאר בגלל עיוורוננו לאפשרות שהטכנולוגיה שלנו עלולה להיכשל, או להכשיל אותנו. ומה שמפחיד במיוחד הוא שזה נכון גם לטכנולוגיה שאנחנו סומכים עליה שתשקף לנו את האמת על מה שקורה סביבנו, החל בכיוון השיט של ספינת קרב רוסית וכלה בטרנדיות של נושא מסוים ברשתות החברתיות.

נראה שיש משהו במוח האנושי שפשוט סומך על טכנולוגיה, עוד מזמן כלי הצור המסותתים של קדמונינו. ובמשך רוב ההיסטוריה האנושית הייתה לזה הצדקה, כי טכנולוגיה עבדה די טוב. אתם מסוגלים לתאר לעצמכם עולם שבו מברגים היו משתבשים באותה תדירות שבה צ'אט-GPT משקר? שמצפן היה מורה מדי פעם דווקא על המערב, כפי שמידג'רני מוסיף מדי פעם אצבע למישהו?

כיום איננו מבינים עדיין את הבינה המלאכותית במלואה, ובוודאי לא באותה צורה שאנחנו מבינים מכשירים ידניים פשוטים כמו מברג. ועם זאת, גם טכנולוגיה מתקדמת מעוררת בנו את אותה תחושת אמון מוחלטת, שבאה לעיתים על חשבון יכולות שהיו לנו פעם. כבר מזמן הפסקנו לזכור מספרי טלפון, וחלקנו הולכים ושוכחים איך להתמצא במרחב ולחנות בלי מצלמת רוורס. גל שיבושי ה-GPS על רקע המלחמה חשף עד כמה בעייתית העובדה שגם אנשים שחיים ונוהגים באופן קבוע באותה עיר מעדיפים תכופות להסתמך על וייז במקום לבטוח בזיכרונם ובשכל הישר.

כמובן זה לא נגמר שם, כי טכנולוגיה לא נגמרת שם. אנחנו שוכחים דברים הרבה יותר חיוניים, למשל איך לחפש מידע בעצמנו ואיך לשפוט את המהימנות שלו. כשטכנולוגיה עילית מכשילה אותנו, זה בדרך כלל כי היא לא אומרת לנו את האמת. במקרים רבים, למשל במקרה של הגדר החכמה, הטכנולוגיה מאוד רוצה להגיד לנו את האמת, אבל משהו מונע ממנה לעשות זאת. במקרים אחרים, האמת פשוט לא נמצאת בראש סדר העדיפויות שלה – רק, במקרה הטוב, האשליה של אמת.


אנשים מנסים בדרכים שונות, לעיתים בהצלחה, לבלבל תוכנות מתקדמות לזיהוי פנים. עוברים ושבים נסרקים על ידי טכנולוגיה לזיהוי פנים | Trismegist san, Shutterstock

שקר הצ'אט, הבל האלגוריתם

זה בולט במיוחד כשמדובר בפייק ניוז. נכון, פעמים רבות בני אדם, ולא הטכנולוגיות עצמן, הם אלה שעומדים מאחורי המידע הכוזב, אולם אין שום טעם לייחס לבני אדם את הפייק שמפיצים אלגוריתמים של רשתות חברתיות או אתרי חדשות, שנועדו לדרבן אותנו להמשיך לגלול, לפרסם ולשתף. במקרה הזה לא מדובר בטכנולוגיה שחיבלו בה, או אפילו שכשלה בתפקידה. זוהי טכנולוגיה שעושה בדיוק את מה שהוטל עליה לעשות. פשוט זה לא בדיוק מה שאנחנו מעוניינים שהיא תעשה.

לא משנה אם אלה הודעות ווטסאפ ש"הועברו פעמים רבות", שאלה ששאלנו את צ'אט-GPT או תוכנת ניווט שממליצה לנו על הדרך הכי מהירה לעבודה. בכל המקרים האלה אנחנו מדמיינים שהטכנולוגיה היא כלי קר ושקול, רציונלי ונטול פניות, שיודע את האמת ורוצה להגיד לנו אותה. אבל אפילו במקרים הנדירים שבהם הטכנולוגיה בכלל יודעת מה האמת, היא מעדיפה לספר לנו דברים אחרים.

מה ספציפית? תלוי באלגוריתם. האלגוריתמים – כללי קבלת ההחלטות – של רשתות חברתיות ואתרי חדשות שמחים שאנחנו מקליקים, ולא משנה על מה; האלגוריתמים של צ'אט-GPT שמחים שאנחנו ממשיכים לקיים איתם אינטראקציה, גם אם זה אומר שהם צריכים לשקר; וספאם בווטסאפ, שהוא בעיקר מֵם מחשבתי של מידע חברתי כמו זה שתיאר ריצ'רד דוקינס, שמח שאנחנו מרגישים משהו בעוצמה. זעם, פחד, שנאה, שמחה לאיד, לא משנה מה – העיקר שיהיה חזק.

זה בסופו של דבר מה שמוביל להפצה של פייק ניוז, בתיווכם של חשבונות פיקטיביים, או "בוטים", שכבר נהיו אחוז מבהיל מהמשתתפים בכל דיון אינטרנטי רחב שנתקלתם בו לאחרונה. הבעיה עם בוטים היא לאו דווקא שאנשים מאמינים להם, אלא שבוטים אחרים מאמינים להם. את הבוטים לאו דווקא קל יותר לשכנע מבני אדם, אבל הם משתכנעים מדברים אחרים: במקום סמכות, קולות עמוקים והפניות למקורות מהימנים, הם מתעניינים בכמות. מנכ"ל "פייק ריפורטר" אחיה שץ סיפר לא מזמן בפודקאסט על הקלות שבה מאסה גדולה של ביטויים כמו "בגידה מבפנים" משכנעת את האלגוריתמים של מטא (פייסבוק) ו-X (לשעבר טוויטר) שמדובר בדיון אמיתי על תופעה אמיתית ומעניינת שצריך לקדם.


האלגוריתמים של הרשתות החברתיות מעודדים כל הקלקה, הכמות חשובה  ולאו דווקא האמת. אנשים שקועים בטלפונים נמשכים מבלי ידיעתם למידע כוזב ברשת | FGC, Shutterstock

איפה משבר האמון?

בינות מלאכותיות אוהבות כשיש כמות גדולה של משהו, ולמעשה הן מתבססות כמעט לחלוטין על ניתוח סטטיסטי של מסות אדירות של מידע. הרכיב הגדול והמשמעותי ביותר באימון מודל שפה, הוא מערך הנתונים: אוסף הטקסטים שאנחנו רוצים שהמודל ילמד. תהליך איסוף המידע ומיונו הוא הרבה פחות אוטומטי ממה שהייתם חושבים, ומבוסס על מלאכת התיוג והזיהוי שעושים מיליוני עובדים אנושיים בשכר מינימום.

בתהליך האימון, המודל עובר על כל הטקסטים המקוטלגים האלה כדי לחלץ מהם מגמות סטטיסטיות – למשל, אם נקרא מאות אלפי תמלילים של שיחות למוקדי תמיכה, נסיק כי אחרי המילים "איך אפשר" תבוא לעיתים תכופות המילה "לעזור".

יש מודלים מכל מיני סוגים. מודלים סטטיסטיים מנסים להסיק את המילה הבאה לפי זאת שקדמה לה. לעומת זאת, מודלים של רשתות נוירונים מניחים שהסבירות לכך שמילה כלשהי תופיע במשפט קשורה להקשר רחב יותר, כגון כל המילים במשפט. זה בעצם חיזוי טקסט – כשהמקלדת בסלולרי שלנו מציעה את המילה הבאה שאולי נרצה להשתמש בה, היא עושה משהו די דומה. אבל היא מאומנת על העבר הטקסטואלי הפרטי שלנו, ולכן ההצעות שלה יתאימו לנו.

אחרי שהמודל אומן, נשאר לעבור על התוצאות שלו ולדרג אותן, ואולי לעשות אי אילו תיקונים או שינויים. וזהו. אפשר להוציא את המודל ולקוות שאנשים ישתמשו בו כדי לכתוב סמינרים או כדי לנסח ברכות יום הולדת, ולא למשהו זדוני יותר. זה מה שבינות גנרטיביות כמו צ'אט-GPT יודעות לעשות – לנתח כמות גדולה של טקסט ולייצר טקסט שדומה לו. וכמו כל טכנולוגיה, הן מצטיינות בדברים מסוימים וגרועות מאוד באחרים.

צ'אט-GPT מצטיין במיוחד בשכנוע, גם כשאין לו מושג על מה הוא מדבר. כך הוא יכול להטעות בקלות משתמשים תמימים, לעזור לנוכלים לנסח מיילים כמה שיותר אמינים, או לסייע למפיצי פייק ניוז לכתוב כתבות משכנעות. אחת הדרכים הכי קלות לשכנע בני אדם היא לתת להם תשובות שמרצות אותם, ומאחר שהוא מודל שפה שתוכנן לשכנע בני אדם, כשהתשובה הנוחה אינה התשובה הנכונה – הוא משקר.

זאת רק טיפה בים הביטחון העיוור שלנו בטכנולוגיה העילית, כי "בינה מלאכותית" היא מושג מגוון להפליא, שמתייחס לאינספור סוגים של מערכות. צ'אט-GPT הוא בינה מלאכותית, וכך גם האלגוריתמים של מטא, ומערכות זיהוי הפנים של המשטרה ועוד רבות אחרות. וייתכן שחלק מהאמון שלנו בהן נובע מהשם שניתן להן – מהאשליה שיש פה איזושהי בינה. לכן חוקרת הטכנולוגיה קייט קרופורד (Crawford) בספרה "אטלס הבינה המלאכותית" משנת 2021 בחרה להשתמש דווקא במונח "מחשוב בקנה מידה רחב" (Large scale computing).

גם סופר המדע הבדיוני טד צ'יאנג הביע השנה במאמר ב"ניו יורקר" הסתייגות עמוקה מהרצון לייחס לצ'אט-GPT תבונה אנושית אמיתית. לטענתו, אילו כשנהגה רעיון הבינה המלאכותית בשנות החמישים היו בוחרים לקרוא לו אחרת, היה נחסך מאיתנו חלק ניכר מהבלבול הנוכחי שלנו ביחס ליכולות של המודלים הללו. במקום זאת הוא קורא להם סטטיסטיקה יישומית. "מדהים באמת ובתמיד לראות אילו מין דברים אפשר להפיק מניתוח סטטיסטי של טקסט", הוא אומר – אבל זו לא בינה.


צ'אט-GPT מצטיין במיוחד בשכנוע, ואם צריך לשקר לשם כך, למה לא? אדם משוחח עם צ'אט-GPT בטלפון חכם | trickyaamir, Shutterstock

רוח וחומר

שני המושגים החלופיים האלה נועדו בין השאר להבהיר שאין בבינות המלאכותיות הנוכחיות שום חידוש שיצדיק את הזינוק האחרון באמון שאנו נותנים בהן, וגם לא את ההיסטריה, את הפחד ואת אשליות הגדולה שאופפות אותן.

בינה מלאכותית, טוענת קרופורד, איננה נבונה ואפילו לא מלאכותית. היא גם אינה עצמאית או רציונלית. מה שכן נכון לומר עליה הוא שהיא גדולה יותר מקודמותיה ופחות מובנת מהן – וזה בוודאי לא שינוי שאמור להגביר את האמון שלנו בה. המודלים החדשים לא נאמנים יותר למציאות, הם לא מפגינים יותר אהדה לצרכינו ולא נבונים יותר. הם כן ערמומיים יותר, והם פגיעים לתקלות – לא רק לחבלה מכוונת, אלא פשוט לנסיבות.

בינות מלאכותיות אינן ערפילי מוח ערטילאיים שצפים במרחב הדיגיטלי – אלה מכונות פיזיות שבנויות ממתכת וסיליקון, ניזונות מחשמל ומתבססות על זיעת אפו של כוח עבודה אנושי עצום. הן גם פולטות פחמן דו-חמצני. וכפי שציינה היוטיוברית אביגייל ת'ורן (Thorn), אם כל הפחמן הדו-חמצני הזה יוביל לשינוי אקלים ולבצורת במרכז אמריקה, למשל, ספינות לא יוכלו לעבור בתעלת פנמה, והכמות העצומה של רכיבים פיזיים שנושאות הספינות שעוברות בתעלה הזאת לא תגיע ליעדה. כך הבינה המלאכותית, שמסתמכת על הרכיבים האלה, מוצאת את עצמה בסכנה.

באופן דומה, המערכות האלה פגיעות לפעילותם של בני אדם – או להיעדרה. אם האנשים שמתייגים מידע למען בינה מלאכותית יתרשלו בתפקידם, היקף השגיאות של המערכות הללו יעלה; אם האנשים שכורים ומובילים את המתכות והרכיבים שהן בנויות מהם יחדלו ממלאכתם, המערכות הללו יושבתו; ואם אנשים שמנסים להפיץ אימה, שנאה או סתם שקרים יבחרו להשתמש באלגוריתמים שנותנים עדיפות למידע סנסציוני, לא יהיה להם כל קושי, כי המערכות האלה יאמינו להם.

אבל אנחנו, עם הבינה האורגנית שלנו שאוכלת פלאפל במקום חשמל ומסוגלת להחליט אם הערך העליון שלה הוא אמת או כמות שיתופים – אנחנו יכולים להיות חכמים יותר. בתקופות כאלה במיוחד, זאת חובתנו. זאת חובתנו למרות מאמציהן של חברות ענק לשכנע אותנו שבינה מלאכותית היא המהפכה התעשייתית הרביעית.

יש בעיות מהותיות באופן שבו בוחנים ומעריכים את יכולותיהם של צ'אט-GPT ושל מודלי שפה גדולים אחרים. החברות והחוקרים שבוחנים את יכולותיהם של המודלים האלה עושים זאת לעיתים תכופות באמצעות מבחנים שמוטים מראש לטובת המודל, וכך יוצרים תוצאות שמנפחות את יכולותיו האמיתיות.

הבעיות הן רבות. אחת מהן היא אי-היכולת של מודלי שפה גדולים לשחזר את הישגיהם. כשבני אדם עוברים מבחן, סביר להניח שאם המבחן נבנה כהלכה, הציון שיקבלו ישקף את היכולת הכללית שלהם בתחום הרלוונטי. לפיכך נצפה שהם יענו על מבחן דומה בהצלחה דומה. כשחברת OpenAI מציפה אותנו בדיווחים על מבחנים שצ'אט-GPT צולח בהצלחה מסחררת, מבחינות בגרות בביולוגיה ועד מבחני הקבלה ללשכת עורכי הדין, היא יוצרת את הרושם שהמודל מתחרה בהצלחה בתבונה האנושית. אבל צ'אט-GPT הוא לא בן אדם ואין לו יכולת כללית קבועה של ידע והבנה, כך שהוא פגיע מאוד אפילו לשינויים קטנים במבחנים. כשנותנים לו מבחנים שפורסמו אחרי תקופת האימון שלו, שבמקרה של הגרסה החינמית הסתיימה ב-2021, או פשוט מבחנים שמכילים מרכיבים חדשים, שיעור ההצלחה שלו צונח בדרמטיות.


שיבושי תוכנות הניווט על רקע המלחמה חשפו כמה בעייתי להסתמך על וייז במקום לבטוח בזיכרון ובשכל הישר. נהג נעזר בטכנולוגיות ניווט | Ground Picture, Shutterstock

הבא בתור הוא סוס

כאן המקום להזכיר את סיפורה של בינה לא מלאכותית בעליל. הסוס הנס החכם, שחי בגרמניה לפני יותר ממאה שנה, התפרסם בכך שענה בהצלחה רבה על שלל שאלות כמותיות, על ידי כך שהקיש בפרסותיו את התשובה הנכונה. שמותיהם של הנס ובעליו, וילהלם פון אוסטן, נישאו ברבים ואיש לא הצליח לגלות שום סימן להונאה. נדרשו לא מעט בדיקות וניסויים עד שהתברר כי הנס הגיב למעשה לשינויים קלים ולא מכוונים בשפת הגוף של פון אוסטן כדי לדעת כמה פעמים לנקוש בכל תשובה שנתן.

כך שבמופעים שלו הסוס סיפק לצופים את מבוקשם – אך לא את התבונה החדשה והמיוחדת שייחסו לו. כיום הסיפור הזה חביב על העוסקים בלמידת מכונה, ומשמש כמעין אזהרה: לא תמיד אפשר לדעת מה בדיוק למד המודל מהמידע שניתן לו. גם מודל שמפגין הצלחה אדירה באימוניו עלול לתפקד בצורה מחפירה כשיעמתו אותו עם מידע חדש מהעולם האמיתי, שיהיה שונה ממה שלמד להכיר.

אומרים שאם נשפוט דג על פי יכולתו לטפס על עצים, הוא יאמין כל חייו שהוא כישלון. אבל מה לגבי המצב ההפוך? מה קורה כשמסיקים מכישרונו של הדג בשחייה שהוא טפסן עצים מלידה?

טכנולוגיה היא שחיינית נהדרת, אבל היא לא יכולה לטפס על העצים האלה. היא לא יכולה לרצות בטובתנו אם הנדסנו לתוכה מטרות אחרות. היא לא יכולה לעבוד כשהיא מנותקת ממקור החשמל שלה. והיא לא יכולה להגן עלינו מהכשלים של עצמנו.

3 תגובות

  • LIOR

    הרצאה חינם מהטכניון על ChatGPT

    https://youtu.be/WqHZyjbwLM0?si=gHDNZEKTTm6m-a8Y

  • עפר

    מאמר פובליציסטי ולא מדעי

    הוא גם ארוך מאוד, מסקר היבטים ונושאים רבים, ודן בכולם בשטחיות גדולה, כמעט בלי להיכנס לעובי הקורה. לא מתאים לאתר זה. מצטער.

  • אייל

    מאמר מעולה!

    תודה!