מה צריך לקרות כדי שנצליח להכריע מי חיבר את הכתוב או יצר את התמונה – אדם או בינה מלאכותית?
מחוללים המבוססים על בינה מלאכותית מייצרים תוכן הדומה באיכותו לפרי יצירתם של בני אנוש. התוכן הכתוב, התמונות, הסאונד והסרטונים שהמחוללים העדכניים ביותר מסוגלים לייצר מגיעים לאיכויות גבוהות יותר ויותר, וסקרים מראים שאנשים מתקשים להבחין במלאכותיות שלהם.
מחוללי הטקסט מאפשרים לתלמידי בית ספר ולסטודנטים בתארים מתקדמים לדלג על מטלות כתיבה או להפחית את העמל הכרוך בכתיבתן. מחוללים מסייעים למגוון גופים לנהל תקשורת כתובה עם לקוחות ומטופלים – לא בהכרח בשקיפות לגבי העובדה שהתקשורת אינה עם אדם, אלא עם בינה מלאכותית. מחוללי תמונות מייצרים תמונות אמנותיות הזוכות בפרסים. ואפילו בקהילה המדעית מתעורר החשש שחוקרים ישתמשו במחוללי תמונות כדי לזייף ממצאי ניסויים ולהשתחל באין מפריע לכתבי עת מדעיים. בכמה מהמקרים שהזכרנו כאן, השימוש בבינה מלאכותית הוא סוג של קיצור דרך הנמצא ב"תחום האפור", ואילו באחרים השימוש בתוצרים אמינים של בינה מלאכותית הוא כבר הונאה של ממש.
האיכות הגבוהה של תוצרי המחוללים מאלצת אותנו להתמודד עם אתגרים חדשים בתחום ההפצה של מידע כוזב ומציפה שאלות על הבעלוּת על יצירות שנעשו במחוללים ועל הלגיטימיות של הצגת יצירה כזו לצד יצירות אנושיות. כדי להעריך את היקף התופעה ולהתמודד עימה עלינו לדעת לזהות: מי עומד מאחורי התוכן, בינה אנושית או בינה מלאכותית?
מהי המקבילה לחותמת מים או מטא-דאטה בטקסט? חיפוש חותמת המים בשטר של מאה דולר | Melnikov Dmitriy, Shutterstock
חתימה מוחבאת
הדיון הציבורי בנושא, לצד ההכרה בצורך למגר את הסכנות הכרוכות בתוכן מלאכותי אמין מדי מעודדים את החברות הבונות את המחוללים לסמן את תוצרי המחוללים. החברות יכולות להחביא בפלט מעין חתימה שמסגירה את זהותו של התוצר המלאכותי. לדוגמה, בתמונות שמייצר מחולל התמונות DALL-E3 מוטמע מטא-דאטה, כלומר מידע שמצורף לתמונה, המציין את מקורה. חברת מטא (בעלת פייסבוק) פועלת בצורה דומה כדי להקל על הזיהוי של התמונות שהמחוללים שלה מייצרים. נוסף על כך, היא מעודדת משתמשים לנהוג בשקיפות ולציין את מקור היצירה כשהם מעלים לרשת החברתית תמונות שנוצרו בעזרת מחולל אחר, שאינו מטביע חתימה ביצירותיו.
תמונה היא פורמט שקל למדי להטביע בו סימן מזהה, בעזרת כלים שקשה למחוק כמו מטא-דאטה או חותמת מים. לעומת זאת, בתוכן כתוב הרבה יותר קשה למנוע העתקות וזיופים. בדרך כלל פשוט מאוד להעתיק רק את הטקסט עצמו, ולהיפטר מכל סימן מזהה שניסו להצמיד אליו.
הוספת חתימה מוסווית או גלויה לתוצר היא הדרך הישירה ביותר לאפשר לנו לזהות תוכן שיוצר בידי בינה מלאכותית. אמנית חותמת על ציור שציירה | silverkblackstock, Shutterstock
זיהוי טקסט בשיטת המפתחות
חוקרי Google DeepMind, חטיבת פיתוח הבינה המלאכותית של גוגל, הציעו השנה שיטה חדשה להטבעת חותמת מוסווית בטקסט. חותמת כזו לא תהיה גלויה לעיני המשתמשים, ולכן יהיה קשה יותר לחבל בה, אבל מי שידעו איפה היא מסתתרת ימצאו אותה בקלות. כדי להבין את השיטה, נתאר בקצרה איך מחוללי טקסט עובדים.
הגישה הבסיסית של מחוללי טקסט מבוססי בינה מלאכותית היא בנייה המשכית של התוכן הכתוב. צעד אחר צעד, על סמך הטקסט שקיים עד כה, המחולל משרשר את פיסת הטקסט הבאה בתור. פיסת הטקסט הזאת היא בדרך כלל כמה אותיות ותווים, ולא מילה שלמה. כשהמחולל עומד לפלוט את פיסת הטקסט הבאה, הוא מתייחס לרשימת המשכים אפשריים, ועבור כל אחד מהם הוא מחשב את ההסתברות שהפיסה הזאת תהיה המשך הפלט.
חישובי ההסתברות האלה מבוססים על תהליכי האימון והלמידה שעיצבו את המחולל, והם שונים ממחולל למחולל. קיימות כמה אסטרטגיות לבחירת הפיסה שתמשיך את הטקסט. אחת מהן היא פשוט לבחור את הפיסה הסבירה ביותר – זאת שההסתברות שלה הכי גבוהה – ולהתעלם מהאחרות. דרך אחרת היא לקחת את כל ההמשכים האפשריים, לתת לכל אחד מהם משקל יחסי בהתאם להסתברות שלו, ואז לערוך ביניהם הגרלה. כאן נוסף לתהליך מרכיב של אקראיות. יש גם שיטות אחרות.
כדי להוסיף לטקסט חתימה מוסווית, החוקרים מבית גוגל מציעים לשלב בתהליך של בחירת פיסת הטקסט הבאה גם מפתח חתימה מסוים. בכל צעד, מתוך רשימת האפשרויות לפיסת הטקסט הבאה, המחולל יבחר באחת האפשרויות בעזרת שילוב בין ההסתברויות שחישב בעצמו לציון שמקורו במפתח. השיטה הזו מטביעה נוכחות של מפתח מוצפן בתוך בחירת המילים של המחולל. החוקרים הציגו מנגנון שמאפשר לנתח את הטקסט ולהעריך אם מפתח כזה מוצפן בו. עקב אופיה ההסתברותי, השיטה הזאת לא חד-משמעית, והיא עלולה גם להזדהם אם המשתמש עורך את התוצאה באופן משמעותי, למשל באמצעות מערכת בינה מלאכותית אחרת.
שיטת החתימה הזאת אפשרית רק אם החברה שייצרה את המחולל מעוניינת לחתום על התוצר. חברת OpenAI, יצרנית הבוט מחולל הטקסט צ'אט-GPT, הודיעה כי היא פיתחה שיטת חתימה משלה, אך היא ממשיכה לחפש לה חלופות. אחד השיקולים שהציגה החברה הוא החשש שעקב קיומה של חתימה שמאפשרת לזהות טקסטים שהמחולל ייצר, יתפתחו דעות קדומות סביב השימוש שעושים אנשים מסוימים או קבוצות אוכלוסייה בבינה מלאכותית יוצרת ככלי עזר לכתיבה. מעבר לדאגה למשתמשים, סטיגמה כזאת עלולה כמובן לפגוע גם ביצרנית המחולל: העיתון וול סטריט ג'ורנל דיווח כי OpenAI ערכה ב-2023 סקר שנועד לבדוק את מידת התמיכה של משתמשים במנגנון חתימה כזה. 30 אחוז מהמשיבים ענו כי יפחיתו את השימוש בצ'אט-GPT אם חתימה כזו תיכנס לשימוש.
חותמת מוסווית כזו לא תהיה גלויה, ולכן יהיה קשה יותר לחבל בה, אך מי שידעו איפה היא מסתתרת ימצאו אותה בקלות. אישה עם ראש־מסך כותבת שאילתה (פרומפט) למחולל | AI Collagery, Shutterstock
לשאול את המחולל
לא תמיד יצרני המחוללים מעוניינים להצמיד חתימה לתוצר שלהם, וגם כשיש חתימה כזאת עדיין לא תמיד קל לזהות אותה, או שבעלי אינטרסים יכולים להסיר אותה. על כן דרושות דרכים נוספות לזהות תוצרי בינה מלאכותית. אחד מכיווני המחקר מתמקד באופן שבו המחולל משרשר פיסות טקסט קצרות לטקסט שלם: הוא בוחר בכל צעד את פיסת הטקסט האפשרי בעלת ההסתברות הגבוהה ביותר בעיניו, לפעמים בתוספת של מרכיב כלשהו של אקראיות. כלומר לכל צירוף אחר שהמודל לא בחר תהיה הסתברות נמוכה יותר לפי חישובי המודל. לעומת זאת, בני אדם לא יבחרו בדרך כלל את הצירוף הסביר ביותר בעיני המחולל כשהם כותבים טקסט בעצמם. בהסתמך על הפער הזה קבוצת חוקרים מאוניברסיטת סטנפורד בארצות הברית הציעה כלי שיאפשר לבחון מה הסיכוי שמודל כלשהו ייצר טקסט מסוים – בתנאי שיש לנו גישה לתהליך חישוב ההסתברויות שלו.
ניקח לדוגמה את GPT-3. החוקרים מציעים לקחת את הטקסט שנרצה להכריע אם הוא נכתב בידי המחולל, וליצור גרסאות נוספות שלו עם שינויים קלים. לדוגמה, במקום המשפט "כתבי מכון דוידסון לא משתמשים בבינה מלאכותית בכתיבת הכתבות" אפשר לבחון חלופות כמו "כתבי מכון דוידסון לחינוך מדעי לא משתמשים בבינה מלאכותית בכתיבת הכתבות", "כתבי מכון דוידסון לא משתמשים בבינה מלאכותית בכתיבת הכתבות" או "כתבי מכון דוידסון לא משתמשים בעיפרון בכתיבת הכתבות". כעת נבחן מה ההסתברות לכל אחד מהמשפטים ב-GPT-3. אם ההסתברות למשפט המקורי גבוהה יותר מהחלופות, סביר להניח ש-GPT-3 הוא הכותב. אם לא, סביר להניח שלא הוא זה שעומד מאחורי הטקסט, כי המבנה שלו לא תואם את אסטרטגיית יצירת המשפטים של GPT-3. הכותב האמיתי יכול להיות אדם, או מחולל אחר שבונה את המשפטים אחרת.
חוקרים מאוניברסיטת הרווארד בארצות הברית, בשיתוף מחלקת המחקר של IBM, פיתחו כלי שמנגיש את ניתוח ההסתברויות של תוכן המשפט בעיני המודל. בהינתן טקסט מסוים, הכלי מסמן כל מילה בצבע שמסמן את הדירוג שלה לפי ההסתברויות של המודל למשפט הזה. כך נוצר זיהוי ויזואלי של טקסטים "מזויפים": קוראים שיראו רצף ארוך שצבוע בדירוג הסתברות גבוהה, יחשדו שהוא יוצר בידי הבינה המלאכותית ויקראו אותו בעיניים ביקורתיות. סקר שערכו החוקרים הראה שעצם ההדגשה של חלקים בטקסט על בסיס החשד שהם יוצרו בידי מחולל מסוים עודדה קריאה ביקורתית יותר וסייעה לקוראים להכריע אם מדובר בטקסט שנכתב בידי אדם או מכונה. עם זאת, המבחן הזה ממוקד במחולל ספציפי ומחייב, כאמור, גישה לאופן חישוב ההסתברויות שלו.
קושי להציג פרטים מורכבים, כגון אצבעות, בתמונות של גוף האדם. תמונת כפות ידיים ממחולל התמונות מידג'רני | ליאת פלי באמצעות מידג'רני
אופי מלאכותי
כשאין דרך לדעת איך חושבו ההסתברויות, חוקרים מנסים לחפש את העקבות שהמחוללים הותירו על פני השטח. אחת הדרכים לעשות את זה היא לאתר את הפגמים האופייניים לתוצרים מסוימים של המחוללים – מעין "חתימת כשלים".
מחוללי תמונות מתקשים לעיתים לייצג פרטים מורכבים בתמונות של גוף האדם, ולכן הם עלולים ליצור דמויות עם מספר לא שגרתי של ידיים או אצבעות. חוקרים אף מצאו כי ההשתקפויות בעיניים בתמונות פנים שייצר מחולל אינן עקביות ומציגות תבנית השתקפות שונה בכל עין, בניגוד להשתקפויות עיניים טבעיות. נוסף על כך, מחוללי תמונות מתקשים להוסיף כיתוב בתוך התמונה. גם לסגנון הכתיבה של מחוללי טקסט יש מאפיינים מוכרים, כגון ארכנות ונימוסים מופרזים.
ניתוחים של טקסטים שיצרה בינה מלאכותית הצביעו גם על הבדלים סמנטיים בין טקסטים מעשה ידי אדם או פרי יצירתה של בינה מלאכותית. מחולל ממעט להשתמש במילים נרדפות בהשוואה לבני אדם, כותב פחות שמות עצם ושמות תואר, ומעדיף יותר פעלים ויותר כינויים. טקסט ממקור אנושי הוא מגוון יותר מבחינה רטורית וסמנטית, ובני אדם נוטים להשתמש במילים פחות נפוצות מאלה שבוחר מחולל מלאכותי.
חוקרים מצביעים גם על בעיה של לכידות פנימית אצל מחוללים, שבאה לידי ביטוי בכך שפסקאות שהם מייצרים עשויות להתחיל ברעיון אחד ולזלוג הלאה לרעיון אחר. חוקרים מציעים לנתח טקסטים לפי אוסף מאפיינים סמנטיים כאלה כבסיס למסווג שיבחין בין טקסטים שייצרה בינה מלאכותית לבין טקסטים שכתבו בני אדם.
מתקשה להציג טקסט בתוך התמונה. ניסיון של מחולל התמונות מידג'רני לחולל שלט עם הטקסט "best brasserie paris" | ליאת פלי באמצעות מידג'רני
הבינה תכריע
ההתפתחות המהירה של המחוללים וההשקעה הרבה בשיפורם יובילו כנראה לטשטוש המאפיינים המבדילים האלה, במוקדם או במאוחר. אך אם העין ויכולת ההבחנה האנושיות כבר לא יספיקו כדי להבחין במאפיינים האלה, עדיין נוכל לנסות לזהות אותם בעזרת מחשב.
כדי להכריע בשאלת המקור של תוכן כתוב או תמונה, נרצה מערכת שאפשר להזין לתוכה את התוכן ולסווג אותו לאחת משתי קבוצות: יצירות מעשה ידי אדם או יצירות של בינה מלאכותית. משימות סיווג כאלה יהיה אפשר לבצע בעזרת בינה מלאכותית שאומנה למטרה הזאת.
מערכת מבוססת בינה מלאכותית שמבצעת משימה כלשהי מכונה מודל בינה מלאכותית. מודל שהמשימה שלו היא לסווג תוכן לאחת משתי הקטגוריות יתאמן על מאגר גדול של טקסטים או תמונות שסומנו מראש כתוצרים של בינה מלאכותית ותוצרים של בני אדם וילמד להכיר את ההבדלים בין שתי הקטגוריות. לאחר תהליך אימון, המודל יוכל לקבל קלט חדש ויפסוק לאיזו משתי הקבוצות – תוצרים אנושיים או תוצרי בינה מלאכותית – הוא שייך.
חברת OpenAI הפיצה מטעמה מודל שמטרתו לברור בין טקסטים שנכתבו בידי אדם לבין אלה שנכתבו בידי מודל השפה הגדול GPT-2, שיצא בשנת 2019. המודל המסווג אומן על טקסטים שנכתבו בידי GPT-2 ועל מאגר טקסטים מעשה ידי אדם ששימש לאימון GPT-2 המקורי. המסווג הזה זמין ברשת ועומד לרשות הציבור. כשמציגים בפניו טקסט, המסווג מספק ציון מספרי בין 0 ל-100 שמבטא את הסיכוי שהטקסט מזויף, כלומר נכתב בידי בינה מלאכותית. הסיווג מדויק יותר ככל שהטקסטים ארוכים יותר, ומותאם במיוחד לזיהוי תוצרים של GPT-2.
מחוללי הטקסט השתכללו מאז 2019, והמשתמשים עברו מזמן למודלים מתקדמים יותר מ-GPT-2. חברת OpenAI הפיצה לפיכך מסוֵוג שנועד לזהות תוכן שייצרו מחוללים חדשים יותר, אך כעבור זמן קצר הסירה את הפרסום עקב ריבוי הטענות על ביצועים לא־מספקים. החברה דיווחה כי כשהמסווג נבדק על מאגר טקסטים מסוים, הוא זיהה בהצלחה רק קצת יותר מרבע (26 אחוז) מהטקסטים שיוצרו בידי בינה מלאכותית, ולעומת זאת סבר בטעות שתשעה אחוזים מהטקסטים שכתבו בני אדם נוצרו למעשה בידי בינה מלאכותית.
לחברות המפתחות בינה מלאכותית יש כעת גם אינטרס אנוכי להצליח לקטלג מידע שיוצר בידי בינה מלאכותית – אבל זאת משימה מאתגרת. שירות הסיוע לכתיבה Grammarly | מקור: dennizn, Shutterstock
מוסר כפול
שירות הסיוע לכתיבה Grammarly מציע לערוך ולייצר טקסט באמצעות בינה מלאכותית, אך גם מספק כלי שאמור לבחון עד כמה בינה מלאכותית התערבה בכתיבה. אולם כפי שאפשר ללמוד מכישלון המסווג המתקדם של חברת OpenAI, ומהנסיגה שלה מרעיון השימוש בחותמת טקסט, יש עדיין מהמורות רבות בדרך. מעבר לחוסר השקיפות של רבות מהחברות העוסקות בתחום, לצד אינטרסים כלכליים והיעדר פיקוח, יש גם קשיים מעשיים נוספים שקשה מאוד למצוא להם פתרון.
אחת הבעיות שמתפתחות מול עינינו בימים אלה ממש נובעת מכך שמחוללים זקוקים למאגרי מידע אמיתי כדי ללמוד מהם. אבל ככל שגובר השימוש בבינה מלאכותית, התוצרים שלה משתלבים בעוד ועוד מאגרים, וכאמור קשה מאוד לזהות אותם אם לא שולבה בהם חתימה. עקב כך, מאגרים כאלה עלולים להזדהם בעצמם במידע שנוצר על ידי בינה מלאכותית. כך שלחברות המפתחות בינה מלאכותית יש כעת גם אינטרס אנוכי להצליח לקטלג מידע שיוצר בידי בינה מלאכותית – אבל זאת משימה מאתגרת.
ההכרעה לגבי אמיתות של תוצר חדלה להיות משימה ישירה או פשוטה. השלב שבו בינה מלאכותית ייצרה תוכן דל ובולט לעין חלף במהירות רבה. כדי לזהות כהלכה טקסטים מעשה ידי מכונה, צריך לבחון מקטעי טקסט כמה שיותר ארוכים. זיוף טקסטים קצרים מציב אתגר משמעותי נוסף ליכולות הזיהוי שלנו. המחקר בנושא עודנו פעיל ומתפתח וכנראה לא יגיע לכדי מיצוי כל עוד תוצרי הבינה המלאכותית ממשיכים להשתנות ולהתפתח.
אם הדיון הציבורי ומאמצי הרגולציה ייצרו מספיק לחץ על מפתחי הבינה המלאכותית לחתום את התוצרים שלהם בדרך גלויה או מוסתרת, הפתרון יהיה קל יותר. החברות המובילות בתחום מוכיחות שזה לא בהכרח הלך הרוח שמוביל אותם, אם כי הן משתדלות להציג חזות של שיתוף פעולה. ביקורתיות וספקנות אישית היו ונותרו גם כעת כלי חסר תחליף לצריכת תכנים מכל הסוגים, ובמיוחד אם מקורם אינו אנושי.