מדוע מכון מחקר לא יכול להתחייב שתוצרים לא יזוהו ככתיבה של בינה מלאכותית גם כאשר הם נכתבו על ידי אדם?

בשנים האחרונות הופיעו תוכנות רבות שמנסות לזהות האם טקסט מסוים נכתב על ידי אדם או על ידי בינה מלאכותית. אנשים רבים מניחים שאם טקסט נכתב באמת על ידי אדם אז תוכנה כזאת תדע לזהות זאת בוודאות. הנחה זו אינה נכונה, ומשקפת אי הבנה בסיסית לגבי אופן פעולתן ומשמעות התוצאות של אותן בדיקות. למעשה אף מכון מחקר רציני אינו יכול להתחייב שטקסט שנכתב כולו על ידי אדם לא יסומן בטעות על ידי תוכנה כלשהי כטקסט שנוצר על ידי בינה מלאכותית. כדי להבין מדוע זה כך צריך להבין בצורה פשוטה איך תוכנות הזיהוי האלה עובדות ומהן המגבלות שלהן.

ראשית חשוב להבין שתוכנות לזיהוי כתיבה של בינה מלאכותית אינן קוראות מחשבות ואינן יודעות מי כתב את הטקסט. הן אינן מסוגלות לראות את תהליך הכתיבה עצמו. הן אינן יודעות האם אדם ישב מול מחשב וכתב או האם מערכת אוטומטית יצרה את הטקסט. התוכנות רואות רק דבר אחד בלבד והוא הטקסט עצמו. מתוך הטקסט הן מנסות לנחש מי כתב אותו.

הניחוש הזה מבוסס על סטטיסטיקה. כלומר התוכנה מסתכלת על דפוסים בטקסט. למשל באיזה מילים משתמשים. כמה המשפטים ארוכים. כמה מבנים תחביריים חוזרים על עצמם. עד כמה הטקסט צפוי מבחינה לשונית. על בסיס ניתוח כזה התוכנה נותנת הערכה סטטיסטית בלבד. כלומר היא אומרת שלפי הדפוסים בטקסט יש סיכוי גבוה יותר שהטקסט נכתב על ידי מערכת אוטומטית או על ידי אדם.

הבעיה המרכזית היא שאנשים ובינה מלאכותית משתמשים באותה שפה בדיוק. אין שתי שפות נפרדות. אדם יכול לכתוב בדיוק באותו סגנון שבו מערכת אוטומטית כותבת. באותה מידה מערכת אוטומטית יכולה ליצור טקסט שנראה מאוד אנושי. לכן אין סימן אחד ברור בתוך הטקסט שמאפשר לדעת בוודאות מי כתב אותו.

בעיה נוספת היא שתוכנות הזיהוי עצמן נבנות בעזרת דוגמאות. המפתחים מזינים למערכת הרבה מאוד טקסטים שנכתבו על ידי בני אדם והרבה מאוד טקסטים שנוצרו על ידי מערכות אוטומטיות. לאחר מכן המערכת לומדת למצוא הבדלים סטטיסטיים בין הקבוצות. אבל הדוגמאות האלה לעולם אינן מייצגות את כל סוגי הכתיבה בעולם. אנשים כותבים במיליוני סגנונות שונים. לכן כאשר התוכנה פוגשת טקסט חדש שאינו דומה לדוגמאות שעליהן היא התאמנה היא עלולה לטעות.

גם טקסטים אנושיים לגמרי יכולים להיראות מאוד מסודרים או מאוד צפויים מבחינה לשונית. למשל כתיבה אקדמית. סטודנטים וחוקרים לומדים לכתוב בצורה מאוד מובנית וברורה. הם משתמשים במשפטים דומים ובמבנים חוזרים. בדיוק סוג הדברים שתוכנות זיהוי לפעמים מפרשות בטעות כסימן לכתיבה אוטומטית. לכן דווקא טקסטים אקדמיים שנכתבו על ידי בני אדם עלולים להיראות לתוכנה כמו טקסטים של מערכת אוטומטית. כתיבה אקדמית מבוססת על תבניות קבועות. יש ניסוחים מסויימים עבור המבוא, יש ניסוחים מקובלים עבור סקירת הספרות, ישנן תבניות מדוייקות עבור פרק המתודולוגיה, עבור הממצאים, וכן תבניות לשוניות קבועות וידועות עבור פרק הדיון. כתוצאה מכך, כתיבה אקדמית, ובעיקר כשהיא במיטבה, בסבירות גבוהה תזוהה בטעות ככתיבה על ידי בינה מלאכותית כאשר נכתבה על ידי כותב/ת אקדמי/ת מיומן/ת.

בנוסף קיימת בעיה מתמטית בסיסית. כל מערכת שמנסה לנחש לפי דפוסים בלבד תמיד תייצר גם טעויות. בעולם הסטטיסטיקה קוראים לכך תוצאות חיוביות שגויות. כלומר מצב שבו המערכת מסמנת משהו כחשוד למרות שהוא אינו כזה. אי אפשר לבנות מערכת שמבוססת על ניחוש סטטיסטי ולא טועה בכלל. הדבר נכון בכל תחום. למשל סינון דואר זבל. גם מערכות טובות מאוד לפעמים מסמנות הודעה רגילה כדואר זבל.

בעיה נוספת היא שאין תוכנה אחת מוסכמת. קיימות הרבה תוכנות שונות לזיהוי כתיבה של בינה מלאכותית. כל אחת מהן משתמשת בשיטה אחרת ובמאגרי נתונים שונים. לכן ייתכן בהחלט שטקסט מסוים יקבל תוצאה אחת בתוכנה אחת ותוצאה אחרת בתוכנה אחרת. מכון מחקר אינו יכול לשלוט בכל התוכנות בעולם ואינו יכול לדעת כיצד כל אחת מהן תנתח את הטקסט.

יש גם בעיה של שינוי מתמיד. מערכות בינה מלאכותית משתפרות כל הזמן וגם כלי הזיהוי משתנים כל הזמן. שיטה שנראית היום יעילה עשויה להיות פחות יעילה בעוד שנה. לכן אפילו אם טקסט נבדק היום ונראה אנושי לפי כלי מסוים אין שום דרך להבטיח שבעתיד כלי אחר לא יסווג אותו אחרת.

מעבר לכך חשוב להבין שתוכנות הזיהוי עצמן אינן נחשבות בעולם המחקר ככלי הוכחה אמין. אפילו המפתחים של חלק מהכלים מודים שהמערכות שלהם נותנות רק הערכה כללית ולא קביעה ודאית. מוסדות אקדמיים רבים בעולם כבר הזהירו מפני שימוש בתוכנות כאלה כראיה חד משמעית.

מכון מחקר רציני חייב לפעול ביושר מדעי. התחייבות שלפיה שום תוכנה בעולם לא תסמן טקסט מסוים ככתיבה של בינה מלאכותית תהיה הבטחה שאי אפשר לקיים. גם אם כל העבודה נכתבה במאה אחוז על ידי אדם עדיין קיימת אפשרות שתוכנה כלשהי תנתח את הטקסט בצורה סטטיסטית ותגיע למסקנה שגויה.

לכן כאשר מכון מחקר מסביר שהוא אינו יכול להתחייב לכך אין מדובר בהתחמקות או בחוסר מקצועיות. להפך. זו הודאה במגבלות האמיתיות של הטכנולוגיה הקיימת. מי שמבטיח הבטחה כזאת למעשה מבטיח דבר שאף אחד בעולם אינו מסוגל להבטיח. ההיפך הוא הנכון: אם גוף כלשהו מבטיח שהתוצר בוודאות לא יזוהה ככתיבה על ידי AI, מדובר בנורת אזהרה רצינית שכן הבטחה זו בוודאות שיקרית, ולכן יש לתהות מה עומד בבסיס הנכונות להתחייב למשהו שלא ניתן להתחייב אליו.

לסיכום תוכנות לזיהוי כתיבה של בינה מלאכותית אינן יודעות מי באמת כתב את הטקסט. הן רק מנחשות לפי דפוסים סטטיסטיים. מאחר שגם בני אדם וגם מערכות אוטומטיות משתמשים באותה שפה ומאחר שכל מערכת סטטיסטית עושה טעויות אין דרך להבטיח שטקסט אנושי לחלוטין לא יסומן בטעות כטקסט של בינה מלאכותית. מסיבה זו מכון מחקר אחראי אינו יכול לתת התחייבות כזאת.

שיתוף: