קים קרדשיאן חשבה שמצאה דרך חכמה לעבור את בחינות המשפטים שלה, אבל זה נגמר בכישלון צורב. בריאיון סיפרה כוכבת הריאליטי שנעזרה בבינה המלאכותית ChatGPT במהלך לימודיה, אך גילתה שהתשובות שקיבלה היו לעיתים קרובות שגויות. "אני מצלמת את השאלות, שולחת לו ומקבלת תשובות בטוחות בעצמן, רק שהן לא נכונות. זה גרם לי להיכשל שוב ושוב", הודתה קרדשיאן והוסיפה בחיוך מריר: "אני מתעצבנת וצועקת עליו שהוא גרם לי להיכשל".

הסיפור של קרדשיאן הפך בן רגע לשיחת היום ברשתות, אבל הוא הרבה מעבר לאנקדוטה הוליוודית. הוא משקף תופעה עולמית: ההסתמכות הגוברת על בינה מלאכותית ככלי ללמידה, לעבודה ולחיפוש ידע - מבלי להבין את מגבלותיה. מאחורי התשובות המרשימות והניסוחים הבטוחים מסתתרות לעיתים הטעיות, טעויות והמצאות מוחלטות. אז מהן בעצם "הזיות" בינה מלאכותית? מדוע לא ניתן להסתמך עליה באופן מדעי ואקדמי? ואיך אפשר להשתמש בה נכון - בלי ליפול בפח?.

מאחורי הקסם של בינה מלאכותית מסתתרת אחת האשליות המתוחכמות ביותר של זמננו. מערכות כמו  ChatGPT  מסוגלות להפיק טקסטים רהוטים, לענות במהירות ולנפק ניסוחים מרשימים, אך אין להן הבנה אמיתית של העולם. הן אינן יודעות אם מה שהן אומרות נכון או שגוי, אלא רק חוזות אילו מילים צפויות להגיע זו אחרי זו. כלומר, במקום לחשוב  הן מנחשות.

תהליך החיזוי הזה יוצר לעיתים תופעה המכונה הזיות בינה מלאכותית (AI Hallucinations) - מונח מקצועי המתאר מקרים שבהם המערכת ממציאה מידע שנשמע אמין אך לא קיים במציאות. היא עלולה להמציא ציטוטים, לייחס מאמרים למדענים שמעולם לא כתבו אותם, להציג תאריכים שגויים או לבדות חוקים ופסיקות שלא התרחשו מעולם.

קים קרדשיאן (צילום: רויטרס)
קים קרדשיאן (צילום: רויטרס)

אחת הסיבות המרכזיות להזיות היא היעדר גישה ישירה למידע בזמן אמת. מרבית המודלים, בהם גם ChatGPT מאומנים על מאגרי מידע קיימים שמסתיימים בנקודת זמן מסוימת. כשנשאלות שאלות על נושאים עדכניים או על עובדות שלא נכללו באימון, המערכת ממציאה תשובה מתוך הנחה סטטיסטית.

בנוסף, הבינה המלאכותית לומדת מטקסטים אנושיים שמכילים טעויות, דעות קדומות ולעיתים גם פייק ניוז. האלגוריתם אינו יודע לסנן זאת, ולכן משכפל את ההטיות הקיימות. כך, למשל, היא עשויה להעדיף נרטיבים תרבותיים מסוימים, לשקף תפיסות מגדריות ישנות או לנקוט עמדות פוליטיות בהתאם לדפוסי השפה שעליהם הוכשרה.

CHAT GPT  (צילום: עקיבא פרדקין)
CHAT GPT (צילום: עקיבא פרדקין)

גם ניסוח השאלות משפיע: כאשר המשתמש מציג שאלה פתוחה או רומזת, הבינה עלולה "לנחש" מה הוא רוצה לשמוע ולהתאים את תשובתה לכך. היא “מרצה” את המשתמש - גם אם זה מוביל לאי־דיוק או לשקר גמור.

בעולם האקדמי, מדובר באתגר של ממש. מרצים באוניברסיטאות ברחבי העולם מדווחים על סטודנטים שמגישים עבודות הכוללות הפניות למאמרים שלא קיימים. בארצות הברית הוגשו לבתי משפט מסמכים משפטיים עם פסקי דין מומצאים שיצרה בינה מלאכותית. במקרים אחרים, רופאים צעירים הסתמכו על תשובות רפואיות שגויות שהתקבלו מבינה מלאכותית במהלך הלמידה.

Chat GPT (צילום: שאטרסטוק)
Chat GPT (צילום: שאטרסטוק)

הסיבה פשוטה: האלגוריתם נועד לשכנע, לא להוכיח. תפקידו ליצור טקסטים משכנעים וקוהרנטיים ולא לבדוק עובדות. הוא אינו מבין משמעות או הקשר, ולכן עלול לשלב עובדות אמיתיות עם פרטים מומצאים מבלי להבחין ביניהם.

מלבד הזיות, קיימת גם בעיית ההטיות. מאחר שהבינה לומדת ממידע שנוצר בידי בני אדם, היא סופגת את הדעות הקדומות שלהם. כך למשל, במודלים רפואיים התגלו מקרים שבהם הבינה נטתה לאבחן פחות מחלות אצל נשים משום שנתוני האימון כללו יותר דוגמאות של גברים. בתחום המשפט, נמצא כי אלגוריתמים נוטים לשקף דפוסים מפלים של מערכת הצדק האנושית. הטעויות הללו אינן תיאורטיות בלבד. במציאות, הן עלולות לגרום לנזק אמיתי: עיתונאים עלולים לפרסם ידיעות שגויות, סטודנטים עלולים להיכשל, ורופאים או אנשי מקצוע אחרים עלולים להסתמך על מידע מסוכן.

קים קרדשיאן (צילום:  LEO VIGNAL / AFP)
קים קרדשיאן (צילום: LEO VIGNAL / AFP)

למרות הסיכונים, הבינה המלאכותית איננה אויב. היא כלי עוצמתי  אך כזה שדורש אחריות ובקרה. הנה כמה עקרונות שיכולים להפוך אותה לעוזרת אמינה יותר: ראשית, יש לראות בה כלי עזר ולא מקור סמכות. היא מתאימה להפקת רעיונות, לסיכום טקסטים, לתרגול שפה או להבנת מושגים  אבל לא לקביעת עובדות מדעיות או משפטיות. כל תשובה שהיא מספקת חייבת לעבור אימות עצמאי.

שנית, יש לנסח שאלות מדויקות וברורות. ככל שהשאלה מפורטת ומכילה הקשר, כך יקטן הסיכוי לתשובה שגויה. שאלות מעורפלות יגררו ניחושים מסוכנים. שלישית, חשוב לבקש מקורות ולבדוק אותם. גם אם לא תמיד מדובר בציטוטים מדויקים, הבקשה עצמה מאלצת את המודל לספק תשובה זהירה יותר. לאחר מכן, כדאי לוודא בעצמכם שהמקורות קיימים ואמינים. רביעית, לא להעתיק תשובות כלשונן.

המשפט של קים קרדשיאן (צילום: רויטרס)
המשפט של קים קרדשיאן (צילום: רויטרס)

 
מעבר לסכנת פלגיאט, טקסטים שנוצרים על ידי בינה מלאכותית עלולים להכיל מידע לא מדויק או ניסוחים כלליים מדי. עדיף להשתמש בהם כהשראה בלבד. ולבסוף להצליב כל מידע. גם אם תשובה נראית הגיונית, יש לבדוק אותה מול לפחות שני מקורות אמינים - מחקר מדעי, אתר ממשלתי או גוף מקצועי מוכר.

חברות הטכנולוגיה כבר משקיעות מאמצים עצומים כדי לצמצם את תופעת ההזיות. הן מפתחות מנגנוני בקרה, משלבות מקורות בזמן אמת ומשתמשות במערכות חיזוק אנושיות שמסייעות לזהות טעויות. ובכל זאת, אין כיום דרך להבטיח אמינות מוחלטת.

Chat GPT (צילום: שאטרסטוק)
Chat GPT (צילום: שאטרסטוק)

לכן, מדינות ומוסדות חינוך מתחילים לשלב תוכניות ללימוד אוריינות בינה מלאכותית: מיומנות שתלמד תלמידים וסטודנטים איך לשאול שאלות חכמות, לזהות הטיות ולקרוא תשובות אלגוריתמיות באופן ביקורתי. כמו שלמדנו בעבר להבדיל בין אתר אמין לשקרי, נצטרך כעת לדעת לזהות מתי תשובה "נשמעת חכמה מדי" כדי להיות אמיתית.

הסיפור של קים אולי מצחיק, אבל הוא גם תמרור אזהרה. בינה מלאכותית יכולה להיות מורה נפלאה או יועצת מסוכנת - הכול תלוי איך משתמשים בה. היא יודעת לכתוב, להסביר ולנמק, אבל לא להבין. היא מסוגלת להרשים, אבל לא להרגיש אחריות. ובסופו של דבר, גם בעידן שבו מכונות כותבות עבודות, מנחות טיפולים ומייעצות לנו בכל תחום, האחריות תישאר בידיים האנושיות. בינה מלאכותית יכולה להניח את האבנים בדרך, אבל אנחנו הם אלה שצריכים לבחור את הכיוון. מי שיבחר להשתמש בה בחוכמה, יבין דבר פשוט: היא כלי נהדר, אבל היא לא תחליף לשיקול דעת