הזיות AI: כשהמכונה ממציאה עובדות בביטחון מלא
ב-2023 עורך דין אמריקאי הגיש לבית המשפט מסמך עם 6 פסקי דין שתומכים בטענותיו. הבעיה? אף אחד מהם לא היה קיים. ChatGPT המציא אותם — שמות, תאריכים, מספרי תיק — הכל. והם נשמעו אמיתיים לחלוטין.
עורך הדין נקנס. אבל הסיפור הזה ממחיש בעיה שכל ילד שמשתמש ב-AI צריך להכיר: הזיות AI.
מה זו “הזייה”?
כשמודל שפה כמו ChatGPT כותב משפט, הוא לא בודק אם מה שהוא כותב אמת. הוא מחשב מה המילה הכי סבירה שבאה עכשיו. לפעמים הניחוש יוצא נכון. ולפעמים הוא מייצר מידע שנשמע מושלם — אבל הומצא לחלוטין.
חוקרים קוראים לזה “הזיות” (hallucinations), כי ה-AI “רואה” דברים שלא קיימים.
דוגמאות שקורות כל יום
ספרים שלא נכתבו
בקשו מ-ChatGPT להמליץ על ספרים בנושא מסוים. לפעמים הוא ימציא שמות ספרים שנשמעים אמיתיים — עם מחברים אמיתיים — אבל הספר פשוט לא קיים. המחבר קיים, הנושא הגיוני, אבל הספר? בדיוני.
מקורות מדעיים שלא פורסמו
“לפי מחקר שפורסם ב-Nature ב-2024…” — ChatGPT יכול לצטט מאמר עם שם ספציפי, כותבים ספציפיים, ותוצאות ספציפיות. הכל שקר. המאמר לא קיים. אבל המשפט נשמע אקדמי ואמין.
עובדות היסטוריות שלא קרו
שאלו אותו על אירוע היסטורי פחות מוכר — ותקבלו תשובה מפורטת עם תאריכים, שמות ומקומות. חלקם יהיו נכונים. חלקם יהיו בערך נכונים. וחלקם — פשוט המצאה.
דברים על אנשים אמיתיים
ChatGPT יכול לייחס לאנשים אמיתיים דברים שמעולם לא אמרו. “כמו שאלברט איינשטיין אמר: ’…’” — ואיינשטיין מעולם לא אמר את זה.
למה זה קורה?
ה-AI לא “משקר” — הוא לא יודע מה זה אמת. הוא לא מרגיש. הוא לא שוקל. הוא לא חושב “רגע, בוא נבדוק.”
הוא פשוט ממשיך לנחש את המילה הבאה. ואם הניחוש מייצר משפט שנשמע הגיוני — הוא כותב אותו, גם אם אין שום מציאות מאחוריו.
הדבר הכי מסוכן: הוא כותב שקר באותו ביטחון שהוא כותב אמת. אין שום סימן חיצוני שמבדיל בין התשובה הנכונה לבין ההזיה.
פעילות: “צייד ההזיות”
משחק משפחתי מעולה — ומלמד יותר מכל הסבר.
מה צריך: מחשב/טלפון עם ChatGPT, ודרך לחפש (גוגל)
איך משחקים:
שלב 1: כל אחד שואל את ChatGPT שאלה על נושא שהוא מכיר. למשל:
- “ספר לי על ההיסטוריה של קבוצת [הקבוצה שלכם]”
- “מה קרה ב[אירוע שאתם מכירים]?”
- “המלץ על 3 ספרים בעברית על [נושא]”
שלב 2: קראו את התשובה ביחד. מרשים?
שלב 3: עכשיו בדקו כל עובדה. רשמו:
- ✅ נכון
- ❌ שגוי
- 🫧 הזיה (הומצא לחלוטין)
שלב 4: ספרו. כמה הזיות מצאתם?
הניסיון מלמד: ברוב המקרים, תמצאו לפחות הזיה אחת. ולפעמים תגלו שפסקה שלמה שנשמעה מושלמת — בנויה על אוויר.
5 כללים לעבודה עם AI בלי ליפול בהזיות
1. אם זה חשוב — תבדקו
כלל הזהב. לא משנה כמה התשובה נשמעת טוב. אם אתם הולכים להשתמש במידע לעבודה, לבית ספר, או להחלטה — אמתו אותו ממקור אחר.
2. אל תסמכו על מקורות שה-AI נתן
אם ChatGPT כותב “לפי מחקר של…” — לא מספיק. חפשו את המחקר בעצמכם. אם לא מוצאים — כנראה שהוא לא קיים.
3. שאלות ספציפיות = פחות הזיות
ככל שהשאלה כללית יותר (“ספר לי על…”), כך יש יותר מקום להמציא. שאלה ממוקדת (“באיזו שנה נולד…”) קלה יותר לאימות.
4. בקשו מה-AI לציין כשהוא לא בטוח
אפשר לכתוב בפרומפט: “אם אתה לא בטוח — כתוב ‘אני לא בטוח’.” זה לא חסין מטעויות, אבל מפחית חלק מההזיות.
5. השתמשו ב-AI כנקודת התחלה — לא כתשובה סופית
AI מצוין בשביל לתת רעיונות, כיוונים, ומבנה. אבל התשובה הסופית — תמיד שלכם.
למה חשוב לדבר על זה עם ילדים?
כי ילדים סומכים על טכנולוגיה. “המחשב אמר” נשמע סמכותי. וכשילד מעתיק תשובה מ-ChatGPT לשיעורי בית בלי לבדוק — הוא עלול להגיש עובדות שלא קיימות, ציטוטים מומצאים, ומקורות בדיוניים. בלי לדעת.
השיחה הכי חשובה היא פשוטה: “ChatGPT כותב דברים שנשמעים נכון. לפעמים הם נכון. לפעמים הוא ממציא. אתה חייב לבדוק.”
מקורות:
- Ji, Z. et al. (2023). “Survey of Hallucination in Natural Language Generation.” ACM Computing Surveys.
- Mata v. Avianca (2023), SDNY — Case No. 22-cv-1461.
- OpenAI (2024). “GPT-4 System Card.” openai.com.