הטיה אלגוריתמית: למה AI יכול להיות גזען בלי לדעת
בקשו מ-AI לצייר “מנכ”ל”. מה תקבלו? כנראה גבר לבן בחליפה.
עכשיו בקשו לצייר “מנקה”. כנראה אישה, לא לבנה.
AI לא המציא את הסטריאוטיפים האלה. הוא למד אותם — מאיתנו.
מה זו הטיה אלגוריתמית?
בינה מלאכותית לומדת מנתונים. אם הנתונים מוטים — ה-AI יהיה מוטה. זה פשוט ככה.
דמיינו שאתם מלמדים ילד לזהות ציפורים, אבל מראים לו רק תמונות של יונים. מה יקרה כשיראה נשר? הוא יגיד “זו לא ציפור.” לא כי הוא טיפש — אלא כי הנתונים שלו היו חלקיים.
AI עובד בדיוק ככה. רק שבמקום ציפורים — הוא לומד על אנשים, משרות, פשע, יופי, ואמינות. ואם הנתונים שלו משקפים עולם לא שוויוני — הוא ימשיך את חוסר השוויון.
דוגמאות אמיתיות שקרו
זיהוי פנים שטועה
חוקרת בשם ג’וי בואולאמוויני גילתה ב-2018 שמערכות זיהוי פנים של IBM, מיקרוסופט ו-Face++ טעו ב-35% כשניסו לזהות נשים שחורות — אבל רק ב-1% על גברים לבנים.
למה? כי המערכות אומנו בעיקר על תמונות של גברים לבנים. הן פשוט לא “הכירו” מספיק פנים אחרות.
אלגוריתם רפואי שהפלה חולים
ב-2019 חוקרים מ-Science גילו שאלגוריתם שמשמש מיליוני מטופלים בארה”ב הפלה מטופלים שחורים. הוא החליט שהם פחות חולים — לא כי בדק אותם, אלא כי השתמש ב”כמה כסף הוצא על הטיפול שלהם” כמדד לחומרה. ובגלל אפליה היסטורית, שחורים הוציאו פחות כסף על בריאות — אז ה-AI חשב שהם בריאים יותר.
AI שגייס רק גברים
אמזון פיתחה מערכת AI לסינון קורות חיים. המערכת למדה מעשר שנים של גיוסים — ורוב המגויסים היו גברים. אז ה-AI למד שגברים עדיפים — ודירג למטה קורות חיים שכללו את המילה “נשים” (כמו “קפטנית קבוצת הכדורעף נשים”). אמזון סגרה את הפרויקט.
למה זה רלוונטי לילדים?
ילדים פוגשים AI מוטה כל יום — גם אם לא מודעים לזה:
- תוצאות חיפוש: כשילד מחפש “מדענית” בגוגל — אילו תמונות עולות? האם זה משקף את המציאות?
- המלצות תוכן: האלגוריתם של טיקטוק/יוטיוב מחליט מה הילד רואה. אם הוא ראה סרטון אחד על תורת קונספירציה — הוא יראה עוד ועוד.
- מסנני AI: בבתי ספר שמשתמשים ב-AI לסינון עבודות — האם ה-AI מזהה העתקה טוב יותר באנגלית מאשר בעברית? (כן, בדרך כלל)
- יצירת תמונות: כשילד מבקש מ-AI לצייר “משפחה” — מי מופיע בתמונה? זה מעצב תפיסות.
פעילות: “המראה המעוותת”
שבו עם הילדים ועשו את הניסוי הבא:
שלב 1: בקשו מכלי AI (כמו DALL-E, Midjourney) לצייר:
- “רופא”
- “אחות”
- “מהנדס”
- “גנן”
- “מנהיג”
שלב 2: תסתכלו ביחד על התוצאות. שאלו:
- מי מופיע בתמונות? גברים או נשים? באיזה צבע עור?
- האם זה משקף את המציאות?
- למה ה-AI “בחר” ככה?
שלב 3: הסבירו: “ה-AI לא החליט שרופא = גבר. הוא ראה מיליוני תמונות שבהן רוב הרופאים היו גברים — ולמד את הדפוס. הבעיה היא לא ב-AI — הבעיה היא בנתונים.”
מה הילדים צריכים לזכור
1. AI לא ניטרלי
הוא לא “אובייקטיבי” ולא “הוגן” — הוא משקף את העולם שממנו למד, כולל הדברים הלא הוגנים.
2. “המחשב אמר” זה לא ויכוח
ילדים (ומבוגרים) נוטים לסמוך יותר על “המחשב החליט” מאשר על “בן אדם החליט”. אבל מאחורי כל אלגוריתם יש בני אדם שבחרו את הנתונים, כתבו את הקוד, והחליטו מה חשוב.
3. שאלו “על מה הוא למד?”
כל פעם שרואים תוצאה של AI, השאלה החשובה היא: “אילו נתונים הוא ראה?” אם הנתונים חלקיים או מוטים — התוצאה תהיה חלקית ומוטה.
מקורות:
- Buolamwini, J. & Gebru, T. (2018). “Gender Shades.” ACM Conference on Fairness, Accountability, and Transparency.
- Obermeyer, Z. et al. (2019). “Dissecting racial bias in an algorithm.” Science.
- Dastin, J. (2018). “Amazon scraps secret AI recruiting tool.” Reuters.