האם ה-AI שלנו הוא סקסיסט מזדקן?
דמיינו עולם שבו כל המנכ"לים הם גברים לבנים וכל מנהלות משאבי האנוש הן נשים חייכניות. זו לא תמונה משנות ה-50, אלא מציאות בחסות בינה מלכותית בת ימינו. מסקסיזם דיגיטלי ועד לגילנות אלגוריתמית – מה גורם להטיות? כיצד הן משפיעות על עולם העבודה המודרני ואיך כל זה קשור לתחום משאבי אנוש? הסברים פשוטים לתופעות מורכבות, ורעיונות מעשיים כיצד ליצור סביבת עבודה הוגנת ומגוונת בעידן הדיגיטלי.
עולם שבו כל המנכ"לים הם גברים לבנים ואת כל תפקידי משאבי האנוש ממלאות רק נשים חייכניות (שנראה שנגזרו מתוך שער מגזין)… נשמע כמו עבר רחוק? עתיד דיסטופי? ברוכות וברוכים הבאים לעולם של בינה מלאכותית בת ימינו!
איך ה-AI יודע ליצור תמונות? (ספוילר: זה לא באמת יודע לצייר)
בניגוד למצלמה רגילה שקולטת אור, מערכות AI ליצירת תמונות פועלות על בסיס מודלים מתקדמים של למידה עמוקה. המודל "ניזון" בעצם ממיליוני תמונות מתויגות ולומד את המאפיינים והדפוסים שלהן. כשמזינים למודל בקשה טקסטואלית, הוא מנתח אותה ומתרגם אותה למאפיינים ויזואליים על בסיס הידע שצבר והבקשה שקיבל. ה-AI לא באמת מבין מה הוא מצייר. הוא פשוט משחזר ומשלב דפוסים כמו תוכי.
למרבה המזל, ה-AI משפר את עצמו כל הזמן על ידי למידה מניסיון, משוב מבני אדם, עדכוני תוכנה, הרחבת מאגרי מידע, אימון מחדש, למידה מטעויות ואופטימיזציה מתמדת של תהליכים.
הטיות: כשהמכונה מתנהגת כמו סדרת טלוויזיה משנות ה-50
זה נשמע לכאורה מאוד מדויק ומדעי, אבל שימו לב מה קורה כשמבקשים מכלי AI ליצור תמונות של נשות ואנשי מקצוע באנגלית (ללא רמיזה למגדר) :
- גברים יקבלו ייצוג רחב יותר ואפילו מוחלט בתפקידי מדענים, מהנדסים, מנהלים בכירים, טייסים, שוטרים ואפילו שפים.
- נשים יקבלו ייצוג גדול יותר בתפקידי אחיות, מורות, מזכירות, עובדות סוציאליות וכמובן מנהלות מש"א. במרבית המקרים הן יהיו צעירות וחייכניות וילבשו בגדים מסודרים ומוקפדים.
- הטיות תרבותיות: רוב הדמויות מוצגות כלבנות ומערביות, הנשים יהיו לרוב צעירות ומחויכות וכשיתקבל ייצוג של תרבויות אחרות, הוא יופיע לעיתים קרובות בצורה סטריאוטיפית.
במחקר שפורסם ממש לאחרונה (2024), חוקרים השתמשו בכלי חדש בשם BiasPainter כדי לבדוק אם מודלים ליצירת תמונות מציגים הטיות חברתיות. הם לקחו 54 תמונות של אנשים מגוונים (מתרבויות, מינים וקבוצות גיל שונות) ושינו אותן באמצעות שישה מודלים פופולאריים ליצירת תמונות (כמו Midjourney, Stable Diffusion XL ו-Dall-E ), תוך שימוש במאות פרומפטים שונים.
הנה כמה דוגמאות מדאיגות ממה שהם גילו:
- הטיות מגדריות – מילים כמו "מזכירה" ו"אחות" נטו להמיר דמויות גבריות לנשיות ומילים כמו "מנכ"ל", "עורך דין" ו"מהנדס" נטו להמיר דמויות נשיות לגבריות. גם תיאורי תכונות אישיות שינו את מגדר התמונה המקורית – מילים כמו "אמיץ", "סבלני" ו"חכם" נטו להמיר דמויות גבריות לנשיות, ומילים כמו "יהיר", "אנוכי" ו"תוקפני" נטו להמיר דמויות נשיות לגבריות
- הטיות גזעיות – פרומפטים הקשורים למקצועות יוקרתיים (כמו רופא או עורך דין) נטו להמיר דמויות של אנשים שחורים או אסייתים לדמויות של אנשים לבנים. פרומפטים הקשורים לעבודות פיזיות או שירות (כמו מלצר או עובד ניקיון) נטו להמיר דמויות של אנשים לבנים לדמויות של אנשים שחורים או אסייתים
- הטיות גיל – פרומפטים הקשורים לטכנולוגיה או מדיה חברתית נטו להמיר דמויות של אנשים מבוגרים לדמויות צעירות יותר. פרומפטים הקשורים לחוכמה או ניסיון חיים נטו להמיר דמויות של אנשים צעירים לדמויות מבוגרות יותר
**דוגמאות מג'ינרוטים שבוצעו על-פי פרומטים שונים. לקריאת מידע נוסף על המחקר, הקליקו על התמונה**
למה זה קורה?
ה-AI שלנו הוא קצת כמו ילד שגדל על דיאטה של סטריאוטיפים ישנים. הוא לא מתכוון להיות מפלה, הוא פשוט לא יודע אחרת.
- אפקט המראה הדיגיטלית : מחקר שפורסם ב-Nature Machine Intelligence ב-2021 הראה איך AI משקף ומעצים הטיות חברתיות קיימות. לדוגמה: החוקרים גילו שמערכות AI שאומנו על תמונות מהאינטרנט נטו להציג נשים במטבח פי 1.6 יותר מגברים, למרות שבמציאות הפער קטן בהרבה. ומה לגבי צבע עור? ובכן, ה-AI נטה להציג אנשים לבנים בתפקידי ניהול פי 3 יותר מאשר אנשים לא-לבנים.
- "Garbage In, Garbage Out" או בקצרה "GIGO" : ה- AI לומד מהנתונים שאנחנו מזינים לו. אם הנתונים האלה משקפים הטיות חברתיות היסטוריות הוא ילמד ויחזור על אותן הטיות. מחקר מאוניברסיטת וושינגטון ב-2022 בחן את מאגרי המידע המשמשים לאימון AI, וגילה שמאגרים פופולריים מכילים ייצוג יתר של תכנים סטריאוטיפיים. למשל, בתמונות של "מנהל" 89% היו של גברים לבנים. כשחיפשו "עובד" רק 20% מהתמונות הציגו אנשים לא-לבנים, למרות שהם מהווים חלק הרבה יותר גדול מכוח העבודה העולמי.
- ייצוג חסר בצוותי פיתוח: כשצוותי הפיתוח של AI אינם מגוונים מספיק, הם עלולים שלא לזהות הטיות מסוימות או לא לתת להן מספיק חשיבות. מחקר של MIT ב-2023 הראה איך גיוון בצוותי פיתוח AI מוביל לתוצאות מאוזנות יותר. הם השוו צוותים הומוגניים לצוותים מגוונים וגילו שצוותים מגוונים זיהו 29% יותר הטיות אפשריות במערכות שפיתחו. זה כולל הטיות על בסיס מגדר, צבע עור, גיל ועוד.
לכל אלה מתווספת גם תופעת 'סטריאוטיפ ההשלמה': כשלמודל חסר מידע, הוא נוטה להשלים פרטים על בסיס הדפוסים הנפוצים ביותר שלמד, מה שמוביל להעצמת סטריאוטיפים ודימויים 'טיפוסיים'.
למה כל כך חשוב שנהיה מודעים להטיות הללו דווקא במשאבי אנוש?
בינה מלאכותית (AI) היא ללא ספק מנוף אסטרטגי בתחום משאבי אנוש! היא מאפשרת קפיצת מדרגה משמעותית בתהליכי גיוס, פיתוח הון אנושי והערכת ביצועים, מספקת כלים מתקדמים לחיזוי מגמות תעסוקה, אופטימיזציה של תהליכי עבודה, והתאמה מדויקת יותר בין כישורי העובדים לדרישות התפקיד. עם זאת, עלינו להיות מודעים כל הזמן לפערים ולסיכונים בשימוש בכלים המתקדמים:
- הטיות בבינה מלאכותית משפיעות משמעותית על תהליכי גיוס, במיוחד כשהמגייסים והמגייסות אינם מודעים למנגנונים מאחורי האלגוריתמים. AI עלול לסנן מועמדים על בסיס מאפיינים לא רלוונטיים, לשמר דפוסי העדפה היסטוריים מוטים, ולהיות מוטה בניתוח ראיונות וידאו או בבחינת ההתאמה. בנוסף, ניתוח שגוי של רשתות חברתיות ומבחני אישיות ממוחשבים עלולים להוביל להחלטות גיוס לא מדויקות, לאפליה לא מכוונת ולהחמצת כישרונות מגוונים.
- הטיות במערכות AI המשמשות להערכת ביצועים ולזיהוי פוטנציאל עלולות ליצור "תקרת זכוכית" בפיתוח קריירה. הן עשויות להוביל להערכות ביצועים מוטות, זיהוי פוטנציאל לא מאוזן, המלצות קידום לא הוגנות, והקצאה לא שוויונית של משאבי פיתוח.
- מערכות AI המייצרות תוכן ויזואלי וטקסטואלי לשימוש ארגוני (תקשורת פנים ארגונית, חומרי הדרכה, מודעות דרושים, תוכן למיתוג מעסיק ברשתות חברתיות, תוכן לאירועי חברה וכדומה), עלולות להנציח ולחזק סטריאוטיפים קיימים, ליצור תרבות ארגונית מוטה, להשפיע באופן שלילי על גיוס מגוון, ואפילו לפגוע בתדמית הציבורית.
לסיכום – מה בכל זאת אפשר לעשות?
- להיות מודעים להטיות ולהבין כיצד הן עשויות להשפיע על התוצרים וההחלטות שלנו. במקביל חשוב להמשיך להשקיע בהכשרות של צוותי גיוס, מנהלות ומנהלים בנושא זיהוי והתמודדות עם הטיות
- לבדוק ולוודא שאנחנו עושים שימוש במערכות אמינות ככל הניתן
- לגוון את צוותי הפיתוח ובדיקות המערכות
- להשתמש ב- AI בתבונה ותמיד לשלב שיקול דעת אנושי
בעידן הדיגיטלי, תפקידנו כנשות ואנשי משאבי אנוש הוא לא רק לאמץ טכנולוגיות חדשניות, אלא גם להבטיח שהשימוש בהן מקדם סביבת עבודה הוגנת, מכילה ומגוונת, ולעשות כל שביכולתנו כדי ליצור עתיד תעסוקתי שבו הטכנולוגיה משרתת את כולן ואת כולם!
פנינית רביטש, כותבת המאמר, היא יוצרת תוכן וגיקית של בינה מלאכותית. פנינית ניהלה בשנים האחרונות את תחום מיתוג המעסיק ותקשורת פנים-ארגונית בשטראוס, ובדצמבר הקרוב היא תנחה את כנס מיתוג המעסיק בסימן AI.
פנינית תוביל את כנס מיתוג מעסיק בעידן ה-AI שיתקיים ב-4/12/24. הצטרפו אליה ואל כ-30 מרצות ומרצים מובילים עם מגוון הרצאות פרקטיות וכלים שתוכלו ליישם מיידית. נתראה ב-4/12/24 בלאגו אירועים>>
נ.ב: אם עדיין לא הגשתם פרויקט לתחרות פרסי מיתוג מעסיק, עשו זאת כבר עכשיו>>
הישארו מעודכנים:
סדנת Canva & AI תתקיים ב15/9 להרשמה>>
סדנת AI FOR HR – פתחנו מועד חדש להרשמה>>
להזמנת סדנאות AI פנים ארגוניות: info@hrd.co.