כשאנשים הופכים לציון:
האתגר החדש של HR בעידן ה-AI


מאת יעקב רוזן – מוביל הכשרות AI פרקטיות להנהלות ועובדים ומוביל הטמעות AI בארגונים

אני מהנדס תעשייה וניהול בהכשרתי בתואר הראשון ואני מאמין גדול בדאטה.

אני מאמין במדידה, בניתוח נתונים, בזיהוי דפוסים, בשיפור תהליכים ובקבלת החלטות שמבוססות על מידע ולא רק על תחושת בטן.
במובן הזה, המשפט המפורסם שמיוחס לפיטר דרוקר תמיד היה בעיניי אחד המשפטים החשובים בעולם הניהול:

מה שנמדד – ניתן לשפר.

אבל בשנים האחרונות, כשהדאטה נכנס עמוק יותר לעולמות ה HR  ובעיקר כש AI מתחיל לנתח את הדאטה ואף להמליץ או ממש לקבל החלטות, אנחנו חייבים לשאול שאלה נוספת:

מה קורה כשהמדידה לא רק עוזרת לנו להשתפר, אלא מתחילה לנהל אותנו?

כי זה בדיוק המקום שבו עולם ה HR  נמצא היום.

  • מערכות גיוס מדרגות מועמדים לפי ציון התאמה.
  • מודלים אנליטיים מסמנים עובדים בסיכון עזיבה.
  • מערכות People Analytics מזהות טאלנטים, ממפות פערי ביצועים, מדרגות מנהלים ומציעות מי מתאים לקידום, לניוד או למסלול פיתוח.

ועכשיו נכנס לתמונה שלב חדש: AI שמקבל את כל הדאטה הזה, מנתח אותו, מחבר בין מקורות מידע שונים ומייצר המלצות שנראות מקצועיות, מנומקות ואובייקטיביות.

ומי שמאמין בדאטה, על פניו זה נשמע חלום.

סוף סוף יש לנו מספרים.
סוף סוף אפשר לזהות מגמות.
סוף סוף אפשר לנהל HR בצורה חכמה, מהירה ומבוססת יותר.

אבל מתחת לפני השטח מתרחשת תזוזת כוח דרמטית: החלטות לגבי עתיד אנשים, שבעבר היו בעיקר בידיים של מנהלים ואנשי HR מתחילות להיות מושפעות (ולעיתים כמעט מוכתבות) על ידי מערכות דאטה ו AI.

והשאלה הגדולה היא כבר לא האם דאטה טוב או רע.

השאלה היא:

מי בפועל מקבל את ההחלטה בנוגע לעתיד העובדי HR, , המנהל, הדאטה או בכלל ה-AI  שמפרש את הדאטה?

הדאטה חשוב אבל ההתמסרות העיוורת אליו מסוכנת

חשוב לומר זאת בצורה ברורה: הבעיה אינה בדאטה.

להפך. HR שלא יודע לעבוד עם נתונים יתקשה מאוד להיות שותף אסטרטגי אמיתי.
ארגון שלא מודד, לא באמת יכול להשתפר.
מנהלים שמקבלים החלטות רק על בסיס אינטואיציה חשופים להטיות, להעדפות אישיות ולפספוס של דפוסים חשובים.

אבל גם דאטה יכול להטעות.

ולפעמים הוא אפילו מסוכן יותר מתחושת בטן, כי הוא מגיע עם תחושה של אובייקטיביות.

המספר נראה ניטרלי.
ציון התאמה נראה מקצועי.
תחזית עזיבה נראית מדעית.
והמלצה של AI נראית כאילו מישהו כבר עשה עבורנו את הניתוח העמוק.

אבל מאחורי כל מודל יש בחירות אנושיות:
* איזה דאטה נכנס?
* איזה דאטה לא נכנס?
* על אילו עובדים או מועמדים המודל אומן?
* אילו הצלחות עבר הוא מנסה לשחזר?
* ואילו אוכלוסיות או כישורים הוא עלול לפספס?

כאשר AI מקבל החלטות על בסיס דאטה חלקי, מוטה או היסטורי, הוא לא בהכרח פותר את הבעיה. לפעמים הוא פשוט הופך את ההטיה למהירה, רחבה ומשכנעת יותר.

שלושה מקומות שבהם AI כבר משפיע על החלטות  HR

  1. גיוס ומיון מועמדים

מערכות גיוס כבר לא רק מנהלות קורות חיים.
הן מדרגות מועמדים, מסננות לפי מילות מפתח, מזהות התאמה לתיאור משרה ולעיתים מעדיפות מועמדים שדומים לעובדים שהצליחו בעבר בארגון.

זה יכול לחסוך זמן עצום, אבל גם לפספס מועמדים מעולים שלא נראים טוב “על הנייר”: מועמד שעשה שינוי קריירה, מועמדת עם מסלול לא ליניארי, אדם עם חור בקורות החיים בגלל מילואים, טיפול במשפחה או נסיבות חיים אחרות.

כאן HR חייב לשאול: מה המודל רואה ומה הוא לא רואה?

  1. חיזוי עזיבה ושימור עובדים

מודלים של חיזוי עזיבה יכולים לזהות עובדים בסיכון, לסמן בעיות במחלקות מסוימות ולהציף דפוסים של שחיקה, שכר, עומס או מחוברות.

אבל ברגע שעובד מקבל “ציון סיכון”, קל להתחיל לראות אותו דרך הציון הזה.
כל התנהגות שלו מקבלת פרשנות.
הוא שקט בישיבה? אולי הוא מנותק.
הוא שאל על קידום? אולי הוא בדרך החוצה.

AI  עלול אף להעמיק את הבעיה, כי הוא עלול לחבר עוד ועוד נקודות דאטה ולייצר סיפור שנשמע משכנע, גם כשהמציאות מורכבת יותר.

דאטה צריך לפתוח שיחה. לא לסגור אותה.

  1. קידומים, טאלנטים וניידות פנים ארגונית

אחד המקומות הרגישים ביותר הוא החלטות על הזדמנויות: מי מוגדר High Potential, מי נכנס למסלול ניהולי, מי מקבל פרויקט אסטרטגי ומי נשאר מחוץ לרשימה.

אם AI לומד מהעבר, הוא עלול לשכפל את העבר. ואם בעבר קידמנו בעיקר פרופיל מסוים של אנשים, מאותו רקע או מאותו סגנון ניהולי, המערכת עלולה לחזק את הדפוס הזה במקום לאתגר אותו.

במילים אחרות: דאטה לא רק משקף מציאות. לפעמים הוא מקבע אותה.

HR  כשומר הסף האנושי של הדאטה וה AI

בעידן החדש HR לא יכול להיות רק משתמש של מערכות אנליטיקה או צרכן של המלצות מערכת. HR  חייב להיות שומר הסף האנושי.

זה אומר לשאול שאלות כמו:

* איזה מידע נאסף על עובדים ומועמדים?
* האם הם יודעים שהמידע הזה משפיע על החלטות?
* האם יש שקיפות לגבי אופן קבלת ההחלטה?
* האם בדקנו אם המערכת פוגעת בקבוצות מסוימות?
* והאם ברור לכולם שהאחריות הסופית נשארת אצל בני אדם?

חמישה עקרונות לעבודה נכונה עם דאטה ו-AI ב-HR

  1. להגדיר מראש שהדאטה והAI  הם יועצים ולא מחליפי החלטה.
    הם חלק מהדיון, לא התשובה הסופית.
  2. לשלב תמיד נתונים כמותיים עם תמונה איכותנית.
    מספרים חשובים, אבל גם שיחות, הקשר, פידבק ודוגמאות מהשטח.
  3. להבין על מה המודל מבוסס.
    אנשי HR לא צריכים להיות מדעני נתונים, אבל כן להבין מהם הנתונים, מה נחשב “הצלחה” ומה עלול להשתבש.
  4. לבדוק מתי הדאטה או ה AI  טעו.
    אילו מועמדים קיבלו ציון נמוך והצליחו? אילו עובדים סומנו כסיכון ונשארו? אילו טאלנטים לא זוהו בזמן?
  5. לחזק את זכות הטלת הספק של HR
    היכולת לומר “אני רוצה להבין למה המערכת המליצה כך” היא לא התנגדות לטכנולוגיה. זו מקצועיות.

לסיום

העתיד של HR לא נמצא בחזרה לעולם של תחושות בטן בלבד.
אבל הוא גם לא נמצא בהתמסרות עיוורת לדאטה או ל-AI.

העתיד נמצא ביכולת להחזיק את המתח בין השניים.

כמי שמאמין מאוד בדאטה, אני חושב שאנשי HR צריכים להיות הראשונים לאמץ אותו.
אבל דווקא בגלל זה, הם גם צריכים להיות הראשונים להציב לו גבולות.

כי בעידן שבו כל החלטה על אנשים יכולה לקבל ציון, תחזית או המלצה אוטומטית – הערך של HR לא נעלם. הוא גדל.

מישהו צריך לוודא שהארגון לא מתבלבל בין מספר לבין אדם.

מה שנמדד – ניתן לשפר.
אבל בעידן ה-AI,  אנשי HR חייבים להוסיף עיקרון נוסף:

מה שנמדד ומה שמנותח על ידי AI חייב גם להיבחן באחריות.

לסדנת קלוד פתוחה לעובדים ומנהלים לחצו כאן
ל
הזמנת סדנת קלוד מותאמת לארגון שלחו לנו מייל כאן

כבר הצטרפת לניוזלטר שלנו?

קבלו עדכונים על כל התכנים החדשים שעולים כאן + עדכונים על מיטאפים, כנסים והצעות רלוונטיות

מכירים עוד חברים או קולגות שייהנו מהמאמר? שתפו אותם:

Facebook
LinkedIn
Email
WhatsApp

אם נהנת מהמאמר הזה, הנה עוד כמה טובים:

הצטרפת כבר לקהילת הפייסבוק המקצועית והסגורה שלנו הכוללת מעל ל 12,000 אנשי גיוס ו HR?

עוד דברים שיכולים לעניין אותך