לאן שלא נסתכל, בבית, במרחב הציבורי ובמקום העבודה, אנחנו מוקפים בינה מלאכותית. היא מייעלת את הפיתוח, התפעול והשירות, מאיצה תהליכים, מפחיתה עומסים, חוסכת כוח אדם ומשאבים ומאפשרת קבלת החלטות מושכלת ומבוססת נתונים. ב-2021 הסתכמו ההשקעות בתחום ה-AI בכ-77.5 מיליארד דולר, עלייה שנתית של 115% לעומת 2020, עם דחיפה משמעותית של טביעת הרגל הדיגיטלית בעקבות משבר הקורונה לצד פיתוח טכנולוגיות לניצול הדאטה שנוצר.
אין עוררין באשר להזדמנויות ליצירת ערך הגלומות בשימוש ב-AI, ונראה שאנחנו בקושי מגרדים את "קצה הקרחון". אך עלינו לזכור תמיד ש"אין ארוחות חינם". לצד התועלות הרבות, לבינה המלאכותית יש תג מחיר, ולאו דווקא כלכלי או מיידי. זה כמובן לא אומר להתנזר ממנה, אך בהחלט חשוב להישאר עם עיניים פקוחות ועם יד על הדופק, ולהכיר את הסיכונים החדשים, המשתנים או המתעצמים – החל משימוש בנתונים שגויים, פיתוח אלגוריתם הכולל הטיות ואפליה כלפי אוכלוסיות מסוימות, הפרת פרטיות הלקוחות ושלל איומי סייבר שונים. ניר זאוברר, שותף ב-Deloitte ומוביל פרקטיקת ניהול הסיכונים והציות הרגולטורי, ועקיבא ארליך, אף הוא שותף ב-Deloitte ומוביל פרקטיקת Risk Analytics, מזהים עליה רציפה וניכרת בעיסוק בפרקטיקת ניהול סיכוני ה AI.
הם מונים שישה תחומים מרכזיים שעל הארגון לבחון בבואו להשתמש בכלי בינה מלאכותית, כחלק ממסגרת Trustworthy AI של Deloitte:
הוגנות וחוסר פניות
מערכות הבינה המלאכותית צריכות להיות מגובות בתהליכי בחינה על מנת לוודא כי הן מפיקות תוצאות הוגנות כדי למנוע הטיות (Biases), אשר עלולות להוביל לתוצאות מפלות ולא הוגנות. כך למשל, ישנם ארגונים המשתמשים במודלי בינה מלאכותית בתהליך גיוס העובדים וסינון קורות החיים, והמודל עשוי לייצר אפליה כלפי אוכלוסייה מסוימת, גם אם זה לא תואם את ערכי הארגון.
איתנות ומהימנות
המודלים צריכים להגיע לרמת אמינות מיטבית, כדי להבטיח שהפעילות היומיומית שלנו נאותה ומתבצעת כהלכה.
הגנה על פרטיות
בינה מלאכותית נשענת על דאטה נרחב. חשוב לוודא שהנתונים נאספים כראוי, עם מודעות והסכמה מלאה ומשמשים אך ורק למטרות שלשמן נאסף. כל פגיעה בסטנדרט הפרטיות – שהפך זה מכבר לטאבו – עשויה להסב נזק מהותי לארגונים.
מודלים מאובטחים ומוגנים
על הארגון לנקוט באמצעי אבטחה מתאימים כדי להבטיח את שלמות ובטיחות הנתונים והאלגוריתמים, כרכיב בסיסי במסגרת הפעלת המודלים וניהול הנתונים.
קווי סמכות ואחריות
המורכבות והאוטונומיה ההולכת וגוברת של מערכות בינה מלאכותית עשויות לטשטש את קווי הסמכות והאחריות (Responsibility and Accountability) מאחורי הפעולות וההחלטות של מערכות אלו. על הארגון להגדיר באופן מוצהר את קווי הסמכות והאחריות של המודל, בדגש על קבלת החלטות, גורמי ניטור וגורמים המבצעים בחינה בלתי תלויה של נאותות המודל.
שקיפות וכושר הסבר
לא אחת כוללים המודלים "קופסה שחורה", אשר מקשים על הבנת השיקולים העומדים בבסיס החלטות ממוכנות, וקושי להסבירן בדיעבד. היכולת לתקף את המודל ולהציב אותו בקונטקסט הנכון, כלומר להותיר לעצמנו גישה לתוך הקופסה ותובנותיה, היא קריטית.
אם לא ננהל את הסיכונים הכרוכים בה, לא רק שלא נהנה מפירות ה-AI – אנחנו עלולים אף לגרום נזק. אבל זאוברר וארליך מעלים נקודה נוספת: חשוב שנבין את מידת הסיכון שאנחנו מוכנים לקחת (Risk Appetite). בפרופיילינג, בעולם הפשיעה והלחימה בטרור, ברור שסף הטעות (Threshold) יהיה מוקפד יותר מאשר בטרגוט לצורכי שיווק. רמת הסיכון הרצויה או הנסבלת תשפיע על הכלים שיבחרו. זאוברר מציין כי "כמו בהשקעות, לצד רמת סיכון גבוהה מדי, תיתכן גם רמה נמוכה מדי שתמזער את הסיכוי לרווח. אז אנחנו לא אומרים לא לנהוג בפרארי; רק לוודא תחילה שיודעים איך, ושיש לנו בלמים מתאימים".
"ארגון צריך להגדיר את כללי המשחק", מוסיף ארליך. "לדעת שהוא מזהה את הסיכונים, שהמכונה לא "בורחת" לו מגבולות הגזרה. בסוף יש קוד אתי, יש חזון, ומעל הכל העמידה ברגולציה ובחוק. חשוב להקפיד על כמה נקודות בקרה ביחס למודל. למשל: לוודא שהתוצאות עקביות, לבדוק היכן הדאטה עובד והיכן פחות, אולי ישנם תחומים ספציפיים שהמודל מגלה בהם חולשה. חשוב שנשאל את עצמנו שוב ושוב מה הסבירות שהתוצאה 'נכונה'. שנחפש את האוכלוסיות שאנחנו חושדים כי הודרו".
ניהול סיכונים בחמישה צעדים
כיצד יכולים הדירקטוריון, ההנהלה, השותפים, הרגולטור, ובעיקר הלקוחות, לדעת שלצד ההשקעה ב-AI, הסיכונים מנוהלים בצורה נאותה ובמסגרת סדורה, בלי "פאולים" של הטיות וטעויות? Deloitte, בעבודה משותפת עם ארגון COSO (הארגון הבינלאומי המוביל בתחום הסטנדרטים הארגוניים לבקרה פנימית וניהול סיכונים), גיבשה מסגרת הוליסטית המציעה פעולות פרקטיות לניהול סדור של סיכוני הבינה מלאכותית ברמה הכלל-ארגונית. לצד זאת, Deloitte ו-COSO מציעים את ה-Next Steps העיקריים:
גיבוש ממשל תאגידי סדור לתכנית הבינה המלאכותית
ראשית, לגבש תוכנית סדורה, המגדירה מראש מתי וכיצד ישתמש הארגון בבינה מלאכותית, כולל הגדרת המטרה והיעדים של יוזמות ה-AI המוצעות. יש להביא את כלל יוזמות הבינה המלאכותית בארגון תחת תכנית הוליסטית אחת, לצד מבנה ניהולי מתאים אשר יידע לפקח על הסיכונים ולשקפם להנהלה ולדירקטוריון.
גיבוש אסטרטגיית ניהול סיכוני בינה מלאכותית
הכוונה לאסטרטגיה כלל-ארגונית לניהול הסיכונים השונים הגלומים במודלי הבינה המלאכותית, לרבות בהיבטים אסטרטגיים, טכניים, רגולטוריים ותפעוליים. על אסטרטגיה זו לכלול חלוקת תפקידים, קווי סמכות ואחריות, בקרות ואמצעים למזעור הסיכונים. חשוב שכלל בעלי העניין יהיו מעורבים בתהליך ויישרו קו – לא עוד משחקי "חתול-ועכבר" בין סמנכ"ל הרגולציה ל-CTO ומפתחי האלגוריתמים.
הערכת ומיפוי סיכוני ה-AI
עבור כל מודל בינה מלאכותית שארגונכם עורך בו שימוש, אמדו את ההשפעה הפוטנציאלית של תוצאות לא-אופטימליות, לרבות השלכות אסטרטגיות, תפעוליות והטיות (Bias). עבור מודלי AI המשתלבים בתהליכים העסקיים זהו את הפגיעויות, הסבירות שהן יתממשו ולאחר מכן מפו את הסיכונים והבקרות כנגדם.
מיפוי ההזדמנויות והסיכונים ביוזמות הבינה המלאכותית
חשוב שתהיה מסגרת ארגונית ברורה לניהול ההזדמנויות והסיכונים. היא צריכה להיות איתנה, פורמלית ומתועדת (במדיניות ברורה או לפחות במצגת לבעלי העניין), עם כתובת ברורה – רצוי באחריות משותפת של מנהל הסיכונים הראשי (CRO) ומוביל ה-AI הארגוני, באישור פורמלי של צמרת הארגון.
הגדרת גישה לניהול סיכוני בינה מלאכותית ודווח לבעלי העניין
הטמיעו גישה מעשית לניהול השוטף של הסיכונים, לרבות בחינת היבטי תשואה-סיכון, הן בפרויקט הפרטני והן באופן כללי. נדרש מדד לכימות הסיכון, ונדרשת שקיפות מול כלל בעלי העניין. ניתן לשקול הקמה של צוות ייעודי לנושא או להסתייע בספק חיצוני.
בני אדם, מזכירים זאוברר וארליך, יודעים "לחוש". יש להם אינטואיציה ו(סביר להניח) שגם אתיקה ומצפון פנימי. לעומתם, האלגוריתם שמאחורי מנועי ה-AI עובד על פי מובהקויות מתמטיות. הם לוקחים כמויות אדירות של דאטה, לרבות מהסוג הלא מובנה (Unstructured Data), ולעיתים גם לא איכותי – וכאן אפשר בקלות ליפול. אבל בעזרת Skills and Culture – הכשרת האנשים ושינוי של התרבות הארגונית – לצד גיבוש מסגרת, מעקב סדור ואיזון נכון, ארגונים יכולים להתייעל ולשדרג את המוצרים והשירותים שלהם באופן ניכר. הם בהחלט יכולים ליהנות ממה שלבינה המלאכותית יש להציע להם, תוך ניהול מושכל של הסיכונים ועמידה בדרישות הרגולציה והאתיקה.
למידע נוסף לניהול סיכוני AI. לחצו כאן