טיוטת מדיניות הרגולציה על פיתוח בינה מלאכותית שפירסם משרד החדשנות, המדע והטכנולוגיה להערות הציבור, מבורכת אך נראית מנותקת מהמציאות שבה אנחנו חיים. לפי הצעת המשרד, שנכתבה עם מחלקת ייעוץ וחקיקה במשרד המשפטים, חברות ישראליות שמפתחות בינה מלאכותית לא יידרשו לדיווח על דרך פעולת ה-AI שלהן, אלא יפעלו לאור "מצפן ערכי ועסקי" שהממשלה פירסמה.
הגישה המקלה הזו כאילו מתעלמת מהסכנות הכרוכות בבינה מלאכותית. מה, במשרד החדשנות לא שמעו על מערכות AI לסינון מועמדים לעבודה או לקבלת הלוואות, שמפלות לרעה אוכלוסיות מסוימות? מה, היועצים המשפטיים לא שמעו על הנדסת תודעה ברשתות החברתיות, שמשפיעה על תוצאות בחירות? ומה על מערכות לזיהוי מחלות שפיספסו חולה והוא מת? או מערכות נהיגה אוטונומית שפיספסו הולכת רגל, וגם היא מתה? האם המצפן הערכי היה מונע מהחברות לפתח את המערכות האלה?
הוויכוח על מידת הפיקוח על בינה מלאכותית מתנהל כבר שנים. חברות כמו פייסבוק וגוגל זומנו לשימועים וספגו קנסות כבדים. הפרסומים על מערכות לזיהוי פנים שהפלילו אזרחים שחורים חפים מפשע או על נזקי אינסטגרם לדימוי הגוף של נערות צעירות הסעירו את העולם. בבריטניה הופעלו מערכות AI לסינון מהגרים. בסין מופעלות מערכות שמדרגות את האזרחים לפי תרומתם לאומה. היכולות של בינה מלאכותית ולמידת מכונה הן אינסופיות. הריסון – כלומר מה ראוי שלא יפותח – הוא בינתיים מועט ביותר.
איש לא מאשים את חברות הבינה המלאכותית בשאיפה לגרום נזק לציבור. אבל שאיפה לעשיית רווחים יש גם יש, ולפעמים היא מאפילה על זהירות מפני פיתוח יכולות לא מוסריות ופוגעניות
באיחוד האירופי מתנהל עכשיו הליך חקיקה של רגולציה נשכנית הרבה יותר. לפי הגישה האירופית, חברות שמפתחות AI יצטרכו לענות על שורה של שאלות לגבי המערכת המתוכננת, מטרתה, דרך איסוף הנתונים והשימוש בהם, והסבר איך הקוד עובד. החובה הזו תחול על מערכות שיוגדרו כ"סיכון גבוה", כאלה שמשפיעות על זכויות האדם, שמזהות רגשות או שמשפיעות על קבלת החלטות. מערכות בסיכון נמוך יותר יידרשו לרגולציה עצמית. מערכות שיוגדרו "בלתי קבילות" כמו מערכות דירוג חברתי, לא יוכלו לקבל רישיון לפעולה באירופה. חברה שתפר את הכללים בפיתוח או בשימוש ב-AI צפויה לקנס בגובה של 6% מההכנסות השנתיות, ושלא יפחת מ-30 מיליון יורו.
הגנה על האזרח או תחרות
החקיקה האירופית קובעת שהחובה הזו של מפתחי AI לא תפגע בקניין הרוחני של החברות אבל היא עלולה לפגוע בחופש לעשיית עסקים או בחופש האמנותי. וזהו לב הוויכוח סביב החקיקה: האם להעדיף את ההגנה על האזרח וזכותו שלא יסננו, ימיינו, יסווגו או יזהו אותו, או להעדיף את יכולת התחרות של חברות אירופיות בתחומי הבינה המלאכותית מול חברות פחות מרוסנות משאר העולם. למשל מישראל.
גופי רגולציה אחרים בעולם פירסמו הנחיות פחות מחייבות. מכון התקנים האמריקאי (NIST) פירסם מסמך המתאר שיטה להערכת אמון המשתמשים במערכות AI. הבית הלבן פרסם הנחיות משלו, כך גם ממשלת סינגפור ועוד. כל הגופים האלה, גם בישראל, מצאו את עצמם מול לובי לא רשמי של חברות פיתוח הבינה המלאכותית, בהן גוגל, מטא וגם מובילאיי, שרוצות רגולציה (אחרת האחריות לנזק חלילה תיפול עליהן), אבל כזו שלא תגביל אותן באמת. מבחינתן פיקוח על בינה מלאכותית הוא אבן ריחיים על צווארה של התעשייה.
כותבי הדוח לא שמעו על מערכות AI לסינון מועמדים לעבודה או לקבלת הלוואות, שמפלות לרעה אוכלוסיות מסוימות? על הנדסת תודעה ברשתות החברתיות, שמשפיעה על תוצאות בחירות?
איש לא מאשים את חברות הבינה המלאכותית בשאיפה לגרום נזק לציבור. אבל שאיפה לעשיית רווחים יש גם יש, ולפעמים היא מאפילה על זהירות מפני פיתוח יכולות לא מוסריות ופוגעניות. מפתחי הקוד על רצפת הייצור של הבינה המלאכותית בדרך כלל לא מטרידים את עצמם בשאלות אתיות. המנהלים שלהם מטרידים את עצמם בעמידה ביעדים העסקיים ובפיתוח כושר תחרות יותר מכל שיקול אחר. בהיעדר הנחיות, מגבלות ופיקוח מקרוב על התהליך, אנחנו עוד עלולים להתגעגע לימים שה-AI זיהתה בני אדם כקופים. היא מסוגלת לעשות מעשים נוראים הרבה יותר.
עכשיו המלצות משרד החדשנות מונחות לפתחו של הציבור, לקבלת הערות באמצעות אתר האינטרנט של הממשלה. בהמשך מתוכננים גם שולחנות עגולים לדיונים פנים אל פנים. זה הזמן לאלה שמבטאים את האינטרס של הציבור לבוא ולומר את דעתם. על השולחן כבר מונח נייר עמדה של המכון הישראלי לדמוקרטיה, שמציע מודל לשקיפות אלגוריתמית, כזו שתחייב את החברות להסבר של החלטות ה-AI שלהן או לפחות להוכחה שהיא מתפקדת באופן שוויוני ולא פוגעני. אפשר להניח שלגופים נוספים ולמומחים בתחום יש עמדות נוספות. אסור להשאיר את הזירה לחברות ה-AI לבדן. זה הזמן להכריע בין אינטרסים.