צחוק הגורל: סין, דווקא סין, הופכת השבוע למדינה המובילה בעולם בחקיקה על הציבור הרחב מפני ניצול וריגול מצד ענקיות הטכנולוגיה. החל מאתמול (1.3.2022) נכנס לתוקפו בסין "חוק הפיקוח על הבינה המלאכותית".
על פי החוק החדש, שנושא את השם "הנחיות שירותי מידע וניהול המלצות אלגוריתמיות באינטרנט", חברות יהיו מנועות מלהשתמש במידע שהן צוברות על לקוחות כדי להציע מחירים שונים על אותו שירות, חברות החיפוש לא יוכלו להשתמש במידע כזה כדי להציג תוצאות שונות לכל גולש, וחברות המלצות המוסיקה והווידאו לא יוכלו להציע תכנים שונים – אלא אם קיבלו הסכמה מפורשת של המשתמש.
בקליפת אגוז, היום אמזון מציעה לכם מוצרים שמתבססים על רכישות עבר שלכם, וחברות הסעות או מלונות מציעים לכם את המחיר המירבי שהן סבורות שתסכימו לשלם. הכל מבוסס כמובן על בינה מלאכותית ועל יכולות המעקב של חברות שירותים עליכם. החקיקה החדשה בסין אמורה לחייב את החברות בחשיפת השימוש ב-AI, את המטרה של השימוש הזה, וגם לאפשר לגולשים למנוע את השימוש הזה.
החוק גם אוסר על חברות להפעיל את האלגוריתם כך שיעודד התמכרות לפיד. הן גם מחוייבות לציין בפני כל משתמש שהפיד שלו מנוהל בידי אלגוריתם ומתבסס על נתונים שנצברו על אודותיו, וגם יאפשרו לו להסיר את עצמו מהמעקב או למחוק את הקטגוריות המאפיינות אותו. חלק מהקטגוריות הללו יהיו בכלל אסורות על פי החוק החדש, כוונת המחוקק בנקודה הזו עדיין עמומה. הרעיון הוא לאסור תיוגים כמו שייכות לקבוצות אוכלוסייה מסויימות, לחתך סוציו-אקונומי מסויים, לנטיות דתיות או מיניות. אבל אפשר לחשוד שייאסרו גם תיוגים לפי מילים כמו חופש או דמוקרטיה ושהסעיף הזה ישמש כדי ליישר קו עם רוח המפלגה וטובת העם. חלק מלשון החוק היא אפילו הנחיות שחברות "יאחזו בערכים של המיינסטרים", "יפיצו אנרגיה חיובית" ו"ימנעו או יפחיתו מחלוקות וסכסוכים". חברות שהאלגוריתם שלהן משפיע על דעת קהל יידרשו לדווח על יכולת זו.
הרעיון הוא לאסור תיוגים כמו שייכות לקבוצות אוכלוסייה מסויימות, לחתך סוציו-אקונומי מסויים, לנטיות דתיות או מיניות. אבל אפשר לחשוד שייאסרו גם תיוגים לפי מילים כמו חופש או דמוקרטיה ושהסעיף הזה ישמש כדי ליישר קו עם רוח המפלגה וטובת העם
יוזמת החקיקה יצאה ממשרד הסייברספייס של סין, גוף רב עוצמה שאוכף גם את הנחיות אבטחת הסייבר, הצנזורה באינטרנט וההנחיות לסחר מקוון. אלה החבר'ה שעוסקים במניעת חשבונות מזוייפים במדיה החברתית, מסירת נתוני טראפיק מסולפים, ובאיסור על תוכן ממכר באינטרנט. לאחרונה נוספו למשימות המשרד גם טיפול בשימוש לרעה בתכנים סינתטיים, קרי סרטוני דיפ פייק. האם לא היינו רוצים שיהיה משרד כזה גם בממשלת ישראל?
יובל וינרב, שותף ומנהל בחברת Krystal Eight ומומחה לעסקים בסין, מסביר שחקיקת ה-AI החדשה של סין היא חלק מתוכנית אסטרטגית שהוכרזה ב-2017 ושעתידה להסתיים ב-2030 ולהביא את סין להיות המעצמה המובילה בעולם בתחום הבינה המלאכותית. "אחד הדברים המשמעותיים היה בתחום הרגולציה", הוא אומר, "בשלב הראשון הם דיברו על זה שהם רוצים להדביק את הפערים הרגולטוריים. אבל עכשיו, עם החוקים על האלגוריתמים, זו בעצם הפעם הראשונה שסין מובילה מהלך רגולטורי, שבמערב הוא בינתיים רק בדיונים. בסין לקחו את ההובלה והם הראשונים שמגדירים איך זה צריך להתנהל".
וינרב מסביר כי הרגולציה הסינית מחלקת את המידע לשלוש קטגוריות. האחת היא מידע אישי פרטי שחלה עליו חקיקה בסגנון ה-GDPR שנקראת בסין PIPL - Private Information Protection Law. השנייה היא מידע רגיש מבחינה ביטחונית ולאומית, שמגבילה את האפשרות לעסוק בנושאים האלה. השלישית היא כל הנתונים שלא משתייכים לשתי הקטגוריות הקודמות – והמידע בה מהווה נכס של החברות שמחזיקות בו. החברות האלה מחויבות על פי החוק לשתף את הנתונים האלה בבורסות לנתונים, תמורת תשלום שהן גובות.
"החוק החדש עוסק בשאלה למה משמשים הנתונים", אומר וינרב, "הסינים פתרו בעיה שקיימת בכל העולם. הדיון שקורה בארה"ב מול גוגל ופייסבוק שמשתמשות בנתונים שלנו, הסרטים על איך פייסבוק משפיעה על האנשים ומעודדת קיטוב, כמובן הפרסומות שרודפות אחריך לכל מקום - סין באה לתקן את כל הבעיות האלה".
כשמדובר במימשל הסיני, היכולת לפקח על ה-AI לא צריכה להדאיג?
"היא יכולה להיות מדאיגה אבל מצד שני היא יכולה להיות יעילה. אם אנחנו מניחים שכל מה שהסינים עושים נובע מאינטרס זדוני אז זה באמת מדאיג. אבל אם מסתכלים על המשתמשים הסינים, אפשר לראות שעל פניו - וצריך לראות איך יבוצע בפועל - החוקים האלה באים להגן עליהם".
אכיפה? בסין זה לא אישיו
ההערכות ערב כניסת החוק לתוקף הן שהציבור הסיני מקבל את החקיקה כמועילה. בקבוצות שיח שונות ברשת, נשמעות הרבה טענות על חדירה לפרטיות מצד חברות הטכנולוגיה. החוק החדש מחייב את החברות לפתוח ערוץ תקשורת גלוי לתלונות על השירות שלהן, והרשויות יעקבו אחרי התלונות בתשומת לב. מצד שני הרגישות הזו לזכות לפרטיות מול חברות הטכנולוגיה נראית קצת מוזר על רקע העובדה שהממשלה בסין חודרת לכל נים בנבכי נשמתו של כל אזרח, מצלמת ועוקבת אחר כולם בכל רגע ורודפת קבוצות אוכלוסייה מסויימות באופן אגרסיבי. במצב עניינים כזה, יכול להיות שמחירים דיפרנציאליים מותאמי לקוח אינם הבעיה העיקרית של הציבור בסין.
אחת השאלות שצצות מייד היא איך מתכוונים השלטונות בסין לאכוף את החוק החדש. האם יהיה פקיד מטעם השלטון שינבור במעמקי הקוד של האלגוריתם ויחפש בו הטיות אסורות או עידוד התמכרות לפיד? וינרב אומר שבסין אין שאלות בנושאי אכיפה: החברות נדרשות לפקח על עצמן, השלטונות עושים בדיקות מדגמיות, מי שנחשף כעובר על החוק חוטף חזק, מה שמרתיע מראש את כל החברות מלהרהר באי ציות לחוק.
היה אפשר לראות את המנגנון הזה בפעולה בשנה האחרונה, כשהממשל הסיני פעל חזיתית מול כמה מהחברות החזקות ביותר במשק הסיני "כדי למנוע התנהלות מונופוליסטית" כלשון ההודעה הרשמית. עליבאבא נדרשה לשלם קנסות גבוהים על הפרת חוקי הקרטל וחברת ההסעות דידי סולקה מחנויות האפליקציות בעקבות ההנפקה שלה בבורסה האמריקאית. "חלק מהפטיש הרגולטורי שקיים בסין בשנה האחרונה נועד ליצור את ההרתעה הזו", אומר וינרב.
הממשלה בסין באמת מודאגת מפגיעה בפרטיות או שיש פה מוטיבציה נסתרת לשלוט בעוד נתוני אזרחים?
"המוטיבציה היא אכן טובת האזרחים. למרות שמהשטר אוטוריטרי, מבחינה תרבותית והיסטורית התפיסה בסין היא שהשלטון נועד לשרת את העם. יש מושג בסין של 'מנדט השמיים' שקיים כבר 2,500 שנה, שלפיו השליט יכול לשלוט כל עוד הוא דואג לעם, לרווחה ולביטחון. יש הרבה רעש בסין סביב צרכנים שמרגישים שהחברות שולטות ביותר מדי מידע עליהם, והרעיון הוא לתת לעם את מה שהוא רוצה.
יובל וינרב, Krystal Eight: "סין נמצאת במהלך אסטרטגי של שינוי מכלכלה דיגיטלית וצרכנית לדיפ טק. האינטרס של הממשלה הוא לכוון את חברות לעבור לזה ואין לה בעיה שחברות האיקומרס יהיו פחות רווחיות"
"ויש עוד עניין חשוב: סין נמצאת במהלך אסטרטגי של שינוי מכלכלה דיגיטלית וצרכנית לדיפ טק, לדברים יותר מהותיים כמו תעשיית השבבים והחלל, חקר המוח וביו-טכנולוגיה. האינטרס של הממשלה הוא לכוון את חברות לעבור לזה ואין להם בעיה שחברות האיקומרס יהיו פחות רווחיות".
האם החוק הזה נוגע לחברות ישראליות שפועלות בסין?
"זה רלוונטי לכל חברות האד-טק, טכנולוגיות הפרסום, שעובדות יפה בשוק הסיני יפה. זה מסבך להם את העניינים בגלל המעקב אחרי הדאטה והשימוש שהם עושים במידע שהם אוספים. אבל מי שידע לעשות את זה נכון להציע פתרונות שפועלים בתוך התחומים המותרים ועדיין להביא ערך – יהיה לו יתרון משמעותי. דבר שני: כדאי לכל מי שיש לו אפליקציה או שירות להכיר את הרגולציה הסינית. גם אם היא לא תאומץ כמו שהיא במדינות אחרות, עדיין היא תהיה נקודת התייחסות בהרבה מדינות אחרות".
ובינתיים במערב: בינה מלאכותית חסרת מעצורים
באותו זמן בעולם המערבי, הדרישה האינסופית למערכות AI יצרה תופעה של בינה מלאכותית חזירית: פיתוח מואץ של אלגוריתמים רשלניים שמכילים הטיות ואפליה, וגם אטימות לב לפגיעה בבני אדם שהם חומר הגלם של ה-AI. החקיקה החדשה בסין מרתקת את תשומת הלב של הפעילים בנושא, לא בהכרח כמודל לחיקוי אלא כניסוי חברתי בקנה מידה ענק.
הטרנד הנוכחי במערב מדבר על הגינות (fairness) בבינה המלאכותית. בארה"ב עוד ועוד מדינות וערים אוסרות על שימוש בזיהוי פנים על ידי המשטרה. בבריטניה נאסר על שימוש בזיהוי פנים בקליטת מהגרים בשדות התעופה. שימושים אחרים ב-AI נמצאים עכשיו על הכוונת. לפני כשנה פרסם האיחוד האירופי טיוטה של כללי הגינות בינה מלאכותית ומכון התקנים האמריקאי (NIST) פרסם שיטה למדידת אמון המשתמשים ב-AI.
לפי הצעת האיחוד האירופי יקבעו דרגות של סיכון AI: סיכון מינימלי, סיכון מוגבל, סיכון גבוה וסיכון בלתי קביל, למשל מערכת לסיווג חברתי כמו זו שמופעלת בסין. AI עם סיכון גבוה קיים במערכות לסינון עובדים, לסינון מהגרים, לדירוג אשראי, שאוספות הרבה נתונים מהרבה מקורות על בני אדם. החברות יידרשו לשקיפות ולריסון, האכיפה תהיה מחמירה – עד 6% מההכנסות השנתיות. בינתיים, באירופה כמו באירופה, יש ויכוח בין ארגוני זכויות אדם שרוצים החמרה מול ארגוני העסקים שמאיימים שהרגולציה המתוכננת תבריח חברות לארה"ב.
בישראל, המדינה ממנה יוצאות מרבית טכנולוגיות מעקב הסייבר וזיהוי הפנים אל העולם, הדיון על מוסריות של AI נמצא עדיין בחיתוליו. מצד שני המרמור על התנהגות האלגוריתמים של פייסבוק או טיקטוק מהדהד גם אצלנו. שני שרים הקימו לאחרונה ועדות שדנות באפשרות לרגולציה של הרשתות החברתיות ופיקוח על האלגוריתמים: שר המשפטים גדעון סער הכריז על הקמת ועדה בראשות מנכ"ל משרד המשפטים ערן דוידי, שתבחן דרכים לרגולציה של הרשתות החברתיות, הבינה מלאכותית וכלכלת הסחר במידע. במקביל הקים שר התקשורת יועז הנדל ועדה בראשות מנכ"לית משרד התקשורת, לירן אבישר בן חורין, לבחינת רגולציה של פעילות הרשתות החברתיות בישראל. בימים אלה מתכננת שרת המדע והטכנולוגיה אורית פרקש-הכהן להקים צוות נוסף לנושאי רגולציה על AI, שיתכלל את עבודת הממשלה בנושאים אלה.
הצוות היחיד בינתיים שבחן את הנושא והגיש המלצות ביצועיות היה הצוות לנושא אתיקה ורגולציה של בינה מלאכותית שפעל במסגרת "המיזם הלאומי למערכות נבונות בטוחות" שהגיש דו"ח לממשלה לפני כשנתיים. בראשות הצוות עמדה פרופ' קרין נהון, ראשת התוכנית לדאטה, ממשל ודמוקרטיה באוניברסיטת רייכמן. ההמלצות כללו כלי לבחינת "אתגרים אתיים" בעת פיתוח מוצרי בינה מלאכותית.
נהון אומרת שמדינת ישראל צריכה לקדם את הרגולציה על הבינה המלאכותית בהקדם: "בתת הוועדה לרגולציה ואתיקה הצענו כמה הצעות מאוד קונקרטיות. חשוב שמדינת ישראל תיקח את זה קדימה כי כיום זה נמצא בשיח בתוך משרדי הממשלה, שלאו דווקא יודעים זה על זה. וזה צריך כמובן להתכתב עם תוכניות הרגולציה במדינות היותר מפותחות, מדינות ה-OECD".
החקיקה בסין יכולה לשמש כמודל לרגולציה של AI?
"הסינים הם בעד רגולציה מאסיבית על חיי היומיום והעסקים הפרטיים. זה חלק מההסתכלות של איך יכולים לייצר סין משגשגת וצומחת ומצד שני איך מייצרים כמה שיותר פיקוח בקרה ושליטה על התנהגויות ברשת. הסיפור שהם מבקשים מהעסקים לדווח להם באופן שוטף כיצד האלגוריתם פועל - זה עובד כמו מה שהם תמיד ידעו לעשות – לפקח יותר".
באופן עקרוני, האם מדינה צריכה לפקח על השימוש ב-AI של חברות טכנולוגיה?
"זו שאלה מורכבת. כללית אני חושבת שמדינה צריכה כמה שפחות להתערב. עם זאת, כשיש כשלי שוק, כשאתה רואה שמשמשים באלגוריתם בצורה שמלכתחילה נועדה לייצר חוסר איזון ולמנוע תחרות, ושמייצרת פגיעה בפרטיות, אז צריך לבחון במה מדובר. אי אפשר לתת תשובה כן או לא, הרגולציה היא לא תרופת פלא".
אילו סוגי פיקוח יכולה המדינה להטיל על חברות שמשתמשות ב-AI?
"אתה יכול לדרוש סוגים מסויימים של שקיפות, למשל שקיפות אלגוריתמית. אבל זה נושא מאוד מורכב. יש מיליון פרמטרים, אז את מה שאתה רוצה שהן ינגישו? זה נורא יפה להגיד 'שקיפות שקיפות'. אני חושבת שהדרישה מעולם ה-AI צריכה להיות יותר אחריותיות, יותר שקיפות. לגבי כניסה ממש לפעולת העסקים, זה תלוי תעשייה. אם אתה שואל אותי, אי אפשר למנוע כליל טכנולוגיה. המילה אתיקה היא לא מילת גנאי והחברות הגדולות מכניסות אותה לכל מעגלי הפיתוח שלהן, עם נקודות בקרה אתיות".