בחודשים האחרונים אנחנו מוצפים בסיפורים על מפגש של בני אדם עם כלים מתקדמים של בינה מלאכותית. אנשים מדווחים על ציורים ש-Dall-E צייר עבורם שנראים טיפה מטרידים, או על שיחות עם כלים כמו ChatGPT שיצאו משליטה. המשותף בהרבה מקרים הוא שאנחנו מוצאים פתאום בכלים האלה, שהם בסך הכל כלים הסתברותיים שמנחשים בעזרת סטטיסטיקה מה הדבר הנכון להגיד, איזושהי אישיות.
העיתונאי קווין רוס מהניו יורק טיימס תיאר את השיחה שהוא ניהל עם מנוע בינג החדש. הצ'אט ניסה לשכנע אותו שהוא אוהב אותו ושהוא צריך לעזוב את אשתו כי הוא לא מרוצה בנישואים שלו. רוס תיאר את החוויה כאחת המוזרות שהיתה לו אי פעם, וסיפר שהוא לא ישן טוב באותו הלילה. למה רוס, שמבין היטב מה עומד מאחורי הכלי הזה בתור מי שמסקר את התחום כבר שנים, נבהל כל כך?
ייתכן שהקשר בין אדם למכונה התקדם בחודשים האחרונים בצורה משמעותית יותר ממה שאפשר לדמיין. הסיפור של רפליקה יכול להעיד על כך. רפליקה הוא צ'אטבוט AI בסגנון ChatGPT, אבל עם הבדל אחד משמעותי: הוא מאפשר למשתמשים לדבר עם הצ'טבוט בצורה הרבה יותר בוטה. השבוע הודיעו בחברה שיימנעו ממשתמשים להשתמש במנוע כ-ERP, ראשי תיבות של explicit role play. בואו לא נלך סחור סחור: המשתמשים פשוט השתמשו ברפליקה בשביל לנהל שיחות סקס עם AI ועכשיו הם לא יוכלו לעשות את זה.
משתמשים רבים ברפליקה יצאו מדעתם, ובפורום הרדיט הלא רשמי של הצ'אטבוט פורסמו הרבה הודעות כועסות, איומים בתביעות, ואפילו רשימה של טלפונים לתמיכה נפשית. כן, אנשים פיתחו כזה קשר רגשי עם הבוט, שהם נאלצים עכשיו לפנות לטיפול בעקבות הסרה של פיצ׳ר אחד. זאת אומרת שרפליקה הצליח כל כך לשכנע באישיות שלו, שהוא הצליח למלא איזשהו חלל רגשי עבור המשתמשים.
רפליקה הוא צ'אטבוט AI שאפשר למשתמשים לדבר בצורה בוטה, או בקיצור לנהל איתו שיחות סקס. השבוע הודיעו המפתחים שלו שהאפשרות הזו תיחסם למשתמשים, ופורום הרדיט שעסק בצ'טבוט התמלא בהודעות כועסות, איומים בתביעות, ואפילו בטלפונים לתמיכה נפשית
ברובוטיקה יש מונח שנקרא Valley of the Uncanny, או עמק המוזרות. זו תופעה שבה אנו חווים עצמים לא אנושיים שאמורים לחקות בן אדם. כשמשהו שם לא עובד ומרגיש לא אמיתי - זה צורם. הצפייה ברובוט שדומה לבני אדם כמעט לחלוטין אבל מפגין תכונה אחת קלה לא אמינה - יכולה לגרום לצופה תחושת אי נחת, לפעמים קשה במיוחד.
יש משהו מטריד בצפייה ברובוט שמנסה להציג איזשהו חיקוי של תכונות אנושיות. כשאנו עומדים מול טקסטים שנכתבו מול מכונה שמנסה לעשות חיקוי של בני אדם, יש אפקט דומה. כשמכונות מנסות לעשות חיקוי של אישיות, לספר בדיחה, או לגלות לנו סוד ולספר לנו על התחושות שלהן - הן רק עושות חיקוי, אבל לנו זה נחווה אחרת לגמרי.
ובכל זאת, נראה שכבר עכשיו אנשים שמצליחים להיקשר למכונות הללו. גם היום כלים כמו ChatGPT או רפליקה לא עוברים במאה אחוזים את מבחן טיורינג, אותו מבחן מפורסם שבוחן האם הכלי שעומד מולנו הוא מכונה או בן אנוש. אבל הם קרובים לעבור אותו יותר מבכל נקודה אחרת בהיסטוריה.
עכשיו אנחנו מתחילים לראות את ההשלכות של זה: משתמשים ימצאו בכלים האלה לא רק עובדות, אלא גם חיבור רגשי עמוק. לכלים האלה יש את הפוטנציאל למלא איזשהו חלל רגשי, צורך אנושי בסיסי להרבה מאוד אנשים.
אם הייתם שואלים לפני 20 שנה את האנשים שהיו אז בחוד החנית של פיתוח הבינה המלאכותית מה יהיו האתגרים הגדולים של הטכנולוגיה - כנראה שהייתם מקבלים תשובות שונות מאד מהמציאות של ימינו. אותם מומחים היו כנראה אומרים שהטכנולוגיה תהיה טובה מאוד בסיפור עובדות, תקצור רשימות, חישוב מתמטיקה מסובכת או הרכבת טענות לוגיות מורכבות. הם היו מעריכים שהבינה המלאכותית תתקשה בהבעת רגשות אנושיים או בשכנוע שיש בה משהו אנושי אמיתי.
והנה אנחנו בפתחו של עידן חדש. כלי האינטיליגנציה המלאכותית עשו השנה קפיצת מדרגה שלא חלמנו עליה, ואנחנו מגלים שההפך הוא הנכון - כלים כמו ChatGPT מתקשים עדיין עם לספק עובדות או לבנות טיעונים לוגיים. מה שהם כן טובים בו זה רטוריקה. הם טובים בלשכנע אתכם שמה שהם אומרים הוא אמת מוחלטת, ומסתבר שהם גם טובים בשכנוע רגשי.
הם עדיין מרגישים מסונתזים, אבל בני אדם כבר שנים צורכים אומנות מסונטזת ומוצאים בה אסתטיקה. כל זה לא אומר שהרובוטים באמת מביעים רגשות, הם בסך הכל אוספים את מה שנראה הסתברותית כהבעת רגשות.
אם חשבנו שלהתרגל לעידן הג'נרטיב AI זה מוזר מספיק גם ככה, אנחנו ניאלץ להתרגל גם למחשבים שמסוגלים לחקות רגשות בצורה משכנעת. יהיו הרבה שירצו להילחם בזה, ויהיו כאלה שישמחו למלא את החלל הרגשי שלהם במה שהמחשב יוכל לספק. ואם כל זה גורם לכם לנוע באי נוחות בכיסא, רק חכו ליום שבו תנהלו שיחה אינטימית מאוד עם מחשב ואפילו לא תדעו שזה לא אדם.