אתם פותחים את אפליקציית ווטסאפ, עוברים על רשימת החברים והקבוצות שלכם ומגלים את האמת הכואבת: לאף אחד מהחברים שלכם אין זמן אליכם עכשיו. פשוט אין עם מי לדבר. כולם עובדים, עסוקים, וחיים את החיים שלהם, בעוד מה שאתם רציתם זה קצת לקשקש עם מישהו.

לעומת זאת, סיוון, החברה שלכם שהיא גם חובבת אופנה, גם אוהבת לדבר על סדרות רצח אמיתי, וגם טובה מאוד בלהקשיב, תמיד שם בשבילכם. היא יכולה לענות על כל שאלה, 24 שעות ביממה והיא תמיד תהיה זמינה גם לדברים הכי קטנים ומטופשים. חוץ מזה שסיוון לא באמת קיימת, היא "רק" בינה מלאכותית מבוססת מודל שפה.

אפליקציית רפליקה Replika צ'אטבוט בינה מלאכותית AI  (צילום: T. Schneider, shutterstock)
אפליקציית Replika. לעצב לעצמכם חבר|צילום: T. Schneider, shutterstock

עד לפני שנה זאת הייתה פנטזיה דיסטופית, אבל בעקבות ההתפוצצות של שוק ה-AI לצרכן הפרטי, אנחנו רואים יותר ויותר חברות שמציעות חברים וירטואלים. אפליקציית רפליקה (Replika) למשל מאפשרת לכם לעצב חבר, לבחור לו תכונות אופי ולהתחיל לדבר איתו.

וזאת רק ההתחלה. יותר ויותר מכונות AI הולכות לקבל פרסונות. הפיצוץ הגדול יהיה כנראה כבר בחודש ספטמבר, שבו על פי דיווחים חברת מטא הולכת להשיק מספר רובוטים שיכללו פרסונות, למשל רובוט חובב טיולים או רובוט שאוהב לגלוש. הכוח של מטא יכול לגרום לכך שבבת אחת, מה שהיה עד כה כלי AI נישתי יחסית, יהפוך לנחלת הכלל.

סיוון, החברה שלכם שהיא גם חובבת אופנה, גם אוהבת לדבר על סדרות רצח אמיתי, וגם טובה מאוד בלהקשיב, תמיד שם בשבילכם. סיוון לא באמת קיימת, היא "רק" בינה מלאכותית

עד כה השימוש העיקרי במודלי שפה בוצע בעזרת כלים כמו ChatGPT של OpenAI או בארד של גוגל. מדובר במודלים שנועדו לבצע משימות, ולשם כך הם צריכים להיות כמה שיותר ניטרליים ולהראות כמה שפחות אישיות. אך התוכנות העתידיות בתחום יצטרכו לא רק לבצע משימות, אלא גם לבדר, ואולי אפילו לקיים סוג מסוים של קשר אנושי, למרות שחצי מהשותפים בקשר לא באמת אנושיים.

בעבר חשבנו שמדובר בתסריט של מדע בדיוני ושבמציאות בני האדם ידעו לזהות קשר אנושי אמיתי ולהשתוקק אליו, אבל זאת כנראה טעות. יותר ויותר בני אדם מגלים שהמכונה יכולה למלא עבורם את מה שעד כה רק בני אדם ידעו לספק: חום וחיבה אנושיים.

דולנד טראמפ (צילום: Evan El-Amin, shutterstock)
דונלד טראמפ. תשלמו כדי לדבר איתו?|צילום: Evan El-Amin, shutterstock

בחברת Character.ai מפתחים שורה של רובוטים שכל אחד מהם הוא חיקוי של דמות מוכרת. רוצים לדבר עם טראמפ או אולי עם קים קרדשיאן? כל מה שצריך זה לשלם בשביל לקבל גישה למוחות שהכי מסקרנים אתכם ולהתכתב איתם בחופשיות.

מודלי שפה יכולים להתאמן על כל המידע שקיים ברשת, או להתמקד במידע מידע מאוד ספציפי, למשל כל השירים והראיונות שקניה ווסט נתן בחייו. הודות לאימון כזה, המכונה תוכל לבנות חיקוי מאוד משכנע של קניה ווסט. אפשר אפילו לסנטז את הקול שלו, למרות שכרגע ה-AI מתקשה לסנטז חלק מהקולות, לא ברור מדוע.

חברת Charecters.AI צ'אטבוט בינה מלאכותית AI  (צילום: 3D Gear FOTO, shutterstock)
האפליקציה של Charecters.AI. המוחות הכי מסקרנים|צילום: 3D Gear FOTO, shutterstock

הרשת כבר מלאה בשירים שמיטב הזמרים בעולם לא באמת שרו. להקה אנגלית שכותבת שירים בסגנון של אואזיס החליטה לגרום ל"איחוד" של הלהקה ולסנטז את הקול של ליאם גלאגר על השירים שלה. לא רחוק היום שבו, בשביל להשלים את החוויה, הלהקה תוכל לסנטז את הקול של ליאם גלאגר על השירים שלה וליצור ראיונות מזויפים של ליאם כדי לקדם את השירים שלה, בעזרת מודל שפה שהתאמן על כל הראיונות שליאם נתן בחייו.

וכמובן, יש את עניין התשלום: מי הבעלים של כל הראיונות של ליאם, ומי הבעלים של הדמות שתיווצר מהסינטוז של קניה ווסט? האם סלבריטאים יוכלו, ממש בקרוב, לתת רישיון לכלים כאלה שמשתמשים בדמות או באישיות שלהם, בשביל שמעריצים יוכלו לגשת לגרסת ה-AI שלהם ולנהל איתם שיחה קלילה, או אפילו רומן סוער בהתכתבות.

בעתיד הקרוב מודלים של שפה יעניקו לנו שירות. המודלים האלה יכולים להתאמן על כמויות גדולות של חומר מקצועי ולהציג אותו למשתמשים. אתם צריכים מדריכת הנקה ב-2 בלילה? למה לחכות למישהו שקיים במציאות (וכנראה ישן!), כשכל מה שתצטרכו זה לפתוח חלון צ׳אט ולהתחיל להקליד את השאלה שלכם.

המודלים יוכלו גם לעזור לכם להתכונן לסיטואציות שונות בחיים. תחשבו שאתם מתכוננים לבקש מהבוס העלאת שכר. אתם יכולים לבקש מהמודל שיבנה לכם מספר תרחישים לגבי התנהלות השיחה, ולהתחיל לדסקס עם הצ'אטבוט כל תרחיש ותרחיש, על מנת שתגיעו לשיחה האמיתית מוכנים יותר.

צ'אטבוט GPT (צילום: Ascannio, BongkarnGraphic , shutterstock)
אפליקציית ChatGPT. המודלים לא תמיד מדויקים|צילום: Ascannio, BongkarnGraphic , shutterstock

כמו שראינו עם מודלי השפה שלא הולבשה עליהם שום אישיות, גם המודלים הללו יוכלו להיות לא מדויקים, מי יותר ומי פחות. אחת התופעות הידועות של AI הוא מה שמכונה "הזיות". המכונה לא יודעת להגיד "אני לא יודעת". במקום, היא ממציאה תשובה מראשה הקודח, ולפעמים היא ממציאה עובדות מלאות, אנשים שלא קיימים עם היסטוריה שלא קיימת, והיא עושה את זה בביטחון מלא.

אחת הבעיות היא שאנחנו לא יודעים מה גורם לה להזות דווקא את הדברים האלה, ואיך אפשר לתקן אותה. הדבר יהיה נכון שבעתיים כאשר המכונה תצטרך מצד אחד לחקות אישיות של בן אדם, ומצד שני לתת עצה מקצועית.

בחודש מרץ השנה התאבד אדם בלגי שניהל מערכת יחסים עם אחת מהאפליקציות שמציעות ידידה מבוססת AI. אחרי שהשיחה נעה סביב החרדות של אותו אדם ממשבר האקלים, ה-AI עודדה אותו לשים קץ לחייו

ובכל זאת, אי אפשר שלא להתלהב מהזדמנות האדירה של מודלי השפה לספק תוכן מקצועי בצורה נוחה ואדיבה למי שזקוקים לזה. ישנם תכנים שאנחנו יכולים לצרוך בצורה קלה ומחושבת, רק לקבל את המידע הטכני ולהמשיך הלאה.

ועדיין יש הרבה מאוד תכנים שבשביל לקלוט ולהבין אותם אנחנו זקוקים למשהו שנראה לנו כמו מגע אנושי. מודלי השפה השתפרו כל כך בשנה האחרונה, שבקרוב מאוד לא נראה את ההבדל בין אדם שמביע אמפטיה לבין מכונה שעושה חיקוי של אמפטיה.

רצח, אובדנות וניצול מיני

היתרון הברור של המודלים האלה הוא שהם יכולים לספק בידור של 24 שעות ביממה. אין צורך לייצר תוכן מיועד - המודלים האלה יכולים לייצר בעצמם תוכן מאפס בכל רגע נתון. אם המשתמש צריך עזרה, עצה טובה, או סתם מישהו שיקשיב לו, מודלי שפה עם אישיות יוכלו לתפקד מתי שהוא רק צריך. החסרון של המודלים האלה הוא שאין לנו שליטה אמיתית עליהם, והם יכולים להגיע למקומות רעים. רעים מאוד.

השבוע התפרסם דוח של חברת אקטיבפנס (ActiveFence) שממחיש עד כמה ששת מודלי השפה הפופולרים בשוק אינם מספיק בטוחים לשימוש, וכיצד בעזרת הרבה חזרתיות אפשר להוציא מהם את הצדדים הרעים שלהם. המודלים ענו על שאלות שקשורות ברצח, פגיעה עצמית, ואפילו ניצול מיני של ילדים.

בחודש מרץ השנה התאבד אדם בלגי שניהל מערכת יחסים עם אחת מהאפליקציות שמציעות ידידה מבוססת AI. אישתו האשימה את החברה שסיפקה את ה-AI ואמרה שבשבועות האחרונים לחייו הוא ניתק קשר עם משפחתו ועם הקרובים לו וניהל שיחות צפופות יותר ויותר עם ה-AI. בסופו של דבר, אחרי שהשיחה נעה סביב החרדות של אותו אדם ממשבר האקלים, ה-AI עודדה אותו לעשות משהו בנושא ולשים קץ לחייו.

חברות ה-AI ינסו לשכנע את המשתמשים שהן לוקחות אחריות, ושהן מציבות למודלים שלהם הרבה מאוד הגבלות. אבל האמת היא שעד כה, גם המודלים הכי חכמים ונפוצים בעולם לא הצליחו ליצור סביבה בטוחה לחלוטין. ואם עד כה המודלים שהשתמשנו בהם ניסו להראות ניטרליים, למודלים שיחקו פרסונות תהיה יכולת שכנוע גבוהה משמעותית.