חוקרים מאוניברסיטת בן גוריון בנגב פיתחו אלגוריתם המאפשר לזהות רשתות של בוטים שמופעלים למטרות זדוניות. הזיהוי נעשה על בסיס התנהגות משתתפי הרשת ולא על בסיס התוכן שהם משתפים, ולכן הוא עשוי להוביל לזיהוי רשתות שלא זוהו בשיטות הקיימות. מאמר המתאר את הטכנולוגיה פורסם במאגר המאמרים האקדמיים arXiv.
במערכת הביטחון השמיעו בימים האחרונים חששות כי גורמים עויינים עושים שימוש ברשתות בוטים בישראל במטרה להשפיע על תוצאות הבחירות הקרובות. רשתות בוטים פועלות על ידי יצירת שיח בין חשבונות פיקטיביים, בדרך כלל כאלה שהוקמו על ידי משתמש בודד שפועל כמו "מפעיל בובות" ומנהל את כולם.
השיח נועד לייצר אמינות כלפי החשבונות המזוייפים, והוא מאפשר להשתמש ברשת הבוטים לצורך הלהטת רוחות, השפעה על קבלת החלטות, השפעה על תוצאות בחירות או חדירה לנתונים של קורבן מסוים.
החוקרים לא התיימרו לזהות מתקפות תודעה על ישראל או ניסיונות חדירה של האקרים. למעשה מדובר במחקר תיאורטי שממצאיו מראים, שניתן באמצעות למידת מכונה (ML) לאתר רשתות זדוניות על בסיס האנומליה של המשתתפים בהן, בהשוואה לרשתות לגיטימיות. ככל שהאנומליה גבוהה יותר כך גדל הסיכון לפעילות עוינת. את זיהוי הפעילות עצמה משאירים החוקרים לארגונים העוסקים במניעת שנאה ברשת.
ד"ר מיכאל פייר, חבר סגל באוניברסיטת בן גוריון: "חיפשנו קהילות שיש בהן הרבה משתמשים, קהילות מוזרות עם משתמשים שלא אמורים להיות בהן. ההנחה היא שבקהילה אנומלית המשתתפים עושים דברים לא טובים ביחד"
ד"ר מיכאל פייר, חבר סגל במחלקה להנדסת מערכות תוכנה ומידע באוניברסיטת בן גוריון, אומר כי האלגוריתם שפותח כעת יכול לזהות אנומליות בסוגים רבים של רשתות, בהן גם רשתות חברתיות. "חיפשנו קהילות שיש בהן הרבה משתמשים, קהילות מוזרות עם משתמשים שלא אמורים להיות בהן. ההנחה היא שבקהילה אנומלית המשתתפים עושים דברים לא טובים ביחד".
קבוצת המחקר שמנהל ד"ר פייר נקראת מעבדת data4good. שותפים למחקר גם שי לפיד ודימה קגן. "אנחנו מחפשים לעשות דברים מעניינים לטובת הכלל, אנחנו באים לעזור", הוא אומר. מה שמעניין בטכנולוגיה החדשה שפותחה במעבדה, זה שהיא ישימה בסוגים רבים נוספים של רשתות, כמו למשל משתתפים בשיחות בוויקיפדיה, רשתות בתחום הגיימינג, אפילו רשתות ביולוגיות.
לדברי פייר קבוצת המחקר פיתחה אלגוריתמים לזיהוי משתמשים פיקטיביים כבר ב-2002, עוד לפני שהתופעה הזו הפכה לנפוצה: "במשך הזמן העולם נהיה יותר מודע לזה, אבל בזמנו אף אחד לא ידע מה זה בכלל וגם את פייסבוק זה לא עניין אז".
כעת עבר מוקד העניין לזיהוי רשתות פיקטיביות. מסביר פייר: "הבעיה היא שאין לנו הרבה מקורות מידע על קהילות אנומליות, בעיקר כי אין הגדרה לזה ומישהו צריך לעבור על זה ולהחליט שזו אנומליה. אז אנחנו בנינו אלגוריתם שמזהה את הקהילות האלה לפי המשתתפים, האם חבר מסוים אמור להיות שייך לקהילה, עם מי הוא דיבר, מי ענה לו בתגובות. לפי הסתברויות על הדברים האלה זיהינו אנומליות ודירגנו כל קהילה לפי רמת האנומליה שלה".
האם יש לטכנולוגיה הזו פוטנציאל שוק? האם מטא או טוויטר עשויות להתעניין בה? מדובר בסט כלים שיכול לסייע לרשתות החברתיות להתמודד מול התחכום המתגבר של הגורמים העויינים, ולאפשר לזהות לא רק משתמשים פיקטיביים אלא רשתות שלמות שלהם
החוקרים בדקו את יעילות האלגוריתם ברשתות סימולטיביות וברשתות בעולם האמיתי, ומצאו שהיא מניבה תוצאות טובות יותר משיטות קודמות. "בהשוואת האלגוריתם שלנו עם אלגוריתמים אחרים, נצפו ביצועים טובים יותר גם בסימולציה וגם בעולם האמיתי במקרים רבים. הצלחנו לזהות קבוצות של קהילות משתמשים חריגות שהציגו פעילות מקוונת חריגה", אומר ד"ר פייר.
האם יש לטכנולוגיה הזו פוטנציאל שוק? האם מטא או טוויטר עשויות להתעניין בה? פייר אומר שמדובר בסט כלים שיכול לסייע לרשתות החברתיות להתמודד מול התחכום המתגבר של הגורמים העויינים, ולאפשר לזהות לא רק משתמשים פיקטיביים אלא רשתות שלמות שלהם.
האם יש לפלטפורמות עניין להסיר קהילות פיקטיביות שלמות? זו כבר שאלה אחרת. הניסיון מראה שהרשתות משתדלות לעשות את המינימום ופועלות רק במעלה לתלונות שהן מקבלות. כעת, במחקר אחר שמתנהל באוניברסיטה מנסים את האלגוריתם בזיהוי רשתות של חלבונים והאם ניתן לזהות מבנים אנומליים בעלי משמעות לבריאות האדם.