מאת עו"ד דן חי ועו"ד רועי סננס
האם בוטים הטרידו את איילה חסון? בתוכנית הרדיו שלה ב-103 FM, סיפרה חסון לאחרונה כי אחרי פרסום תחקירה על ניר חפץ, התקיפו אותה מילולית ברשתות החברתיות ודרכי תקשורת שונים. כשניסתה לברר מי הגורם, היא גילתה שהמדובר ב"בוטים" שמישהו שלח כנגדה.
'בוט' הוא למעשה אפליקציית תוכנה שמשלימה משימות באופן אוטומטי. בעגה היומיומית ובשימוש הנפוץ, הם ממשקי משתמש מבוססי שיחה שמיועדים ליצור אינטראקציה עם בני אדם או בינם לעצמם, בראשית תחת אלגוריתמים. בוטים יכולים להיות מבוססי ממשק קולי, ויזואלי או טקסטואלי. ההתקדמות הטכנולוגית בעולמות הבינה המלאכותית ולמידת מכונה מאפשרת פיתוח בוטים משוכללים המסוגלים להבין לא רק פקודות, אלא ללמוד שפה אנושית טבעית ולהגיב בהתאם.
בינה מלאכותית, מטרתה קירוב ככל האפשר אל תבונה אנושית. כדי להגיע לכך, מידע נאסף, מעובד, ובאלגוריתמים של למידת מכונה נלמדים דפוסי התנהגות אנושית, עד שלבסוף, נרכשת היכולת ללמוד מסיטואציה רגעית ולקבל החלטות דינמיות, ללא אלגוריתמים מובנים. כך, ערכו של מידע כמשאב נוסק לשחקים. התוצרים, יחדיו עם זרימת מידע בלתי פוסקת, מיושמים, נניח, בבוט, שמטרתו העיקרית היא להעניק שירות מסוים, אבל כמו במקרה של חסון, נראה כי ניתן לעשות בו גם שימוש לרעה.
בעידן המודרני, אנו רגילים כבר לעובדה שארגונים בתחומים מגוונים, אוספים עלינו כמויות עצומות של נתונים דיגיטליים בכדי לאפיין אותנו ואת הרגלי הצריכה שלנו, ולשווק אלינו פרסומות שיתפרו למידותנו. מדוע, אם כך, איסוף המידע בבינה מלאכותית מהווה קפיצת מדרגה שאמורה להדאיג אותנו? האם המקרה של חסון הוא הדוגמה לכך? או שמא המקרה בו בוט החליט לייחד לעצמו דעות אנטישמיות ולעודדן בטוויטר, כמו שארע במקרה אחר שפורסם לאחרונה?
הסיבה היא שה- AI לא יאסוף מידע רק על הרגלי הצריכה שלנו. במחקר שהתפרסם באוניברסיטת סטנפורד, תוארה טכנולוגיה המזהה נטייה מינית על בסיס זיהוי פנים, ברמת דיוק גבוהה יותר משל בני אדם. כלומר, באמצעות המידע שנאסף ממצלמות, הבינה המלאכותית מסוגלת לזהות את האהבות, הכעסים, הרצונות ואפילו את הנטיות המיניות שלנו.האם למשל, היינו מסכימים להיכנס לסופרמרקט AI המרושת במצלמות, אם היינו יודעים שכל פעולה שלנו כלקוחות תמימים, עוברי אורח, תירשם, תתועד ותנותח כדי לגלות ולאפיין, בין היתר, את הפרטים הללו? השלכות של טכנולוגיה שכזו בידיים הלא נכונות הן הרות אסון. האם זהו מידע שאנו מוכנים שיאספו עלינו ושיעשו בו שימוש?
החוק הישראלי דורש כי הסכמה לאיסוף ועיבוד מידע תהיה 'מדעת'. לשם כך, הגוף שאוסף ומשתמש במידע חייב לייחדו למטרה מסוימת. אולם, כשאנו דנים בבינה מלאכותית, האם ניתן כלל להגדיר מטרות? האם יש שליטה, לאדם הפרטי, בשימושים שיעשו במידע?
התחושה הראשונה שאמורה לעלות, היא צמרמורת מהידיעה שהפרטיות שלנו נתונה לחסדי מכונה, ולכאורה, מבלי שאנו יודעים למה הסכמנו. אולם, אף אם נטען כי פרטיותנו היא זכות אדם בסיסית, ולפיכך לא ניתנת למכירה, הרי שהשימוש במידע לבינה המלאכותית, איננו שלילי בהגדרה. להיפך, ל- AI ישנם שימושים חיוביים רבים, כמו פיתוחים רבים בתחומי הרפואה שלא היו מתאפשרים אלמלא הצלבת מידע בין תסמינים באדם אחד לאחר. כך, נדרש מאתנו להתאים עצמנו לעולם חדש.
במאי הקרוב יכנסו לתוקפן תקנות הגנת הפרטיות האירופאיות החדשות (GDPR). בחלקן ניתנת הדעת לסוגיות קשות, כמו זכותנו שלא להיות מושאים לקבלת החלטות אוטומטית על ידי מכונה. בתוך כך, מטילות התקנות האירופאיות חובות רבים ומעמסה כבדה על החברות המחזיקות במידע, לצד סנקציות כלכליות כבדות עוד יותר. התקנות חלות אף בישראל בנסיבות מסוימות, ומחייבות הנחת תשתית משפטית ראויה ויציבה.
עולם המשפט חייב לצעוד מוכן לקראת מערכה בה כל שחשבנו שניתן לעשות עם המידע שלנו, מקבל תפנית שונה לחלוטין. ב-'1984' של אורוול וב-'מראה שחורה' מוצג לעולם עתיד דיסטופי, הנשען על הפיכת יחסי הכוחות שבין האדם למכונה. בישראל, הקדמה הטכנולוגית שועטת הלאה, והמחוקק ישן. אין ספק שטוב היה אם יתעורר ויעשה סדר בתחום, לפני שהבינה המלאכותית תעשה זאת במקומו.
עו"ד דן חי עומד בראש משרד דן חי ושות' המתמחה בדני טכנולוגיה, פרטיות וסייבר.
עו"ד רועי סננס מרכז את תחום הדיגיטל וטכנולוגיות המידע המתקדמות במשרד דן חי ושות'.