אלפי שיחות עם ChatGPT נחשפו בתוצאות חיפוש בגוגל, ובהן מידע אישי ומידע עסקי רגיש

חברת OpenAI הודיעה בימים האחרונים על הסרת אפשרות השיתוף הפומבי בשירות ChatGPT, לאחר שהתברר כי אלפי שיחות של משתמשים, שהכילו מידע אישי רגיש במיוחד ומידע עסקי חסוי, הופיעו באופן פומבי בתוצאות החיפוש של גוגל. חשיפת המידע לא נבעה מפריצה או מתקלה טכנית, אלא מאפשרות מובנית של שיתוף שיחות, שבה המשתמשים סימנו בטעות כי השיחה "ניתנת לגילוי" על ידי מנועי חיפוש.

האפשרות, אשר הייתה כבויה כברירת מחדל ודרשה סימון אקטיבי, גרמה לכך שמשתמשים רבים חשפו בשוגג נתונים רגישים כגון סיסמאות, פרטי חשבון בנק, קורות חיים ואף מידע רפואי ואישי. כמו כן, בין השיחות שפורסמו ניתן היה למצוא גם מידע עסקי פנימי, חסוי ורגיש של חברות וארגונים המאפשרות לעובדיהן להיעזר בחשבון הצ'אט האישי שלהן בעבודה (או של עובדים שעשו זאת בלא הרשאה מתאימה). דיין סטאקי, סמנכ"ל אבטחת המידע של OpenAI, ציין כי החברה החליטה להסיר את התכונה בעקבות החשש משיתוף בלתי מכוון, ופנתה למנועי החיפוש הגדולים בבקשה למחוק את אלפי הקישורים שכבר הופצו.

כאשר האפשרות לשיתוף שיחות הייתה פעילה, ניתן היה למצוא ברשת אלפי שיחות שפורסמו על ידי משתמשים מכל העולם, לעיתים מבלי להבין עד הסוף שהשיחה תהפוך פומבית ונגישה דרך מנועי חיפוש כמו גוגל. החיפוש היה פשוט: מספיק היה להוסיף את הביטוי site:chatgpt.com/share לשאילתת חיפוש, והמערכת הייתה מציגה שיחות שנכתבו במקור בין משתמשים לצ'אטבוט, לעיתים כאלה הכוללות תכנים אישיים, רגישים או מביכים במיוחד.

בין השיחות שצצו בתוצאות החיפוש אפשר היה למצוא, למשל, משתמש שביקש עצה כיצד להתמודד עם בן זוג שמתנהג באופן פסיבי-אגרסיבי, או אדם שכתב כי הוא חש בודד, לחוץ ומתקשה לתפקד, וביקש עזרה באיתור קבוצות תמיכה. שיחות אחרות כללו גם תכנים הזויים, תיאוריות קונספירציה, פרטים מזהים או שאלות רגישות שברור שלא נועדו להתפרסם בפומבי.

החשיפה הזו עוררה ביקורת ציבורית רחבה כלפי OpenAI, שכן האפשרות לשתף שיחות הוצגה למשתמשים באופן שעלול היה לבלבל: לחיצה על כפתור "שתף" יצרה קישור ציבורי, אך רק סימון של תיבה נוספת, שנוסחה בנוסח מעורפל ("Make this chat discoverable"), הפך את השיחה לניתנת לאינדוקס במנועי חיפוש. רבים מהמשתמשים לא הבינו את ההשלכות, ובעקבות כך שיחות פרטיות רבות הפכו לגלויות וחשופות.

OpenAI הדגישה כי היא מאפשרת למשתמשים לשלוט במידע שלהם באמצעות כלים מובנים, כמו האפשרות למנוע שימוש בשיחות לאימון המודל, מחיקת שיחות קיימות ושימוש ב"צ'אט זמני" שאינו נשמר במערכת. עם זאת, המקרה מדגיש את החשיבות שבהבנת ההגדרות השונות בכלי בינה מלאכותית, ואת העובדה ששיחות עם צ'אטבוטים אינן מוצפנות, ועלולות להיחשף באופן בלתי צפוי. המקרה הזה ממחיש עד כמה חשוב שחברות וארגונים אשר שוקלים שימוש בכלי בינה מלאכותית יוצרת (Generative AI) ינהגו באחריות ובזהירות, ויתייחסו לטכנולוגיות אלו כאל שינוי מהותי באופן ניהול המידע והעבודה, לא כאל עוד מערכת מידע. הטמעה של כלים מבוססי בינה מלאכותית מחייבת תהליך סדור הכולל מדיניות פנים-ארגונית ברורה, נהלי רכש והטמעה, בקרה שוטפת, פיקוח אנושי צמוד, הדרכות לעובדים, הסדרה של הרשאות גישה, והגדרה מדויקת של סוגי המידע שמותר להזין למערכות. זהו מהלך שחייב להיעשות מתוך ראייה מערכתית ומתוך הבנה שמדובר בעידן חדש, עם אתגרים ואתיקה חדשים. אמנם לא ניתן להתעלם מיתרונות הטכנולוגיה, אבל מתוך הבנה עמוקה של הסיכונים הנובעים משימוש בכלים אלו מחייב כל חברה לבנות תרבות ארגונית של שימוש בטוח ואחראי בכלי בינה מלאכותית. האחריות לא יכולה להישאר בידי העובד הבודד או המחלקה הטכנולוגית, הנהלה, משפטנים, אנשי אבטחת מידע ומקבלי החלטות חייבים לקחת חלק פעיל בעיצוב מדיניות המסדירה את האופן שבו נעשה שימוש בטכנולוגיות אלו, כדי להבטיח שימוש אחראי, בטוח ושקול.

שתפו את הפוסט:

Facebook
Twitter
LinkedIn
דילוג לתוכן