טעויות בשימוש בבינה מלאכותית כבר הפכו לשגרה בעולם המשפט, אך המקרה הבא, שאירע בבית המשפט בניו יורק, מצליח לחרוג מהגבולות של תקרית מקצועית ולהפוך לדוגמה כמעט סוריאליסטית: עורך הדין מייקל פורטה נתפס כשהגיש מסמכים משפטיים שנכתבו באמצעות בינה מלאכותית, ואז – בתגובה לתלונה על כך – עשה זאת שוב.
מה שהחל כטעות אנוש פשוטה, הפך עד מהרה לתצוגה של רשלנות מקצועית נדירה. לאחר שהתביעה הבחינה כי ההפניות במסמכי ההגנה שהוגשו מטעמו של פורטה אינן מופיעות באף מאגר משפטי, היא הגישה בקשה לבית המשפט להטיל סנקציות על עורך הדין בגין רשלנות וחוסר אחריות מקצועית. פורטה, שביקש להגן על עצמו, הגיש כתב תגובה – אך במקום ללמוד מטעותו ולהציג הבהרות מבוססות, הוא הסתייע פעם נוספת באותו מנגנון שהביא אותו מלכתחילה למבוכה, והגיש תגובה שכללה בשנית פסיקה "מדומיינת" שנוצרה על-ידי מערכת בינה מלאכותית.
בדיון שנערך בפני השופט ג׳ואל כהן, ניסה פורטה לטעון כי כלל לא עשה שימוש בבינה מלאכותית. עם זאת, בהמשך, הוא "נדחק לפינה" והודה כי אכן השתמש בבינה מלאכותית, תוך שהוא טוען כי מעולם לא הכחיש את השימוש – אלא רק את השימוש ב"בינה מלאכותית בלתי מבוקרת" (Unvetted AI) – הבחנה תמוהה כשלעצמה. השופט כהן דחה את ההבחנה מכל וכל וקבע כי הציטוטים הפיקטיביים אינם מותירים ספק בשימוש שנעשה בכלי כזה. בהחלטתו ציין כי מדובר בשיקול דעת לקוי ובהתנהלות המעידה על זלזול בתפקיד עורך הדין ובאחריותו המקצועית כלפי בית המשפט.
בית המשפט אישר את בקשת הסנקציות וקבע כי עורך הדין נהג ברשלנות קיצונית ובחוסר אחריות כאשר הסתמך על מערכת בינה מלאכותית מבלי לבדוק את נכונות המידע שהופק ממנה, וביתר שאת כאשר חזר על אותה הטעות לאחר שכבר הוזהר לגביה.
המקרה מעורר עניין רב בקרב הקהילה המשפטית, לא רק בשל מידת האבסורד שבו, אלא גם כעדות מוחשית לסיכון הגובר שבשימוש לא מבוקר בבינה מלאכותית בתהליכים מקצועיים רגישים. השימוש בבינה מלאכותית לשם ייעול ושיפור תהליכים, גם בהקשרים משפטיים, הוא מבורך ואף נחוץ בעידן הנוכחי, אך האחריות לבדיקת המידע, לאימות העובדות ולשיקול הדעת, נותרת בידיים אנושיות.
מבוסס על הפרסום מאתר Futurism מתאריך 15 באוקטובר 2025 https://futurism.com/artificial-intelligence/lawyer-caught-using-ai-responds.




