האם AI יהפוך לכלי שמערער את אמון הציבור בדוחות משטרה?
טכנולוגיית AI שמייצרת טיוטות לדוחות משטרה מתוך תיעוד מצלמות גוף מעוררת חששות כבדים בקרב ארגוני זכויות אזרח: פגיעה בשקיפות, הטיה אפשרית וסיכון לזכויות האזרח
שימוש בבינה מלאכותית על ידי כוחות אכיפת החוק כבר מעורר מחלוקת רבה, אולם טכנולוגיה חדשה בשם Draft One מבית חברת Axon מציבה אתגרים חדשים. מערכת זו, המבוססת על ChatGPT, מתמללת הקלטות ממצלמות גוף של שוטרים ומייצרת טיוטות ראשוניות לדוחות משטרה, שלכאורה חוסכות זמן לשוטרים. דו״ח של ACLU בנושא.
ארגוני זכויות אזרח, ובראשם ה-ACLU (האיגוד האמריקאי לזכויות האזרח), מזהירים: מדובר בטכנולוגיה שעלולה לגרום להפרות חמורות של זכויות אדם ופגיעה באמינות המערכת המשפטית.
החששות המרכזיים: אי-אמינות והטיות
דוחות משטרה מהווים כלי קריטי בחקירות ובהליכים משפטיים, ולכן כל פגם או הטיה בטיוטות שנוצרות בידי AI עלול להשליך ישירות על תוצאות מקרים משפטיים. לדברי ג’יי סטנלי, אנליסט מדיניות בכיר ב-ACLU ומחבר הדו”ח על הטכנולוגיה, “AI לא תמיד מדויק ולעיתים קרובות מייצר טעויות בלתי צפויות. כאשר הטיוטות מבוססות על הקלטות קול לא איכותיות ממצלמות גוף, הבעיות הללו רק מתעצמות”.
מעבר לכך, אם שוטרים אינם בודקים את הטיוטות בקפידה – תרחיש סביר לאור העובדה שמרבית תחנות המשטרה שבחרו להשתמש בטכנולוגיה לא מפעילות את מנגנון הבדיקה המובנה של המערכת – עלולות להשתרבב טעויות חמורות או אפילו מניפולציות לטיוטות הדוחות.
שאלת הפרטיות והאבטחה
שאלת הפרטיות סביב המידע שמועבר למערכת מעוררת אף היא חשש. חברת Axon טוענת כי המידע מאובטח ומאוחסן ברשת הפנימית של החברה, אך הדו”ח מדגיש כי כאשר משתמשים בבינה מלאכותית, יש סיכון שהמידע יגיע לספקים חיצוניים כמו Microsoft, שעל פלטפורמת Azure OpenAI מבוססת המערכת.
“העובדה שאין שקיפות מלאה לגבי הדרך שבה הנתונים מעובדים או מאוחסנים פוגעת באמון”, מציין סטנלי. בנוסף, אם המערכת מונחית בידי הנחיות פנימיות סמויות, כמו הוראה לעצב את הסיפור כך שלא תיווצר תחושת הפרה חוקתית מצד השוטר, הרי שמדובר בפגיעה חמורה בשקיפות.
מוסריות ושיקול דעת
פרופסור אנדרו גאת’רי פרגוסון מאוניברסיטת אמריקן, שחקר את השפעת הטכנולוגיה על אכיפת החוק, טוען כי כתיבת דוחות משטרה בידי שוטרים אינה רק מטלה טכנית אלא גם כלי להבטחת משמעת עצמית ומוסריות. “היכולת לנסח ולהצדיק את פעולותיהם בדוחות משמשת כמעין תזכורת לשוטרים לגבי גבולות סמכותם החוקית”, הוא מסביר.
הפיכת כתיבת הדוחות למשימה טכנולוגית עלולה, לדברי ה-ACLU, להפוך את השוטרים לפחות אחראיים למעשיהם ואף לעודד מניפולציות. לדוגמה, שוטר יכול להשתמש בטיוטה שנוצרה על ידי המערכת כדי להסתיר ראיות לא חוקיות או להצדיק בדיעבד פעולות בלתי חוקיות.
שימוש מוגבל, אך ההשפעה ברורה
למרות החששות, נראה שכרגע Draft One נמצאת בשימוש מוגבל בתחנות משטרה בארה”ב, וחברת Axon סירבה לחשוף מידע על היקף הפריסה. עם זאת, ברור שהשפעתה עשויה לגדול ככל שתזכה לאימוץ רחב יותר.
מול כל הסכנות הללו, ה-ACLU מציע לעצור את השימוש בטכנולוגיה עד שתיבחן לעומק השפעתה על שקיפות, אתיקה וזכויות האזרח. “מדובר באחת הדוגמאות המובהקות לכך שהטכנולוגיה המתקדמת ביותר עלולה גם לערער את אבני היסוד של מערכת המשפט”, מסכם הדו”ח.