היועץ המדעי של הבית הלבן קורא ל״מגילת זכויות״, שתגן על האזרחים מפני טכנולוגיות מתקדמות

משרד המדע והטכנולוגיה החל במשימת בירור עובדות שמטרתה לבחון טכנולוגיות זיהוי פנים וכלים ביומטריים אחרים, על מנת להגן על כבוד האדם ולמנוע את האפלייה הרווחת כיום על בסיס גזע, מגדר, דת, העדפה מינית ועוד

היועץ המדעי של הבית הלבן קורא ל״מגילת זכויות״, שתגן על האזרחים מפני טכנולוגיות מתקדמות

BIGSTOCK/Copyright: Solarseven

משרד המדע והטכנולוגיה של הבית הלבן הודיע כי החל במשימת בירור עובדות, שמטרתה לבחון טכנולוגיות בינה מלאכותית, זיהוי פנים וכלים ביומטריים אחרים המשמשים לזיהוי או להערכת מצבים רגשיים ומנטליים. על מנת להגן על כבוד האדם ופרטיותו ולמנוע אפליה על בסיס גזע, מגדר, דת, העדפה מינית ועוד – בעיה מוכרת באלגוריתמים של טכנולוגיות מתקדמות, המבוססים פעמים רבות על מחשבה מיושנת, דעות קדומות והעדר גיוון, קוראים היועצים המדעיים המובילים של הממשל האמריקני לייסוד ״מגילת זכויות״ (Bill of Rights). במילים אחרות: גם הטכנולוגיה המתקדמת לא כל כך מתקדמת.

מערכי הנתונים אינם מייצגים את מכלול החברה האמריקנית

״מערכי נתונים שאינם מייצגים את מכלול החברה האמריקנית עלולים להוביל לעזרים וירטואליים שאינם מבינים מבטא דרומי; לטכנולוגיות זיהוי פנים המובילות למעצרים שגויים בשל אפליה; ולאלגוריתמים בתחום הבריאות שמקלים בחומרת מחלת כליות בקרב אפרו-אמריקנים, מה שמונע מאנשים לעבור השתלת כליה״, כתבו היועץ המדעי הראשי של הנשיא, אריק  לנדר, וסגנית המנהלת של משרד המדע והטכנולוגיה אלונדרה נלסון, במאמר משותף שהתפרסם במגזין Wired (אגב, למי שצופה בסדרה ״האנטומיה של גריי״ – הפרק האחרון עסק בהרחבה בנושא האלגוריתם שמונע מאפרו-אמריקניים להתקבל לרשימת ההמתנה להשתלה).

עוד התייחסו השניים במאמרם לדעות קדומות נוספות המשפיעות על טבען של מכונות למידה עמוקה: העדפת גברים מתכנתים על פני נשים; אפלייה באישור משכנתאות בשל סינכרון בין מוקדים גיאוגרפיים מסוימים לבין גזע ועוני, ״מה שמכניס עשרות שנים של אפליית דיור אל תוך העידן הדיגיטלי״; וכן ״ניתוח רגשות״ המבוסס על בינה מלאכותית הרואה מילים כמו ״שחור״, ״יהודי״ או ״הומוסקסואל״ כדבר שלילי. בנוסף, דנו בנושא הפרטיות: ״כאשר אנו מבקשים מהרמקול החכם לנגן שיר, האם הוא מקליט את מה שילדינו אומרים? האם כאשר תלמיד ניגש לבחינה מקוונת, הרשת צריכה לעקוב אחרי כל צעד?״

לנדר ונלסון הפרידו בין מצבים בהם נעשה שימוש לרעה בטכנולוגיות בינה מלאכותית באופן מכוון, כמו במדינות אוטוקרטיות המשתמשות בה ״לדיכוי, פילוג ואפלייה בחסות המדינה״, לבין הנעשה בארה״ב. ״חלק מהכשלים בארה״ב עשויים להיות לא בכוונה, אך הם חמורים ומשפיעים באופן בלתי-פרופורציוני על אנשים וקהילות״, כתבו – וטוב שסייגו במילה ״עשויים״ (might), שכן פעילי זכויות אדם רבים רואים בטכנולוגיות אלה המשך ישיר של מנגנון הדיכוי הגזעי/דתי/מגזרי הפועל בארה״ב עוד טרם היווסדה.

״יש לדרוש מהטכנולוגיות העוצמתיות לכבד את הדמוקרטיה שלנו״

אבל נחזור לרגע לניתוח של לנדר ונלסון, שמציעים הסברים לאפליה הטכנולוגית. ״לעיתים קרובות היא נובעת מכך שהמפתחים אינם משתמשים במערכות נתונים מתאימות ולא בוחנים נתונים באופן מקיף, וכן העובדה שאין להם נקודות מבט מגוונות מספיק שיאפשרו לצפות בעיות ולתקנן לפני השימוש – או להרוג מוצרים שאי אפשר לתקן״. השניים מותחים קו בין התעשייה הטכנולוגית ותעשיית הפארמה ומדגישים ש״לא מקובל לייצר מערכות AI שיפגעו באנשים רבים, בדיוק כפי שלא מקובל לייצר תרופות ומכשירים אחרים שיפגעו בהם״.

אז מה הפתרון? ״לאמריקנים יש זכות לעתיד טוב יותר. יש לדרוש מטכנולוגיות עוצמתיות לכבד את הדמוקרטיה שלנו ולציית לעקרון המרכזי לפיו יש להתייחס לכולם בצורה הוגנת״, כותבים השניים, ומציעים ״מגילת זכויות״ חדשה שתגן על התושבים מפני הטכנולוגיות הללו, בדיוק כפי שמגילת הזכויות המקורית נכתבה על מנת להגן עליהם מהממשלה החדשה שנקבעה בחוקה. על המדינה להבהיר את הזכויות והחירויות שאנו מצפים להן – למשל הזכות לדעת מתי בינה מלאכותית משפיעה על החלטה הקשורה לזכויות האזרח, החופש לא להיות כפוף לתוכנה שלא נבדקה בקפידה על מנת להבטיח שהיא מדויקת ובלתי מוטה, החופש ממעקב מפלה או חודרני״, ועוד.  

הצעד הראשון בדרך ליעד, כאמור, הוא בחינה מדוקדקת של המצב בשטח. ולצורך כך, קוראים המומחים לכל מי שקשור בתחום לפנות אליהם ולספק מידע – אך לא רק ממדעני נתונים ומהנדסי תוכנה, אלא גם מ״מטיילים שהתבקשו לעבור סריקת פנים לפני עלייה למטוס, עובדים שמעסיקיהם נתנו להם עוקבי כושר למעקב אחרי עייפות, מורים שמשתמשים בעזרים וירטואליים לבדוק איזה תלמידים אינם מקשיבים בכיתה, אנשי משאבי אנוש שמשתמשים בתוכנות לצורך גיוס...וכל אחד שנתקל בטכנולוגיות האלה בחיי היומיום. לא משנה מהי נקודת המבט, אנו להוטים להקשיב לה״, סיכמו.

האם יכול שינוי לטובה גם בנושא הטיפול במהגרים הבלתי חוקיים?

יש לציין, שלנדר ונלסון לא התייחסו לאחד הנושאים הטעונים והכואבים ביותר בשימוש בבינה מלאכותית בארה״ב – זה שנעשה נגד המהגרים הבלתי חוקיים בגבול הדרומי עם מקסיקו, ועל ידי סוכנות ההגירה האמריקנית המאתרת מהגרים בלתי חוקיים בתוך המדינה עצמה. ממשל ביידן אמנם הבטיח להפוך את המדיניות של קודמו, דונלד טראמפ – שנקט ביד קשה מאוד נגד המהגרים הבלתי חוקיים תוך הסתמכות נרחבת על פיתוחים טכנולוגיים – ולקיים מדיניות מכילה והומנית יותר. אך בפועל מעט מאוד השתנה. יש לקוות ששינוי המדיניות המקיף, אם ייצא כמובן לפועל בצורה ריאלית, יכלול גם אותם.

בשבוע שעבר קרא הפרלמנט האירופי קורא לאסור שימוש בטכנולוגיות בינה מלאכותית (AI) למעקב המוני, במטרה להילחם באפליה ולהבטיח את הזכות לפרטיות, וליישום אמצעי הגנה משמעותיים כאשר נעשה שימוש בטכנולוגיה זו במסגרת אכיפת החוק. ההחלטה הבלתי-מחייבת, תחת הכותרת ״בינה מלאכותית במשפט הפלילי והשימוש בה על ידי המשטרה ורשויות השיפוט״, התקבלה ברוב של 377:248 חברי פרלמנט, וכן 62 נמנעים, לאחר דיון סוער. גם סין, שהציבה לעצמה יעד של הובלה עולמית בשוק עד שנת 2030, פרסמה לאחרונה קודקס אתי משלה.  

אולי יעניין אותך גם