top of page
  • תמונת הסופר/תעמוס איתן

מה הבעיה עם רגולציה על בינה מלאכותית?


נניח שאתם רגולטור שרוצה להחיל רגולציה של בינה מלאכותית (תכף נדבר על הסיבות שבגללן תרצו, אולי, לעשות את זה) - איך תעשו את זה? זאת השאלה שנדבר עליה היום.


אני לא אסביר כאן מה זו בינה מלאכותית (artificial intelligence). אתם יודעים מה זה. נו, הבינה הזאת שהיא מלאכותית. כשמחשבים מתחילים לקבל החלטות תבוניות בלי שאנחנו יודעים להסביר למה הם קיבלו את ההחלטה שהם קיבלו. זה נקרא לפעמים גם למידת מכונה (machine learning). רגולטורים בכל העולם נלחצים מהרעיון הזה של בינה מלאכותית, ומשתי סיבות מרכזיות:


  1. הסיבה הראשונה היא אפליה (bias). החשש המרכזי הוא שהאלגוריתם יקבל החלטה מפלה על-בסיס שיקול אסור. חוקי האפליה היום ברחבי העולם דומים יחסית אחד לשני: יש איסור להפלות על-בסיס שיקולים מסוימים, ומותר להפלות על-בסיס שיקולים אחרים. למשל, לבנק מותר להחליט שהוא נותן לי הלוואה ולאדם אחר לא, על בסיס בחינה של היכולת הכלכלית שלנו והסיכוי של כל אחד מאיתנו להחזיר את ההלוואה. לעומת זאת, הבנק לא יכול להחליט שהוא לא נותן הלוואות לקבוצות מסוימות על-בסיס גזע, דת, מין, נטיה מינית וכדומה. איפה מתעורר קושי? כשהבנק אמנם לא השתמש בנתונים אישיים "אסורים" כדי לקבל את ההחלטה (משמע, לא בחן את הגזע או הדת של מבקש ההלוואה), אבל התוצאה הסופית הייתה כזאת שבמסגרתה הבנק לא העניק בפועל הלוואות לקבוצה מוגנת מסוימת. החוק בישראל קובע שגם זו אפליה. זה מה שמכונה "אפליה תוצאתית". בכל הנוגע לבינה מלאכותית, החשש הוא שחברות ישתמשו באלגוריתמים כדי לקבל החלטות שיש להן השפעות על המשתמשים או הלקוחות שלהן, באופן שיביא בפועל לתוצאה שהיא מפלה על-בסיס שיקול אסור, גם אם אף אחד לא התכוון להפלות. הכוונה לא משנה, חשובה התוצאה.

  2. הסיבה השנייה היא פרטיות. החשש כאן הוא שהאלגוריתמים ישתמשו במידע האישי שלנו למטרות אחרות מהמטרות שלשמן מסרנו את המידע שלנו. רוב חוקי הגנת הפרטיות המודרניים קובעים שמותר להשתמש במידע אישי של אדם רק למטרה שלשמה נמסר המידע (ראו, למשל, סעיפים 2(9) ו-8(ב) לחוק הגנת הפרטיות). יש אספקט נוסף של החשש הזה מפגיעה בפרטיות - כדי לאמן את האלגוריתמים, צריך מידע רב. מלא מלא מלא (מלא) מידע. לעיתים, מדובר במידע אישי. במקרים כאלה המשמעות היא שיש לנו מאגרי מידע אישי ענקיים, שדליפה שלהם או שימוש בהם בניגוד להוראות החוק יכול לסכן את האנשים שהמידע שלהם נמצא במאגר.

פירטתי למעלה על שתי הסיבות המרכזיות, לדעתי, שבגללן רגולטורים רוצים לפקח על השימוש בבינה מלאכותית. ישנן סיבות אחרות שקשורות לאופן השימוש באלגוריתם ספציפי. נניח, למשל, שחברה מסוימת בנתה אלגוריתם שמאתר ומסיר באופן אוטומטי פרסומים ברשתות חברתיות שמהווים הפרה של תנאי השימוש של אותן רשתות חברתיות. אלגוריתם כזה עשוי להסב פגיעה בחופש הביטוי של משתמשי הרשתות החברתיות.


אז מה רגולטורים עושים? נכון להיום, יש מעט מאוד רגולציה על בינה מלאכותית, אבל יש כמה הצעות חוק בשלבים מתקדמים במדינות שונות בעולם שנועדו לפקח את בינה מלאכותית. ראו למשל את הצעת החוק של האיחוד האירופי שמכונה "The AI Act", או את הצעת החוק החדשה בקנדה שנועדה לפקח על בינה מלאכותית.


אבל מה עושים כאשר מנסים להטיל רגולציה על בינה מלאכותית, אבל פתרון של בעיה אחת מגביר בעיה אחרת? אסביר. מקריאה של הצעות החוק הללו אפשר לראות שהבעיה המרכזית שמטרידה רגולטורים היא הבעיה של אפליה, זה הדבר המרכזי שמדברים עליו כשמדברים על רגולציה של בינה מלאכותית. הבעיה היא שהפתרון לבעיית האפליה, עשוי להגביר את בעיית הפרטיות:


נניח שאת בצוות Data Science של רשת חברתית גדולה, ואת רוצה לוודא שאת לא מפלה את המשתמשים שלך. גם כי זה החוק אבל בעיקר כי וואלה, כולם אנשים טובים שלא רוצים להפלות. נניח שניגשת ליועץ המשפטי שלך והוא אמר לך כך - "אסור להפלות על בסיס נטייה מינית, אז אנחנו צריכים לוודא שהתוצאות של אלגוריתמים שלנו לא יוצרות אפליה על-בסיס נטייה מינית". התשובה המובנת מאליה שלך תהיה - "אחלה, אז אני פשוט אתייג את ה-dataset שלי עם הנתון של נטייה מינית של כל אחד מהמשתמשים שלי, ואז אבחן את התוצאות של האלגוריתם שלי כדי לוודא שההתפלגות של התוצאות לא יוצרת אפליה על-בסיס נטייה מינית". מה ישיב היועץ המשפטי?


"השתגעת?? את רוצה להתחיל לאסוף מידע על הנטייה המינית של כל אחד ואחד מהמשתמשים שלנו? זה מסוכן בטירוף! זה מידע אישי רגיש (ראו סעיף 9(1) ל-GDPR). אל תאספי את המידע הזה, עדיף שהוא לא יהיה במאגרים שלנו בכלל". איך תתקדם השיחה? אני מניח שהשלב הבא יהיה להגיד ליועץ המשפטי - "אוקיי, אין בעיה, אז אני לא אאסוף את המידע הזה בכלל, וככה נוודא שהאלגוריתם לא לוקח בחשבון את הנתון של נטייה מינית, וככה בוודאות אפשר לישון בשקט שהתוצאות שהאלגוריתם יפיק לא יפלו אף אחד על-בסיס נטייה מינית, נכון?". "לא, לא, לא," ישיב היועץ המשפטי (המציק), "אפליה פורשה בחקיקה ככה שהכוונה לא משנה, חשובה התוצאה. אם האלגוריתם בפועל יפלה אנשים עם נטייה מינית מסוימת, למרות שהנתונים האלה לא הוזנו פנימה מלכתחילה, אנחנו עדיין חשופים מבחינה משפטית".


אז מה הפתרון? זאת אחת השאלות הגדולות שאנשי בינה מלאכותית ומשפטים עוסקים בה בתקופה האחרונה. אחת הדרכים לפתרון היא שימוש בנתוני פרוקסי שאינם מפלים, כדי להעשיר את ה-dataset ולוודא שהוא מגוון, וככה לבדוק אם התוצאות מפלות. איך יראה דבר כזה? תיאורטית, אם נוודא שה-dataset שלנו מורכב ממשתמשים שחיים בכל שכונה בעולם, ומכל המדינות בעולם, סביר יותר להניח שהגיוון במאגר יתן לנו תוצאות שאינן מפלות. יהיה לנו גם קל (יחסית) לבחון את התוצאות שהפיק האלגוריתם למול נתוני הפרוקסי האלה, כדי לראות האם נוצרה כאן אפליה על-בסיס נתון פרוקסי כלשהו.


זה לא פתרון קסם, וגם לו יש בעיות רבות, אבל זה אולי צעד ראשון בדרך לפתור את הפלונטר. מה דעתכם?

Comments


bottom of page