top of page
  • תמונת הסופר/תעמוס איתן

מה רוצים האמריקנים מבינה מלאכותית?


(התמונה כאן למעלה היא האופן שבו ציירה מערכת הבינה המלאכותית DALL-E 2, של Open AI,

את המונח "רגולציה אמריקנית על בינה מלאכותית, ציור שמן")


דיברנו כבר בעבר על רגולציה על בינה מלאכותית (כאן), והתייחסנו לשתי בעיות מרכזיות שיוצרת בינה מלאכותית, מנקודת המבט של רגולטורים - פגיעה פוטנציאלית בפרטיות ואפליה. היום, ננסה להסתכל על הצעת החוק הפדרלית החדשה בארצות הברית שעוסקת בפרטיות (ה-American Data Privacy and Protection Ac), ונסתכל איך מנסה המחוקק האמריקני לטפל בבעיות הללו שמציבה לו בינה מלאכותית. מדובר בהצעת חוק אמנם, אבל יש כאלה שטוענים שסיכוייה לעבור את הליך החקיקה השלם גבוהים יחסית, משום שחתומים עליה חברי קונגרס משתי המפלגות (ראו למשל את הפוסט הזה של עומר טנא בלינקדאין).


כשמסתכלים על חקיקה, אחד הדברים הכי חשובים להתחיל מהם (ולהמשיך איתם) הוא להסתכל על האופן שבו הוגדר מונח מסוים בידי המחוקק. עצם הגדרת המונח יכולה לפעמים להביא להוצאה של תחומים שלמים אל מחוץ לתחום הטיפול של החוק, וכמובן גם להיפך. המונח שבו בחרו המחוקקים האמריקנים להשתמש בהצעת החוק הוא "covered algorithm", והנה ההגדרה שלו (הדגשתי כמה מילים חשובות בעיני):

"a computational process that uses machine learning, natural language processing, artificial intelligence techniques, or other computational processing techniques of similar or greater complexity and that makes a decision or facilitates human decision-making with respect to covered data, including to determine the provision of products or services or to rank, order, promote, recommend, amplify, or similarly determine the delivery or display of information to an individual.

בגלל ההגדרה הרחבה הזאת, כל "תהליך ממוחשב" ש"תומך בהחלטה אנושית" לגבי אספקה של מוצרים ושירותים ואפילו לגבי "הצגה של מידע לאינדיבידואל" - נופל תחת הגדרת החוק. זאת הגדרה ממש רחבה. ממש ממש רחבה. למעשה, תהליכים ממוחשבים שעוזרים לאנשים לקבל החלטות על אספקת שירותים הם הבסיס לכלכלה המודרנית כפי שאנחנו מכירים אותה. פתחתם בלוג? מזל טוב, השתמשתם ב"תהליך ממוחשב" כדי לסייע לכם "לקבל החלטה" (מה לכתוב בבלוג, איך הוא יראה, וכו') לגבי "הצגה של מידע" לאינדיבידואלים. חדי העין בטח שמו לב שסימנתי בהגדרה הזו עוד ביטוי, שעוסק במורכבות הטכנולוגית של ה"תהליך הממוחשב". אז מצד אחד, ברור שהמחוקקים האמריקנים לא ניסו לכוון לכל בלוג באינטרנט, אלא רצו לכוון לתהליכים מורכבים של "בינה מלאכותית" ו"למידת מכונה". מצד שני, השארת ההגדרה כפי שהיא משמעה שבתי-המשפט בארצות-הברית יאלצו להתחיל לבדוק האם תהליך ממוחשב מסוים הוא מורכב טכנולוגית כמו בינה מלאכותית או פחות - זה כבר מדאיג.


נמשיך. סעיף 207 להצעת החוק עוסק באפליה, וקובע כי אי אפשר לפתח אלגוריתמים שהתוצאה שלהם "makes unavailable the equal enjoyment of goods or services". משמע, שהצעת החוק הזאת קובעת שכל חברה שמפתחת מערכות של בינה מלאכותית צריכה לוודא שהתוצאה של המערכת שפותחה לא יוצרת אפליה. כפי שכבר סקרתי בעבר, יש קושי גדול ליצור מערכת בינה מלאכותית שמוודאת מראש שאין אפליה כלל.


סעיף 207 ממשיך וקובע שמי שמפתח אלגוריתמים (לא רק כאלה שמפלים, אלא כל אלגוריתם שנופל להגדרת "covered algorithm") - צריך לבצע הליך שנקרא Impact Assessment. תהליך של Impact Assessment הוא תהליך מוכר וידוע בעולם ה-GDPR, וגם לפי ה-GDPR יש חובה לערוך Impact Assessment במקרים שבהם מופעלת בינה מלאכותית (להרחבה - ראו את ההנחיות המפורטות של ה-ICO, הרשות להגנת הפרטיות של בריטניה). עד כאן, הכל מובן, מוסכם וברור. אז איפה הבעיה? הבעיה היא שהצעת החוק דורשת שאותן Impact Assessments גם יוגשו ל-Federal Trade Commission. משמע, שכל פעם שחברה תפתח אלגוריתם, מודל או מערכת שנופלים תחת ההגדרה של "covered algorithm" - החברה צריכה להגיש פירוט מלא של התהליך לאחד הרגולטורים החזקים ביותר בארצות-הברית. הצעת החוק כוללת אמנם סעיף שמגן על סודות מסחריים, אבל הדבר האחרון שחברות רוצות הוא "לעלות על הרדאר" של ה-FTC. בהחלט ייתכן שהכלל הזה יצור תמריץ שלילי לחברות מלפתח מערכות בינה מלאכותית.


ננסה לסכם עד כאן - הצעת החוק החדשה בארצות-הברית זכתה עד היום לדברי הלל רבים (לצד דברי ביקורת), אבל בעיקר מתוך הפריזמה של הגנת הפרטיות. יש כאלה שאומרים שהיא מגנה על הפרטיות יותר מידי ("יותר מידי" משמע - פוגעת ביכולת של חברות להתנהל עסקית) ויש כאלה מנגד שאומרים שהיא לא מעניקה הגנה טובה מספיק. לצד הדיון הזה, ראוי לנהל דיון נפרד על הסעיפים בהצעת החוק שעוסקים בבינה מלאכותית. הצעת החוק מנסה לטפל בנושאים של אפליה ופרטיות (בהקשר של בינה מלאכותית), אבל בהחלט ייתכן שהיא יוצר מגבלות קשות מידי שיפגעו ביכולתן של חברות להמשיך ולפתח את הטכנולוגיה החשובה הזו.

Comments


bottom of page