top of page
  • תמונת הסופר/תעמוס איתן

דיבייט. מסתבר שאפילו את זה מכונות יכולות לעשות.



ב-12 בפברואר 2019 נערך דיבייט פומבי ומתוקשר בין האריש נטרג'אן (Harish Natarajan), אלוף העולם בדיבייט לשנת 2016 (מסתבר שיש דבר כזה…), לבין מערכת בינה מלאכותית שפותחה בידי IBM בשם "Project Debater". הדיבייט המלא הוא מרתק, מאיר עיניים ולגמרי מומלץ לצפייה. החוקרים שפיתחו את המערכת פרסמו גם מאמר שמתאר את הארכיטקטורה שלה ב-nature. בפוסט היום ננסה פורמט חדש: כדי להקל על קהל קוראיי הנאמן, קראתי את המאמר ב-nature עבורכם. אני אנסה לסכם עבורכם את עיקרי המאמר, ואת הנקודות המעניינות שעלו ממנו. בסוף אחלוק גם איזו מחשבה שעלתה לי במהלך הקריאה. כאמור, המאמר ב-nature עוסק בארכיטקטורה של המערכת. משמע, אין שם צלילת עומק לתוך הקוד (יש את זה במאמרים אחרים שנכתבו על Project Debater). המערכת הורכבה מארבעה חלקים: (א) Argument mining; (ב) Argument knowledge base; (ג) Argument rebuttal; (ד) Debate construction; והם מוצגים במאמר כסדרם.


  1. החלק הראשון נקרא "Argument mining". זה חלק של המערכת שמורכב משני שלבים. השלב הראשון מתרחש offline, לפני הדיבייט עצמו, והוא כולל סריקה של 400 מיליון מאמרים עיתונאיים. כל מאמר כזה מחולק למשפט, וכל משפט נסרק כדי להבין מה המילים שכתובות בו ומה נושא המשפט. בשלב הבא, שכבר מתרחש online אחרי שהוזן לתוך המערכת נושא הדיבייט (נניח, "האם עורכי-דין צריכים להחזיק בלוגים?"). בשלב הזה המערכת סורקת את מאגר המשפטים שנוצר בשלב הקודם כדי לאתר "טענות" (claims) ו"ראיות" (evidence). אחר כך המערכת מדרגת את המשפטים שהיא איתרה לפי מידת הרלוונטיות שלהם לנושא הדיבייט ואחר כך מתקיימת חלוקה בין המשפטים שתומכים בצד כזה של נושא הדיון או בצד השני. בשלב הזה המערכת גם מרחיבה לעיתים את החיפוש לקונספטים רחבים יותר מהחיפוש הראשוני שנערך. הדוגמה שמובאת במאמר היא דיבייט בעד או נגד המערכת הדו-מפלגתית בארצות-הברית, והרחבה של החיפוש גם למשפטים שנוגעים למערכות פוליטיות רב-מפלגתיות (כי סביר להניח שמשפט שתומך במערכת רב-מפלגתית יכול להוות טיעון טוב נגד מערכת דו-מפלגתית). בהמשך, המערכת תשתמש ברשימת המשפטים הזאת כדי לבנות את הטיעון שלה וכדי להפריך את טיעוניו של היריב.

  2. החלק השני נקרא "Argument knowledge base". זה חלק של המערכת שמורכב מהרבה עבודה אנושית ו"ידנית". החלק הזה של המערכת מורכב מרשימה של מבני טיעונים שונים, ציטוטים מעוררי השראה ואנלוגיות צבעוניות. הדוגמה שמובאת במאמר היא טיעון "השוק השחור", לפיו כאשר נושא הדיבייט הוא השאלה האם צריך לאסור על מכירת מוצר מסוים (נניח סיגריות או אלכוהול), טיעון נגד יכול להיות היווצרותו של שוק שחור, וחסרונותיו של שוק שחור שכזה. זה למעשה חלק מעין-לוגי במערכת, שנעשתה עליו הרבה עבודה ידנית של אנשים שיודעים לקיים דיבייט, כדי שהמערכת תלמד לבנות טיעונים טובים.

  3. החלק השלישי נקרא "Argument rebuttal". בחלק הזה המערכת מרכיבה רשימה של טיעונים שיכולים להיאמר בידי היריב, באמצעות שני חלקי המערכת הקודמים. אחר כך החלק הזה של המערכת משתמש במערכת קיימת של IBM (בשם "ווטסון") כדי להמיר את דבריו של היריב שנאמרו בעל-פה לטקסט כתוב. המערכת משווה בין רשימת הטיעונים שהיא הרכיבה לבד לבין הטיעונים שנאמרו בידי היריב, ומאתרת (באמצעות שני חלקיה הקודמים של המערכת), טיעוני-נגד טובים.

  4. החלק הרביעי נקרא "Debate construction". זה החלק האחרון, שלוקח את כל המידע שנאסף ונבנה לכדי טיעונים בחלקיה הקודמים של המערכת, לכדי רצף של פסקאות ובכל אחת טיעון. החלק הזה של המערכת נבנה באמצעות סט של כללים שהוגדרו מראש, למשל, כלל לפיו נאום הפתיחה יורכב מהחלקים הבאים: (1) ברכה ליריב; (2) ניסוח מחדש של נושא הדיבייט; (3) הצגת הטיעונים שהמערכת מתכוונת לטעון כסדרם ובקצרה; (4) הצגת טיעון אחר טיעון באמצעות הטענות והראיות שנאספו ונבנו במערכת.


(אם יש לכם שעה ובא לכם להעמיק, הנה המערכת בפעולה)



עד כאן החלק במאמר שהציג את מבנה המערכת. בחלק הבא במאמר, מציגים מפתחי המערכת כמה טעויות שאירעו בתהליך בניית המערכת. יש כאן כמה פנינים. טעות אחת, למשל, הייתה כאשר נושא הדיון היה "האם צריך להגדיל את השימוש בהפריה מלאכותית?". המערכת בנתה טיעונים רבים שעוסקים בהפריה מלאכותית אצל בעלי חיים. זה לא שזה לא נכון, אבל לבן אדם היה ברור וטבעי שהדיון צריך להתמקד בהפריה מלאכותית אצל בני אדם, ולא בעלי חיים.


בשלב הסיכום של המאמר, מפתחי המערכת מציגים טיעון ששווה להתעכב עליו. לטענתם, מאז שנות ה-50 פותחו מערכות בינה מלאכותית שהתמקדו במשחקים (כמו שש-בש, דמקה, שחמט וגו). לטענתם, משחקים כאלה הם ב"אזור הנוחות" של מערכות בינה מלאכותית. הסיבות לכך מגוונות אבל אחת מהן מעניינת במיוחד לדעתי - במשחקים יש תשובה ברורה לשאלה מי ניצח. העובדה הזאת מאפשרת לבנות מערכות בינה מלאכותית באמצעות שיטה שנקראת "reinforcement learning", שהיא שיטה שבה מערכת הבינה המלאכותית לומדת באמצעות קבלת חיזוקים חיוביים כאשר היא מנצחת וסנקציות כאשר היא מפסידה. אי אפשר להשתמש בשיטה הזאת כשבונים מערכת דיבייט, כי איך תדע לתגמל את המערכת על טיעון טוב? מי יקבע מהו הטיעון הטוב יותר?


עד כאן המאמר. הוא קצר, ברור וכתוב בצורה נהדרת. מאוד מומלץ לקריאה. לסיכום, אני אוסיף רק נקודה אחת. לדעתי מערכת כמו Project Debater מעוררת שאלה מרכזית שנעדרת מהמאמר - מי מחליט מהי "האמת"? כפי שראינו, המערכת נשענת על ראיות וטענות, שכולן נובעות מאותם 400 מיליון מאמרים עיתונאיים. נניח שהמערכת איתרה טענה לפיה חיסונים מגבירים את הסיכוי לאוטיזם. האם צריכה להיות מערכת בקרה (אנושית או לא) שתוודא שהמערכת לא נשענת על "ראיות" שלמעשה הוכחו כבר בעבר כשגויות? או אולי שהמערכת תיתן משקל רב יותר למקורות "טובים" לעומת מקורות "לא טובים"? וכאן מתעוררת שאלה נוספת - מי יחליט מהי "האמת" או מהם המקורות ה"טובים" שהמערכת צריכה להתבסס עליהם?


Kommentare


bottom of page