|
עמוד:10
העיוור והחזק של הרשת או שעלינו לדבוק בגישה הישנה של תכנות, או אולי לשלב בין שתי הגישות בהתאם לבעיה . רשתות נוירונים הינן בבחינת קופסה שחורה - Black Box . אי אפשר לדעת כיצד הן הגיעו לתוצאה הנדרשת, לא ניתן לעשות Reverse Engineering לרשת . כפי שנראה בפרק א', הרשת אינה יותר מאוסף המשקלות שלה, זהו "החיווט" שלה, אני יכול ללמד אותה להגיע למשקלות הנכונים ואולם אינני יודע לחשב אותם מראש . אנו אומרים כי מערכת כזאת איננה "שקופה" . לעיתים השקיפות חשובה לנו, אם למשל המערכת מנבאת את סיכויינו להיות חולים, היינו רוצים לדעת מדוע . לא היינו מסתפקים בטענה שהרשת מנבאת נכון ואפילו אם כמעט תמיד . לאחרונה החל להתפתח תחום חדש הקרוי Explainable AI והוא כולל אוסף של טכניקות המנסות לפענח את הקופסה השחורה הזאת . על בעיית השקיפות עונות הרשתות הגרפיות הנידונות בפרק ג' . הפרק השני עוסק בלימוד חיזוק או Reinforcement Learning . לימוד חיזוק הוא מודל המייצג סוג של חשיבה או תכנון, כלומר צפייה קדימה בזמן . בכדי לבצע משימה בעלת שלבים רבים ובצורה הטובה ביותר נצטרך לתכנן את הפעולות תוך כדי צפייה קדימה בזמן . בדיוק כפי שאנו עושים כשאנו משחקים כנגד יריב כלשהו . אנו חושבים מהו המהלך שהיריב יבצע וכנגד זה מה כדאי לנו לעשות וכיצד היריב שלנו ישיב על כל תגובה שלנו וכך הלאה . משחק מעין זה דורש התבוננות קדימה, שאותה אנו יכולים ללמוד אם שיחקנו את אותו משחק פעמים רבות . אנו יכולים ללמד רובוט ללכת, ללמד מכונית אוטונומית לחנות, ללמד מחשב לשחק כנגד יריב ועוד . אנחנו נראה מספר סוגים של לימוד כזה : לימוד המתבצע כאשר נתון לנו מודל של העולם ( . Model Based R . L ) ולימוד ללא מודל ( . Model Free R . L ) . אנו נראה כי כאשר יש לנו מודל של העולם הלימוד יהיה פשוט יחסית . כאשר אין לנו מודל נצטרך לדגום את העולם וללמוד ממנו כיצד להתנהג . לעיתים כאשר אין בעז תמיר 10
|
|