close menu

UL2 20B: AN OPEN SOURCE UNIFIED LANGUAGE LEARNER

אמ;לק: גוגל עקפו הלילה את הביצועים של GPT-3 עם 20 מיליארד פרמטרים בלבד ועל הדרך גם שילשו את הביצועים של T5.

קוד ומשקולות זמינים!

במאמר ששוחרר לפני כמה שעות משלבים הכותבים את "כל הטריקים האפשריים" לpretraining תחת מודל אחד תוך כדי שהם "מזקקים" טריקים ושיטות מעבודות קודמות.
התוצאה היא מודל חזק במיוחד (או יותר נכון: שיטת אימון) שלטענתם חזק בהרבה מGPT-3 ומודלי שפה קאוזלים אחרים. [1] [2]
טריקים עיקריים:
הכותבים משתמשים בשלוש שיטות self-supervision שונות בזמן האימון:
  1. "השלמת מילים" – מוחקים מילים \ טוקנים מהמשפט ועל המודל להשלים אותן.
  2. "השלמה סדרתית" – על המודל "להמשיך" את המשפט מאינדקס רנדומלי. [3]
  3. "השלמת אקסטרים" – מוחקים מקטעים ארוכים ורנדומלים מהמשפט ועל המודל להשלים אותם במלואם.
טריק מעניין נוסף:
אימון Mixture of denoisers – אם אני מבין נכון (עוד לא עברתי על הקוד) הם מקפיאים חלקים שונים מהמודל בכל באצ' לפי המשימה אותה הם מבקשים מהמודל לבצע (Mixture of experts).

ואם אני טועה והם לא עושים את זה בזמן האימון: אני בטוח שזה ישפר ביצועים (או לכל הפחות לא יזיק) אבל יכול להיות שזה יגדיל את זמן האימון משמעותית..

מדידת ביצועים:
במאמר, הכותבים מודדים את ביצועי המודל גם בone-shot גם בzero-shot גם בchain of thought (טריקי "let's think step by step") אבל גם (ותודה רבה על זה!) בfine tuning עתידי למשימות אחרת – המטריקה שכנראה והחשובה ביותר להכי הרבה מקוראי המאמר.
עוד במאמר:
כותבים הם בין היחידים הדנים בשאלה "איך לחלק את הטקסט הארוך מידי שלי?" בזמן אימון המודל ומציגים כמה שיטות וניסוים לדוגמה: חלקים רנדומלים מטקסט, או "חלק אחרי חלק" או "חלק אחרי חלק עם masking לעתיד..". – ממליץ למי שמהתחום.
דעתי האישית: מילה טובה על המחקר של גוגל!
בתקופה שבה מאמרים שלמים נכתבים לצורך "ההייפ" והmarketing יפה לראות את ההתמדה של גוגל עם סדרת מאמרי T5.
הם באופן קבוע "מסננים" שיטות שלא עובדות מעבודות אחרות, בודקים ומעבירים ביקורת על על טענות לא נכונות ממאמרים אחרים ואפילו מצליחים לשמור צניעות וללמוד מטעויות עבר.
אבל יותר חשוב מהכל: T5 באמת עובד.
ובאופן עקבי הוא הולך ומשתפר ממאמר למאמר [4] [5] [6] [7] [8] [9] [10]
המאמרים יוצאים כל כמה חודשים ותמיד מלווים בקוד, משקולות מאומנות ומידע ברמת פירוט גבוהה בהרבה מכל השאר.
רפרנסים:
הערות שוליים:
  • [1] – ביצועי GPT-3 כבר נשברו על ידי מודל קטן ממנו: GLM. הבעיה איתו היא שהוא לא קאוזלי. משאבי החישוב הנדרשים כדי לאמן אותו ריבועית יותר כבדים מGPTים. (כי כדי לסמלץ מעבר אטנשן של GPT צריך לעבור מילה מילה בדאטה ולהכניס את המשפט "עד המילה" כדוגמה נפרדת: מכפיל את צעדי האימון ריבועית)
  • [2] – חשוב: GPT שוחרר כבר לפני כשלוש שנים. כמעט ואין עבודות וחידושים בתחום האטנשן הקאוזלי (למה?!). קל לפספס שגוגל עצמם שיפרו משמעותית (הרבה מאד מעבר ל"מה שידוע ש"נמצא בGPT-3) את האטנשן הקאוזלי בדיקודר של T5. לצערנו השיפורים עוברים ממתחת לרדאר מהסיבה הפשוטה שT5 מאומן למשימות "פחות סקסיות" כמו תרגום \ סיכום בניגוד ל"לבלבל את המוח causal".
  • [3] – לא להתבלבל עם causal language modeling של GPT בו על המודל להשלים את הטוקן הבא בכל שלב. פה לא רק שהמודל צריך להחזיר את הטוקן הבא, הוא גם לא רואה את כל המשפט בזמן שמלמדים אותו לעשות את זה.
מאמרי T5 והשיפורים הבולטים בהם:
עוד בנושא: