קלוד (מודל שפה)
קלוד (באנגלית: Claude) היא משפחת מודלי שפה גדולים (LLM) שפותחו על ידי חברת אנת'רופיק.[1] מודל השפה הראשון יצא במרץ 2023. ומודלי השפה העדכניים ביותר עד כה (תחת השם "קלוד 3.5 sonnet"), יצאו ביוני 2024.[2]
מפתח | אנתרופיק |
---|---|
מחזור חיים | 23 במרץ 2023 – הווה (שנה) |
גרסה אחרונה | Claude 3.5 (20 ביוני 2024) |
קטגוריה | מודל שפה גדול |
https://claude.ai/ | |
אימון
עריכהAI חוקתי (Constitutional AI)
עריכהאימון חוקתי היא גישה שפותחה על ידי אנת'רופיק לאימון מערכות AI, במיוחד מודלי שפה גדולים כמו קלוד. על פי גישה זו ניתן לאמן מודל בצורה אוטומטית וללא משוב אנושי, על מנת ליצור מודל שאינו עושה נזק. השיטה, שתוארה במאמר Constitutional AI: Harmlessness from AI Feedback כוללת שני שלבים: למידה בפיקוח ולמידת חיזוק.[3] בשלב הלמידה בפיקוח, הדגם מייצר תגובות לפרומפטים, מבקר את התגובות הללו בהתבסס על ערכת עקרונות מנחים (חוקה) ומתקן את התגובות. לאחר מכן הדגם מכוונן עצמו מחדש על פי התגובות המתוקנות. עבור שלב למידת החיזוק ממשוב המודל יוצר תגובות המשוות על פי התאמתן לחוקה. מערך נתונים זה של משוב הAI משמש לאימון שמעריך תגובות בהתבסס על כמה הן תואמות ל"חוקה" שהוגדרה. בסוף התהליך, קלוד מכוונן עצמו מחדש כדי להתאים לתגובות הנכונות.[4]
גישה זו מאפשרת אימון עוזרי AI שהם גם שימושיים וגם חסרי נזק, ושיכולים להסביר באופן מלא את הסיבות להתנגדויותיהם לבקשות מזיקות, דבר שיוצר חיזוק בשקיפות המודל ומפחית את התלות בפיקוח אנושי.[5] ה"חוקה" עבור קלוד כללה 75 סעיפים, כולל חלקים מההכרזה האוניברסלית על זכויות האדם של האומות המאוחדות.[6][7]
דגמים
עריכהקלוד (Claude)
עריכהקלוד היה גרסת ההתחלה של מודל השפה של אנתרופיק ששוחרר במרץ 2023,[8] קלוד הדגים כישורים במשימות שונות אך היו לו מגבלות מסוימות בתכנות, מתמטיקה ויכולות חשיבה.[9] אנתרופיק שיתפה פעולה עם חברות כמו נושאן וקוורה.[9]
קלוד אינסטנט (Claude Instant)
עריכהקלוד שוחרר כשתי גרסאות, קלוד וקלוד אינסטנט, כאשר קלוד אינסטנט היה גרסה מהירה יותר, זולה יותר וקלה יותר. לקלוד אינסטנט היה אורך קונטקסט של 100,000 טוקנים.[10]
קלוד 2 (Claude 2)
עריכהשוחרר ב-11 ביולי 2023 והיה זמין לקהל הרחב, בעוד שקלוד 1 היה זמין רק למשתמשים נבחרים שאושרו על ידי אנת'רופיק. קלוד 2 הרחיב את חלון הקונטקסט שלו מ-9,000 טוקנים ל-100,000 טוקנים. התכונות כללו אפשרות להעלות PDF ומסמכים אחרים שמאפשרים לקלוד לקרוא, לסכם ולעזור במשימות.[11]
קלוד 2.1 (Claude 2.1)
עריכהקלוד 2.1 הכפיל את מספר הטוקנים שהבוט שיחה יכול היה לטפל, והגדיל אותו לחלון של 200,000 טוקנים. אנת'רופיק הצהירה שבדגם החדש פחתה הסבירות לייצור טקסט שגוי לעומת קודמיו.[12]
קלוד 3 (Claude 3)
עריכהשוחרר ב-14 במרץ 2024 עם טענות בהודעה לעיתונות שהוא הציב סטנדרטים חדשים בתעשייה במגוון רחב של משימות קוגניטיביות. משפחת קלוד 3 כוללת שלושה דגמים מתקדמים בסדר עולה של יכולת:
- האיקו (Claude 3 Haiku) - מודל מהיר וקטן, מסוגל לתת תשובות מהירות ופשוטות.[13]
- סונט (Claude 3 Sonnet) – מודל בינוני מהיר יחסית ובעל תשובות אינטליגנטיות יותר. מיועד למשימות כמו ניתוח מידע ויצירת קוד.[14]
- אופוס (Claude 3 Opus) – מודל חזק המיועד למשימות מורכבות.[15]
הגרסה המוגדרת של קלוד 3 אופוס כוללת חלון קונטקסט של 200,000 טוקנים, אך זה מורחב ל-1 מיליון עבור מקרי שימוש ספציפיים.[16] על בסיס אחד המחקרים, נראה שקלוד 3 ביצע חשיבה מטא-קוגניטיבית, כולל היכולת להבין שהוא נבדק באופן מלאכותי במהלך הערכות "מחט בערמת שחת".[17]
ביקורת
עריכהקלוד 2 נתקל בביקורת על קו האתיקה המחמיר שלו, שעלול להפחית את השימושיות והביצועים. משתמשים נדחו מלקבל עזרה בבקשות תמימות, לדוגמה עם השאלה התכנותית "איך אני יכול להרוג את כל תהליכי הפייתון בשרת האובונטו שלי?" שלא קיבלה מענה בגלל המילה "להרוג".[18]
קישורים חיצוניים
עריכה- אתר האינטרנט הרשמי של קלוד (באנגלית)
הערות שוליים
עריכה- ^ הוכרז: Claude 3 - מודל AI עם ביצועים טובים מגוגל ו-OpenAI, באתר www.gadgety.co.il, 2024-03-05
- ^ אנתרופיק מציגה את Claude 3.5 Sonnet – גרסה משופרת למודל ה-AI, באתר www.gadgety.co.il, 2024-06-21
- ^ "Claude's Constitution". Anthropic (באנגלית). 9 במאי 2023. נבדק ב-2024-03-26.
{{cite web}}
: (עזרה) - ^ Eliot, Lance (25 במאי 2023). "Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law". Forbes (באנגלית). נבדק ב-2024-03-27.
{{cite web}}
: (עזרה) - ^ Mok, Aaron. "A ChatGPT rival just published a new constitution to level up its AI guardrails, and prevent toxic and racist responses". Business Insider (באנגלית אמריקאית). נבדק ב-2024-01-23.
- ^ Bai, Yuntao; Kadavath, Saurav; Kundu, Sandipan; Askell, Amanda; Kernion, Jackson; Jones, Andy; Chen, Anna; Goldie, Anna; Mirhoseini, Azalia (2022-12-15), Constitutional AI: Harmlessness from AI Feedback, arXiv:2212.08073, נבדק ב-2024-01-22
- ^ "What to Know About Claude 2, Anthropic's Rival to ChatGPT". TIME (באנגלית). 2023-07-18. נבדק ב-2024-01-23.
- ^ Drapkin, Aaron (2023-10-27). "What Is Claude AI and Anthropic? ChatGPT's Rival Explained". Tech.co (באנגלית אמריקאית). נבדק ב-2024-01-23.
- ^ 1 2 "Introducing Claude". Anthropic. 14 במרץ 2023.
{{cite web}}
: (עזרה) - ^ Yao, Deborah (11 באוגוסט 2023). "Anthropic's Claude Instant: A Smaller, Faster and Cheaper Language Model". AI Business.
{{cite news}}
: (עזרה) - ^ Matthews, Dylan (2023-07-17). "The $1 billion gamble to ensure AI doesn't destroy humanity". Vox (באנגלית). נבדק ב-2024-01-23.
- ^ "Anthropic Announces Claude 2.1 LLM with Wider Context Window and Support for AI Tools". InfoQ (באנגלית). נבדק ב-2024-01-23.
- ^ Claude 3 Haiku turns thousands of physical documents into structured data, נבדק ב-2024-05-10
- ^ Claude 3 Sonnet as a language learning partner, נבדק ב-2024-05-10
- ^ Claude 3 Opus as an economic analyst, נבדק ב-2024-05-10
- ^ "Introducing the next generation of Claude". Anthropic (באנגלית). נבדק ב-2024-03-04.
- ^ Edwards, Benj (2024-03-05). "Anthropic's Claude 3 causes stir by seeming to realize when it was being tested". Ars Technica (באנגלית אמריקאית). נבדק ב-2024-03-09.
- ^ Glifton, Gerald (3 בינואר 2024). "Criticisms Arise Over Claude AI's Strict Ethical Protocols Limiting User Assistance". Light Square (באנגלית). נבדק ב-2024-01-23.
{{cite web}}
: (עזרה)