צבאון AWS של Amazon מצטרף לכוחות עם חברת AI Hugging Face
צבאון השירותי ענן של Amazon, AWS, הודיע על שיתוף פעולה עם חברת הAI Hugging Face, עם מטרת לקלוט את ההטמעה של אלפי מודלי בינה מלאכותית. שיתוף זה משתמש במיקרו-מעבדים מותאמים של Amazon, Inferentia2, בכדי להציע לפיתוחים פלטפורמה יעילה וכלכלית להפעלת תוכנה לומדת.
Hugging Face היא חברת הAI הנועדה ב-4.5 מיליארד דולר, שהשקיעה ניבים כמקום סכם לייצור מודלים וכלי שיתוף פעולה. הפלטפורמה מקבלת תמיכה מענקים טכנולוגיים כוזמי Amazon, Google ו-Nvidia, ומארחת מגוון של מודלים קוד פתוח, כמו Llama 3 מבראי Meta Platforms.
השיתוף האחרון מבטא ניסיון לכתוב את צרכי המפתחים להפעלת מודלים איי-איי בצורה קלה וכלכלית. ג'ף בודייה, המוביל תחום מוצר וצמיחה ב-Hugging Face, הדגיש את החשיבות של הרשאת מספר גדול יותר של אנשים להפעיל מודלים במחיר זול וביעילות.
מצד שני של השותפות, AWS מעצימה לקבל קהל רחב יותר של מפתחי AI על ידי דיוק ביכולות המיקרו-מעבדים המותאמים שלה. למרות שעבר את ההתמצאות של Nvidia בתחום אימון המודלים, AWS מסמכת על צעדה על מיקרו-מעבדי Inferentia2, שמיועדים לבצע את השלב השל "הסקת הנבואה" של הAI. לדברי מאט ווד, שמנהל מוצרי AI ב-AWS, למרות שהאימון עשוי לקרות חודשי, "ההסקת נבואה" יכולה לקרות אלפים מפעמים בשעה, ולכן המיקרו-מעבדי Inferentia2 יכולים להיות מיועדים במיוחד לפעולות רציניות.
שאלות רצוניות ותשובות:
שאלה: מה מרכז המרכזות של שיתוף הפעולה בין AWS ו-Hugging Face?
כל השיתוף מתמקד בהפשטת האיום של מנועי בינה מלאכותית על ידי הנאה מהמיקרו-מעבדים המותאמים של AWS, Inferentia2.
שאלה: מה תופקדו של Hugging Face בקהילת הAI?
Hugging Face היא סטארט-אפ AI מובהקה שמשמשת כמאגר למודלי AI ומספקת כלים שיתוף פעולה למפתחים. היא ידועה בהיותה מארחת של מגוון מודלים קוד-פתוח ומקבלת תמיכה מחברות טכנולוגיות גדולות.
שאלה: איך AWS מרוויחה משיתוף הפעולה הזה?
AWS מרוויחה על ידי גירות של פיתוחים AI יותר לפלטפורמתה והצגת יכולות המיקרו-מעבדים המיועדים לפעולות "הסקת הנבואה" יעילות.
אתגרים מרכזיים או סחרופות:
– מתחרות: AWS פונה סקרנות רבה מחברות כמו Nvidia, שעלתה לשיא בתחום החומרות לאימון של מודלי AI.
– נגישות: למרות ששיתוף הפועל מתמקד בהורדת עלויות ושיפור נגישות עבור מפתחים, ההצפה של מודלי AI מתקדמים בקנה מידה רחב עדיין אולי היה מעצבן בשביל חברות קטנות יותר ופיתחנים עם משאבים מוגבלים.
– שליבה טכנית: הבטיחות של שליבה חלקה ותאמה בין מודלי AI של Hugging Face ומיקרו-מעבדי Inferentia לאולי יש בהם העוקלות הטכניות של חריצים.
יתרונות:
– כחזון- עלויות לפיתוחנים להפעיל מודלי AI יכולות להירד, עלולות בטכנולוגיה לקוחות.
– ביצועים- מיקרו-מעבדי Inferentia2 של AWS מבוססים על "הסקת הנבואה", מה שעשוי להוביל לביצועים טובים יותר לאפליקציות שדורשות פעולות AI רציניות.
– קהילה ושת"פ- בסיס המודלים קוד-פתוח החזק של Hugging Face והשתפות הפעולה בקהילה עשוים עשיונות עשוי יכולים להוביל לחדשנות ושיפורים בהפצת הדוגמאות BMI.
חסרונות:
– מורכבות- המורכבות הטכנית של השליבה של מודלי AI שונים עם חומרה ספציפית של AWS עלולה להיות סוכן יותר לפיתוחים כאלה.
– תלות- ברצונס בפתרונות של AWS עשוי ליצור נעילת ספק עבור פיתוחים שעשויים לרצות למנוע תלות בספק ענן יחיד.
– השפעת שוק- עננים כמו אמזון ביכולתיות גדולות יכולים לפרוע מאד על הכיוון ונגישות הפיתוח בתחום הAI, ולשידור שחקנים קטנים.
למידע נוסף על AWS ו-Hugging Face, ניתן לבקר באתריהם הרשמיים:
– AWS
– Hugging Face
שימו לב כי ההמלצות מבוססות על הנסיעה הטכנולוגית הנוכחית החותבת שלי באפריל 2023 ונתונות לשינויים כאשר הטכנולוגיה והשותפויות מתפתחים.