מאמצי הבינה המלאכותית של Meta מרגישים קצת פחות נראים לפעמים מאלה כמו Apple Intelligence או ChatGPT, אבל הבית שפייסבוק בנתה עשה צעדים גדולים.
ה-Segment Anything Model 2 החדש, המכונה SAM 2, הוא עדות לכך, ומאפשר לך לקטוף כמעט כל דבר מתוכן וידאו ולהוסיף אפקטים, להעביר אותו לפרויקט חדש ועוד הרבה יותר.
זה יכול לפתוח שורה שלמה של פוטנציאל ביצירת סרטים, לאפשר ליוצרים לגרור ולשחרר אלמנטים שונים כדי ליצור שלם מגובש. למרות שזה זמין רק במעין "הדגמת מחקר" כרגע, הנה איך אתה יכול להסתבך עם SAM 2.
כיצד להשתמש ב-SAM 2 של Meta
אחד החלקים הטובים ביותר של SAM 2 כרגע הוא שמטה מציעה את הדגם עם הדגמה.
תצטרך להיות בארה"ב (או לפחות להיות בעל VPN) כדי לקבל גישה לערכת כלי הבינה המלאכותית של החברה, אבל אם זו לא בעיה תצטרך ראש אל הקישור הזה.
בחר 'נסה את ההדגמה' ואתה צריך בסופו של דבר להסתכל על נושא שמחזיק כדורגל, כמו בתמונה למעלה.
כדי לקבל מושג כיצד SAM 2 יכול להועיל ליוצרי וידאו, נסה לבחור את הכדור כדי להדגיש אותו בכחול, ולאחר מכן לחץ על 'עקוב אחר אובייקטים' בתחתית כדי לראות אותו עוקב אחר הכדור כשהוא בועט ומסובב על ידי הנושא.
הירשם כדי לקבל את המדריך הטוב ביותר של טום ישירות לתיבת הדואר הנכנס שלך.
קבל גישה מיידית לחדשות מרעננות, לביקורות החמות ביותר, למבצעים מעולים וטיפים מועילים.
יש גם מספר הדגמות המוצעות. מעבר לסקייטבורד אחד ייתן לך את האפשרות להדגיש את הבורדר, הלוח, או כמעט כל דבר אחר. בדקתי אותו על ידי הדגשת העלווה הנראית לעין בתחילת הקליפ, ובעוד שהוא הצליח לשמור אותו מודגש, הוא הדגיש גם עץ בגודל דומה בצד השני של הקערה.
זה מראה שזה אולי עדיין לא ממש מושלם, אבל זה מרשים לשקול כיצד זה יכול לשנות את עריכת הווידאו בעתיד.
לאחר בחירת נושאים, המשתמשים יכולים להתאים את האפקטים עבור כל אחד מהם, לתת להם להיראות מובחנים חזותית מהרקע, או להפוך את הצבעים לחלוטין.
מה שמטה אומרת
בפוסט של Meta בבלוג אמרה החברה "היום, אנו מכריזים על Meta Segment Anything Model 2 (SAM 2), הדור הבא של Meta Segment Anything Model, התומך כעת בפילוח אובייקטים בסרטונים ובתמונות".
"אנחנו משחררים את SAM 2 תחת רישיון Apache 2.0, כך שכל אחד יכול להשתמש בו כדי לבנות חוויות משלו. אנחנו גם חולקים את SA-V, מערך הנתונים בו השתמשנו לבניית SAM 2 תחת רישיון CC BY 4.0 ומשחררים חווית הדגמה מבוססת אינטרנט שבה כולם יכולים לנסות גרסה של המודל שלנו בפעולה."
מודל ה-Segment Anything של השנה שעברה (ה-SAM הראשון) היה "מודל היסוד" של Meta לפילוח אובייקטים, אך SAM 2 הוא "המודל המאוחד הראשון לפילוח אובייקטים בזמן אמת וניתן להנחות בתמונות ובסרטוני וידאו, המאפשר שינוי שלבים בסרטון חווית פילוח ושימוש חלק בין יישומי תמונה ווידאו."
Meta אומר ש-SAM 2 מדויק יותר ומציע ביצועי פילוח וידאו טובים יותר מהגרסה הקודמת.