Search
Facebook co-founder, Chairman and CEO Mark Zuckerberg arrives to testify before the House Energy and Commerce Committee in the Rayburn House Office Building on Capitol Hill April 11, 2018 in Washington, DC. This is the second day of testimony before Congress by Zuckerberg, 33, after it was reported that 87 million Facebook users had their personal information harvested by Cambridge Analytica, a British political consulting firm linked to the Trump campaign.

מטא מודה במערכות AI של "סיכון קריטי" המסוכנות מכדי להתפתח – הנה מה שזה אומר

המנטרה הפנימית של מטא, לפחות עד 2014 (כשהיא עדיין הייתה פייסבוק), הייתה "לזוז במהירות ולשבור דברים." קדימה מהירה במשך עשור והקצב המפוצץ של פיתוח AI לכאורה גרם לחברה מחדש את הדברים קצת.

נראה כי מסמך מדיניות חדש, שנצבר על ידי TechCrunch, מראה כי מטא נוקט בגישה אזהרה יותר. החברה זיהתה תרחישים שבהם "סיכון גבוה" או "סיכון קריטי" מערכות AI נחשבות מסוכנות מכדי לשחרר לציבור במדינתם הנוכחית.

מערכות מסוג זה יכללו בדרך כלל כל AI שיכול לעזור בביטחון סייבר או התקפות לוחמה ביולוגיות. במסמך המדיניות, Meta מתייחס באופן ספציפי ל- AI שיכול לעזור ביצירת "תוצאה קטסטרופלית (שהיא) לא ניתן להקל על (א) הקשר פריסה מוצע."

החברה קובעת: "מסגרת AI של גבול זו מתארת ​​כיצד מטא פועלת לבניית AI מתקדם, כולל על ידי הערכת והקלה של סיכונים וקביעת ספים לסיכונים קטסטרופלים."

אז מה מטא – שעשה עבודות חלוציות במרחב AI של הקוד הפתוח עם LLAMA – האם אם היא קובעת מערכת מהווה איום מסוג זה? במקרה הראשון, החברה טוענת כי היא תגביל את הגישה באופן פנימי ולא תשחרר אותה עד שהיא תציב הקלות כדי "להפחית את הסיכון לרמות בינוניות".

אם הדברים יהיו רציניים יותר, סטייה בשטח "הסיכון הקריטי", מטא אומר שהיא תפסיק את הפיתוח לחלוטין ותכניס אמצעי אבטחה כדי להפסיק את ההספקה לשוק ה- AI הרחב: "הגישה מוגבלת בהחלט למספר קטן של מומחים, לצד צדו הגנות אבטחה למניעת פריצה או סינון ככל האפשר מבחינה טכנית וניתנת למסחרית. "

בטיחות קוד פתוח

לוגו Meta AI בטלפון

ההחלטה של ​​מטא לפרסם מסגרת חדשה זו על פיתוח AI היא ככל הנראה תגובה לעלייה של כלי AI בקוד פתוח כיום המעצימים את הענף. הפלטפורמה הסינית Deepseek פגעה בעולם AI כמו מזחלת בשבועות האחרונים ויש לה (לכאורה) מעט מאוד אמצעי הגנה.

בדומה ל- DeepSeek, מודל LLAMA 3.2 של מטא משלה יכול לשמש אחרים לבניית כלי AI שנהנים מהספרייה העצומה של נתונים ממיליארדי משתמשי פייסבוק ואינסטגרם עליו הוכשר.

מטא אומר כי הוא גם ישנה ויעדכן את המסגרת שלה לפי הצורך שכן AI תמשיך להתפתח.

"אנו מצפים לעדכן את המסגרת שלנו ככל שמתפתחת ההבנה הקולקטיבית שלנו כיצד למדוד ולהקטין סיכון קטסטרופלי פוטנציאלי של Frontier AI, כולל קשורים לשחקני מדינה", נכתב במסמך Meta.

"זה עשוי להיות כרוך בהוספת, הסרה או עדכון תוצאות קטסטרופליות או תרחישי איום, או שינוי הדרכים בהן אנו מכינים מודלים להערכה."

דילוג לתוכן