ככל שהבינה המלאכותית מתפתחת, ברור שיש צורך בפיקוח מסוים. רוב מעבדות הבינה המלאכותית תומכות בגלוי ברגולציה ומספקות גישה למודלים חזיתיים להערכה עצמאית לפני השחרור – אבל הן יכולות לעשות יותר.
העולם פונה לבינה מלאכותית כדי לפתור כל מיני בעיות, אבל ללא פיקוח מתאים, זה תמיד יכול ליצור עוד.
Future of Life פיתחה כרטיס דיווח עבור מעבדות הבינה המלאכותית השונות כולל OpenAI, Meta, Anthropic ו-xAI של אילון מאסק. אינדקס בטיחות בינה מלאכותית הוא סקירה עצמאית העוסקת ב-42 אינדיקטורים של "התנהגות אחראית".
הדו"ח נותן ציון אות לכל חברה בהתבסס על האינדיקטורים הללו ומטה, המתמקדת במודלים של AI בקוד פתוח דרך משפחת ה-Llama שלה, מקבלת F
אינדקס בטיחות בינה מלאכותית כולל נתונים מדאיגים עבור חברות ה-AI הגדולות ביותר
| מוּצָק | ציון כללי | צִיוּן | הערכת סיכונים | נזקים נוכחיים | מסגרות בטיחות | אסטרטגיית בטיחות קיומית | ממשל ואחריות | שקיפות ותקשורת |
|---|---|---|---|---|---|---|---|---|
| אנתרופית | ג | 2.13 | C+ | ב- | D+ | D+ | C+ | D+ |
| גוגל DeepMind | D+ | 1.55 | ג | C+ | ד- | ד | D+ | ד |
| OpenAI | D+ | 1.32 | ג | D+ | ד- | ד- | D+ | ד- |
| Zhipu AI | ד | 1.11 | D+ | D+ | ו | ו | ד | ג |
| x.AI | ד- | 0.75 | ו | ד | ו | ו | ו | ג |
| מטא | ו | 0.65 | D+ | ד | ו | ו | ד- | ו |
מקור: מכון עתיד החיים
דירוג: משתמש ב- מערכת GPA בארה"ב עבור גבולות כיתה: A+, A, A-, B+, (…), F
הפאנל כולל סדרה של מאורות בחינוך ובצוותי חשיבה כדי לבדוק כיצד חברות בינה מלאכותית פועלות, והתוצאות הראשוניות מדאיגות.
בהסתכלות על Anthropic, Google DeepMind, Meta, OpenAI, x.AI ו-Zhipu AI, הדו"ח מצא "פערים משמעותיים באמצעי הבטיחות וצורך רציני באחריות משופרת".
הירשם כדי לקבל את המדריך הטוב ביותר של טום ישירות לתיבת הדואר הנכנס שלך.
קבל גישה מיידית לחדשות מרעננות, לביקורות החמות ביותר, למבצעים מעולים וטיפים מועילים.
לפי כרטיס הדיווח הראשון, Meta מרוויחה את הציונים הנמוכים ביותר (x.AI לא רחוקה), בעוד שאנתרופיק מגיעה בראש – אבל עדיין מקבלת רק C.
כל דגמי הדגל נמצאו כ"פגיעים להתקפות יריבות", תוך שהם בעלי פוטנציאל להיות לא בטוחים ולהתנתק משליטה אנושית.
אולי המרשיע ביותר, הדוח אומר "הסוקרים הדגישו בעקביות כיצד חברות לא היו מסוגלות להתנגד לתמריצים מונעי רווח לחתוך פינות בבטיחות בהיעדר פיקוח עצמאי".
"בעוד שמבני הממשל הנוכחיים של Anthropic ושל OpenAI הודגשו כמבטיחים, מומחים קראו לאימות צד שלישי של הערכת סיכונים ותאימות למסגרת הבטיחות בכל החברות".
בקיצור, זה סוג הפיקוח והאחריות שאנחנו צריכים לראות בתעשיית הבינה המלאכותית המתפתחת לפני שיהיה מאוחר מדי, שכן ככל שהדגמים נהיים חזקים יותר, כך הנזקים הופכים אמיתיים יותר.