Search
A phone with the ChatGPT logo and a laptop with the OpenAI logo

OpenAI משחררת את ספר החוקים של ChatGPT – מה זה אומר עבור המשתמשים

OpenAI חשפה את הטיוטה הראשונה של ספר חוקים חדש לגמרי עבור ChatGPT בשם Model Spec. פורסם ביום רביעי, OpenAI אמרה בפוסט בבלוג שהיא משתפת את המסמך כדי להעמיק את השיחות הציבוריות על איך מודלים של AI צריכים להתנהג.

"אנחנו עושים את זה כי אנחנו חושבים שחשוב שאנשים יהיו מסוגלים להבין ולדון בבחירות המעשיות הכרוכות בעיצוב התנהגות מודל", אמר OpenAI.

המסמך מגלם אוסף של עקרונות הכוללים מטרות (למשל לשקול נזקים פוטנציאליים), כללים (למשל הגנה על הפרטיות של אנשים) והתנהגויות ברירת מחדל (למשל לשאול שאלות הבהרה בעת הצורך).

זה דומה לחוקה של קלוד. הצ'אטבוט של Anthropic הוכשר עם Constitutional AI, מערכת המבוססת על מערכת עקרונות המעניקה לבוט AI משוב. העקרונות מבוססים בין היתר על ההצהרה האוניברסלית בדבר זכויות האדם ותנאי השירות של אפל.

מה זה אומר עבורך

OpenAI כבר זיהתה שוויסות נכון של כל מקרה שימוש הוא מאתגר, במיוחד כשזה מגיע לאי מסירת מידע שיכול לעזור למישהו לעבור על חוק.

לדוגמה, חסימת מישהו מלבקש מ-ChatGPT טיפים לגניבה מחנויות היא פשוטה יותר מאשר אם מישהו טוען שבבעלותו חנות קמעונאית קטנה ושואל: "מהן כמה שיטות פופולריות לגניבה מחנויות שאני צריך להיזהר מהן?"

מומחים חוששים יותר משימוש לרעה של בינה מלאכותית על ידי בני אדם, במקום שהבינה המלאכותית תעשה נוכלת ותבצע את המעשים הללו בעצמה.

עם זאת, אין זה סביר שיוכנסו הגבלות משמעותיות המבוססות על תרחישים כאלה שכן פעולה זו תבטל את הנקודה של שימוש בצ'אטבוט מלכתחילה. בנוסף, אפשר לטעון שכרגע כבר ניתן להשתמש במנועי חיפוש כדי למצוא דרכים לעקוף את החוק.

יצירת פרסונות עבור ChatGPT

מה שסביר יותר הוא שניתן לפתח 'פרסונות' חדשות של ChatGPT. תגיד שאתה רוצה ש-ChatGPT ישמש כמורה שלך למתמטיקה. במקום שהוא יענה מיד על שאלה שאתה מתמודד איתה, הוא יכול לנקוט בגישה איטית יותר ולתת לך רמזים לאורך הדרך שידריכו אותך לפתור את הבעיה בעצמך.

נקודה שנויה במחלוקת במפרט המודלים של OpenAI היא המטרה לא לנסות לשנות את דעתו של מישהו – מודגם במסמך עם צ'טבוט שאומר "כל אחד זכאי לאמונותיו שלו" כשנשאל אם כדור הארץ שטוח.

לואיזה ירובסקי, מנכ"לית חברת ההדרכה בינה מלאכותית Implement Privacy, כתבה על איקס אומרת שהיא לא מסכימה מאוד עם הכלל המוצע, מכיוון שזה מדרון חלקלק למידע מוטעה מסוכן.

"אני מקווה שלא נהרוס מאות שנים של ידע והסכמה מדעית לטובת רלטיביזציה ו'אמיתות מותאמות אישית'", היא כתבתי.

בעתיד, משתמשים עשויים לראות צ'אטבוטים יריבים מנסים לפנות לקהלים שונים על סמך תפיסת העולם שלהם.

OpenAI אוספת משוב משתמשים על Model Spec עד ה-22 במאי.

דילוג לתוכן