כאשר OpenAI השיקה את Sora 2, הצוות קיבל את ההחלטה השנויה במחלוקת לאפשר למשתמשים ליצור סרטונים עם אנשים אמיתיים בתוכם, ובחר לתת לסלבריטאים לבטל את השימוש בדמותם.
זה חזר, באופן לא מפתיע. לאחר ים של תוכן לא הולם, כולל דמויות מפתח, הודיע סם אלטמן על שינוי בכללים, שהתמקד במעבר המערכת מ-opt-out ל-opt-in, וחייב מפורסם להחליט שהוא רוצה שהדמות שלהם תשמש.
עם זאת, נראה שזה לא עבד כמו ש-OpenAI אולי אהב. החברה כבר נאלצה להציע התנצלות למשפחתו של מרטין לותר קינג, מכיוון שהדוגמנית הפיקה סרטונים לא הולמים שלו.
בעוד שסרטונים של קינג הוגבלו כעת, דמויות היסטוריות אחרות, כמו JFK ופרופסור סטיבן הוקינג, עשו גם הם את הסיבוב.
אבל לא רק דמויות היסטוריות מרימות את הדגל. השחקן בריאן קרנסטון, בהצהרה משותפת עם SAG-AFTRA ו-OpenAI, הדגיש שהדמות שלו שימשה בסורה 2 למרות שהצטרפה אליו.
"דאגתי מאוד לא רק לעצמי, אלא לכל המבצעים שניתן לעשות שימוש לרעה בעבודתם ובזהותם בדרך זו", אמר קרנסטון בהצהרה.
"אני אסיר תודה ל-OpenAI על המדיניות שלה ועל שיפור מעקות הבטיחות שלה, ומקווה שהן וכל החברות המעורבות בעבודה זו יכבדו את זכותנו האישית והמקצועית לנהל את שכפול הקול והדמות שלנו".
קבל גישה מיידית לחדשות מרעננות, לביקורות החמות ביותר, למבצעים מעולים וטיפים מועילים.
בעוד ש-OpenAI לא הסבירה במפורש מה יהיו שינויים אלה במדיניות ובמעקה הבטיחות, הם מבטיחים לצמצם את יכולתו של משתמש ליצור מחדש אנשים שבחרו לבטל את יצירת תמונות Sora 2.
"OpenAI מחויבת עמוקות להגן על מבצעים מפני ניצול לא נכון של קולם ודמותם. היינו תומכים מוקדמים בחוק NO FAKES כאשר הוא הוצג בשנה שעברה, ותמיד נעמוד מאחורי זכויות המבצעים", אמר סם אלטמן, מנכ"ל OpenAI, בהצהרה מ-SAG-AFTRA.
חוק NO FAKES היה חקיקה שהוכנסה השנה שמטרתה להגן על הקול והדמיון של כל האנשים מפני בילויים שנוצרו על ידי מחשב.
האם כלי AI אחרים מתמודדים עם בעיות אלה?
Sora 2 של OpenAI אינו מחולל תמונות AI היחיד בשוק, והרבה מהם מסוגלים ליצור סרטונים באיכות דומה. אז למה נראה ש-OpenAI היא היחידה שמתמודדת עם תגובה נגדית?
ובכן, הכל מסתכם בגישה של OpenAI לזכויות יוצרים עם המודל הזה. דברים כמו Veo 3, מחולל הווידאו של גוגל ג'מיני, תוכננו כדי למנוע את הדמיון של ידוענים ודמויות היסטוריות.
למעשה, בהשוואה לסורה 2, Gemini ורוב מחוללי הווידאו בינה מלאכותית נבנו עם אמצעי הגנה די מחמירים, והם היו כבר די הרבה זמן.
אפילו לדגם Sora המקורי של OpenAI לא הייתה בעיה זו. כשזה הגיע לסורה 2, OpenAI החליטה לפתוח את השערים. זהו מהלך מסוכן, ולמרות שהוא יצר תנועה רבה עבור OpenAI, הוא באותה מידה היה המקור לרבות מהבעיות האחרונות של החברה.
"כלי AI כמו Sora מאפשרים למשתמשים לדמיין או להתחזות לסמלים תרבותיים שנפטרו מזמן, אבל האתיקה של זה עכורה במהירות. האם זה מחווה, סאטירה או חילול הקודש? ההפסקה מדגישה עד כמה הויכוח הזה גולמי ובלתי פתור", אמרה אמנדה קאסוול, עורכת ה-AI של Datilin בארה"ב, בהתייחסה לחששות 2 של Sora.
"עוד לפני ש-Sora 2 שוחרר, במהלך תדרוך עם OpenAI שכלל את סם אלטמן, אני ועיתונאים אחרים הטילו ספק באפשרויות השליליות של מתן כלים כל כך חזקים של AI. עם זאת, נדרשת תגובה ציבורית כדי לגרום ל-OpenAI לבצע כל סוג של התאמה."
בניסיון להתבלט בשוק צפוף, OpenAI עושה מהלכים שנויים במחלוקת יותר ויותר. יחד עם חששות זכויות היוצרים של Sora 2, החברה הודיעה לאחרונה על תוכניות להוסיף תכונות למבוגרים ל-ChatGPT עם הגבלת גיל ולשנות את האופן שבו ChatGPT מתמודד עם בריאות הנפש, מה שמאפשר יותר אישיות במודל שלה.