סיכוני GPT-4o

מסמך הסיכונים של GPT-4o מאת OpenAI

שקיפות חסרת תקדים: OpenAI חושפת את מסמך הערכת הסיכונים של GPT-4o

בצעד תקדימי לקידום השקיפות והאחריותיות בתחום הבינה המלאכותית, OpenAI שחררה את מסמך המערכת (System Card) המפורט של GPT-4o. מסמך זה חושף את תהליכי הערכת הסיכונים המקיפים שנערכו על ידי צוותים פנימיים וחיצוניים לפני השקת המודל החדשני. מהלך זה מבשר גישה חדשה של פתיחות בענף ה-AI, תוך חשיפת המורכבויות והאתגרים הכרוכים בכך.

מבט מעמיק על מסמך המערכת של GPT-4o

בטרם השקת GPT-4o בחודש מאי, OpenAI גייסה צוותי “חוקרים אדומים” חיצוניים – מומחי אבטחה שתפקידם לאתר נקודות תורפה במערכות. צוותים אלו בחנו סיכונים פוטנציאליים כגון יצירת תוכן ארוטי או אלים, שחזור של חומרים ממוגנים בזכויות יוצרים, וייצור קלונים קוליים לא מורשים. התובנות המפורטות שעלו מבדיקות אלו מוצגות במסמך המערכת החשוף.

דירוג הסיכון של GPT-4o: בינוני עם חריג בתחום השכנוע

על פי מסגרת ההערכה של OpenAI, החוקרים דירגו את GPT-4o כבעל סיכון ‘בינוני’ באופן כללי. דירוג זה נובע מהחמור ביותר מבין ארבעת הקטגוריות שנבחנו: אבטחת סייבר, איומים ביולוגיים, שכנוע וריבונות המודל. בעוד שרוב הקטגוריות נמצאו כבעלות סיכון נמוך, בתחום השכנוע נמצא כי דוגמאות כתיבה של GPT-4o עשויות להיות יעילות יותר בהשפעה על דעות קוראים, בהשוואה לטקסט כתוב על ידי אדם.

שיתוף פעולה עם גורמים חיצוניים להערכת מודלים

לינדזי מקאלום רמי, דוברת OpenAI, חשפה כי מסמך המערכת כולל הערכות הן של צוותים פנימיים והן של בודקים חיצוניים הרשומים כ-Model Evaluation and Threat Research (METR) ו-Apollo Research – שתי חברות המתמחות בהערכת מערכות בינה מלאכותית.

הרמת המסך על התרבות הארגונית של OpenAI

זוהי אינה הפעם הראשונה שOpenAI משחררת מסמכי מערכת לציבור, אך הפעם השחרור מגיע בעיתוי קריטי עבור החברה, שספגה ביקורת רבה על תקני הבטיחות שלה – הן מעובדים משלה והן מגורמים ממשלתיים. רגע קודם לפרסום מסמך המערכת של GPT-4o, הוורג’ דיווח בבכורה על מכתב פתוח מהסנטורית אליזבת’ וורן והנציגת לורי טראהן, שדרש תשובות מOpenAI על הטיפול בחושפי שחיתויות וסקירות בטיחות. צעד השקיפות הנוכחי של OpenAI מהווה תגובה ישירה לביקורת זו ומשקף את מחויבותה לנורמות גבוהות של פתיחות וכנות בתחום הבינה המלאכותית.

השאר תגובה