
הסדרת AI למניעת סכנות אפשריות על ידי אנתרופיק
- בינה ארטיפישלי
- נובמבר 2, 2024
- בינה מלאכותית ועולם המשפט, חדשות בינה מלאכותית, מודלי שפה, מחוללי טקסט
- AI
- 0תגובות
קול האזהרה של אנתרופיק: הסדרת בינה מלאכותית לצמצום סיכונים אפשריים
בין מגוון היישומים החדשניים ותועלות הבינה המלאכותית (AI), מתעוררות גם דאגות לגבי הסיכונים הפוטנציאליים שמערכות אלו עלולות להציב. חברת אנתרופיק, המתמחה בפיתוח טכנולוגיות AI מתקדמות, מצביעה על החשיבות של הסדרה מובנית כדי לנצל את יתרונות הבינה המלאכותית תוך צמצום הסכנות האפשריות.
יכולות ה-AI ככלי דו-חד לפריצות מידע וסיכונים ביולוגיים
עם התקדמות המערכות בתחומים כמו מתמטיקה, חשיבה והכתבת קוד, עולה גם הפוטנציאל לניצול לרעה בתחומי הסייבר, הביולוגיה והכימיה. צוות האדום הקדמי (Frontier Red Team) של אנתרופיק הדגים כיצד המודלים הנוכחיים יכולים לשמש ככלי עזר במשימות התקפי סייבר, בעוד שמכון הבטיחות של AI בבריטניה מצא שחלק מהמודלים כבר מגיעים לרמת מומחיות של תואר שלישי במדעים מסוימים.
חלון הזדמנויות צר למניעה מוקדמת
אנתרופיק מזהירה כי התקופה הקרובה של 18 החודשים היא קריטית לנקיטת פעולה על ידי קובעי המדיניות, שכן חלון ההזדמנויות למניעה מקדימה הולך ונסגר. לפיכך, החברה פירטה את ‘מדיניות ההסדרה האחראית’ (Responsible Scaling Policy – RSP) שלה, המחייבת הגברת אמצעי הבטיחות וההגנה בהתאם לרמת ההתקדמות של יכולות ה-AI.
מסגרת RSP: גמישה, איטרטיבית ומותאמת לסיכונים
מסגרת ה-RSP מיועדת להיות גמישה ואיטרטיבית, עם הערכות סדירות של מודלי AI המאפשרות שיפור וויסות זמין של פרוטוקולי הבטיחות. במקביל להרחבת הצוותים בתחומי האבטחה, הפרשנות והאמינות, אנתרופיק מתחייבת לשמר ולשפר את תנאי הבטיחות על פי תקני הבטיחות המחמירים שנקבעו במדיניות ה-RSP.
השאיפה לאימוץ גלובלי של מדיניות הסדרה אחראית
בראייה כוללת, אנתרופיק מאמינה כי אימוץ נרחב של מדיניות ההסדרה האחראית RSP בתעשיית ה-AI, גם אם בעיקרון על בסיס התנדבותי בשלב ראשון, הוא חיוני לטיפול בסיכוני ה-AI העולים. החברה קוראת להסדרה שקופה ויעילה כדרך להרגיע את החברה לגבי ציות חברות ה-AI להבטחות הבטיחות שלהן.
מסגרות רגולטוריות אסטרטגיות: ברורות, מותאמות ולא מכבידות
עם זאת, אנתרופיק מדגישה כי מסגרות רגולטוריות חייבות להיות אסטרטגיות – ברורות, ממוקדות ונתונות להתאמה לנוף הטכנולוגי המשתנה. המטרה היא לעודד נוהלי בטיחות ראויים מבלי להטיל נטלים מיותרים או לבלום את החדשנות בתחום.
בארצות הברית, החברה צופה כי חקיקה פדרלית עשויה להיות הפתרון האולטימטיבי להסדרת סיכוני ה-AI, אם כי יוזמות מדינתיות עשויות להידרש אם הפעולה הפדרלית תתעכב. במקביל, אנתרופיק קוראת למסגרות חקיקה גלובליות המאפשרות תקינה והכרה הדדית, כדי לתמוך בסדר יום בינלאומי לבטיחות AI ולמזער את עלויות העמידה בתקנות רגולטוריות חוצות גבולות.
המוקד בסיכונים מדידים אמפירית, ללא הטיה כלפי מודלים פתוחי קוד או סגורי קוד
החברה מדגישה כי ויכוחים לגבי הטלת רגולציה רחבה מדי הממוקדת במקרי שימוש ספציפיים יהיו לא יעילים עבור מערכות AI כלליות. במקום זאת, הרגולציה צריכה להתמקד בתכונות היסוד ואמצעי הבטיחות של מודלי ה-AI עצמם. בנוסף, אנתרופיק שואפת לנוף רגולטורי שאינו מוטה לטובת או נגד מודלים בקוד פתוח או סגור, אלא ממוקד בסיכונים הנמדדים אמפירית.
הדרך לרגולציה שתעודד חדשנות במקום להכבידה
לסיכום, אנתרופיק מדגישה את החשיבות של הטמעת רגולציה שתעודד חדשנות ולא תעכב אותה. הנטל התחלתי של ציות הוא בלתי נמנע, אך ניתן למזער אותו באמצעות בדיקות בטיחות גמישות ומתוכננות בקפידה. יתרה מזאת, רגולציה נאותה אף יכולה לסייע בהגנה על האינטרסים הלאומיים וחדשנות במגזר הפרטי, על ידי הבטחת קניין רוחני מפני איומים פנימיים וחיצוניים.
בתקופה זו של התפתחות מואצת של טכנולוגיות AI, אנתרופיק קוראת לנקיטת צעדים מוקדמים ומדודים להסדרת התחום, במטרה לנהל את הסיכונים המשמעותיים של מודלים חדשניים באמצעות רגולציה קפדנית אך גמישה.