
הסכנות של עובדות AI בחקיקה
- בינה ארטיפישלי
- נובמבר 8, 2024
- AI Tools, בינה מלאכותית בחינוך, חדשות בינה מלאכותית
- AI
- 0תגובות
AI המציאות שהפכה למציאות: האתגרים של הסתמכות על נתונים סינתטיים בגיבוש מדיניות
בימים אלה, כאשר טכנולוגיות בינה מלאכותית (AI) גנרטיביות הופכות נגישות יותר, אנו עדים לצמיחתה של תופעה מטרידה – שימוש בנתונים סינתטיים שנוצרו על ידי אלגוריתמי AI בתהליכי קבלת החלטות ועיצוב מדיניות. התקרית לאחרונה באלסקה, שם מחוקקים הסתמכו על ציטוטים מזויפים שהופקו על ידי AI בניסיונם להנמיק איסור על שימוש בטלפונים סלולריים בבתי הספר, מאירה זרקור על הסכנות הטמונות בשימוש לא מבוקר בנתונים סינתטיים אלה.
כשהמציאות הופכת להזיה: הקונפליקט באלסקה
הסאגה החלה כאשר דינה ביישופ, נציבת משרד החינוך והחינוך הקדם-יסודי של אלסקה (DEED), השתמשה בכלי AI גנרטיבי כדי לנסח את טיוטת המדיניות המוצעת לאיסור שימוש בטלפונים סלולריים בבתי הספר. המסמך שהופק על ידי ה-AI כלל הפניות לכאורה למחקרים אקדמיים שמעולם לא התקיימו, ללא כל התראה שהמקורות נוצרו על ידי מערכת ממוחשבת. חלק מהתוכן הבדיוני הזה אף הגיע לידיהם של חברי מועצת המדינה לחינוך וחינוך קדם-יסודי לפני שעבר כל בדיקת אמינות, מה שמעלה חששות כבדים לגבי ההשפעה שיכול היה להיות לו על הדיונים והחלטותיהם.
הזיות AI: כשהמציאות המלאכותית מתעתעת בנו
בדיעבד, הנציבה ביישופ טענה כי ה-AI נועד רק ‘ליצור ציטוטים’ לטיוטה הראשונית, וכי היא תיקנה את השגיאות לפני הפגישה על ידי שליחת ציטוטים מתוקנים לחברי המועצה. עם זאת, ‘הזיות AI’ – מידע בדיוני שנוצר כאשר ה-AI מנסה ליצור תוכן אמין אך לא מאומת – היו עדיין נוכחות במסמך הסופי שהוצג להצבעה.
תקרית זו ממחישה את הסכנות הטמונות בהסתמכות על נתונים שנוצרו על ידי AI גנרטיבית ללא אימות אנושי. אלגוריתמים אלה, המתוכננים לייצר תוכן על סמך דפוסים ולא דיוק עובדתי, יכולים בקלות להפיק ציטוטים מטעים וראיות כוזבות. כאשר מקורות מסולפים כאלה אינם נתונים לביקורת ובדיקה, הם עלולים להשפיע על מדיניות, לגרום לתקציב שגוי של משאבים ואף לפגוע באוכלוסיות שהמדיניות אמורה לשרת.
מגמה מטרידה, אך ניתנת לתיקון
למרבה הצער, מקרים של הזיות AI מתרחשים בתדירות גוברת במגוון תחומים מקצועיים. עורכי דין, לדוגמה, נאלצים להתמודד עם השלכות של שימוש בציטוטים בדיוניים מפסיקות שנוצרו על ידי AI בבתי משפט. באופן דומה, במאמרים אקדמיים שנוצרו באמצעות AI נכללו נתונים מעוותים ומקורות שקריים, מה שמציב חששות רציניים לגבי אמינות התוכן המדעי.
שמירה על אמינות בעידן הדיגיטלי: חיוניות האימות האנושי
השימוש בנתונים שנוצרו על ידי AI בקביעת מדיניות, בייחוד בתחום החינוך, טומן בחובו סיכונים משמעותיים. כאשר מדיניות מתבססת על מידע מזויף, היא עלולה להקצות משאבים באופן שגוי ואף לפגוע בתלמידים שהיא אמורה לשרת. לדוגמה, מדיניות המגבילה שימוש בטלפונים סלולריים על בסיס נתונים כוזבים עלולה להסיט את תשומת הלב מהתערבויות יעילות יותר המבוססות על ראיות אמיתיות, שיכולות באמת להיטיב עם התלמידים.
חמור מכך, שימוש בנתוני AI לא מאומתים יכול לערער את אמון הציבור הן בתהליך קביעת המדיניות והן בטכנולוגיית ה-AI עצמה. מקרים כאלה ממחישים את חשיבות ביקורת העובדות, השקיפות והזהירות בעת השימוש ב-AI בתחומים רגישים לקבלת החלטות, במיוחד בחינוך, שם להשפעה על התלמידים יש משמעות עמוקה. רק באמצעות אימות אנושי קפדני של נתונים שנוצרו על ידי AI נוכל לשמור על אמינות ואחריותיות בתהליכי קביעת המדיניות בעידן הדיגיטלי.