כך למערכות מבוססות בינה מלאכותית יש ערכים מוסריים נסתרים...

מחקר חדש של אוניברסיטת מנהיים ומכון לייבניץ על מודלים של שפות גדולות חושף הטיות שעלולות להיות מזיקות

בינה מלאכותית: אפליקציה המיישמת אותה
אפליקציה המיישמת בינה מלאכותית (צילום: Mojahid Mottakin/Unsplash)

בעידן שבו הבינה מלאכותית עומדת במרכזם של תוכניות ופרויקטים רבים מחקר ופיתוח (לא בלי מחלוקת), גם המחקרים העוסקים בנושא הולכים ומתרבים.

ואחד האחרונים, חתומים על ידי חוקרים מה-אוניברסיטת מנהיים ועל ידי מכון GESIS לייבניץ למדעי החברה, מעניין במיוחד לדרך בה הם ניגשים אליו, כמו גם מנקודת מבט של אתיקה, מוסר וערכים.

בדיוק כמו בני אדם, למעשה, אני מודלים לשוניים המבוססים על בינה מלאכותית יש מאפיינים כמו מוסר וערכים, אבל הם לא תמיד מוצהרים או שקופים.

והדרכים שבהן, למעשה, דעות קדומות משפיעות על החברה ועל אלה המשתמשים ביישומי בינה מלאכותית חשובות כדי להבין את ההשלכות שיכולות להיות להן.

בינה מלאכותית גם לפיתוח תרופות חדשות
מודנה, מתחילה העבודה על המרכז לבינה מלאכותית וראייה

בינה מלאכותית: אוניברסיטת מנהיים
המטה ההיסטורי של אוניברסיטת מנהיים, עיירה במדינת באדן-וירטמברג שבגרמניה (צילום: www.uni-mannheim.de)

בינה מלאכותית הנתונה למבחנים פסיכומטריים: תוצאות מחקר מדעי

לכן החוקרים התמקדו בכך במהלך המחקר שלהם. דוגמה ברורה תהיה הדרך ChatGPT או DeepL, שירות תרגום רב לשוני המופעל על ידי בינה מלאכותית, נניח שכן מנתחים הם גברים ו אחיות הן נשים, אבל סוגיית המגדר אינה המקרה היחיד שבו מודלים של שפות גדולות (מודל שפה גדול, הידוע בראשי התיבות LLM) להראות נטיות ספציפיות.

תוצאות המחקר, בתיאום על ידי מומחים מהפקולטות המדעיות והפרופסורים מרקוס סטרומאייר, ביאטריס רמשטדט, קלאודיה ואגנר e סבסטיאן שטייר, מתפרסמים בכתב העת הנודע "Perspectives on Psychological Science". במהלך מחקרם, השתמשו החוקרים במבחנים פסיכולוגיים מוכרים כדי לנתח ולהשוות בין הפרופילים של מודלים לשוניים שונים.

"במחקר שלנו אנו מדגימים כי אני מבחנים פסיכומטריים בשימוש מוצלח במשך עשרות שנים על בני אדם ניתן להעביר למודלים של בינה מלאכותית", מציין מקס פלרט, עוזר פרופסור בקתדרה למדעי הנתונים בפקולטה למדעי הכלכלה והחברה באוניברסיטת מנהיים.

אם בינה מלאכותית היא החבר הכי טוב של ילדינו...
בינה מלאכותית מגיעה ל... דת: בגרמניה יש כומר קהילה וירטואלי

בינה מלאכותית
בינה מלאכותית הפכה כעת לחלק מתחומים רבים בחיי היומיום, כולל יצירת טקסטים במגוון שפות (צילום: פייסבוק/Universität Mannheim-University of Mannheim

חלק ממודלים של שפות בינה מלאכותית משחזרים הטיות מגדריות

"בדומה לאופן שבו אנו מודדים תכונות אישיות, אוריינטציות ערכיות או מושגים מוסריים אצל אנשים המשתמשים בשאלונים אלה, אנו יכולים לגרום למודלים לשוניים להגיב לשאלונים ולהשוות את תשובותיהם." מוסיף הפסיכולוג קלמנס לכנר ממכון GESIS לייבניץ במנהיים, גם מחבר המחקר. "זה איפשר לנו ליצור פרופילים מובחנים של הדגמים".

החוקרים הצליחו לאשר, למשל, שמודלים מסוימים משחזרים הטיות ספציפיות למין: אם הטקסט הזהה אחרת של שאלון מתמקד באדם זכר ונקבה, הם מוערכים באופן שונה.

אם האדם הוא זכר, הערך "תוֹצָאָה". אצל נשים הערכים שולטיםבְּטִיחוּת" ו"מָסוֹרֶת".

לאחר מכן החוקרים מציינים כיצד לדרכים הפנימיות הללו של עיבוד טקסטים ומידע יכולות להיות השלכות שונות על החברה.

מודלים לשוניים, למעשה, רק כדי לתת דוגמה, משמשים יותר ויותר בהליכי הערכה של מועמדים שואפים לתפקידים ולעבודות מסוימות.

אם למערכת יש הטיות, זה עלול להשפיע על הערכה מבין המועמדים: "מודלים הופכים רלוונטיים לחברה בהתבסס על ההקשרים שבהם הם משמשים." מסכם פלרט

"לכן חשוב להתחיל את הניתוח עכשיו ולהדגיש עיוותים אפשריים. בעוד חמש או עשר שנים זה עלול להיות מאוחר מדי לניטור כזה: ההטיות המופקות על ידי מודלים של בינה מלאכותית יתבססו ויהוו פגיעה בחברה".

בשוויץ הפוליטכניקה הפדרלית לבינה מלאכותית שקופה ואמינה
"העוזר של העוזר" כבר חי בבינה מלאכותית

בינה מלאכותית: מבחנים פסיכומטריים על מודלים של שפה
חוקרים מאוניברסיטת מנהיים ומכון לייבניץ בגרמניה הכניסו את מודל השפה הגדול למבחנים פסיכומטריים (צילום: Growtika/Unsplash)

הקתדרה הראשונה לאתיקה של בינה מלאכותית באוניברסיטת מקרטה

זהו, כאמור, נושא עדכני כשם שהוא עדין ומורכב, ומדענים וחוקרים המתמסרים לו הולכים וגדלים באופן אקספוננציאלי לאור הדיפוזיה והיישום בקנה מידה גדול של בינה מלאכותית.

לא במקרה נוצר גם כיסא ספציפי, ה Jean Monnet EDIT - אתיקה לאירופה הדיגיטלית הכלולה, במימון הנציבות האירופית, המסלול האקדמי הראשון והיחיד כיום באירופה המוקדש לאתיקה של בינה מלאכותית.

המוזרות היא שזה נולד באוניברסיטת מקרטה ב המחלקה למדעי המדינה, תקשורת ויחסים בינלאומיים (SPOCRI).

הקורס החדש נוצר בשיתוף עם הרווארד, MIT, טורונטו אוניברסיטה, KU Leuven, MCSA לובלין ואוניברסיטאות יוקרתיות אחרות ונועד לפתח גישה ממוקדת פרט לטכנולוגיות דיגיטליות.

הוצגה סדרת השיעורים מאזור Marche בנובמבר בבית הספר הרווארד קנדי, כחלק מאירוע שנערך בשיתוף עם המכון הטכנולוגי של מסצ'וסטס (MIT), ארגון הבריאות העולמי (WHO) והמכון לטכנולוגיה ובריאות גלובלית.

הפרופסור מחזיק בכסא בנדטה ג'ובנולה, פרופסור לפילוסופיה מוסרית במחלקת SPOCRI, בשיתוף פעולה באתר של עמיתים עמנואל פרונטוני, סימונה טירבלי e מרינה פאולנטי, ומוקדש ללימוד, הוראה והפצת תפקיד המפתח של האתיקה והערכים האירופיים בתחום הטרנספורמציה הדיגיטלית, במיוחד אלה המבוססים על בינה מלאכותית. 

הפרופסורה תתרום גם להגדלת ה מוּדָעוּת של התפקיד המכריע של האתיקה הדיגיטלית לצמיחה בת קיימא וליצירת חברות מכילות יותר, תוך שיפור תפקידה של אירופה כשחקן גלובלי.

רשת חישובים ובינה מלאכותית בינלאומית: פתיחה ב-WEF בדאבוס
בינה מלאכותית ונהיגה אוטונומית: הספורט המוטורי פועל בחושך

בינה מלאכותית: פרופסור בנדטה ג'ובנולה
פרופסור בנדטה ג'ובנולה מאוניברסיטת מקרטה בחנוכת השנה האקדמית 2023-2024 של בית הספר לעסקים ISTAO (צילום: פייסבוק/UNIMC/אוניברסיטת מקרטה)