לימוד על הסבר בינה מלאכותית – Raspberry Pi Foundation

פרסומת
X-ray_Promo1


בנוף הדיגיטלי המתפתח במהירות, תלמידים מקיימים יותר ויותר אינטראקציה עם יישומים המונעים בינה מלאכותית בעת האזנה למוזיקה, כתיבת מטלות וקניות מקוונות. כמחנכים, זו האחריות שלנו לעשות זאת לצייד אותם בכישורים להעריך באופן ביקורתי את הטכנולוגיות הללו.

פרסומת
מורה אישה עוזרת לאדם צעיר בפרויקט קידוד.

היבט מרכזי של זה הוא הבנת 'יכולת ההסבר' במערכות בינה מלאכותית ולמידת מכונה (ML). יכולת ההסבר של מודל היא כמה קל 'להסביר' כיצד נוצר פלט מסוים. דמיינו לעצמכם בקשת עבודה שנדחתה על ידי מודל בינה מלאכותית, או שטכנולוגיית זיהוי פנים לא מזהה אתכם – הייתם רוצים לדעת למה.

שתי נערות מתבגרות עושות פעילויות קידוד במחשבים הניידים שלהן בכיתה.

קביעת סטנדרטים להסבריות היא חיונית. אחרת אנחנו מסתכנים ביצירת עולם שבו החלטות המשפיעות על חיינו מתקבלות על ידי מערכות אטומות שאיננו מבינים. למידה על יכולת הסבר היא המפתח לתלמידים לפיתוח אוריינות דיגיטלית, המאפשרת להם לנווט בעולם הדיגיטלי עם מודעות מושכלת וחשיבה ביקורתית.

מדוע הסבר בינה מלאכותית חשובה

מודלים של AI יכולים להיות בעלי השפעה משמעותית על חייהם של אנשים בדרכים שונות. לדוגמה, אם מודל קובע את תוצאות הבחינה של ילד, הורים ומורים ירצו להבין את ההיגיון מאחוריו.

שני לומדים חולקים מחשב נייד בפגישת קידוד.

אמנים עשויים לרצות לדעת אם העבודות היצירתיות שלהם שימשו להכשרת דוגמנית ועשויות להיות בסיכון לגניבת דעת. כמו כן, קודנים ירצו לדעת אם הקוד שלהם נוצר ומשתמשים בו אחרים ללא ידיעתם ​​או הסכמתם. אם נתקלתם ביצירת אמנות שנוצרת בינה מלאכותית הכוללת פנים הדומות לשלך, טבעי שתרצו להבין כיצד שולבה תמונה שלכם בנתוני האימון.

הסבר עוסק באחריות, שקיפות והוגנות, שהם שיעורים חיוניים לילדים כשהם גדלים בעולם דיגיטלי יותר ויותר.

יהיו גם מקרים שבהם נראה שמודל עובד עבור אנשים מסוימים אך אינו מדויק עבור דמוגרפיה מסוימת של משתמשים. זה קרה עם מודל זיהוי הפנים של טוויטר (כיום X) בתמונות; הדגם לא עבד טוב עבור אנשים עם גווני עור כהים יותר, שגילו שהוא לא יכול לזהות את פניהם ביעילות כמו חברים ובני משפחה בהירים יותר. יכולת ההסבר מאפשרת לנו לא רק להבין אלא גם לערער על התפוקות של מודל אם הן נמצאות לא הוגנות.

במהותו, הסברה עוסקת באחריות, שקיפות והוגנות, שהם שיעורים חיוניים לילדים כשהם גדלים בעולם דיגיטלי יותר ויותר.

מסלולים להסבר בינה מלאכותית

לחלק מהמודלים, כמו עצי החלטה, עקומות רגרסיה ואשכולות, יש רמה מובנית של הסבר. יש דרך ויזואלית לייצג את המודלים הללו, כך שנוכל לעקוב בצורה די מדויקת אחר ההיגיון שמיישם המודל כדי להגיע לפלט מסוים.

על ידי לימוד התלמידים על יכולת הסבר בינה מלאכותית, אנו לא רק מלמדים אותם על פעולתן של טכנולוגיות אלו, אלא גם מלמדים אותם לצפות לשקיפות ככל שהם גדלים להיות צרכנים עתידיים או אפילו מפתחים של טכנולוגיית AI.

עץ החלטות עובד כמו תרשים זרימה, ותוכל לעקוב אחר התנאים המשמשים כדי להגיע לתחזית. ניתן להציג עקומות רגרסיה על גרף כדי להבין מדוע נתון מסוים טופל כפי שהוא טופל, אם כי זה לא ייתן לנו תובנה למה בדיוק הוצבה העקומה בנקודה זו. Clustering היא דרך לאסוף פיסות נתונים דומות יחד כדי ליצור קבוצות (או אשכולות) שבאמצעותן נוכל לחקור את המודל כדי לקבוע אילו מאפיינים שימשו ליצירת הקבוצות.

עץ החלטות שמסווג בעלי חיים לפי מאפייניהם; אתה יכול לעקוב אחר המודלים האלה כמו תרשים זרימה

עם זאת, ככל שהדגם חזק יותר, כך הוא נוטה להיות פחות ברור. רשתות עצביות, למשל, קשות לשמצה להבנה – אפילו עבור המפתחים שלהן. הרשתות המשמשות ליצירת תמונות או טקסט יכולות להכיל מיליוני צמתים הפרוסים על פני אלפי שכבות. קשה מאוד לנסות להבין מה כל צומת או שכבה בודדים עושים לנתונים.

לומדים בכיתת מחשוב.

ללא קשר למורכבות, עדיין חיוני שמפתחים ימצאו דרך לספק מידע חיוני לכל מי שמחפש להשתמש במודלים שלהם באפליקציה או לצרכן שעלול להיות מושפע לרעה מהשימוש במודל שלהם.

כרטיסי דגם לדגמי AI

אסטרטגיה אחת המוצעת להוספת שקיפות למודלים אלה היא שימוש בכרטיסי מודל. כאשר אתם קונים פריט מזון בסופרמרקט, תוכלו להסתכל על האריזה ולמצוא כל מיני מידע תזונתי, כמו מרכיבים, מקרו-נוטריינטים, אלרגנים שהם עשויים להכיל וגדלי מנות מומלצים. מידע זה נמצא שם כדי לעזור ליידע את הצרכנים לגבי הבחירות שהם עושים.

כרטיסי מודל מנסים לעשות את אותו הדבר עבור דגמי ML, ומספקים מידע חיוני למפתחים ולמשתמשים של מודל, כך שהם יכולים לעשות בחירות מושכלות אם הם רוצים להשתמש בו או לא.

כרטיסי מודל כוללים פרטים כגון מפתח המודל, נתוני ההדרכה בהם נעשה שימוש, הדיוק בקבוצות שונות של אנשים וכל מגבלה שהמפתחים חשפו בבדיקה.

כרטיסי דגם צריכים להיות נגישים לכמה שיותר אנשים.

דוגמה אמיתית לכרטיס דגם היא כרטיס הדגם של זיהוי פנים של גוגל. זה מפרט את מטרת המודל, הארכיטקטורה, הביצועים על פני נתונים דמוגרפיים שונים וכל מגבלות ידועות של המודל שלהם. מידע זה עוזר למפתחים שאולי ירצו להשתמש במודל כדי להעריך אם הוא מתאים למטרה שלהם.

שקיפות ואחריות ב-AI

כשהעולם מתמקם במציאות החדשה של הכוח המדהים של דגמי AI העומד לרשותנו כמעט לכל משימה, עלינו ללמד צעירים על חשיבות השקיפות והאחריות.

מחנך מצביע על תמונה על מסך המחשב של תלמיד.

כחברה, עלינו לנהל דיונים קשים על היכן ומתי נוח לנו ליישם מודלים וההשלכות שעלולות להיות להם על קבוצות שונות של אנשים. על ידי לימוד התלמידים על יכולת הסבר, אנחנו לא רק מלמדים אותם על פעולתן של טכנולוגיות אלו, אלא גם מלמדים אותם לצפות לשקיפות ככל שהם גדלים להיות צרכנים עתידיים או אפילו מפתחים של טכנולוגיית AI.

והכי חשוב, כרטיסי דגם צריכים להיות נגישים לכמה שיותר אנשים – לוקחים מידע זה ומציגים אותו בצורה ברורה ומובנת. כרטיסי דגם הם דרך מצוינת עבורך להראות לתלמידים שלך איזה מידע חשוב לאנשים לדעת על מודל AI ומדוע הם עשויים לרצות לדעת אותו. כרטיסי מודל יכולים לעזור לתלמידים להבין את החשיבות של שקיפות ואחריות ב-AI.


מאמר זה מופיע גם בגיליון 22 של Hello World, שכולו הוראה ובינה מלאכותית. הורד את עותק ה-PDF שלך בחינם עכשיו.

אם אתה מחנך, אתה יכול להשתמש שלנו שיעורי ניסיון בינה מלאכותית בחינם ללמד את הלומדים שלך את היסודות של איך AI עובד, לא משנה מה תחום הנושא שלך.



קישור לכתבת המקור – 2024-01-11 13:00:53

Facebook
Twitter
LinkedIn
Telegram
WhatsApp
Email
פרסומת
X-ray_Promo1

עוד מתחומי האתר