AI של דעות קדומות משתנה בחיים אמריקאים. מה אנחנו יכולים לעשות לגבי זה?

AI של דעות קדומות משתנה בחיים אמריקאים. מה אנחנו יכולים לעשות לגבי זה?
AI של דעות קדומות משתנה בחיים אמריקאים. מה אנחנו יכולים לעשות לגבי זה?

וידאו: Free to Grow | John H. Cochrane (Hebrew subtitles) 2024, יולי

וידאו: Free to Grow | John H. Cochrane (Hebrew subtitles) 2024, יולי
Anonim

דמיין עולם בו אלגוריתמים חכמים מלאכותיים מקבלים החלטות המשפיעות על חיי היומיום שלך. עכשיו, דמיין שהם דעות קדומות.

זה העולם שאנחנו חיים בו כבר, אומר מדען הנתונים, הדוקטורט בהרווארד והסופרת קתי אוניל. (קרא את החלק הראשון של הדיון שלנו עם ד"ר אוניל כאן). ישבנו עם מועמד פרס הספר הלאומי כדי לגלות מה אנו יכולים לעשות בדעות קדומות בעידן הגדול. CT: האם AI נידון לדעות קדומות?

CO: יש להניח כי כל אלגוריתם שלא הוגן במפורש מפגין. כי בתור אנשים, אנו דעות קדומות. אם אנו מכירים בכך ואנחנו יוצרים אלגוריתמים אלה עם הערכים והנתונים שלנו, אסור לנו להניח שמשהו קרה באופן קסום כדי להפוך את הדברים להוגנים. אין שם קסם.

CT: מאיפה האלגוריתמים משיגים את הנתונים שלהם?

CO: זה תלוי באלגוריתם. לפעמים מדיה חברתית, למשל כמו מיקוד או פרסום של שוק פוליטי או מכללות למטרות רווח והלוואות טורפות - אבל חלק גדול מהנתונים לא נאספים במדיה החברתית ואפילו לא ברשת.

איסוף נתונים נקשר יותר ויותר לחיים האמיתיים, כמו לקבל עבודה, לעבוד בעבודה שלך, ללכת לקולג 'או ללכת לכלא. הדברים האלה אינם דברים שאנחנו יכולים לעקוף באמצעות חוקי הפרטיות. אלה נושאי כוח, שבהם לאנשים שממוקדים על ידי האלגוריתמים אין כוח, ולאנשים שאוספים את המידע ובונים ומפרסים את האלגוריתמים יש את כל הכוח. אין לך זכויות פרטיות אם אתה נאשם פלילי, אין לך זכויות פרטיות בעבודה שלך ואין לך הרבה דרך לזכויות פרטיות אם אתה מגיש בקשה למשרה מכיוון אם אתה לא עונה על השאלות ששאל אותך המעסיק העתידי שלך, סביר להניח שלא תקבל את העבודה.

עלינו לחשוב פחות על פרטיות ויותר על כוח כשמדובר באלגוריתמים והפגיעה [שהם יכולים לגרום].

CT: מה אנחנו יכולים לעשות כדי לשפר אותו?

CO: אנו יכולים להכיר בכך שאלגוריתמים אלה אינם מושלמים מטבעם, ולבחון אותם אם הם פגמים. עלינו לקיים ביקורים ומוניטורים שוטפים - במיוחד לגבי החלטות חשובות כמו שכירה, גזר דין פלילי או הערכת אנשים בעבודתם - כדי לוודא שהאלגוריתמים פועלים כדרך שאנחנו רוצים שהם לא, בדרך כלשהי מפלה או לא הוגנת.

Image

איילה ג'ונסון / © טיול תרבות

CT: מהם התרחישים הטובים ביותר והמקרים הגרועים ביותר לעתיד מונע הנתונים?

CO: התרחיש הגרוע ביותר הוא מה שיש לנו עכשיו - שכולנו מצפים בעיוורון מאלגוריתמים להיות מושלמים, למרות שכעת עלינו לדעת טוב יותר. ואנחנו מפיצים עוולות וחוסר הוגנות בעבר. ואנחנו ממשיכים להתעלם מפגמי האלגוריתמים הללו.

התרחיש הטוב ביותר הוא שאנו מכירים בכך שאלגוריתמים אלה אינם טובים באופן טבעי מטבעם. אנו מחליטים מה אנו רוצים כבני אדם, למה אנו חותרים. איך אנחנו רוצים שהחברה תיראה, ואנחנו מלמדים את אותם ערכים. אם נעשה זאת בהצלחה, האלגוריתמים הללו יכולים להיות טובים יותר מבני אדם.

CT: איזה תפקיד יכולים אנשים יומיומיים למלא?

CO: התפקיד החשוב ביותר שאדם יכול למלא הוא לא לתת אמון מרומז באף אלגוריתם. להיות עם כמות עצומה של ספקנות. אם אתה מוערך באלגוריתם שאל "איך אני יודע שזה הוגן, איך אני יודע שזה מועיל, איך אני יודע שהוא מדויק? מה שיעור השגיאות? למי האלגוריתם הזה נכשל? האם זה נכשל בנשים או במיעוטים? ' שאלו סוג כזה.

הדבר השני, מעבר לספקנות, הוא שאם אתה חושב שאלגוריתם אינו הוגן כלפיך או אנשים אחרים זה להתארגן עם אותם אנשים אחרים. דוגמא אחרונה היא מורים. המודלים הסטטיסטיים אודות מורים בעלי ערך מוסף הם מחוללי מספרים נוראיים וכמעט אקראיים. אבל הם נהגו להחליט אילו מורים צריכים לקבל קביעות ואילו מורים צריכים לפטר, בכל רחבי ארה"ב.

ההצעה שלי היא שהם יביאו את האיחוד שלהם לדחוף לאחור. וזה אכן קרה במקומות מסוימים. אבל זה מפתיע כמה מעט התנגדות הייתה בגלל האופי המתמטי של מערכת הניקוד.

CT: איך הגעת ל'נתונים גדולים '?

המפקח: עבדתי בוול סטריט והייתי עד למשבר הכלכלי מבפנים. נגעלתי מאופן השימוש במתמטיקה כדי לנצל אנשים או כדי להטעות אנשים. ראיתי את סוג הנזק שיכול לנבוע משקרים מתמטיים, מה שאני מכנה 'נשק המתמטיקה'.

החלטתי להתרחק מזה, אז הצטרפתי לכיבוש וול סטריט והתחלתי לעבוד כמדען נתונים. לאט לאט הבנתי שאנחנו רואים היפ פגום ומטעה סביב אלגוריתמי נתונים מטעים שקורים גם מחוץ לוול סטריט, וזה הולך להוביל לנזק רב. ההבדל היה שבעוד שאנשים בכל העולם הבחינו במשבר הכלכלי, לא חשבתי שאנשים יבחינו בכישלונות של אלגוריתמים גדולים של נתונים אלה, מכיוון שהם בדרך כלל מתרחשים ברמה האישית.

קרא כאן חלק ראשון מהדיון שלנו עם ד"ר אוניל. ספרו של ד"ר קתי אוניל, הנשק להשמדה במתמטיקה: כמה ביג נתונים מגדיל את אי השוויון ומאיים את הדמוקרטיה, זמין כעת.