הקדמה
עולמנו ממכן עצמו לדעת ולא יהיה זה מוגזם לומר כי חיינו השתפרו עשרות ואלפי מונים מאז נכנסו אליהם האלגוריתמים. תהליכים ידניים הפכו אוטומטיים ואנו מסוגלים כעת יותר מאי פעם לעיבוד כמויות עצומות של דאטה לצורך חיזוי וניבוי. מנוע החיפוש שלנו “מכיר” אותנו וכבר יודע לנחש מה אנו מחפשים ולהציג לנו את התוצאות הרלוונטיות ביותר כך שנחסכים מאיתנו זמן ומאמץ.
מה שהחל בשלהי המאה ה-18 עם כניסתן של המכונות לחיינו, צבר בשנים האחרונות תאוצה בלתי נתפסת ונדמה כי הפך לאורגניזם בעל חיים משל עצמו. רובוטים יודעים לחפש מידע, לנהוג ברכבים, להטיס מטוסים, לנתח את גופנו, לשרטט ולבנות עבורנו. בוטים מבוססי בינה מלאכותית משוחחים עמנו ונותנים לנו שירות באלגנטיות שלא הייתה מביישת את מיטב המוקדנים האנושיים ותוכנות מחשב לומדות את עצמן ואת נבכי המוח האנושי על מנת להפיח חיים בחזון האינטליגנציה המלאכותית הקורם עור וגידים לנגד עינינו.
אתרים ופלטפורמות חברתיות יודעים לשווק לנו מוצרים המתאימים בהכרח לתחומי העניין שלנו ולאורח חיינו עד כדי כך שאין לנו כמעט צורך לחפש מוצרים ושירותים באופן אקטיבי. מערכת מבוססת אלגוריתמים מאפשרת לאבחן מחלות מבלי לפגוש את החולה פיזית ומסייעת לרופאים לאבחן גידולים סרטניים. מערכת נוספת מבוססת בינה מלאכותית מסוגלת לנתח תוצאות פסיקה ולנבא על בסיסן כיצד יפסקו שופטים בתיק מסוים. מערכות אחרות מבצעות מסחר פיננסי ושולחות פקודות של מכירה וקניה באמצעות אלגוריתם ממוחשב בהתבסס על פרמטרים של תזמון, מחיר, סחירות והיד עוד נטויה. בשורה התחתונה – אלגוריתמים פותרים עבורנו בעיות ובמקרים מסוימים אף מצילים את חיינו.
בתוך כל אלה, הולך וגובר השימוש באלגוריתמים ככלי לניתוח, חיזוי וקבלת החלטות בתחומים רבים בחיינו.
אלגוריתם מוגדר כדרך שיטתית לביצוע של משימה מסוימת, במספר סופי של צעדים. בדרך-כלל משמש מונח זה לכינוי שיטת פתרון בעיות במתמטיקה או במדעי המחשב ובעיקר ביחס לנתונים תוויים כלשהם אך לצורך העניין, גם מתכון לעוגה נחשב כאלגוריתם .
כלי לניבוי וחיזוי תוצאות
מערכות מבוססות אלגוריתם שואפות לחקות תהליך קבלת החלטות בדומה למתרחש במוח האנושי. אנו כבני אדם נסמכים על ניסיון חיים ועל מידע קודם. כך אנו גם נסמכים על אסוציאציות ומה שאנו מכנים “תחושות בטן”, שהן לא אחרת מאשר ניתוח הניסיון והידע הקיים אצל כל אחד ואחד מאיתנו ומכך אנו גוזרים מסקנות המנסות לנבא או לצפות את העתיד.
אלגוריתם אמנם מתחקה אחר אופן הפעולה של המוח האנושי באופן בו הוא שואב ממידע קיים ומניב ממנו תובנות לגבי סיטואציות חדשות. בשונה מאיתנו, אלגוריתם אינו לוקה במגבלות המוח האנושי. הוא מסוגל לנתח כמויות עצומות של דאטה שאין ביכולתו של מוח אנושי להכיל, הוא יודע לשאוב מידע ממקורות שונים ולרתום את “מוח הכוורת” של הניסיון הקולקטיבי האנושי וחכמת ההמונים, להבדיל מאדם הנסמך על ניסיונו בלבד או לכל היותר על ניסיונם של עצמו ושל המעגלים הקרובים אליו.
בנוסף, אלגוריתם יודע לשקלל בחישוביו גורמים כגון הסתברות מתמטית ולמצוא קורלציות מורכבות בין פריטי מידע שמוח אנושי מוגבל בעיבודם. במובן זה, אלגוריתם הוא כלי מדהים לניבוי וחיזוי תוצאות מתוך יכולתו לזהות דפוסים נעלמים בתוך אוקיינוס של מידע.
לא פלא אם כך שהשימוש באלגוריתמים הפך כה פופולרי בשנים האחרונות וקנה לעצמו מקום של כבוד בכל כך הרבה תחומים וצמתי קבלת החלטות קריטיים בחיינו; החל בניהול חיפושי מידע במנועי חיפוש, דרך ניהול פלטפורמות שיווק ופרסום וכלה בניהול מערכות רפואיות מורכבות ומצילות חיים, ניהול מערכות תחבורה, צבא וממשל אוטומטיות ואוטונומיות המסוגלות לקבל החלטות ללא התערבות אנושית.
סיכונים בשימוש באלגוריתמים
טבעי אם כך כי ככל שהאלגורתמים הולכים ותופסים מקום מרכזי בחיינו, קמים כאלה המזהירים מפני אוטומציית יתר ומתריעים על כך שגם אלגוריתמים, בדומה להוריהם העשויים בשר ודם, מסוגלים לטעויות ולדעות קדומות. יחד עם העובדה שאלגוריתמים הביאו אותנו למחוזות פורצי דרך של קידמה ונוחות, יש בהם גם לא מעט חסרונות ואפילו סכנות. אנו עדים בשנים האחרונות למקרים רבים והולכים בהם שימוש באלגוריתמים הביא לתוצאות מעוותות ויצר אפליה בתחומים הנוגעים לתעסוקה, תמחור מוצרים וקבלת שירותים. אם בעבר לא הטלנו ספק בשיטה, הרי שכיום גובר הצורך להסתכל על אלגוריתמים בעין בוחנת.
ד”ר קאת’י אוניל, מתמטיקאית וסופרת אשר חקרה את תחום האלגוריתמים שופכת אור בספרה “אלגוריתמים – נשק להשמדה מתמטית (Weapons of Math Destruction)” על ההיבטים השליליים דווקא של התופעה ומפצירה בנו לסגל נקודת מבט מפוכחת וביקורתית ולהבין כי על אף העובדה שאלגוריתמים הופכים את חיינו לנוחים הרבה יותר, גם הם נגועים באפליה, טעויות או תכנון לקוי. הסופרת מתארת שורה של דוגמאות למקרים בהם שימוש באלגוריתמים ובביג דאטה תרם דווקא לקידום אי השוויון בחברה וטוענת כי במקרים רבים, שימוש באלגוריתמים אף עשוי להוות איום על הדמוקרטיה.
לדברי ד”ר אוניל, מודלים מתמטיים המשמשים לכימות משתנים בחברה (לדוגמה: איכות מורים, סיכון לעבריינות חוזרת, סיכוני אשראי) הינם מודלים אשר מעצם טיבם וטבעם הם ‘אטומים’ להשפעות אנושיות ובהיותם מבוססים על כמויות מאסיביות של מידע הנוגע לאנשים רבים, שומה עליהם שייווצרו בהם טעויות המביאות לעיוות מידע. לדבריה, במקרים רבים בני אדם נמדדים ומוערכים על ידי אלגוריתמים באופן מעוות. בנוסף, אדם שחווה פגיעה או אפליה כתוצאה משימוש באלגוריתם חסר את הכלים להתמודדות עם הסיטואציה, מאחר ודרך פעולתו אינה נהירה לנו ומשכך אין למעשה דרך לקרוא עליה תיגר.
דוגמה הממחישה את האמור לעיל מספרת בספרה של אוניל על מורה מוערכת בוושינגטון אשר פוטרה יחד עם עוד כ-200 מורים בעיר בעקבות צעדי התייעלות במערכת החינוך. במקרה האמור, שכרה העירייה חברת ייעוץ אשר פיתחה מנגנון לדירוג איכות מורים על מנת לקבוע אילו הם המורים ה’חלשים’ במערכת, מהם יש “להיפטר”. מערכת הדירוג התבססה על אלגוריתם ושיקללה משתנים כגון ציונים, רקע סוציו-אקונומי וליקויי למידה של תלמידים. מסקנות המערכת היו כי המורה הספציפית היא מורה ‘חלשה’, על אף כי המציאות הוכיחה אחרת ולמרות שהמורה זכתה להערכות מילוליות גבוהות מקולגות, ממונים ותלמידים. בדיקה נוספת העלתה כי ציוני תלמידיה אכן התדרדרו בשנה בה לימדה אותם, אך הדבר קרה מאחר ובשנה הקודמת בוצעו זיופים בציוני התלמידים שלא היו קשורים במורה או בביצועיה והציגו ציונים גבוהים מדיי לתלמידיה. כך, איבדה המורה המוערכת את עבודתה בגלל קורלציה בלתי נכונה בין ההתדרדרות בביצועי תלמידיה לכאורה לתפקודה בפועל. אותה מורה ניסתה לערער על החלטת המערכת אך לא צלחה בכך.
דוגמאות לעיוותי אלגוריתמיקה
דוגמה מצוינת נוספת לעיוותים הנגרמים על ידי שימוש באלגוריתמים מתייחסת לדירוגי האשראי בארה”ב ולתעריפי ביטוח רכב במדינה. אוניל מסבירה בספרה כי נהג אמריקני ללא עבירות תנועה אך בעל דירוג אשראי נמוך יקבל הצעת מחיר לביטוח רכב שהינה יקרה באופן משמעותי מהצעה דומה שיקבל נהג עם דירוג אשראי גבוה אך עם עבירות חוזרות של נהיגה בשכרות. הדוגמה הנ”ל מציגה את האבסורד שבשקלול “יבש” של נתונים מבלי לשייכם להקשר הנכון.
דוגמה הממחישה ביתר שאת את חוסר השוויון שבהחלטות המבוססות על כמויות גדולות של מידע מתייחסת לדרך בה מערכת אכיפת החוק מבצעת הערכות סיכון לעבריינות חוזרת. המערכת עושה שימוש באלגוריתם המייצר דירוגי סיכון עבור עבריינים על סמך קיומן של עבירות קודמות ובהתחשב בגורמים כגון רקע סוציו אקונומי, סביבת מגורים וכדומה. דירוג הסיכון אשר מופק מן המערכת משפיע בין היתר על אורך המעצר שבית המשפט גוזר על נאשם.
בין שלל טענותיה של המחברת בגנות שיטת הדירוג האמורה, טוענת האחרונה כי שימוש בדירוגי סיכון אוטומטיים הינו בבחינת נבואה המגשימה את עצמה. אדם אשר נמצא בדירוג סיכון גבוה לעבריינות חוזרת יקבל עונש מאסר ארוך יותר מעבריין עם דירוג סיכון נמוך יותר. עונש מאסר ארוך יותר מעלה את הסבירות להיווצרות דפוסי עבריינות חוזרת אצל אסירים. בכך המערכת מסייעת להנציח סטיגמות שהיא עצמה יצרה.
הספר מציג דוגמאות רבות אחרות ומצביע על הבעייתיות שבהתמודדות עם קביעות אוטומטיות אלה. במקרה בו אלגוריתם מבצע טעות המשפיעה על חייו של אדם, אין לאותו אדם יכולת לתקוף את החלטתו של האלגוריתם מעצם היותו מופשט, בלי ניתן להפרכה ומנותק מההקשר האנושי.
בעוד שד”ר אוניל ניזונה מתוצאות מעוותות בשטח של השימוש באלגוריתמים ככלי חיזוי ומדידה, קיימות קבוצות חוקרים שתפקידן לבחון את פעולת האלגוריתם “מאחורי הקלעים” ולעמוד על טעויות ועיוותים באופן הפעולה של אלגוריתמים המביאים לאותן תוצאות מעוותות או מפלות. אותם חוקרים מודים בפה מלא כי אלגוריתמים עשויים לפתח “דעות קדומות” ולספק מידע מוטעה או מוטה .
מנגנון איתור ותיקון הטיית מידע
מדענים באוניברסיטאות של יוטה, אריזונה ופנסילבניה בארה”ב פיתחו מנגנון המאתר ומתקן הטיית מידע של אלגוריתמים ומצאו כי כאשר אלגוריתמים עוברים על כמויות גדולות של מידע, הם עשויים לאתר “טרנדים” של מידע שיש בהם קורלציה לגורמים כגון גיל, מין או השתייכות אתנית ולפתח הטיה שתוצאותיה מהוות אפליה.
החוקרים בדקו את אופן פעולתו של אלגוריתם המחולל הצעות עבודה מותאמות לדורשי עבודה על סמך ציונים של מועמדים במבחן ממוחשב. האלגוריתם עבר על כמויות רבות של מידע וגילה כי בני אדם המשתייכים למוצא אתני מסוים נטו לקבל ציונים נמוכים יחסית במבחן הממוחשב. משכך, הצעות עבודה מסוימות לא נשלחו אליהם מאחר ולא היו רלוונטיות לציון שקיבלו המועמדים.
עם הזמן, האלגוריתם “למד” שלא להציע מראש הצעות עבודה מסוימות לאנשים המשתייכים לאותו שיוך אתני, אף אם לא ביצעו כלל את המבחן. התוצאה המתקבלת היא של הטיית מידע או אפליה של ציבור מסוים על סמך ‘דעה קדומה’ או מידע מוקדם שנלמד על ידי האלגוריתם. הגם שמתמטית ייתכן ומדובר בחישוב נכון, הרי שהתוצאה בשטח אינה רצויה מבחינת הקשר ומבחינת אמות מידה חברתיות.
אותם חוקרים פיתחו במסגרת המחקר אלגוריתם נוסף אשר נועד לתקן את ה’אפליה’ על ידי טשטוש המשתנים אשר עשויים להצביע על קורלציה של מועמד עם מין, גיל או שיוך אתני. כך למעשה, מאפשר אלגוריתם התיקון לאלגוריתם הסינון להגיע לתוצאות חפות מאפליה. לדברי החוקרים, אנשים רבים מאמינים שאלגוריתם הינו קוד בלבד, כאשר למעשה אלגוריתם אינו רק קטע קוד, אלא יש לו היכולת לצבור ‘ניסיון חיים’ בדומה לדרך בה אנו לומדים ומגבשים דעות.
הדוגמה שלעיל ממחישה מה עשוי לקרות כאשר אלגוריתם טועה או מעוות מידע על סמך ביצוע קורלציה לא רצויה בין מגוון משתנים, אך מה באשר למקרים בהם מבוצעת מניפולציה על אלגוריתם בכוונת מכוון?
בשנת 2012 ערך עיתון ה-Wall Street Journal מחקר מקיף במהלכו גילה כי רשת הציוד המשרדי האמריקנית Staples מציעה ללקוחות תמחור שונה למוצרים דומים על סמך מקום מגוריהם ולמעשה מבצעת אפליה בתמחור מוצרים. הרשת עשתה שימוש באלגוריתם אשר תוכנת מראש לתת הנחה ללקוחות המתגוררים באזורים הסמוכים לרשתות מתחרות של Staples. לקוחות שהתגוררו באזורים מרוחקים יותר לא זכו להנחה ולמעשה “נקנסו” על בסיס מיקומם הגיאוגרפי. עוד עולה מן הבדיקה כי האזורים בהם ניתנה ההנחה היו אזורים שההכנסה הממוצעת בהם גבוהה מזו שבאזורים שלא זכו להנחה, כך שבמקרה הנ”ל, הצרכן נפגע פעמיים.
הדוגמאות שהובאו עד כה מצביעות על היווצרות אפליה או חוסר שוויון במקרים של טעויות או מניפולציה על אלגוריתמים, אך במקרים מסוימים עלולה מניפולציה על מידע אף להגיע לתוצאות מרחיקות לכת של עיוות דעת קהל והשפעה על הלך רוח פוליטי וחברתי. לדוגמה, עיתון אמריקני חשף לאחרונה כי מנוע החיפוש של גוגל מקדם באופן שיטתי מידע שגוי ומידע הנגוע בסקסיזם, גזענות ודעות ימניות קיצוניות.
נמצא כי אופציית ההשלמה האוטומטית בשורת החיפוש של הדפדפן מציעה באופן עקבי אפשרויות חיפוש בעלות אופי גזעני בחיפושים הנוגעים למגוון תחומים ואף מפנה באופן תדיר לאתרים המציגים תכנים ניאו-נאציים. חקירת העיתון חשפה עשרות מקרים בהם מנוע החיפוש של גוגל נותן עדיפות לאתרים הטוענים כי התחממות גלובאלית הינה קונספירציה, כי הומוסקסואליות וביצוע הפלות הינם חטא וכדומה.
החקירה האמורה משמעותית בייחוד בתקופה בה תשומת הלב הציבורית נתונה לסוגיית הטיית מידע במנועי חיפוש ורשתות חברתיות, בייחוד לאור האשמות כי חדשות מזויפות ודעות ימניות קיצוניות זכו לתפוצה רחבה ברשתות חברתיות ובכך עיוותו את השיח הציבורי סביב הבחירות לנשיאות ארה”ב.
לטענת העיתון שחשף את הפרשה, אלגוריתם החיפוש של גוגל החריף את בעיית הטיית המידע סביב הבחירות. נמצא כי גורמים ימנים קיצוניים מצאו דרך לבצע מניפולציות על אלגוריתם החיפוש של גוגל ולקדם אתרים המציגים תוכן ימני קיצוני במעלה תוצאות החיפוש.
מידת ההשפעה של תוצאות חיפוש באינטרנט על בחירות אף נחקרה במכון לחקר ההתנהגות והטכנולוגיה בארה”ב, שם הגיעו החוקרים למסקנה כי לגוגל יש הכוח להשפיע על תוצאות בחירות מתוקף אפקט הנקרא “אפקט מניפולציית מנוע החיפוש” (SEME). מחקרים שנערכו על ידי המכון במספר מדינות הראו כי תוצאות מוטות במנועי חיפוש הביאו לשינוי בדעותיהם של מצביעים “מתנדנדים”.
מניפולציה על מידע
סוגיית המניפולציה על מידע והצורך לפקח על שימוש של חברות גדולות בכמויות המידע שיש ברשותן מקבלים משנה חשיבות בעידן פוסט האמת (Post-Truth) בו אנו מצויים. בימים אלו, מדובר במקור ממשי לחשש. כפי שנוכחנו לדעת, גם האופן בו אנו צורכים ומקבלים עדכוני חדשות הולך ומשתנה וגם כאן אנו נדרשים לעין ביקורתית. רבים מהתכנים המועלים לרשת על ידי אלגוריתמים ומוצגים כחדשות נגועים לא אחת בטעויות, מניפולציות ואי דיוקים. גם במקרה בו ידיעות חדשותיות מוטעות או מזויפות מוסרות מן האינטרנט או עוברות תיקונים ועריכה מחודשת, אין לדעת מה הייתה השפעתן על קוראים שנחשפו אליהן.
נוכחנו לראות אם כך כי עיוותים ותוצאות מפלות או בלתי צודקות בשימוש באלגוריתם עלולות לנבוע ממספר סיבות: מניפולציה, קרי כוונת מכוון להטות תוצאות ולנתב אותן למקום רצוי; כשלים בתכנות הנגרמים מהסיבה שאלגוריתם הוא יציר מעשה ידי אדם וטעויות אנוש עשויות ליפול בשלב התכנון, העיצוב וההוצאה לפועל של המערכת; ריבוי נתונים או התנגשות בין נתונים הנובעים מכך שאלגוריתמים נסמכים על כמות עצומה של פרמטרים עד כדי כך שנוצרת לעתים רנדומליות בתוך הדפוסים לכאורה. בנוסף, ישנן מערכות כמו מנועי חיפוש המתבססות על סטים רבים של אלגוריתמים ולעתים ההיררכיה ביניהם לא ברורה ונוצרות התנגשויות בין אלגוריתמים ובין “פקודות”.
יצירת מנגנון אחריות
ייתכן ונוצר הרושם מהדוגמאות שלעיל כי אלגוריתמים הינם תחום פרוץ, עמום ובלתי ניתן לשליטה וכי לנו לא נותר אלא לקבל את העובדה שמדובר בשיטה פגומה. אך אנו סבורים כי ניתן ואף רצוי “לאלף את הפרא”. על מנת לתקן את תוצרי הלוואי השליליים של שימוש באלגוריתמים יש צורך ראשית במודעות ובחינוך לחשיבה ביקורתית ולספק. חשוב להבחין בין מקרים בהם ראוי ונכון למסור את השליטה למערכות מבוססות אלגוריתם ובין מקרים בהם אין לציית להחלטת מערכת באופן אבסולוטי או אוטומטי. מלבד האחריות החלה עלינו כ”צרכנים” נבונים ומפוכחים של השיטה, הצד השני של המטבע מצוי בהטלת אחריות על חברות וגופים המייצרים מערכות מבוססות אלגוריתם, קרי יצירת Accountability.
במה דברים אמורים? ניצנים ראשונים של גישת ה-Accountability באלגוריתמים ניתן למצוא כבר בארה”ב, שם מקדם ארגון ה- FTC מספר חקירות שעניינן חשיפת אפליה אסורה והגברת השקיפות בשימוש באלגוריתמים וכבר מצליח לעורר מודעות סביב הצורך להסדיר ולייצר רגולציה בתחום.
בשנת 2015 הקים ארגון ה-FTC מחלקה שתפקידה לחקור ולתמוך במחקרים הנוגעים לסוגיית השקיפות בשימוש באלגוריתמים. מטרת המחקרים הינה להבין כיצד אלגוריתמים פועלים, מהי הלוגיקה המובילה אותם למסקנות וכיצד ניתן להבטיח כי שימוש באלגוריתמים לא יביא לתוצאות בלתי רצויות כגון אפליה ותמחור בלתי הוגן .
אחת היוזמות המוקדמות של הארגון בתחום היא פרויקט מחקר שתכליתו לאתר חברות המבצעות אפליה אסורה כנגד אוכלוסיות מעוטות יכולת וקבוצות מיעוטים דרך שימוש בביג דאטה . גורמים בארגון הצליחו להראות כיצד חיתוך דמוגרפי משפיע על פרסום מותאם וכיצד הדבר פועל לרעת המשתמשים. במסגרת החקירה, מצא הארגון כי מודעות פרסומת לשירותי איתור תיקים פליליים נפוצות ב-25% יותר באתרים שקהל היעד שלהם הוא אוכלוסייה אפרו-אמריקאית. פילוח אוכלוסייה על בסיס אתני לצרכי פרסום מגלם בתוכו סכנה לפגיעה בציבור מוחלש ובעל הכנסה נמוכה יותר לדעת ראשי הארגון. בנוסף, מפרסמים רבים מנצלים לרעה את הנתונים על מנת להציע לאותן קבוצות מוחלשות מוצרים פיננסיים בריביות גבוהות יותר מהממוצע ובכך עלולות להעמיק את הקשיים הפיננסיים העומדים גם ככה בפני קבוצות אלה.
בנוסף, ארגון ה-FTC חשף ועודנו שוקד על חשיפת מקרים של אפליה בקידום ובתמחור מוצרים בזירות מסחר מקוון וכן של פגיעה בתחרות. הארגון עסק רבות בחלקן של חברות אינטרנט גדולות דוגמת גוגל ופייסבוק בהפרות של חוקי הגבלים עסקיים וחקר בין היתר חשדות לפיהם גוגל מבצעת הטיה אסורה של תוצאות חיפוש באינטרנט כך שיקדמו מוצרים מבית היוצר שלה על פני מוצרים מתחרים.
במקרה זה הוחלט לסגור את החקירה ללא נקיטת אמצעים כנגד גוגל לאחר שהארגון השתכנע כי האופן בו מציגה החברה תוצאות חיפוש אינו מהווה הפרה של חקיקה כלשהיא. יחד עם זאת, החקירה הניבה תוצאות על אף שלא הסתיימה בהליכים רשמיים והשיגה את מטרתה מבחינת הרתעה שכן למרות החלטת הארגון הסכימה גוגל לבצע שינויים בחלק מפרקטיקות הפרסום שלה כך שיקלו על מתחרים לפרסם ולנהל קמפיינים בפלטפורמה שלה.
עיוות תפיסת המציאות
בעיה נוספת וחמורה לא פחות אשר עלתה מחקירות הארגון נובעת מהעובדה שאלגוריתמים משמשים כגורמים מתווכים של מידע עבור בני אדם וככאלה, התלות בהם היא רבה ואף עשויה במקרים של טעות לייצר תפיסת מציאות מוטעית. מתוקף תפקידם כמתווכי מידע, אלגוריתמים משמשים באופן הולך וגובר גם לצרכי ניהול תוכן וצנזורה.
אחת הדוגמאות המפורסמות למניפולציות על תוכן ועיוות תפיסת מציאות הובאה בחקירת הארגון סביב ניסויים חברתיים שערכה פייסבוק על משתמשיה ואשר כחלק מהם ביצעה מניפוליציות על המידע שהוצג למשתמשים באתר. במקרה דנן הוגשה תלונה לארגון ה-FTC נגד פייסבוק בטענה להטעיית כ-700,000 משתמשים אשר הפכו לנסיינים בעל כורחם וללא ידיעתם והוזנו במידע שעבר מניפולציה על ידי החברה.
בעקבות ההאשמות דרשו ארגונים לקידום חופש המידע מפייסבוק לחשוף את האלגוריתם שעומד מאחורי פיד החדשות שלה. הארגון אמנם לא נענה לדרישה אך ביצע עדכונים בהנחיות העבודה לעובדי החברה העוסקים במחקר וכן הקימה אתר בו ניתן להתעדכן אודות מחקרים שהחברה מבצעת. אמנם לא הושגה במקרה האמור שקיפות בכל הנוגע לאלגוריתם עצמו, אך אין ספק שחשיפת מקרים מסוג זה מאלצת חברות גדולות לקחת אחריות מסוימת על האופן בו הן מנהלות מידע ומציגות אותו למשתמשים.
לדעת ארגון ה-FTC, ישנן מספר דרכים לצמצם את הבעייתיות שבשימוש באלגוריתמים. אחת הדרכים היא לחייב חברות העושות שימוש באלגוריתמים לספק יותר מידע למשתמשים אודותיהם באמצעות דו”חות שקיפות. הארגון אף מציע להשית פיקוח או רגולציה על שימוש באלגוריתמים, בעיקר לאור פוטנציאל ההשפעה שלהם בנושאים פוליטיים, כלכליים וחברתיים. עוד טוענים חוקרי הארגון כי לא בהכרח יהיה צורך להבין בכל מקרה את הלוגיקה או המנגנון שמאחורי פעולת האלגוריתם ומספיק יהיה לדגום או לפקח על התוצאות המופקות מהשימוש באלגוריתם ולתקנן במידה ומתגלה טעות או אפליה.
אנו נוטים להסכים עם הקביעה כי הבנה מעמיקה של פעולת האלגוריתם אינה בהכרח נחוצה על מנת להשיג שקיפות ולפני כן יש צורך בהגברת המודעות לתופעה. המציאות מראה כי במקרים רבים לא רק שאין לנו יכולת לראות לתוך ה’קופסה שחורה’ שהיא מערכת האלגוריתמים והבינה המלאכותית, אלא שאנו אפילו לא מודעים לחלוטין לכך שמערכת כזו משחקת תפקיד בכל כך הרבה תחומים בחיינו.
ישנן אינדיקציות לכך שהלך הרוח משתנה. הסוגיה של הטלת אחריות על מערכות בינה מלאכותית מסתמן כאחד הנושאים החמים השנה, הן מבחינה אתית והן מבחינה טכנולוגית. לאחרונה, חוקרים במכון הטכנולוגיה MIT שבמסצ’וסטס פרסמו עבודת מחקר מקדמית על רשתות למידה נוירולוגיות עמוקה אשר מספקות לא רק תחזיות וסיווגים של מידע, אלא גם את הרציונל שבבסיס ‘החלטתן’. זוהי התחלה טובה המצביעה על רצון להגביר את השקיפות שמאחורי הטכנולוגיה ולהניח את היסודות לאפשרות להטיל אחריות על אלגוריתמים .
מאמר שפורסם בכתב העת המקוון של אוניברסיטת קולומביה דן בסוגיית ה-Accountability של אלגוריתמים, מדגיש כי יש להיזהר מלהאשים את האלגוריתמים בכל צרותינו וכי בכל אופציית פעולה שמטרתה טיפול בסוגיה או הסדרתה. כך גם יש לזכור כי בשימוש באלגוריתמים טמון פוטנציאל אדיר וכי יש להיזהר מהגבלת יתר של התחום על חשבון קידמה.
מחבר המאמר מציג דוגמה בה דווקא אלגוריתמים הם אלו שסייעו למגר תופעות שונות של אפליה ברשת. בשנים האחרונות גברה בארה”ב הפופולריות של אתרים המציגים תמונות מעצר (Mugshots) וקמו מספר אתרים המציגים תמונות מעצר של בני אדם במטרה לאפשר לכל אדם לבצע חיפוש על אדם אחר ולדעת האם אותו אדם נעצר בעבר.
גם אם המטרה הראשונית הייתה להזהיר אנשים מפני עבריינים בעבר או בהווה, אתרים מסוג זה הם בעלי פוטנציאל פגיעה אדיר במוניטין של מי שמככב בהם. חשוב לזכור כי לא כל מעצר מסתיים בהרשעה וכי אדם שתוצאת החיפוש הראשונה של שמו ברשת מעלה תמונת מעצר ודאי נפגע מכך. בנוסף, אתרים רבים החלו לנצל את המידע שבידם ולגבות כסף עבור ההסרה של תמונות מהאתר, גביה של מעין ‘כופר מוניטין’.
מדינות רבות בארה”ב עשו מאמצים לאסור על פרסום התמונות בחקיקה, חברות אשראי סירבו לממן הקמה של אתרים מסוג זה וכדומה. אך במקרה דנן, מי ש’הציל את המצב’ היו האלגוריתמים. בשיתוף פעולה של רשויות החוק עם גוגל, הכניסה האחרונה עדכון באלגוריתם הדירוג שלה שגרם לכך שתוצאות חיפוש מאתרים המציגים תמונות מעצר יצנחו בדירוגים ולמעשה יוגדרו כספאם. באבחת אלגוריתם אחת, הפך מידע בעל פוטנציאל הרסני ללא רלוונטי.
בחינה של אלגוריתמים אם כך לא צריכה לדבר במונחים של טוב טוטאלי לעומת רע טוטאלי. הבסיס לבחינה חייב להישען על הבנה בסיסית של שלבי קבלת ההחלטות של המערכת – אילו פרמטרים מתחילים את פעולתו של האלגוריתם? על מה מתבסס תעדוף המידע והאם הוא הוגן או מפלה? מהם הקריטריונים לסיווג המידע והם יש בהם הטיה? מהם גבולות הפעולה של אלגוריתם ומתי הוא ‘מתקלקל’ או נכשל?
בחינת השאלות חייבת לקחת בחשבון כי ישנן מספר השפעות אנושיות המוטבעות באופן הפעולה של אלגוריתמים, כגון הגדרת קריטריונים, סמנטיקה, קביעת עדיפויות ופרשנות. כל חקירה של אלגוריתם חייבת להתייחס אליו כאל אובייקט מעשה ידי אדם ולקחת בחשבון גורמים אנושיים כגון כוונה אשר משפיעים על עיצוב הקוד.
בהתייחס לסוגיית השקיפות שמאחורי מנגנון פעולת אלגוריתמים, מחבר המאמר מציין כי זוהי אינה בהכרח הדרך הפשוטה או היעילה ביותר. אמנם, מטרתה של כל מדיניות שקיפות הינה לחשוף מידע הקשור בהחלטה או בתוצאה שמשפיעה על הציבור, כך שכאשר הציבור מצביע בבחירות, רוכש מוצר או משתמש באלגוריתם מסוים, יהיו לו הכלים לבצע החלטה מושכלת.
שקיפות ואכיפה
הבעיה היא שגם אם תתקבל חקיקה המחייבת לחשוף את קוד המקור שמאחורי האלגוריתם, אנו עשויים להיתקל בתת אכיפה מכמה סיבות. ראשית, ישנה סוגיית סודות המסחר. סודות מסחריים מהווים אבן נגף במאמץ להבין ולחקור אלגוריתמים מאחר והם כהגדרתם נועדו להסתיר מידע שעשוי לתת יתרון למתחרים. הגיוני להניח שתאגידים לא ירצו לחשוף קוד מקור שלהם מחשש לפגיעה ביכולתם לספק שירותים או למכור מוצרים.
בכל הקשור במידע אודות אלגוריתמים בשימוש הממשלה, חוק חופש המידע הפדרלי בארה”ב (FOIA) מעניק לציבור זכות לקבלת מידע או מסמכים ממשלתיים. אף על פי שבתיאוריה החוק מעניק לציבור גישה לקוד מקור של אלגוריתמים בשימוש ממשלתי, גם כאן מתקיים החריג של סוד מסחרי המאפשר לממשלה לסרב להנגיש מידע הנוגע לתוכנות צד שלישי המוטמעות בתוך המערכות שלה (והרי ידוע כי הממשלה עושה שימוש תדיר בתוכנות שפותחו על ידי חברות מסחריות ומטמיעה את אותן תוכנות במערכות הייעודיות שלה).
בעיה נוספת ביישום שקיפות ככל שהיא נוגעת לאלגוריתמים היא מורכבות המידע. גם בהנחה והציבור יקבל גישה למנגנון הפעולה של אלגוריתמים ומערכות אוטונומיות אחרות, הרי שהמידע הגולמי לא יהיה מובן למרביתנו וחברות תיאלצנה להשקיע משאבים גם בפיתוח המנגנונים אך גם בהנגשה או ‘תרגום’ של המידע לשפה המובנת לאדם הממוצע. במקרה דנן, יש צורך בפיתוח שיטות שיאפשרו שקיפות ישימה אך כאשר לא קיים תמריץ רלוונטי עבור גופים ממשלתיים וחברות לפתח שיטות כאלה, ספק אם הדבר יתבצע.
לאור הבעייתיות ביישום מודל השקיפות כאמצעי פיקוח אפקטיבי על כוחם של אלגוריתמים, מציע מחבר המאמר אלטרנטיבה דרך שימוש בהנדסה לאחור (Reverse Engineering). שיטה זו מאפשרת לחשוף מבנה ואופן פעולה של מערכות דרך בחינה מעמיקה המתבססת על ידע קיים בתחום, תצפית או התבוננות והסקת מסקנות. מאחר והנדסה לאחור מתמקדת בביצועי המערכת בפועל, הדבר יסייע להבין אילו מתוצאות הפעולה של אלגוריתם הינן מכוונות ואילו תוצאות נוצרו כתוצאה מטעות או הטיה.
אלגוריתמים מקבלים פעמים רבות את הכינוי “קופסה שחורה”, במובן שהם אטומים ומנגנון הפעולה שלהם חבוי. לדעת המחבר, לקופסה השחורה יש שני פתחים – קלט ופלט. ניתן לעשות שימוש בהם על מנת לבצע הנדסה לאחור ולהבין מה קורה בפנים.
המחבר מציג מספר דוגמאות בהן דווקא גורמים מחוץ למערכת החקיקה והמשפט, דוגמת עיתונאים או חוקרים יכולים לעשות שימוש בגישה של הנדסה לאחור על מנת להבין אלגוריתמים בצורה טובה יותר:
- השלמה אוטומטית במנועי החיפוש Google ו-Bing – מחבר המאמר ביצע כמה מאות חיפושים המכילים ביטויים מיניים ובדק אילו ביטויים נחסמים ואילו לא. המחבר מצא כי בעוד ביטויים מיניים שגורים נחסמים, הוספה של מילת הקידומת “ילד” לביטויים לא הביאה לחסימתם ולמעשה בחלק מהמקרים הובילה לאתרים המכילים פורנוגרפיית ילדים שאינה חוקית ועליה להיות חסומה. מקרה כזה לדעת המחבר הוא אידיאלי לבדיקה בסגנון הנדסה לאחור, מאחר ובמקרה דנן גם הקלט (צירופי החיפושים) וגם הפלט (תוצאות החיפושים) חשופים ונגישים לחוקרים.
- אפליית מחירים בחנויות למסחר מקוון – ב-2013 בדק עיתון הוול סטריט ג’ורנל מספר חנויות של מסחר מקוון על מנת לחקור חשדות לאפליית מחירים, קרי, תמחור שונה של מוצרים דומים. העיתון מצא כי מספר חנויות אונליין מבצעות אפליית מחירים אך רצה להתחקות אחרי הנתונים שגורמים למערכת להציע הצעת מחיר מסוימת על פני אחרת. מאחר ובמקרה דנן, הקלט שנכנס למערכת לא היה ידוע, נאלצו העיתונאים ליצור עשרות פרופילים של משתמשים ולהשתמש ברשתי פרוקסי על מנת לדמות התחברות ממספר מיקומים גיאוגרפיים. העיתון גילה כי בחנות ספציפית מתבצעת אפליית מחירים על בסיס מיקום גיאוגרפי וביתר דיוק, על פי קרבה או מרחק מגורים מחנויות של רשתות מתחרות. זוהי דוגמה נוספת לשימוש במחקר הנדסה לאחור כאשר הפעם הפלט היה ידוע לחוקרים אך הקלט היה בבחינת נעלם ומשום כך נאלצו החוקרים להשקיע עבודה רבה ביצירה ובהזנה של אלפי נתונים ומשתנים בתקווה להגיע לפלט המקווה.
- המחבר סבור כי יש לנהוג בזהירות ולחשוב כיצד אנו בוחרים להכניס אלגוריתמים תחת רגולציה. ייתכן ועיתונאים יוכלו לשמש כמעין מערכת איזונים ובלמים לכוחם של אלגוריתמים בזמן שמערכת החקיקה מעצבת אסטרטגיית פיקוח ורגולציה, דבר שבאופן טבעי ייקח זמן רב יותר.
על ידי הבנה של מאפייני המידע הנכנס והיוצא מהמערכת (קלט-פלט) והיחסים ביניהם, ניתן להתחיל ולפתח תיאוריות לגבי אופן הפעולה של אלגוריתמים. כמובן שגם כאן ישנם לא מעט אתגרים משפטיים, אתיים וטכניים, אך שיטת מחקר של הנדסה לאחור יכולה להוות טקטיקה נוספת בארגז הכלים של מחקר אלגוריתמים.
המחבר מציע סדר פעולות מומלץ לגורמים המעוניינים להשיג מידע באשר למנגנון הפעולה של אלגוריתמים– ראשית, לנסות ולהשיג שקיפות דרך חקיקה (דוגמת FOIA), לאחר מכן לנסות ולבצע הנדסה לאחור ולבסוף לתעד את הדרך שבה הושגו המסקנות ולפרסם אותה. שיתוף של שיטות המחקר עם עמיתים עשויה להרחיב את יכולותינו לשחזר ולשכפל סיפורי הצלחה ועם הזמן לפתח מספיק ניסיון על מנת להציע סטנדרטים מובנים להגברת שקיפות, כאלה הלוקחים בחשבון אינטרסים עסקיים אך יחד עם זאת חושפים בפני הציבור מידע מועיל.
לדעתנו, יצירת Accountability בתחום האלגוריתמיקה בישראל, כמו גם הנחת יסודות לפעולות חינוך והעלאת מודעות חייבים לנבוע מתוך הסדרה של התחום ויצירת פרוצדורות התנהגות, אליהם יתלוו פיקוח והתערבות של המדינה.
סיכום
הסדרת התחום תהיה חייבת בחקיקה ובהתמחות יעודית של עורך דין בינה מלאכותית. במדינתנו יש לתת את הדעת למשך התהליך ולמורכבותו, לצורך בשיתופי פעולה בין גופי חקיקה לבין גורמים טכנולוגיים ולסרבול תהליכי החקיקה בישראל, גורמים אשר עשוי להקשות על יצירת חקיקה רלוונטית בתחום המתפתח בקצב מהיר. כפי שנוכחנו לראות, ארה”ב היא מודל ראוי לאסטרטגיית פעולה המשלבת בתוכה מאמצי חקיקה עקביים ודינאמיים המתאמצים להישאר בקו אחד עם התקדמות הטכנולוגיה ולא לפגר מאחוריה.
הטמעה ויישום של האמור לעיל יתאפשרו באמצעות פיתוח מנגנון חקיקה המחייב חברות (בעיקר הגדולות שהן) לשקיפות גבוהה יותר באמצעות מערכת תמריצים חיוביים ושליליים. סוגיית השקיפות מעלה נקודה בעייתית בעיקר ככל שהדבר נוגע בחשיפת סודות מסחריים, אך ייתכן וכפי שהציעו חוקרים בדוגמאות שלעיל שחברות לא תידרשנה בהכרח לחשוף את קוד המקור שבלב המערכת, כי אם להנגיש מידע מסוים הנוגע לאופן הפעולה של האלגוריתם לציבור.
בנוסף לאסטרטגיה הנוגעת להגברת השקיפות, אנו סבורים כי נחוצה תקינה או סטנדרטיזציה של פעילות אלגוריתמים, בעיקר בתחומים הנוגעים לחיי אדם (רפואה, תעבורה וכדומה). אנו סבורים כי בחלק מהמקרים בהם נעשה שימוש באלגוריתמים ראוי ונכון ליצור מערכות לסימולציה ובדיקה של תוצאות השימוש באלגוריתם בטרם מתאפשר השימוש בו על ידי הציבור הרחב.
כמו כן, יישום יעיל של מערכת החוקים והסטנדרטים יהיה אפשרי רק לאחר שתוגדר מערכת סנקציות המבוססת לא על הדרך, כי אם על התוצאה של שימוש באלגוריתם. במקרים בהם שימוש באלגוריתם מביא לתוצאות בלתי רצויות כגון פגיעה בחיי אדם, פגיעה בתחרות או יצירת אפליה חייב להיות לכך מענה בחוק בדמות סנקציה אזרחית או פלילית, זאת בנוסף לתמריצים החיוביים הקיימים כבר כיום.
לסיכום, העולם משתנה במהירות לנגד עינינו. המחוקק הישראלי ומערכת המשפט אינם צריכים להירתע מן האתגר העומד בפניהם, אך מוטב כי יבינו שאין מנוס מלטפל בסוגיה. לא מדובר בתופעה חולפת כי אם בשינוי בצורת החשיבה וההתנהלות של גופים עסקיים, של גורמים ממשלתיים ושל צרכנים המחייבים אותנו לפעולות של רגולציה והסדרה באופן מידי. על מערכת המשפט והחקיקה לשלב ידיים עם גורמים טכנולוגיים דוגמת גופי מחקר וחברות טכנולוגיות, לרתום את הידע המצוי בידיהן ולייצר כבר עכשיו אסטרטגיית חקיקה הצועדת קדימה עם הטכנולוגיה.