יוני 2018

אתיקה ובינה מלאכותית - מי המבוגר האחראי בשטח?

ד"ר נאווה שקד מומחית לבינה מלאכותית, מכון טכנולוגי חולון, HIT,
עו"ד מיכל מור-קופל, מנכ"לית משותפת באיגוד הדירקטורים בישראל,
עו״ד אנה משה, שותפה בכירה פרל כהן, מתמחה בתחום ההי טק, בעסקאות בינלאומיות וראש דסק ארצות ברה״מ לשעבר.

400

















כבר זמן רב אנו חיים בעידן הדיגיטאלי, המשמעות היא שמכונות חישוב אוטומטיות הן חלק אינטגראלי מחיינו.
כל מוצר - אלקטרוני, ביתי,השעון ואפילו הבגדים שלנו מכילים יכולות חישוביות ורובם אף מאפשרים אינטראקציה. תחום הבינה המלאכותית משתלב כמעט בכל סביבת עבודה ושירות. רובוטים מסוגים שונים הם חלק אינטגרלי מהתעשייה, הרפואה ויישומים חברתיים- זה כבר לא מדע בדיוני.
אתיקה לעומת זאת היא מושג מופשט והתוכן שלה הוא תלוי בזמן וגאוגרפיה. הניסיון הראשון לחבר בין הבינה המלאכותית והאתיקה נעשה ע"י הסופר אייזיק אסימובבשנת 1950, במסגרתו נקבעו כללים בעניין פגיעה של רובוטים בבני אדם, ציות שלהם לפקודות האדם וההגנה של הרובוטים על קיומם.
נדמה כי זוהי ״החקיקה״ הראשונה בתחום הבינה המלאכותית. מאז עברו 75 שנה והטכנולוגיה מאתגרת אותנו לייצר איזון בין היכולות המתפתחות של הבינה המלאכותית והאתיקה או בשפה פשוטה - הערכים שלנו.
נשאלות שאלות מוסריות וחלקן מטרידות מאד. למשל- היכולות הקיימות היום בתחום הבינה המלאכותית מאפשרות ניתוח ולימוד של כמות נתונים אדירה. האם נכון לאפשר שימוש במאגרי נתונים רפואיים לחיזוי מחלות ומניעתן או לאסור על גישה לנתונים כאלה ולשמור על הפרטיות ? האם צמצום העסקת אנשים והחלפתם ברובוטים היא מטרה ראויה?
מי יהיה אחראי במקרה שרובוט יפגע ברובוט אחר?
השאלות המהותיות הן מה הם הערכים שעליהם נבחר להגן?
ואיך נגן עליהם? האם נחוקק חוקים ספציפיים שיאפשרו שימוש אחד אבל לא אחר בטכנולוגיה, או שמא רק כללי יסוד בדומה לחוקי יסוד אחרים?
חקיקה מחייבת גבולות ברורים.
תוך כדי יצירת כללים חדשים , כנראה שנכון יהיה לבדוק האם אנחנו לא זהירים מדי, האם איננו חוסמים את הפוטנציאל המדהים והתועלת של הבינה המלאכותית עבור אוכלוסיות חלשות, רפוי וחיזוי, וכדומה.
נראה כי הגיע הזמן לדון ולייצר גבולות ותקינה אשר יאפשרו מצד אחד להתקדם בפיתוח כלים הלומדים ומתפתחים לבד, רובוטים חברתיים, מכוניות אוטונומיות ו יישויות וירטאוליות מסייעות ומצד שני יגבילו שימוש שלילי מובהק בכלים החדשים הללו.
למרות האמור, הנושא אינו נמצא על סדר היום הציבורי וחוסר העשייה של המחוקק בתחום יוצרת פער אדיר בין היכולות הטכנולוגיות בתחום להגנה על ערכים בסיסים חשובים. אנחנו עדים לחוקים ״בסביבה״ של הבינה המלאכותית, חוקים הנוגעים לפרטיות, חוקי יסוד לגבי כבוד האדם וחופש העיסוק, אולם כולם עדיין ברמה האסטרטגית, ואף לא אחד מהם מתמודד עם אתגרי הבינה המלאכותית ברמה הטקטית.
בזמן שהרכבים האוטונומיים והקסדות החכמות כבר כאן, חסרים קווים מנחים אשר יעזרו לענקי התעשיה בהתלבטות לגבי הכיוון הנכון.
אז מה עושים כרגע בהעדר חקיקה ברורה? נראה כי החלטות תוך אירגוניות מקבלות משנה תוקף. הטמעת טכנולוגיות בינה מלאכותית ושאלות אתיות אמורות להידון קודם כל ברמת הארגון. בישראל ובעולם כולו מתפתחת לאחרונה גישה חדשה לגבי תפקידו ומעמדו של הדירקטוריון. הממשל התאגידי נכון להיום מגלם ערכים כמו אתיקה עסקית, השקעות אתיות, אחריות תאגידית ועוד. כתוצאה מכך, רמת האחריות המצופה מהדירקטורים עלתה באופן משמעותי למרות שנושא האתיקה אינו אבסולוטי וברור (ואולי בגלל זה), הוא הופך לחלק משיקוליו של דירקטוריון החברה בדיוניו בנושאי אסטרטגיה פיתוח עסקי, שיווק ושירות; התקשרויות ועוד;
יש לנו ״חלון צר״ לדון בנושאים ושאלות אתיות ברמת הפרט, ברמת החברה העסקית וברמת הכלל בהקשר לבינה מלאכותית. כנראה שכדאי להשיק ממקרים אחרים של פגיעה בפרטיות, אלימות סייבר וסוגיות אתיות ברשתות החברתיות היום וליישם רגולציה. גם תפקידו של הדירקטור בהקשר רצוי שיהיה מוגדר ולא יוטל עליו כל כובד המשקל.
לחזרה לניוזלטר לחצו כאן
Phone
שלמה המלך 37-39 קרית אונו
Phone
03-7363146