AI זו טכנולוגיה מצוינת אך השימוש בה עלול להיות מסוכן | סיכום יום עיון בנושא “מי מפחד מבינה מלאכותית?”
AI זו טכנולוגיה מצוינת אך השימוש בה עלול להיות מסוכן | סיכום יום עיון בנושא “מי מפחד מבינה מלאכותית?”
בשבוע שעבר התקיים יום עיון (וובינר) מרתק בנושא – “מי מפחד מבינה מלאכותית?” המפגש נערך בשיתוף האקדמית רמת גן והלשכה לטכנולוגיות המידע בישראל ומרכז מצוינות וחדשנות.
את יום העיון הובילו מרצים בכירים של האקדמית רמת גן:
- ד”ר אלון הסגל, ראש התוכנית למערכות מידע, ויו”ר מרכז חדשנות בלשכה לטכנולוגיות מידע.
- ד”ר מרינה צדקין-תמיר, מרצה בתוכניות הסיעוד, מומחית לפרמקולוגיה קלינית בשילוב טכנולוגיות עילית, אחות סיעודית.
- ד”ר איגור נור, ראש התוכנית למדעי המחשב, מומחה בינלאומי לפיתוחAI ו- NLP.
- ד”ר מור דשן, ראש התוכנית לתואר שני בטכנולוגיות למידה דיגיטלית.
המפגש, בו השתתפו למעלה מ- 240 משתתפים, עסק בסכנות, תקנות, כללי שימוש ורגולציה בשימוש בבינה מלאכותית, בהיבטים שונים.
בפתח היום אמר ד”ר הסגל שטכנולוגית ה- AI יכולה לקדם את המין האנושי למקומות שאנחנו לא מדמיינים, אך יש לא מעט משתמשים ושיטות שימוש שעושים שגויים, מסוכנים ואף זדוניים ולכן הצורך ברגולציה. בין הסיכונים שמנה ד”ר הסגל: שימוש ב- AI להונאות, שימוש שגוי שכבר שהוביל להאשמות שווא ולהצגת מידע כוזב לבית המשפט, בינה שמסווגת בני אדם בצורה לא הוגנת, ומרוץ חימוש טכנולוגי בין חברות ומדינות, לרבות שימוש ברחפן אוטונומי שמחליט מי לחיים ומי למוות, במלחמת רוסיה אוקראינה. לדבריו, תקן הרגולציה החדש של ה- AU פועל להסדרת השימוש ב- AI בכמה מישורים: שקיפות מלאה של הקוד, הגבלת התכנים, הקפדה על הגדרת משימות תחומות בהיקפן ותוך מעורבות מתמדת של הגורם האנושי, ויישום מפוקח בהתאם לתהליכים מאושרים.
ד”ר מרינה צדקין דיברה בין היתר על סוגיות איכות התוצרים של כלי בינה בתהליכי ייעוץ ואבחון, הגנה על פרטיות החולה בחשיפת מידע אישי ורגיש לצ’ט, שימוש בכלי AI ללא הסכמת החולה והנהלת בתי החולים, והיכולת להתאים את כלי ה- AI לצרכי כל מחלקה. שאלות אתיות נוספות שהועלו הן עד כמה רובוטים רפואיים כמו גרייס וסופי, ורובוטים מנחמים, יכולים להוות תחליף לגורם האנושי ועד כמה שימוש ברובוטים כחלקי חילוף יצור קיטוב מול אלו שידם אינה משגת.
ד”ר איגור נור, ציין כי בגלל שהצ’ט נחמד וסבלני אנשים מספרים לו דברים אישיים, וסומכים עליו גם כשהמידע שהוא מספק שגוי. סכנה משמעותית נוספת היא שה- AI מתקשרת עם אפליקציות נוספות, בחזקת “בינה על בינה”, ואנחנו לא יכולים לדעת ולשלוט בהשלכות כגון: יכולת לרמות ולהונות מיליוני אנשים, להשפיע על תוצאות בחירות ולהציע סמים להמונים ופורנו לילדים ונוער, בעזרת יישומים כמו דיפ פייק ועוד. לדבריו הצ’ט אמנם מנוע מלדבר ישירות על נושאים רגישים, אך מאוד קל לעקוף זאת. ד”ר נור מציע לדאוג לאבטחת מידע של מידע רגיש, לפקח רגולטורית על פיתוח AI כמו על פיתוח מכשירים רפואיים, לשלוט בתקשורת שבין ה- AI לאפליקציות צד שלישי, ולפתח כלי AI שיפקחו על ה- AI כולל למשל בינה מיוחדת שתותאם לצרכי מדינת ישראל.
ד”ר מור דשן צופה מספר אתגרים בשימוש ב- AI בלמידה ובהם: הצפה מבלבלת של כלים – שכנגדה היא ממליצה להתמקד בהקניית מיומנויות, העתקות שמחייבות פיתוח מודלי למידה חדשים, אתגר המידע השגוי, הנצחת דעות קדומות ללא פיקוח, פגיעה בפרטיות, העדפת המודל המלאכותי על פני תקשורת אישית, ואי הודאות הגדולה לגבי הצפוי לנו בהמשך.
בסיכום היום ציין ד”ר אלון הסגל שחשוב שכולנו נבין את הסכנות שיש ב- AI וכי הרגולציה כבר החלה הן באיחוד האירופי והן בישראל.