המהפכה כבר כאן: העובדים שלכם משתמשים ב-ChatGPT כדי לסכם ישיבות, אנשי המכירות נעזרים בבינה מלאכותית לניתוח נתוני לקוחות, והמתכנתים "מריצים" קוד בשרתים חיצוניים. אבל האם שאלתם את עצמכם – לאן המידע הזה הולך?
בעידן של תיקון 13 לחוק הגנת הפרטיות, האחריות על המידע שנכנס למערכות AI חיצוניות מוטלת עליכם, המעסיקים ומנהלי המאגרים.
המלכודת המשפטית: כשהמידע יוצא מהשליטה שלכם
רבים טועים לחשוב שהזנת מידע לכלי AI היא כמו חיפוש בגוגל. בפועל, מדובר בהוצאת מידע מחוץ לכותלי הארגון. ברגע שמידע רגיש על עובד או פרטי לקוח "הודלפו" למודל שפה חיצוני:
-
הפרת חובת הסודיות: אתם עלולים להיחשב כמי שהפרו את חובתם לשמור על סודיות המידע.
-
אחריות שלוחית: הארגון עלול לשאת באחריות משפטית מלאה על פעולות של עובד שהזין מידע רגיש ללא הרשאה.
-
סנקציות תיקון 13: דליפת מידע כזו עלולה להפעיל את מנגנוני האכיפה המחמירים, כולל הקנסות המשמעותיים שנוספו לחוק לאחרונה.
איך מתגוננים (משפטית ועסקית)?
כדי שלא תמצאו את עצמכם חשופים לתביעות או לחקירות של הרשות להגנת הפרטיות, הנה 3 צעדים שכל עסק חייב ליישם:
-
גיבוש מדיניות AI פנים-ארגונית: יש לנסח נוהל ברור הקובע איזה מידע מותר ואיזה אסור להזין לכלי בינה מלאכותית.
-
הדרכת עובדים: מודעות היא קו ההגנה הראשון. עובד שאינו מבין שהזנת הסכם עבודה ל-AI היא דליפת מידע, הוא פרצה באבטחת המידע שלכם.
-
-
מינוי DPO (ממונה הגנת פרטיות): תפקידו של הממונה הוא לוודא שהשימוש בטכנולוגיות חדשות תואם את הוראות החוק והתקנות המעודכנות.
הפרטיות של הלקוחות והעובדים שלכם היא הנכס שלכם. אל תפקירו אותו בידי האלגוריתם.