הערכות השפעת הגנת נתונים ו-AI

סיימון קורא, קצין מדיניות בכיר, דן בכמה משיקולים מרכזיים לארגונים התחייבות הערכות הגנה על נתונים למערכות אינטליגנציה מלאכותית (AI).

הודעה זו היא חלק הקריאה המתמשכת שלנו

עבור קלט

על פיתוח מסגרת ICO לביקורת AI. אנו מעודדים אותך
כדי לשתף את התצוגות שלך על ידי השארת תגובה להלן או על ידי שליחת הודעה באימייל
AIAuditingFramework@ico.org.uk.

כמה מ
הבלוגים בסידרה זו התייחסו לחשיבות הביצוע של נתונים
הערכת השפעה הגנה (DPIA) עבור מערכות AI שתעבד אישי
נתונים. Dpias מציעים לארגונים הזדמנות לשקול כיצד ומדוע להשתמש ב
מערכות AI לעבד נתונים אישיים ומה הסיכונים הפוטנציאליים יכולים להיות.

ICO הפיק
הדרכה מפורטת

על DPIAs זה מסביר כאשר הם
נדרשים וכיצד להשלים אותם. הבלוג הזה מגדיר כמה מהדברים שאירגונים
צריך לחשוב על ביצוע DPIA לעיבוד של נתונים אישיים
במערכות AI.

מיכל שפיצר
תחת הרגולציה הכללית להגנת הנתונים (GDPR)


GDPR מצהיר כי, dpias
נדרשים (לפחות)

  • לפני הפריסה של פתרונות טכנולוגיים חדשניים;
  • לעיבוד נתונים אישיים בקטגוריה מיוחדת בקנה מידה גדול; או
  • לקבלת החלטות אוטומטיות, יצירת פרופילים, או עבור הכחשה צפויה של שירות לאדם.
השימוש ב-AI
לעיבוד נתונים אישיים ולכן יענו בדרך כלל על הדרישה המשפטית
להשלמת DPIA.

אם ה
תוצאה של הערכה מצביעה על שרידי סיכון גבוה לאנשים שאינם יכולים ל
להצטמצם, בקרי נתונים חייבים להתייעץ עם ICO.

מה
צריך להיות מוערך ב-DPIA

מיכל
צריך לתאר את הטבע, ההיקף, ההקשר והמטרות של כל עיבוד של
נתונים אישיים.


זה צריך להבהיר כיצד ומדוע AI הולך ל
ישמשו לעיבוד הנתונים. יהיה צורך לפרט:

  • כיצד ייאספו נתונים, יאוחסנו וישמשו;
  • העוצמה, הגיוון והרגישות של נתוני הקלט;
  • את אופי הקשר של בקר הנתונים עם נתונים
    נושאים ו
  • התוצאות המיועדות ליחידים או לחברה רחבה יותר ול
    בקר נתונים.
בהקשר של
מחזור החיים של AI
, dpia יהיה הטוב ביותר לשרת את מטרתה
בשלבים המוקדמים של פיתוח הפרויקט. , זה צריך להיות מאפיין
לכל הפחות, את רכיבי המפתח הבאים.

1. תיאור שיטתי של העיבוד

מיכל
לכלול תיאור שיטתי של פעילות העיבוד, כולל
זרימות נתונים ושלבים כאשר תהליכי AI והחלטות אוטומטיות עשויות להפיק
השפעות על אנשים. הוא יכול גם להסביר את כל הווריאציה או השוליים הרלוונטיים
של שגיאה.


איפה
החלטות אוטומטיות כפופות להתערבות אנושית או לביקורת, התהליכים
להיות מימוש כדי להבטיח שזה משמעותי ושהחלטות יכולות להיות
הפוכה צריך גם להיות מפורט.

אלא אם כן
יש סיבה טובה לא לעשות זאת, ארגונים צריכים לחפש ולתעד את ה
תצוגות של אנשים או נציגים שלהם, על העיבוד המתוכנן
תפעול במהלך DPIA. לכן חשוב להיות מסוגל לתאר את ה
עיבוד באופן הנגיש לאלה התייעצו.

עם זאת,
יכול להיות קשה לתאר את פעילות העיבוד של מערכת AI מורכבת. זה
עשוי להיות מתאים לפיכך, כדי לשמור על שתי גרסאות של הערכה. את
תחילה להציג תיאור טכני יסודי עבור קהלים מומחים. את
שנייה המכילה תיאור ברמה גבוהה יותר של העיבוד ו
הסברת הלוגיקה של אופן הקשר בין כניסות המידע האישיות לתפוקות
להשפיע על אנשים.

מיכל
לקבוע את התפקידים והחובות של בקר הנתונים וכל
מעבדים. כאשר מערכות AI הם באופן חלקי או כלשהו מיקור חוץ
ספקי, שני הארגונים צריכים גם להעריך אם משותף controllership יש
הוקמה תחת סעיף 26 של GDPR; ואם כן, כדי לשתף פעולה ב
תהליך DPIA לפי הצורך.

היכן ש
נעשה שימוש במעבד נתונים, חלק מהרכיבים הטכניים יותר של פעילות העיבוד
ניתן לאייר ב-DPIA על-ידי שכפול מידע ממעבד זה. עבור
דוגמה, דיאגרמת זרימה מתוך המדריך של המעבד. עם זאת, בקר הנתונים
בדרך כלל צריך להימנע מהעתקה של חלקים גדולים של הספרות של המעבד לתוך
הערכה משלהם.

2. הערכת
הכרח ומידתיות

את
פריסה של מערכת AI כדי לעבד נתונים אישיים צריך להיות מונע על ידי
יכולת מוכחת של מערכת זו למלא תכלית מסוימת ולגיטימית; לא על ידי
את הזמינות של הטכנולוגיה. על ידי הערכת הצורך ב-DPIA,
ארגון יכול להעיד כי מטרות אלה לא ניתן לבצע ב
דרך הגיונית אחרת

על ידי
התחייבות DPIA, ארגונים יכולים גם להדגים כי עיבוד של
נתונים אישיים על ידי מערכת AI היא פעילות מידתית. בעת הערכה
המידתיות, האינטרסים של הארגון צריך להיות משוקלל
נגד הזכויות והחירויות של אנשים. ביחס למערכות AI, אירגונים
צריך לחשוב על כל לרעת נושאים נתונים שיכולים לעקוב אחר הטיה
או חוסר דיוק באלגוריתמים ובערכות הנתונים הנמצאים בשימוש.

בתוך ה
רכיב מידתיות של DPIA, ארגונים צריכים להעריך אם נתונים
נושאים מצפים באופן סביר את העיבוד להתבצע על ידי מערכת AI.
אם מערכות AI משלימות או מחליפות ביצוע החלטות אנושיות, זה צריך להיות
שתועדו ב-DPIA כיצד הפרויקט עשוי להשתוות לאדם ולאלגוריתמית
דיוק זה לצד זה כדי להצדיק בצורה טובה יותר את השימוש בו.

ארגונים
יש לתאר גם כל החלפות שבוצעו, לדוגמה בין דיוק
ומיניזציה של נתונים, ותעד את המתודולוגיה והרציונל של אלה.

3. זיהוי
סיכונים לזכויות ולחירויות

השימוש ב
נתונים אישיים בפיתוח והטמעה של מערכות AI עשויים שלא להוות רק
סיכונים לפרטיות ולזכויות הגנת הנתונים של הפרט.

עבור
למשל, מערכות למידה ממוחשבת עשויות להפיק אפליה מהיסטורית
דפוסים בנתונים, שעלולים ליפול בחקיקה שווה. באופן דומה, AI
מערכות העוצרות את התוכן המתפרסם בהתבסס על ניתוח ה
נתונים אישיים יכולים להשפיע על חופש הביטוי שלהם. בהקשרים כאלה, נתונים
בקרים צריכים לשקול את המסגרות המשפטיות הרלוונטיות מעבר לנתונים
הגנה.

המטה
תהליך יסייע לארגונים לזהות באופן אובייקטיבי את הסיכונים הרלוונטיים. קצת
הציון או הרמה יש להקצות לכל סיכון, נמדד נגד הסבירות
וחומרת ההשפעה על נושאי נתונים.

4. מדדים
כדי לטפל בסיכונים

. זה
חשוב שקציני הגנת נתונים וממשל מידע אחר
אנשי מקצוע מעורבים בפרויקטי AI מהשלבים המוקדמים ביותר. . ברור ו
יש ליצור ערוצי תקשורת פתוחים בינם לבין הפרוייקט
צוותים. הדבר יבטיח כי ניתן יהיה לזהות סיכונים ולטפל בהם בשלב מוקדם ב

מחזור חיים AI
.

נתונים
הגנה לא צריך להיות מחשבה מחודש, ואת הדעה המקצועית של DPO
לא צריך להיות הפתעה בשעה האחת עשרה.

Dpia יכול ל
לתעד את ההגנות הנמצאות במקום כדי להבטיח לאנשים
אחראי על הפיתוח, הבדיקה, האימות, הפריסה ו
ניטור של מערכות AI מאומנים כראוי ויש להם הערכה ל
ההשלכות של הגנת הנתונים על העיבוד.

ארגונית
אמצעים להבטחת ההכשרה המתאימה במקום להפחתת סיכונים
הקשורים שגיאה אנושית יכול גם להיות עדות ב-DPIA. יחד עם ה
אמצעים טכניים המיועדים להפחית את הסיכונים לביטחון ולדיוק של
. מערכת איי. אי

פעם
מדדים הוכנסו כדי לרכך את הסיכונים שזוהו, dpia צריך ל
תעד את רמות שרידי הסיכון שבעיבוד. אלה חייבים להיות
התייחס ICO להתייעצות מוקדמת אם הם נשארים גבוה.

5. מ
מסמך ‘ חי ‘

בעוד כל DPIA
חייב להתבצע לפני העיבוד של נתונים אישיים מתחיל, הם צריכים ל
ייחשבו למסמך ‘ live ‘. משמעות הדבר היא שהם כפופים לסקירה רגילה
או הערכה מחדש על הטבע, ההיקף, ההקשר או המטרה של העיבוד
לשנות מסיבה כלשהי.

עבור
למשל, בהתאם לפריסה, ייתכן שדמוגרפיה של ה
אוכלוסיית היעד עשויה להיות משתנה או שאנשים מתאימים את התנהגותם לאורך זמן ב
תגובה לעיבוד עצמו.

שאלות לשבח

אנחנו מאוד מעוניינים לשמוע על
כיצד ארגונים מתקרבים DPIAs בהקשר של AI. . היינו
במיוחד רוצה לדעת:

  • אם
    אתה מרגיש שהארגון שלך צריך לנקוט בגישה שונה באופן משמעותי
    ל-DPIAs ביחס למערכות AI?
  • אם
    לארגון שלך יש מדיניות של פרסום DPIAs עבור מערכות AI ולמה
    אתה לא מבין


מקור

Spread the love

Related posts

Leave a Comment