تقييمات اثر حماية البيانات والذكاء الاصطناعي

ويناقش سيمون ريدر ، كبير موظفي السياسات ، بعض الاعتبارات الرئيسية للمنظمات التي تضطلع بتقييمات لأثر حماية البيانات علي نظم الذكاء الاصطناعي (الذكاء الاصطناعي).

هذه الوظيفة هي جزء من

دعوتنا المستمرة للمساهمة

علي تطوير اطار عمل ICO لمراجعه الحسابات الذكاء الاصطناعي. نحن نشجعك
لتبادل وجات النظر الخاصة بك عن طريق ترك تعليق أدناه أو عن طريق البريد الكتروني لنا في
AIAuditingFramework@ico.org.uk.

العديد من
وقد أشارت بلوق في هذه السلسلة إلى اهميه تنفيذ البيانات
تقييم تاثير الحماية (DPIA) لأنظمه الذكاء الاصطناعي التي ستقوم بمعالجه الشخصية
البيانات. DPIAs توفر المنظمات فرصه للنظر في كيفيه ولماذا استخدام
نظم الذكاء الاصطناعي لمعالجه البيانات الشخصية وما هي المخاطر المحتملة.

وقد أنتجت
ايكو التوجيه التفصيلي

علي DPIAs ان يشرح عندما
مطلوبه وكيفيه إكمالها. هذا بلوق يحدد بعض المنظمات الأشياء
يجب ان نفكر عند تنفيذ DPIA لمعالجه البيانات الشخصية
في أنظمه الذكاء الاصطناعي.

DPIAs
ببموجب اللائحة العامة لحماية البيانات


وينص الناتج الذي يقضي بأنه مطلوب (علي الأقل) dpias

  • قبل نشر الحلول التكنولوجية المبتكرة ؛
  • لمعالجه البيانات الشخصية الخاصة بالفئات الخاصة علي نطاق واسع ؛ او
  • لصنع القرار الألى ، والتنميط ، أو لإنكار المتوقع لخدمه للفرد.
استخدام الذكاء الاصطناعي
لمعالجه البيانات الشخصية التالي سوف تلبي عاده الشرط القانوني
لإكمال DPIA.

إذا كانت
نتيجة لتقييم يشير إلى المخاطر العالية المتبقية علي الافراد الذين لا يستطيعون
يجب تقليلها ، يجب علي وحدات تحكم البيانات التشاور مع ICO.

ما
وينبغي تقييمها في DPIA

A DPIA
يحتاج إلى وصف طبيعة ونطاق وسياق وأغراض اي معالجه
بيانات شخصيه.


يجب ان نوضح كيف ولماذا الذكاء الاصطناعي
استخدامها لمعالجه البيانات. وسوف تحتاج إلى التفاصيل:

  • كيف سيتم جمع البيانات وتخزينها واستخدامها ؛
  • حجم البيانات المدخلة وتنوعها وحساسيتها ؛
  • طبيعة علاقة وحده تحكم البيانات بالبيانات
    مواضيع و
  • النتائج المرجوة للافراد أو المجتمع الأوسع
    وحده تحكم البيانات.
وفي سياق
دوره حياه الذكاء الاصطناعي
، ستخدم اللجنة الاقليميه لخدمه البيئة الغرض منها علي أفضل وجه
إذا اضطلع بها في المراحل الاولي من تطوير المشاريع. وينبغي ان ميزه ،
كحد ادني ، المكونات الرئيسية التالية.

1-وصف منهجي للمعالجة

A DPIA
وينبغي ان يتضمن وصفا منهجيا لنشاط المعالجة ، بما في ذلك
تدفقات البيانات والمراحل التي قد تنتج فيها عمليات الذكاء الاصطناعي والقرارات المؤتمتة
اثار علي الافراد. ويمكن أيضا تفسير اي اختلاف أو هوامش ذات صله
من الخطا.


حيث
القرارات اليه تخضع للتدخل البشري أو الاستعراض ، وعمليهات
يجري تنفيذها لضمان ان يكون هذا مفيدا وان القرارات يمكن ان تكون
انقلبت ينبغي أيضا ان تكون مفصله.

الا
هناك سبب وجيه لعدم القيام بذلك ، يجب علي المنظمات السعي وتوثيق
اراء الافراد ، أو ممثليهم ، علي المعالجة المقصودة
عمليه خلال DPIA. ولذلك فمن المهم ان تكون قادره علي وصف
تجهيز بطريقه يمكن الوصول اليها لأولئك الذين يتم استشارتهم.

ومع ذلك ،
يمكن ان يكون من الصعب وصف نشاط المعالجة لنظام الذكاء الاصطناعي معقد. ان
قد يكون من المناسب ، لذلك ، الاحتفاظ بنسختين من التقييم. في
يقدم أولا وصفا فنيا شاملا للجماهير المتخصصة. في
الثانية التي تحتوي علي وصف أكثر عاليه المستوي لمعالجه و
شرح منطق كيفيه ارتباط مدخلات البيانات الشخصية بالمخرجات
تؤثر علي الافراد.

A DPIA
يجب ان تحدد الأدوار والتزامات من وحده تحكم البيانات وأي
المعالجات. حيث يتم الاستعانة بمصادر خارجيه جزئيا أو كليا في أنظمه الذكاء الاصطناعي
مقدمي الخدمات ، ينبغي لكلتا المنظمتين أيضا تقييم ما إذا كان للتحكم المشترك
أنشئت ببموجب المادة 26 من اللائحة الخاصة بالمواد ؛ وإذا كان الأمر كذلك ، للتعاون في
عمليه DPIA حسب الاقتضاء.

حيث
يتم استخدام معالج البيانات ، بعض العناصر الفنية أكثر من نشاط المعالجة
يمكن توضيحها في DPIA عن طريق أعاده إنتاج المعلومات من ذلك المعالج. من أجل
مثال ، رسم تخطيطي للتدفق من دليل المعالج. ومع ذلك ، وحده تحكم البيانات
وينبغي عموما تجنب نسخ أقسام كبيره من الأدب المعالج في
تقييمها الخاص.

2-تقييم
الضرورة والتناسب

في
يجب ان يكون نشر نظام الذكاء الاصطناعي لمعالجه البيانات الشخصية مدفوعا
قدره المثبتة لذلك النظام علي الوفاء بغرض محدد ومشروع ؛ ليس من قبل
توافر التكنولوجيا. من خلال تقييم الضرورة في DPIA ،
يمكن تنظيم دليل علي ان هذه الأغراض لا يمكن إنجازها في
طريقه أخرى معقولة.

من قبل
القيام DPIA ، يمكن للمنظمات أيضا ان تثبت ان تجهيز
البيانات الشخصية بواسطة نظام الذكاء الاصطناعي هو نشاط متناسب. عند تقييم
التناسب ، ومصالح المنظمة تحتاج إلى ان يكون وزنها
ضد حقوق الافراد وحرياتهم. وفيما يتعلق بنظم الذكاء الاصطناعي ، فان المنظمات
تحتاج إلى التفكير في اي ضرر لمواضيع البيانات التي يمكن ان تتبع من التحيز
أو عدم الدقة في الخوارزميات ومجموعات البيانات المستخدمة.

داخل
عنصر التناسب لأي DPIA ، تحتاج المنظمات إلى تقييم ما إذا كانت البيانات
يتوقع الأشخاص بشكل معقول ان تتم المعالجة بواسطة نظام الذكاء الاصطناعي.
وإذا كانت نظم الذكاء الاصطناعي تكمل أو تحل محل اتخاذ القرارات البشرية ، فينبغي
موثقه في DPIA كيف يمكن للمشروع مقارنه البشرية والحسابية
دقه جنبا إلى جنب لتبرير استخدامه بشكل أفضل.

المنظمات
وينبغي أيضا وصف اي مقايضه التي يتم اجراؤها ، علي سبيل المثال بين الدقة
والتقليل من البيانات ، وتوثيق المنهجية والأساس المنطقي لهذه.

3-تحديد
المخاطر علي الحقوق والحريات

واستخدام
البيانات الشخصية في تطوير ونشر أنظمه الذكاء الاصطناعي قد لا تشكل فقط
مخاطر علي خصوصية الفرد وحقوق حماية البيانات.

من أجل
مثلا ، قد تتكاثر أنظمه التعلم الألى من التمييز التاريخي
أنماط في البيانات ، والتي يمكن ان تقع كريهة من التشريعات المساواته. المثل ، الذكاء الاصطناعي
الانظمه التي توقف نشر المحتوي علي أساس تحليل الخالق
يمكن ان تؤثر البيانات الشخصية علي حريتهم في التعبير. وفي هذه السياقات ، فان البيانات
ينبغي ان تنظر وحدات التحكم في الأطر القانونية ذات الصلة خارج البيانات
حمايه.

الحزب الديمقراطي الخاص
عمليه ستساعد المنظمات علي تحديد المخاطر ذات الصلة بشكل موضوعي. علي
وينبغي تعيين درجه أو مستوي لكل خطر ، يقاس علي احتمال
وشده التاثير علي مواضيع البيانات.

4-التدابير
للتصدي للمخاطر

إنه من دواعي سروري
من المهم ان ضباط حماية البيانات وغيرها من أداره المعلومات
يشارك المهنيون في مشاريع الذكاء الاصطناعي من المراحل الاولي. واضحة
يجب إنشاء قنوات اتصال مفتوحة بينها وبين المشروع
افرقه. سيضمن ذلك امكانيه تحديد المخاطر ومعالجتها في وقت مبكر من

الذكاء الاصطناعي دوره الحياة
.

البيانات
يجب ان لا تكون الحماية بعد التفكير ، والراي المهني لل DPO
لا ينبغي ان ياتي كمفاجاه في الساعة الحاديه عشره.

يمكن لأي DPIA
ان تستخدم لتوثيق الضمانات التي وضعت في مكان لضمان الافراد
مسؤوله عن التطوير والاختبار والتحقق من الصحة والنشر
رصد نظم الذكاء الاصطناعي تدريبا كافيا وتقديرا
الآثار المترتبة علي حماية البيانات من المعالجة.

التنظيميه
تدابير لضمان توفير التدريب المناسب للتخفيف من حده المخاطر
المرتبطة بالخطا البشري يمكن أيضا ان تكون مثبته في DPIA. والي جانب
التدابير التقنية الرامية إلى الحد من المخاطر علي أمن ودقه
نظام الذكاء الاصطناعي.

مره واحده
اتخذت تدابير للتخفيف من المخاطر التي تم تحديدها ، ينبغي لل DPIA
توثيق المستويات المتبقية من المخاطر التي تشكلها المعالجة. ويجب ان تكون هذه
تشير إلى ICO للتشاور المسبق إذا كانت لا تزال عاليه.

5-الف
وثيقة “المعيشة”

في حين ان اي DPIA
يجب ان تنفذ قبل ان تبدا معالجه البيانات الشخصية ، فانها يجب ان
تعتبر وثيقة “حيه”. وهذا يعني انها تخضع للمراجعة المنتظمة
أو أعاده التقييم إذا كانت طبيعة المعالجة أو نطاقها أو سياقها أو غرضها
تغيير لأي سبب من الأسباب.

من أجل
المثال ، اعتمادا علي نشر ، يمكن ان يكون ان التركيبة السكانية لل
قد تحول السكان المستهدفين ، أو ان الناس ضبط سلوكهم مع مرور الوقت في
استجابه للمعالجة نفسها.

اسئله لل comment

ونحن مهتمون جدا ان نسمع عن
كيف تقترب المنظمات من المؤسسات العامة في سياق الذكاء الاصطناعي. ونحن
أود ان اعرف بشكل خاص:

  • اذا
    تشعر مؤسستك يحتاج إلى اتخاذ نهج مختلفه إلى حد كبير
    إلى DPIAs فيما يتعلق بانظمه الذكاء الاصطناعي ؟
  • سواء
    لدي مؤسستك سياسة نشر DPIAs لأنظمه الذكاء الاصطناعي ولماذا
    تفعل/لا ؟


مصدر

Spread the love

Related posts

Leave a Comment