SafeAI Pro

التوثيق والشفافية: NIST AI RMF Govern 1.4

بواسطة Ekaterina Kamlovskaya

تم تصميم إطار عمل إدارة مخاطر الذكاء الاصطناعي (AI RMF) من NIST كإطار عمل طوعي ينطبق على أي منظمة تشارك في تصميم أو تطوير أو نشر أو استخدام أنظمة الذكاء الاصطناعي. إنه ليس مطلب امتثال إلزامي بنفس الطريقة التي تكون بها بعض اللوائح (على سبيل المثال، EU AI Act). ومع ذلك، فإنه يقدم إرشادات مفيدة للغاية - فكر فيه كدليل لمساعدة مؤسستك على ضمان تحقيق فوائد الذكاء الاصطناعي بمسؤولية. يواصل هذا المنشور سلسلة من المنشورات التي تناقش NIST AI RMF - بندًا تلو الآخر. ما هو Govern 1.4؟

يناقش Govern 1.4 فوائد إنشاء عملية إدارة المخاطر من خلال سياسات وإجراءات وضوابط أخرى شفافة (بناءً على أولويات المخاطر في مؤسستك).

تجلب السياسات والإجراءات المتعلقة بالتوثيق والشفافية العديد من الفوائد:

تحدد الوثائق الواضحة أدوار الأفراد والفرق المشاركة في تطوير الذكاء الاصطناعي ونشره واستخدامه، مما يضمن فهم الجميع لمسؤولياتهم. يعزز التواصل الفعال التعاون ويمنع سوء الفهم، مما يؤدي إلى سير عمل أكثر سلاسة. تعزز الأدوار والمسؤوليات الواضحة المساءلة، مما يضمن مساءلة الأفراد عن أفعالهم. يمكنك تتبع القرارات والإجراءات، مما يسهل تحديد المشكلات ومعالجتها. تتعزز مساءلة المنظمة: يمكن مساءلة الأفراد عن أفعالهم. يمكن أن يشرك التوثيق أصحاب المصلحة طوال عملية التطوير، مما يعزز الشعور بالملكية. علاوة على ذلك، عندما يشارك أصحاب المصلحة ويفهمون المنتج، فمن المرجح أن يدعموا اعتماده واستخدامه. تسهل الوثائق الواضحة تكرار أنظمة الذكاء الاصطناعي، مما يضمن الاتساق والموثوقية. غالبًا ما تكون الأنظمة الموثقة جيدًا أكثر قوة حيث يمكن صيانتها وتحديثها بسهولة. يتم تحسين قابلية شرح نماذج التعلم الآلي (ML): من الأسهل فهم كيفية اتخاذها للقرارات.

كما ترى، هناك جانبان رئيسيان هنا: الشفافية والمساءلة، وهما مرتبطان ارتباطًا وثيقًا. للسماح بالمساءلة، يجب أن تكون مؤسستك شفافة وتوضح أدوار ومسؤوليات الأشخاص المشاركين في تصميم نظام الذكاء الاصطناعي وتطويره ونشره وتقييمه ومراقبته لأصحاب المصلحة المعنيين. على سبيل المثال، مجرد تضمين معلومات الاتصال الخاصة بجهات فاعلة الذكاء الاصطناعي في وثائق المنتج له فوائد عديدة:

ثم، هناك وثائق تتعلق بنماذج الذكاء الاصطناعي نفسها، وهنا يمكنك توثيق مبررات العمل لنظام الذكاء الاصطناعي، ونطاقه واستخداماته، والمخاطر المحتملة، وبيانات التدريب، والمنهجية الخوارزمية، ونتائج الاختبار والتحقق من الصحة، وخطط النشر والمراقبة، وخطط الكشف العام عن مواد إدارة مخاطر الذكاء الاصطناعي (مثل نتائج التدقيق، وتوثيق النموذج، وما إلى ذلك). يعد توثيق النموذج جانبًا مثيرًا للاهتمام بشكل خاص، وسأترك روابط لبعض الموارد الرائعة في التعليقات. على سبيل المثال، تحتاج إلى توثيق مجموعات البيانات المستخدمة لتدريب النموذج (مبررات التنظيم، ومصادر البيانات، وغير ذلك الكثير). هناك دليل لكتابة بيانات البيانات لمعالجة اللغة الطبيعية (A Guide for Writing Data Statements for Natural Language Processing) بقلم Emily Bender يساعدنا في الإبلاغ عن جوانب مثل المعلومات الديموغرافية المتعلقة بمصدر بيانات لغوي، والتركيبة السكانية للمتحدثين والمعلقين، وتنوعات اللغة (على سبيل المثال، بدلاً من قول “American English”، يوصى بتقديم مزيد من التفاصيل - قل، “Standardised American English” أو “Northeastern American English”)، من بين أشياء أخرى كثيرة. تساعد بطاقات النماذج لتقارير النماذج (Model Cards for Model Reporting) في إنشاء بطاقات نماذج تحتوي على جميع المعلومات بما في ذلك كيفية بناء النموذج، والافتراضات التي تم إجراؤها أثناء تطويره، ونوع سلوك النموذج الذي قد تواجهه المجموعات السكانية الثقافية أو الديموغرافية أو المظهرية المختلفة، وتقييم مدى جودة أداء النموذج فيما يتعلق بتلك المجموعات.

يلعب التوثيق دورًا حاسمًا في ضمان تطوير أنظمة الذكاء الاصطناعي ونشرها بطريقة مسؤولة. من خلال توفير سجل واضح لتطوير النظام واختباره ونشره، يمكن أن يساعد التوثيق في بناء الثقة في تقنيات الذكاء الاصطناعي.