تقييم المطابقة للذكاء الاصطناعي
هل تعتقد أن أنظمة الذكاء الاصطناعي يجب أن تخضع لتقييم مطابقة صارم؟ يجعل قانون الذكاء الاصطناعي في الاتحاد الأوروبي هذا حجر الزاوية في إطاره التنظيمي، لا سيما للتطبيقات التي تعتبر ذات مخاطر كبيرة. يلخص هذا المقال الرؤى الرئيسية من ندوة الويب الخاصة بمركز معايير الذكاء الاصطناعي الأسبوع الماضي - لقد كانت جلسة غنية بالمعلومات!
ما هو تقييم المطابقة؟
تقييم المطابقة هو التحقق (وإثبات) أن شيئًا ما يرقى إلى مجموعة من المعايير المحددة مسبقًا. ليس مفهومًا جديدًا، فقد تم استخدامه على نطاق واسع في مختلف الصناعات لضمان الجودة والسلامة والامتثال. ولكن مع صعود الذكاء الاصطناعي، خاصة في التطبيقات عالية المخاطر مثل الأجهزة الطبية، أصبحت الحاجة إلى تقييم مطابقة قوي أكثر أهمية، وتلعب هيئات تقييم المطابقة الآن دورًا رئيسيًا في هذه العملية، حيث يتعين عليها التكيف مع التحديات الفريدة التي تطرحها أنظمة الذكاء الاصطناعي.
كيف يتم ذلك عادة؟
يتضمن تقييم المطابقة مجموعة من الأنشطة المصممة للتحقق من أن منتجًا أو خدمة أو عملية أو نظامًا أو منظمة تفي بالمتطلبات أو المعايير أو اللوائح المحددة. إليك تفصيل لكل من الطرق الشائعة:
-
الاختبار: يتضمن الاختبار إخضاع منتج أو نظام أو مكون لإجراءات محددة لتحديد خصائصه أو أدائه مقابل معايير محددة مسبقًا. بالنسبة لأنظمة الذكاء الاصطناعي، يمكن أن يشمل الاختبار اختبار الأداء أو اختبار التحيز والإنصاف أو اختبار الأمن والسلامة. الهدف هو إنشاء بيانات موضوعية حول سمات وسلوك نظام الذكاء الاصطناعي، مما يثبت أنه يفي بالمواصفات الفنية والمتطلبات الوظيفية.
-
التفتيش: التفتيش هو فحص منتج أو عملية أو خدمة أو تركيب لتحديد مطابقته لمتطلبات محددة. على عكس الاختبار، الذي غالبًا ما يتضمن تلاعبًا أو إدخالًا نشطًا، غالبًا ما يتضمن التفتيش فحصًا مرئيًا ومنهجيًا للميزات أو الوثائق أو الإجراءات. بالنسبة لمنتجات وعمليات الذكاء الاصطناعي، قد يتضمن التفتيش مراجعة الوثائق أو فحص العملية/دورة الحياة.
-
الشهادة: إنها شهادة من طرف ثالث تتعلق بالمنتجات أو العمليات أو الأنظمة أو الأشخاص. تصدر هيئة إصدار شهادات مستقلة، بعد إجراء تقييم (قد يشمل الاختبار والتفتيش)، شهادة تفيد بأن موضوع تقييم المطابقة يفي بمتطلبات محددة.
-
إعلان المورد عن المطابقة (SDoC): هذا تقييم مطابقة من طرف أول حيث يعلن المورد (الشركة المصنعة أو المستورد أو الطرف المسؤول) بنفسه أن منتجه أو عمليته أو خدمته تتوافق مع المتطلبات المحددة.
-
تقييم نظام الإدارة (مثل ISO 42001 لأنظمة إدارة الذكاء الاصطناعي): يركز هذا النوع من التقييم على نظام إدارة المنظمة بدلاً من منتج معين. يتحقق من أن المنظمة قد وضعت نهجًا منهجيًا (“نظام إدارة”) لتحقيق أهداف معينة، مثل الجودة أو الأداء البيئي أو، في حالتنا، تطوير ونشر الذكاء الاصطناعي المسؤول. بالنسبة للذكاء الاصطناعي، سيشمل هذا في المقام الأول التدقيق وفقًا لـ ISO/IEC 42001:2023 - نظام إدارة الذكاء الاصطناعي (AIMS): يقوم مدقق مستقل بتقييم عمليات المنظمة المتعلقة بدورة حياة نظام الذكاء الاصطناعي، بما في ذلك حوكمة البيانات وإدارة المخاطر والاعتبارات الأخلاقية والشفافية والإشراف البشري والمساءلة، ويتحقق من وجود آليات تضمن التحسين المستمر لنظام إدارة الذكاء الاصطناعي.
-
الاعتماد:
الاعتماد هو الاعتراف الرسمي من قبل هيئة مستقلة وموثوقة (“هيئة اعتماد”) بأن هيئة تقييم المطابقة (مثل مختبر اختبار أو هيئة تفتيش أو هيئة إصدار شهادات) مختصة ومحايدة وتعمل باستمرار وفقًا للمعايير الدولية (على سبيل المثال، ISO/IEC 17025 لمختبرات الاختبار، ISO/IEC 17020 لهيئات التفتيش، ISO/IEC 17021 لهيئات إصدار الشهادات). تقوم هيئة اعتماد (على سبيل المثال، ENAC في إسبانيا، UKAS في المملكة المتحدة) بتقييم شامل للكفاءة الفنية لهيئة تقييم المطابقة وأنظمة الإدارة والحياد والتشغيل المتسق. يوفر الاعتماد طبقة إضافية من الثقة والمصداقية لنظام تقييم المطابقة بأكمله. عندما يتم اعتماد منتج من قبل هيئة إصدار شهادات معتمدة، أو اختباره من قبل مختبر معتمد، فهذا يعني أن الهيئة التي تقوم بالتقييم نفسها قد تم تقييمها بدقة واعتبرت مختصة.
لماذا يعتبر تقييم مطابقة الذكاء الاصطناعي مهمًا؟
يفرض قانون الذكاء الاصطناعي في الاتحاد الأوروبي تقييم المطابقة لـ أنظمة الذكاء الاصطناعي عالية المخاطر قبل طرحها في السوق أو وضعها في الخدمة. تضمن هذه العملية أن هذه الأنظمة تفي بالمتطلبات الصارمة للقانون.
بالنسبة لمعظم أنظمة الذكاء الاصطناعي عالية المخاطر (المدرجة في الملحق الثالث)، يمكن للمقدمين عمومًا إجراء تقييم مطابقة داخلي (تقييم ذاتي)، على افتراض أنهم يطبقون المعايير المنسقة ذات الصلة. ومع ذلك، بالنسبة لبعض أنظمة الذكاء الاصطناعي عالية المخاطر الحرجة (على سبيل المثال، الأنظمة البيومترية المستخدمة في إنفاذ القانون، أو حيث لا يتم استخدام معايير منسقة)، فإن تقييم المطابقة من طرف ثالث من قبل “هيئة مُخطرة” معينة إلزامي.
تتضمن عملية تقييم المطابقة بموجب قانون الذكاء الاصطناعي إثبات الامتثال لمتطلبات مثل:
- نظام إدارة المخاطر
- حوكمة البيانات (جودة البيانات، تخفيف التحيز)
- الوثائق الفنية
- حفظ السجلات (تسجيل الأحداث)
- الشفافية وتوفير المعلومات للمنشرين
- الإشراف البشري
- الدقة والمتانة والأمن السيبراني
عند الانتهاء بنجاح من تقييم المطابقة، يصدر المزود إعلان المطابقة من الاتحاد الأوروبي، وبالنسبة للأنظمة عالية المخاطر، يلزمه وضع علامة CE.
بالطبع، تقييم المطابقة مهم ليس فقط للامتثال التنظيمي - فهو يضمن السلامة، ويخفف من المخاطر، ويبني الثقة، ويعزز المساءلة الأكبر، ويعزز ثقافة التحسين المستمر، بل ويسهل التجارة الدولية من خلال إنشاء معايير معترف بها عالميًا وخطط تقييم المطابقة.
ما هو دور لجنة منظمة التجارة العالمية المعنية بالحواجز الفنية أمام التجارة (TBT)؟
لجنة منظمة التجارة العالمية المعنية بالحواجز الفنية أمام التجارة (TBT)** هي التي تحافظ على تدفق التجارة الدولية مع حماية الأهداف المشروعة مثل صحة الإنسان أو سلامته، أو حياة أو صحة الحيوان أو النبات، أو البيئة، ومتطلبات الأمن القومي. يفعلون ذلك من خلال ضمان عدم إنشاء اللوائح الفنية والمعايير وإجراءات تقييم المطابقة عقبات غير ضرورية أمام التجارة. على سبيل المثال، تشمل الموضوعات التي يعملون عليها تقييمات الأثر التنظيمي، وتنظيم الأجهزة الطبية، والتقنيات الناشئة الحرجة، مثل الوقود الحيوي، وتوليد الطاقة النظيفة وتخزينها، وأشباه الموصلات - وبالطبع، الذكاء الاصطناعي. في عام 2024، اعتمدت لجنة TBT مبادئ توجيهية (G/TBT/54) لدعم المنظمين في اختيار وتصميم إجراءات تقييم المطابقة لضمان عدم إنشاء تدابير للتحقق من الامتثال للوائح والمعايير الفنية عقبات غير ضرورية أمام التجارة الدولية.
ماذا عن المنظمين الوطنيين؟
يقوم المنظمون الوطنيون في البلدان الأعضاء في منظمة التجارة العالمية بتطوير وسن اللوائح، وتصميم وتنفيذ إجراءات تقييم المطابقة، والقيام بمراقبة السوق. في لوكسمبورغ، على سبيل المثال، لدينا معهد لوكسمبورغ للتوحيد القياسي والاعتماد والسلامة وجودة المنتجات والخدمات (ILNAS)، ولكن لدينا أيضًا وكالة لوكسمبورغ للأدوية والمنتجات الصحية (ALMPS) (التي تنظم الأجهزة الطبية)، واللجنة الوطنية لحماية البيانات (CNPD) (أنظمة الذكاء الاصطناعي والامتثال لقانون الذكاء الاصطناعي). أستراليا، بدورها، لديها نموذج مسؤولية مشتركة لتنظيم سلامة المنتجات، يشمل الحكومات الفيدرالية والولائية والأقاليم: تشرف لجنة المنافسة والمستهلك الأسترالية (ACCC) على سلامة المنتجات الاستهلاكية العامة بينما تتولى وزارة البنية التحتية والنقل والتنمية الإقليمية والاتصالات والفنون مسؤولية سلامة المركبات - وهيئة الاتصالات والإعلام الأسترالية (ACMA). يستخدم هؤلاء المنظمون إرشادات منظمة التجارة العالمية TBT لضمان فعالية لوائحهم وإجراءات تقييم المطابقة وتسهيل التجارة مع حماية المصالح العامة.
ما هو صندوق أدوات تقييم المطابقة (CASCO) الخاص بـ ISO؟
إنها مجموعة شاملة من المعايير والأدلة الدولية التي طورتها لجنة ISO لتقييم المطابقة (CASCO). يمكن استخدامها من قبل هيئات التقييم والاعتماد، وكذلك من قبل الشركات - لفهم كيفية الامتثال للمتطلبات، واختيار مقدمي خدمات تقييم المطابقة المختصين، وحتى تنفيذ عمليات التقييم الداخلية الخاصة بهم.
ما هي خطط تقييم المطابقة؟
لجنة ISO لتقييم المطابقة موجودة منذ فترة طويلة - ولكن لديها الآن مهمة جديدة: تطوير خطط تقييم المطابقة - مجموعات من المتطلبات والإجراءات التي تساعد هيئات تقييم المطابقة على اعتماد نظام أو منتج وفقًا لمعيار معين. نرى مثل هذه المخططات مطبقة في البرية كل يوم: ما عليك سوى إلقاء نظرة على عبوة جهاز منزلي أو جهاز كهربائي تملكه - سيكون هناك شعار لبعض مخططات الاعتماد، مما يعني أنه اجتاز بعض الاختبارات للتأكد من أنه آمن وسيعمل كما هو متوقع. بعبارة أخرى، ستطور هذه اللجنة الجديدة مخططات اعتماد كهذه للتحقق من منتجات وأنظمة الذكاء الاصطناعي والسماح لمقدميها بتصنيفها على أنها “معتمدة” (أي آمنة ومناسبة للاستخدام المقصود).
يعد تطوير مخططات تقييم المطابقة هذه للذكاء الاصطناعي أمرًا صعبًا لعدد من الأسباب:
- يمكن أن يحتوي نظام الذكاء الاصطناعي كمنتج على مكونات مختلفة، وكل مكون كمنتج يعني نهجًا قائمًا على المخاطر. فهي مصنوعة من البيانات والبرامج والنماذج والبنية التحتية - ليست ملموسة ويمكن التنبؤ بسلوكها مثل، على سبيل المثال، غلاية. في الذكاء الاصطناعي، قد تنبع المخاطر من بيانات التدريب، وتصميم الخوارزمية، وحتى واجهة المستخدم. لذلك، هناك حاجة إلى تقييم مخاطر أكثر تكاملاً وشمولية لتجاوز التقييم على مستوى المكونات.
- الحاجة إلى تقييم في الوقت الفعلي. تعمل العديد من أنظمة الذكاء الاصطناعي في الوقت الفعلي (مثل المركبات ذاتية القيادة، واكتشاف الاحتيال). نظرًا لأن البيئة تتغير باستمرار، فلن يفي تقييم لقطة قياسي بالغرض: فنحن بحاجة إلى مراقبة مستمرة، وتسجيل فعال، وبطريقة ما طرق تقييم مطابقة تكيفية.
- التحكم في الإصدار والتحديثات. يتم تحديث نماذج الذكاء الاصطناعي بشكل متكرر، وإعادة تدريبها، وضبطها، ويمكن أن تؤدي التحديثات مثل هذه إلى تغيير سلوك النموذج بشكل غير متوقع. نحن بحاجة إلى نظام قوي لإدارة التغيير هنا!
- هل يمكن لبيان المطابقة أن يضمن سلامة النظام؟ مرة أخرى، تجعل الطبيعة الديناميكية للذكاء الاصطناعي إصدار بيان نهائي أمرًا صعبًا وتدعو إلى مراقبة مستمرة بعد التسويق لأداء النظام وجودة البيانات والالتزام بالمبادئ الأخلاقية.
كل هذا يستلزم تطوير طرق وأطر تقييم مطابقة جديدة وأكثر ديناميكية وتكيفية. هذا ما تفعله مجموعة العمل حاليًا. الهدف هو نشر المخططات في مايو 2027، لذلك هناك متسع من الوقت للخبراء للمشاركة في الصياغة.
هل سيكون هناك المزيد من الدعم لهيئات إصدار الشهادات والمدققين؟
نعم! وثيقة جديدة، قيد النشر حاليًا، ستقدم قريبًا المزيد من الدعم لهيئات إصدار الشهادات والمدققين - وهي ISO/IEC 42006 - “تكنولوجيا المعلومات - الذكاء الاصطناعي - متطلبات الهيئات التي تقدم تدقيقًا وشهادة لأنظمة إدارة الذكاء الاصطناعي”. سيضمن المعيار الجديد أن تعمل هيئات إصدار الشهادات بالكفاءة والصرامة اللازمتين لتقييم المنظمات التي تطور أو تنشر أو تقدم أنظمة الذكاء الاصطناعي. تمثل أنظمة الذكاء الاصطناعي تحديات فريدة في مجالات مثل الأخلاق وجودة البيانات والمخاطر والشفافية. للتصديق على أن منظمة ما تدير هذه التحديات بمسؤولية، يحتاج المدققون أنفسهم إلى معرفة متخصصة وقواعد واضحة لإجراء التقييمات.
هل تعلم أن هناك نظامًا بيئيًا كاملاً من معايير ISO المتعلقة بالذكاء الاصطناعي؟
- ISO/IEC 38507:2022 ينطبق على جميع المنظمات التي تطور أو تستخدم أنظمة وحلول قائمة على الذكاء الاصطناعي، بغض النظر عن الصناعة أو الحجم أو القدرة التقنية. يتحقق مما إذا كانت المنظمة لديها حوكمة مناسبة للذكاء الاصطناعي وأنظمة إدارة مخاطر الذكاء الاصطناعي، مع التركيز بشكل خاص على طبقة الحوكمة، مما يضمن أن صنع القرار المتعلق بالذكاء الاصطناعي يتماشى مع أهداف المنظمة وكذلك اللوائح والتوقعات الأخلاقية وقيم المجتمع.
- ISO/IEC 23894:2023 تكنولوجيا المعلومات - الذكاء الاصطناعي - إرشادات حول إدارة المخاطر تقدم إرشادات حول كيفية قيام المنظمات التي تطور أو تنتج أو تنشر أو تستخدم منتجات وأنظمة وخدمات تستخدم الذكاء الاصطناعي بإدارة المخاطر المتعلقة بالذكاء الاصطناعي على وجه التحديد.
- ISO/IEC 42005:2025 - تقييم تأثير نظام الذكاء الاصطناعي - يقدم إرشادات للمنظمات التي تجري تقييمات تأثير نظام الذكاء الاصطناعي. يمكن استخدامه من قبل أي منظمة تقوم بتطوير أو توفير أو استخدام أنظمة الذكاء الاصطناعي وترغب في تقييم وإدارة التأثيرات المحتملة لأنظمة الذكاء الاصطناعي الخاصة بها على الناس والمجتمع.
- ISO/IEC 42001:2023 يحدد متطلبات إنشاء وتنفيذ وصيانة وتحسين نظام إدارة الذكاء الاصطناعي (AIMS) باستمرار داخل المنظمات. وهو مصمم للكيانات التي تقدم أو تستخدم منتجات أو خدمات قائمة على الذكاء الاصطناعي، مما يضمن التطوير والاستخدام المسؤول لأنظمة الذكاء الاصطناعي.
تقييم المطابقة ليس مجرد عقبة بيروقراطية ولكنه ركيزة أساسية للتطوير والنشر المسؤول والجذير بالثقة للذكاء الاصطناعي، خاصة للتطبيقات عالية المخاطر مثل الأجهزة الطبية التي تدعم الذكاء الاصطناعي. يوفر الآليات الأساسية للتحقق من أن أنظمة الذكاء الاصطناعي تفي بالمعايير المحددة مسبقًا للسلامة والأداء والأخلاق والامتثال التنظيمي.
كيف تشارك في تطوير المعايير المتعلقة بالذكاء الاصطناعي؟
انضم إلى هيئة المعايير الوطنية الخاصة بك: https://www.iso.org/about/members
الصورة: قطط وقطط؛ كتاب حكايات، بقلم يولالي أوسجود جروفر؛ 1911؛ بوسطن، هوتون ميفلين. - المصدر.