SafeAI Pro

تقييم المطابقة للذكاء الاصطناعي

By Katya Kamlovskaya

هل تعتقد أن أنظمة الذكاء الاصطناعي يجب أن تخضع لتقييم مطابقة صارم؟ يجعل قانون الذكاء الاصطناعي في الاتحاد الأوروبي هذا حجر الزاوية في إطاره التنظيمي، لا سيما للتطبيقات التي تعتبر ذات مخاطر كبيرة. يلخص هذا المقال الرؤى الرئيسية من ندوة الويب الخاصة بمركز معايير الذكاء الاصطناعي الأسبوع الماضي - لقد كانت جلسة غنية بالمعلومات!

ما هو تقييم المطابقة؟

تقييم المطابقة هو التحقق (وإثبات) أن شيئًا ما يرقى إلى مجموعة من المعايير المحددة مسبقًا. ليس مفهومًا جديدًا، فقد تم استخدامه على نطاق واسع في مختلف الصناعات لضمان الجودة والسلامة والامتثال. ولكن مع صعود الذكاء الاصطناعي، خاصة في التطبيقات عالية المخاطر مثل الأجهزة الطبية، أصبحت الحاجة إلى تقييم مطابقة قوي أكثر أهمية، وتلعب هيئات تقييم المطابقة الآن دورًا رئيسيًا في هذه العملية، حيث يتعين عليها التكيف مع التحديات الفريدة التي تطرحها أنظمة الذكاء الاصطناعي.

كيف يتم ذلك عادة؟

يتضمن تقييم المطابقة مجموعة من الأنشطة المصممة للتحقق من أن منتجًا أو خدمة أو عملية أو نظامًا أو منظمة تفي بالمتطلبات أو المعايير أو اللوائح المحددة. إليك تفصيل لكل من الطرق الشائعة:

  1. الاختبار: يتضمن الاختبار إخضاع منتج أو نظام أو مكون لإجراءات محددة لتحديد خصائصه أو أدائه مقابل معايير محددة مسبقًا. بالنسبة لأنظمة الذكاء الاصطناعي، يمكن أن يشمل الاختبار اختبار الأداء أو اختبار التحيز والإنصاف أو اختبار الأمن والسلامة. الهدف هو إنشاء بيانات موضوعية حول سمات وسلوك نظام الذكاء الاصطناعي، مما يثبت أنه يفي بالمواصفات الفنية والمتطلبات الوظيفية.

  2. التفتيش: التفتيش هو فحص منتج أو عملية أو خدمة أو تركيب لتحديد مطابقته لمتطلبات محددة. على عكس الاختبار، الذي غالبًا ما يتضمن تلاعبًا أو إدخالًا نشطًا، غالبًا ما يتضمن التفتيش فحصًا مرئيًا ومنهجيًا للميزات أو الوثائق أو الإجراءات. بالنسبة لمنتجات وعمليات الذكاء الاصطناعي، قد يتضمن التفتيش مراجعة الوثائق أو فحص العملية/دورة الحياة.

  3. الشهادة: إنها شهادة من طرف ثالث تتعلق بالمنتجات أو العمليات أو الأنظمة أو الأشخاص. تصدر هيئة إصدار شهادات مستقلة، بعد إجراء تقييم (قد يشمل الاختبار والتفتيش)، شهادة تفيد بأن موضوع تقييم المطابقة يفي بمتطلبات محددة.

  4. إعلان المورد عن المطابقة (SDoC): هذا تقييم مطابقة من طرف أول حيث يعلن المورد (الشركة المصنعة أو المستورد أو الطرف المسؤول) بنفسه أن منتجه أو عمليته أو خدمته تتوافق مع المتطلبات المحددة.

  5. تقييم نظام الإدارة (مثل ISO 42001 لأنظمة إدارة الذكاء الاصطناعي): يركز هذا النوع من التقييم على نظام إدارة المنظمة بدلاً من منتج معين. يتحقق من أن المنظمة قد وضعت نهجًا منهجيًا (“نظام إدارة”) لتحقيق أهداف معينة، مثل الجودة أو الأداء البيئي أو، في حالتنا، تطوير ونشر الذكاء الاصطناعي المسؤول. بالنسبة للذكاء الاصطناعي، سيشمل هذا في المقام الأول التدقيق وفقًا لـ ISO/IEC 42001:2023 - نظام إدارة الذكاء الاصطناعي (AIMS): يقوم مدقق مستقل بتقييم عمليات المنظمة المتعلقة بدورة حياة نظام الذكاء الاصطناعي، بما في ذلك حوكمة البيانات وإدارة المخاطر والاعتبارات الأخلاقية والشفافية والإشراف البشري والمساءلة، ويتحقق من وجود آليات تضمن التحسين المستمر لنظام إدارة الذكاء الاصطناعي.

  6. الاعتماد:

    الاعتماد هو الاعتراف الرسمي من قبل هيئة مستقلة وموثوقة (“هيئة اعتماد”) بأن هيئة تقييم المطابقة (مثل مختبر اختبار أو هيئة تفتيش أو هيئة إصدار شهادات) مختصة ومحايدة وتعمل باستمرار وفقًا للمعايير الدولية (على سبيل المثال، ISO/IEC 17025 لمختبرات الاختبار، ISO/IEC 17020 لهيئات التفتيش، ISO/IEC 17021 لهيئات إصدار الشهادات). تقوم هيئة اعتماد (على سبيل المثال، ENAC في إسبانيا، UKAS في المملكة المتحدة) بتقييم شامل للكفاءة الفنية لهيئة تقييم المطابقة وأنظمة الإدارة والحياد والتشغيل المتسق. يوفر الاعتماد طبقة إضافية من الثقة والمصداقية لنظام تقييم المطابقة بأكمله. عندما يتم اعتماد منتج من قبل هيئة إصدار شهادات معتمدة، أو اختباره من قبل مختبر معتمد، فهذا يعني أن الهيئة التي تقوم بالتقييم نفسها قد تم تقييمها بدقة واعتبرت مختصة.

لماذا يعتبر تقييم مطابقة الذكاء الاصطناعي مهمًا؟

يفرض قانون الذكاء الاصطناعي في الاتحاد الأوروبي تقييم المطابقة لـ أنظمة الذكاء الاصطناعي عالية المخاطر قبل طرحها في السوق أو وضعها في الخدمة. تضمن هذه العملية أن هذه الأنظمة تفي بالمتطلبات الصارمة للقانون.

بالنسبة لمعظم أنظمة الذكاء الاصطناعي عالية المخاطر (المدرجة في الملحق الثالث)، يمكن للمقدمين عمومًا إجراء تقييم مطابقة داخلي (تقييم ذاتي)، على افتراض أنهم يطبقون المعايير المنسقة ذات الصلة. ومع ذلك، بالنسبة لبعض أنظمة الذكاء الاصطناعي عالية المخاطر الحرجة (على سبيل المثال، الأنظمة البيومترية المستخدمة في إنفاذ القانون، أو حيث لا يتم استخدام معايير منسقة)، فإن تقييم المطابقة من طرف ثالث من قبل “هيئة مُخطرة” معينة إلزامي.

تتضمن عملية تقييم المطابقة بموجب قانون الذكاء الاصطناعي إثبات الامتثال لمتطلبات مثل:

عند الانتهاء بنجاح من تقييم المطابقة، يصدر المزود إعلان المطابقة من الاتحاد الأوروبي، وبالنسبة للأنظمة عالية المخاطر، يلزمه وضع علامة CE.

بالطبع، تقييم المطابقة مهم ليس فقط للامتثال التنظيمي - فهو يضمن السلامة، ويخفف من المخاطر، ويبني الثقة، ويعزز المساءلة الأكبر، ويعزز ثقافة التحسين المستمر، بل ويسهل التجارة الدولية من خلال إنشاء معايير معترف بها عالميًا وخطط تقييم المطابقة.

ما هو دور لجنة منظمة التجارة العالمية المعنية بالحواجز الفنية أمام التجارة (TBT)؟

لجنة منظمة التجارة العالمية المعنية بالحواجز الفنية أمام التجارة (TBT)** هي التي تحافظ على تدفق التجارة الدولية مع حماية الأهداف المشروعة مثل صحة الإنسان أو سلامته، أو حياة أو صحة الحيوان أو النبات، أو البيئة، ومتطلبات الأمن القومي. يفعلون ذلك من خلال ضمان عدم إنشاء اللوائح الفنية والمعايير وإجراءات تقييم المطابقة عقبات غير ضرورية أمام التجارة. على سبيل المثال، تشمل الموضوعات التي يعملون عليها تقييمات الأثر التنظيمي، وتنظيم الأجهزة الطبية، والتقنيات الناشئة الحرجة، مثل الوقود الحيوي، وتوليد الطاقة النظيفة وتخزينها، وأشباه الموصلات - وبالطبع، الذكاء الاصطناعي. في عام 2024، اعتمدت لجنة TBT مبادئ توجيهية (G/TBT/54) لدعم المنظمين في اختيار وتصميم إجراءات تقييم المطابقة لضمان عدم إنشاء تدابير للتحقق من الامتثال للوائح والمعايير الفنية عقبات غير ضرورية أمام التجارة الدولية.

ماذا عن المنظمين الوطنيين؟

يقوم المنظمون الوطنيون في البلدان الأعضاء في منظمة التجارة العالمية بتطوير وسن اللوائح، وتصميم وتنفيذ إجراءات تقييم المطابقة، والقيام بمراقبة السوق. في لوكسمبورغ، على سبيل المثال، لدينا معهد لوكسمبورغ للتوحيد القياسي والاعتماد والسلامة وجودة المنتجات والخدمات (ILNAS)، ولكن لدينا أيضًا وكالة لوكسمبورغ للأدوية والمنتجات الصحية (ALMPS) (التي تنظم الأجهزة الطبية)، واللجنة الوطنية لحماية البيانات (CNPD) (أنظمة الذكاء الاصطناعي والامتثال لقانون الذكاء الاصطناعي). أستراليا، بدورها، لديها نموذج مسؤولية مشتركة لتنظيم سلامة المنتجات، يشمل الحكومات الفيدرالية والولائية والأقاليم: تشرف لجنة المنافسة والمستهلك الأسترالية (ACCC) على سلامة المنتجات الاستهلاكية العامة بينما تتولى وزارة البنية التحتية والنقل والتنمية الإقليمية والاتصالات والفنون مسؤولية سلامة المركبات - وهيئة الاتصالات والإعلام الأسترالية (ACMA). يستخدم هؤلاء المنظمون إرشادات منظمة التجارة العالمية TBT لضمان فعالية لوائحهم وإجراءات تقييم المطابقة وتسهيل التجارة مع حماية المصالح العامة.

ما هو صندوق أدوات تقييم المطابقة (CASCO) الخاص بـ ISO؟

إنها مجموعة شاملة من المعايير والأدلة الدولية التي طورتها لجنة ISO لتقييم المطابقة (CASCO). يمكن استخدامها من قبل هيئات التقييم والاعتماد، وكذلك من قبل الشركات - لفهم كيفية الامتثال للمتطلبات، واختيار مقدمي خدمات تقييم المطابقة المختصين، وحتى تنفيذ عمليات التقييم الداخلية الخاصة بهم.

ما هي خطط تقييم المطابقة؟

لجنة ISO لتقييم المطابقة موجودة منذ فترة طويلة - ولكن لديها الآن مهمة جديدة: تطوير خطط تقييم المطابقة - مجموعات من المتطلبات والإجراءات التي تساعد هيئات تقييم المطابقة على اعتماد نظام أو منتج وفقًا لمعيار معين. نرى مثل هذه المخططات مطبقة في البرية كل يوم: ما عليك سوى إلقاء نظرة على عبوة جهاز منزلي أو جهاز كهربائي تملكه - سيكون هناك شعار لبعض مخططات الاعتماد، مما يعني أنه اجتاز بعض الاختبارات للتأكد من أنه آمن وسيعمل كما هو متوقع. بعبارة أخرى، ستطور هذه اللجنة الجديدة مخططات اعتماد كهذه للتحقق من منتجات وأنظمة الذكاء الاصطناعي والسماح لمقدميها بتصنيفها على أنها “معتمدة” (أي آمنة ومناسبة للاستخدام المقصود).

يعد تطوير مخططات تقييم المطابقة هذه للذكاء الاصطناعي أمرًا صعبًا لعدد من الأسباب:

كل هذا يستلزم تطوير طرق وأطر تقييم مطابقة جديدة وأكثر ديناميكية وتكيفية. هذا ما تفعله مجموعة العمل حاليًا. الهدف هو نشر المخططات في مايو 2027، لذلك هناك متسع من الوقت للخبراء للمشاركة في الصياغة.

هل سيكون هناك المزيد من الدعم لهيئات إصدار الشهادات والمدققين؟

نعم! وثيقة جديدة، قيد النشر حاليًا، ستقدم قريبًا المزيد من الدعم لهيئات إصدار الشهادات والمدققين - وهي ISO/IEC 42006 - “تكنولوجيا المعلومات - الذكاء الاصطناعي - متطلبات الهيئات التي تقدم تدقيقًا وشهادة لأنظمة إدارة الذكاء الاصطناعي”. سيضمن المعيار الجديد أن تعمل هيئات إصدار الشهادات بالكفاءة والصرامة اللازمتين لتقييم المنظمات التي تطور أو تنشر أو تقدم أنظمة الذكاء الاصطناعي. تمثل أنظمة الذكاء الاصطناعي تحديات فريدة في مجالات مثل الأخلاق وجودة البيانات والمخاطر والشفافية. للتصديق على أن منظمة ما تدير هذه التحديات بمسؤولية، يحتاج المدققون أنفسهم إلى معرفة متخصصة وقواعد واضحة لإجراء التقييمات.

هل تعلم أن هناك نظامًا بيئيًا كاملاً من معايير ISO المتعلقة بالذكاء الاصطناعي؟


تقييم المطابقة ليس مجرد عقبة بيروقراطية ولكنه ركيزة أساسية للتطوير والنشر المسؤول والجذير بالثقة للذكاء الاصطناعي، خاصة للتطبيقات عالية المخاطر مثل الأجهزة الطبية التي تدعم الذكاء الاصطناعي. يوفر الآليات الأساسية للتحقق من أن أنظمة الذكاء الاصطناعي تفي بالمعايير المحددة مسبقًا للسلامة والأداء والأخلاق والامتثال التنظيمي.

كيف تشارك في تطوير المعايير المتعلقة بالذكاء الاصطناعي؟

انضم إلى هيئة المعايير الوطنية الخاصة بك: https://www.iso.org/about/members


الصورة: قطط وقطط؛ كتاب حكايات، بقلم يولالي أوسجود جروفر؛ 1911؛ بوسطن، هوتون ميفلين. - المصدر.