SafeAI Pro

أخلاقيات الذكاء الاصطناعي

بواسطة Katya Kamlovskaya

ذكرتني محاضرة مارغريت ميتشل في DES2025 (معرض المشاريع الرقمية، ملقة، إسبانيا) حول أخلاقيات التكنولوجيا بالكتاب الذي انتهيت للتو من قراءته - “اللامبالون” لسارة وين-ويليامز - وروايته عن دور فيسبوك في إبادة الروهينجا في ميانمار.

في عام 2015، زرت ميانمار خلال انتقالها الديمقراطي الهش، تمامًا مع زيادة الوصول إلى الإنترنت (إلى حوالي 12٪ من السكان). في السنوات التالية، في مركز احتجاز أسترالي، التقيت بلاجئين من الروهينجا فارين من التطهير العرقي. بينما كان فيسبوك في ذلك الوقت في صعود، لم يكن من الواضح على الفور كيف يؤثر على العالم - وليس بطريقة إيجابية، كما اتضح.

في حديثها، ذكرتنا مارغريت بأن جميع القرارات مدفوعة بالقيم، وتتطلب مراجعة أخلاقية مصغرة حيث يتم تحديد القيم وتحديد أولوياتها وشفافيتها.

نظر فيسبوك إلى ميانمار على أنها سوق غير مستغلة. ومع ذلك، أثارت قراراتها العنف العرقي حيث أدى تقاعسها عن العمل إلى انتشار المعلومات المضللة وخطاب الكراهية. حذرت تحذيرات من المجتمع المدني والتقارير الداخلية من المخاطر، لكن الإشراف الفعال على المحتوى لم يكن موجودًا. قامت الخوارزميات، المصممة للمشاركة، بتضخيم المحتوى الضار، مما خلق غرفة صدى للمواد اللاإنسانية ضد الروهينجا.

بدا أن قيم الشركة التجارية لم تعط الأولوية للسلامة وحقوق الإنسان.

ما هي القيم التي ركزوا عليها؟

النمو وتوسيع السوق

إبقاء المستخدمين على المنصة، وزيادة تفاعلهم مع الخوارزميات المحسّنة لذلك - دون الاعتراف بأن المحتوى المشحون عاطفياً وخطاب الكراهية يؤديان غالبًا إلى تفاعل كبير.

حفزت الإعلانات المستهدفة على تضخيم المحتوى الضار على الرغم من انتهاكات حقوق الإنسان.

زعمت الشركة أنها تؤمن بجعل العالم أفضل ”= - ولكن هل كان ذلك ممكنًا حتى دون فهم حقائق ميانمار المحلية، والصراعات العرقية، وسيادة القانون الضعيفة؟ لم يتم توقع الآثار السلبية أو إدارتها بشكل استباقي.

عمل مشرفو المحتوى البشريون بطريقة مركزية - مع عدم وجود مشرفين محليين (لديهم معرفة باللغة المحلية) على الأرض. لم تتمكن الأنظمة المركزية الحالية من اكتشاف المحتوى الضار باللغة البورمية بكفاءة، ولم يتم التعامل مع التهديدات.

لذا، كما تحذر مارغريت ميتشل: تحتاج الشركات إلى تحديد القيم وتحديد أولوياتها بوعي - ولا يتعلق الأمر ببيان المهمة: أضف عمليات شفافة لتحفيز العمل الأخلاقي، وإدارة المخاطر الفعالة، والنهج الذي يركز على الإنسان في صنع القرار المتعلق بالتكنولوجيا، وبعد ذلك لا نبني منتجات أفضل فحسب، بل نبني شركات أكثر مرونة وموثوقية تسخر التكنولوجيا من أجل الصالح العام.

اقرأ الكتاب أيضًا.