Etyka sztucznej inteligencji
Wystąpienie Margaret Mitchell na DES2025 (Digital Enterprise Show, Malaga, Hiszpania) na temat etyki w technologii przypomniało mi o książce, którą właśnie skończyłam czytać - “The Careless People” autorstwa Sarah Wynn-Williams - i jej relacji o roli Facebooka w ludobójstwie Rohindżów w Mjanmie.
W 2015 roku odwiedziłam Mjanmę podczas jej kruchej transformacji demokratycznej, w momencie gwałtownego wzrostu dostępu do internetu (do ~12% populacji). W kolejnych latach w australijskim ośrodku dla uchodźców spotkałam uchodźców Rohindża uciekających przed czystkami etnicznymi. Chociaż Facebook wtedy zyskiwał na popularności, nie było od razu oczywiste, jak wpływa na świat - jak się okazało, nie w pozytywny sposób.
W swoim wystąpieniu Margaret przypomniała nam, że wszystkie decyzje są oparte na wartościach, co wymaga mini-przeglądu etycznego, w którym wartości są identyfikowane, priorytetyzowane i przejrzyste.
Facebook postrzegał Mjanmę jako niewykorzystany rynek. Jednak jego decyzje podsycały przemoc etniczną, ponieważ jego bezczynność doprowadziła do rozprzestrzeniania się dezinformacji i mowy nienawiści. Ostrzeżenia ze strony społeczeństwa obywatelskiego i wewnętrzne raporty sygnalizowały ryzyko, ale skuteczna moderacja treści nie została wdrożona. Algorytmy, zaprojektowane pod kątem zaangażowania, wzmacniały szkodliwe treści, tworząc komorę echa dehumanizujących materiałów przeciwko Rohindżom.
Wyglądało na to, że wartości biznesowe firmy nie priorytetyzowały bezpieczeństwa i praw człowieka.
Na jakich wartościach się skupili?
Wzrost i ekspansja rynkowa
-
Szybka adopcja użytkowników na nowym rynku: Facebook w zasadzie stał się synonimem internetu w Mjanmie.
-
Zaangażowanie i utrzymanie użytkowników
Utrzymywanie użytkowników na platformie, zwiększanie ich interakcji z algorytmami zoptymalizowanymi pod tym kątem - bez uznania, że treści nacechowane emocjonalnie i mowa nienawiści często prowadzą do wysokiego zaangażowania.
- Generowanie przychodów
Ukierunkowane reklamy zachęcały do wzmacniania szkodliwych treści pomimo łamania praw człowieka.
- Techno-optymizm
Firma twierdziła, że wierzy w ulepszanie świata” - ale czy było to w ogóle możliwe bez zrozumienia lokalnych realiów Mjanmy, konfliktów etnicznych i słabego państwa prawa? Negatywne skutki nie zostały przewidziane ani proaktywnie zarządzane.
- Wydajność
Ludcy moderatorzy treści pracowali w sposób scentralizowany - bez lokalnych moderatorów (ze znajomością lokalnego języka) na miejscu. Istniejące scentralizowane systemy nie potrafiły skutecznie wykrywać szkodliwych treści w języku birmańskim, a zagrożenia nie zostały zaadresowane.
Tak więc, jak ostrzega Margaret Mitchell: firmy muszą świadomie identyfikować i priorytetyzować wartości - i nie chodzi tu o misję firmy: dodaj przejrzyste procesy, aby zachęcać do etycznej pracy, skutecznego zarządzania ryzykiem i podejścia skoncentrowanego na człowieku do podejmowania decyzji związanych z technologią, a wtedy zbudujemy nie tylko lepsze produkty, ale także bardziej odporne i zaufane firmy, które wykorzystują technologię dla dobra wspólnego.
Przeczytaj też książkę.