SafeAI Pro

AI-ethiek

Door Katya Kamlovskaya

De DES2025-presentatie van Margaret Mitchell (Digital Enterprise Show, Malaga, Spanje) over technologie-ethiek deed me denken aan het boek dat ik net had uitgelezen - “The Careless People” van Sarah Wynn-Williams - en haar verslag van de rol van Facebook in de Rohingya-genocide in Myanmar.

In 2015 bezocht ik Myanmar tijdens de fragiele democratische overgang, net toen de internettoegang steeg (naar ~12% van de bevolking). In de jaren daarna ontmoette ik in een Australisch detentiecentrum Rohingya-vluchtelingen die etnische zuiveringen ontvluchtten. Terwijl Facebook toen opkwam, was het niet meteen duidelijk hoe het de wereld beïnvloedde - niet op een positieve manier, zo blijkt.

In haar presentatie herinnerde Margaret ons eraan dat alle beslissingen waardegedreven zijn en een mini-ethische beoordeling vereisen waarbij waarden worden geïdentificeerd, geprioriteerd en transparant gemaakt.

Facebook zag Myanmar als een onontgonnen markt. Toch leidden haar beslissingen tot etnisch geweld doordat het uitblijven van actie de verspreiding van desinformatie en haatzaaiende uitlatingen mogelijk maakte. Waarschuwingen van het maatschappelijk middenveld en interne rapporten wezen op de risico’s, maar effectieve contentmoderatie ontbrak. Algoritmen, ontworpen voor betrokkenheid, versterkten schadelijke inhoud en creëerden een echokamer van ontmenselijkend materiaal tegen de Rohingya.

Het leek erop dat de bedrijfswaarden van het bedrijf geen prioriteit gaven aan veiligheid en mensenrechten.

Op welke waarden richtten ze zich?

Groei en marktuitbreiding

Gebruikers zo lang mogelijk op het platform houden, hun interactie verhogen met algoritmen die daarvoor zijn geoptimaliseerd - zonder te erkennen dat emotioneel geladen inhoud en haatzaaiende uitlatingen vaak tot hoge betrokkenheid leiden.

Gerichte advertenties stimuleerden het versterken van schadelijke inhoud ondanks mensenrechtenschendingen.

Het bedrijf beweerde de wereld te willen verbeteren - maar was dat mogelijk zonder de lokale realiteit, etnische conflicten en zwakke rechtsstaat in Myanmar te begrijpen? Negatieve gevolgen werden niet voorzien of proactief aangepakt.

Menselijke contentmoderators werkten gecentraliseerd - zonder lokale moderatoren (met kennis van de lokale taal) ter plaatse. De bestaande gecentraliseerde systemen konden schadelijke inhoud in het Birmaans niet efficiënt detecteren en de dreigingen werden niet aangepakt.

Zoals Margaret Mitchell waarschuwt: bedrijven moeten bewust waarden identificeren en prioriteren - en het gaat niet om een missieverklaring: voeg transparante processen toe om ethisch werk, effectief risicomanagement en een mensgerichte benadering van technologische besluitvorming te stimuleren, en dan bouwen we niet alleen betere producten, maar ook veerkrachtigere en meer vertrouwde bedrijven die technologie inzetten voor collectief welzijn.

Lees ook het boek.