SafeAI Pro

KI-Ethik

Von Katya Kamlovskaya

Margaret Mitchells Vortrag auf der DES2025 (Digital Enterprise Show, Malaga, Spanien) über Technikethik erinnerte mich an das Buch, das ich gerade zu Ende gelesen hatte – „The Careless People“ von Sarah Wynn-Williams – und seinen Bericht über die Rolle von Facebook beim Völkermord an den Rohingya in Myanmar.

2015 besuchte ich Myanmar während seines fragilen demokratischen Übergangs, gerade als der Internetzugang stark anstieg (auf ~12 % der Bevölkerung). In den folgenden Jahren traf ich in einem australischen Internierungslager Rohingya-Flüchtlinge, die vor ethnischer Säuberung flohen. Während Facebook damals auf dem Vormarsch war, war nicht sofort ersichtlich, wie es die Welt beeinflusst – nicht auf positive Weise, wie sich herausstellte.

In ihrem Vortrag erinnerte uns Margaret daran, dass alle Entscheidungen wertorientiert sind und eine Mini-Ethik-Überprüfung erfordern, bei der Werte identifiziert, priorisiert und transparent gemacht werden.

Facebook betrachtete Myanmar als unerschlossenen Markt. Doch seine Entscheidungen schürten ethnische Gewalt, da seine Untätigkeit zur Verbreitung von Fehlinformationen und Hassreden führte. Warnungen von der Zivilgesellschaft und interne Berichte wiesen auf die Risiken hin, aber eine wirksame Inhaltsmoderation war nicht vorhanden. Algorithmen, die auf Engagement ausgelegt waren, verstärkten schädliche Inhalte und schufen eine Echokammer aus entmenschlichendem Material gegen die Rohingya.

Es sah so aus, als ob die Geschäftswerte des Unternehmens Sicherheit und Menschenrechte nicht priorisierten.

Auf welche Werte konzentrierten sie sich?

Wachstum und Marktexpansion

Benutzer auf der Plattform halten, ihre Interaktion mit dafür optimierten Algorithmen erhöhen – ohne anzuerkennen, dass emotional aufgeladene Inhalte und Hassreden oft zu hohem Engagement führen.

Gezielte Anzeigen schufen Anreize, schädliche Inhalte trotz Menschenrechtsverletzungen zu verstärken.

Das Unternehmen behauptete zu glauben, „die Welt besser zu machen“ – aber war das überhaupt möglich, ohne die lokalen Realitäten Myanmars, ethnische Konflikte und die schwache Rechtsstaatlichkeit zu verstehen? Negative Auswirkungen wurden nicht vorhergesehen oder proaktiv gehandhabt.

Menschliche Inhaltsmoderatoren arbeiteten zentralisiert – ohne lokale Moderatoren (mit Kenntnissen der Landessprache) vor Ort. Die bestehenden zentralisierten Systeme konnten schädliche Inhalte auf Burmesisch nicht effizient erkennen, und die Bedrohungen wurden nicht angegangen.

Also, wie Margaret Mitchell warnt: Unternehmen müssen Werte bewusst identifizieren und priorisieren – und es geht nicht um ein Leitbild: Fügen Sie transparente Prozesse hinzu, um ethische Arbeit, effektives Risikomanagement und einen menschenzentrierten Ansatz bei technologiebezogenen Entscheidungen zu fördern, und dann bauen wir nicht nur bessere Produkte, sondern auch widerstandsfähigere und vertrauenswürdigere Unternehmen, die Technologie für das Gemeinwohl nutzen.

Lesen Sie auch das Buch.