SafeAI Pro

Ética da IA

Por Katya Kamlovskaya

A palestra de Margaret Mitchell na DES2025 (Digital Enterprise Show, Málaga, Espanha) sobre ética na tecnologia lembrou-me do livro que acabei de ler - “The Careless People” de Sarah Wynn-Williams - e do seu relato sobre o papel do Facebook no genocídio Rohingya em Mianmar.

Em 2015, visitei Mianmar durante a sua frágil transição democrática, precisamente quando o acesso à Internet aumentou (para ~12% da população). Nos anos seguintes, num centro de detenção australiano, conheci refugiados Rohingya que fugiam da limpeza étnica. Embora o Facebook estivesse então em ascensão, não era imediatamente óbvio como estava a impactar o mundo - não de uma forma positiva, como se veio a verificar.

Na sua palestra, Margaret lembrou-nos que todas as decisões são orientadas por valores, exigindo uma mini-revisão ética onde os valores são identificados, priorizados e transparentes.

O Facebook via Mianmar como um mercado inexplorado. No entanto, as suas decisões incitaram à violência étnica, uma vez que a sua inação levou à disseminação de desinformação e discurso de ódio. Avisos da sociedade civil e relatórios internos assinalaram os riscos, mas não existia uma moderação de conteúdo eficaz. Os algoritmos, concebidos para o envolvimento, amplificaram o conteúdo prejudicial, criando uma câmara de eco de material desumanizante contra os Rohingya.

Parecia que os valores comerciais da empresa não davam prioridade à segurança e aos direitos humanos.

Em que valores se concentraram?

Crescimento e expansão do mercado

Manter os utilizadores na plataforma, aumentando a sua interação com algoritmos otimizados para isso - sem reconhecer que o conteúdo emocionalmente carregado e o discurso de ódio levam frequentemente a um elevado envolvimento.

Os anúncios direcionados incentivaram a amplificação de conteúdo prejudicial, apesar das violações dos direitos humanos.

A empresa afirmava acreditar em tornar o mundo melhor” - mas seria isso possível sem compreender as realidades locais de Mianmar, os conflitos étnicos e o fraco Estado de direito? Os impactos negativos não foram previstos ou geridos proativamente.

Os moderadores de conteúdo humanos trabalhavam de forma centralizada - sem moderadores locais (com conhecimento da língua local) no terreno. Os sistemas centralizados existentes não conseguiam detetar eficientemente o conteúdo prejudicial em birmanês, e as ameaças não foram abordadas.

Portanto, como Margaret Mitchell avisa: as empresas precisam de identificar e priorizar conscientemente os valores - e não se trata de uma declaração de missão: adicione processos transparentes para incentivar o trabalho ético, a gestão de riscos eficaz e uma abordagem centrada no ser humano à tomada de decisões relacionadas com a tecnologia, e então construiremos não apenas produtos melhores, mas empresas mais resilientes e confiáveis que aproveitam a tecnologia para o bem coletivo.

Leia o livro também.