Estado de Direito pode colapsar se não houver limites a tecnologias
A Amnistia Internacional alertou hoje para o risco de colapso do Estado de Direito caso não sejam adotadas regras eficazes que limitem o uso da Inteligência Artificial e o domínio das grandes plataformas de Internet.
"Ilegalidades, discriminação e impunidade em conflitos e noutros locais foram possibilitadas pela utilização desenfreada de novas tecnologias, frequentemente transformadas em armas por intervenientes militares, políticos e empresariais", denunciou a organização não-governamental (ONG) no relatório anual sobre o Estado dos Direitos Humanos no Mundo, hoje publicado.
"Num mundo cada vez mais precário, a proliferação e implementação não regulamentada de tecnologias como a Inteligência Artificial (IA), o reconhecimento facial e o 'spyware' [programas informáticos que roubam dados pessoais e confidenciais] pode tornar-se num inimigo pernicioso, agravando as violações do direito internacional e dos direitos humanos para níveis inconcebíveis", afirmou a secretária-geral da organização internacional, Agnès Callamard, no relatório.
"Durante um ano marcante de eleições e face a um 'lobby' anti-regulação cada vez mais poderoso, impulsionado e financiado por atores das 'big tech' [as cinco maiores plataformas de Internet: Google, Apple, Facebook, Amazon e Microsoft], estes avanços tecnológicos não regulamentados representam uma enorme ameaça" já que "podem ser usados como armas para discriminar, desinformar e dividir", referiu a representante.
Segundo avança o relatório, a Amnistia Internacional concluiu que os atores políticos de muitas partes do mundo estão a intensificar os seus ataques às mulheres, às pessoas LGBTI [lésbicas, gay, bissexuais, transgénero e intersexuais] e às comunidades marginalizadas.
Comunidades que "têm sido historicamente usadas como bodes expiatórios para obter ganhos políticos ou eleitorais", mas que as novas tecnologias colocam, através de desinformação, ainda mais em risco, adiantou a análise da ONG.
"Estados como a Argentina, o Brasil, a Índia e o Reino Unido recorreram cada vez mais a tecnologias de reconhecimento facial para policiar protestos públicos e eventos desportivos e discriminar comunidades marginalizadas -- especialmente migrantes e refugiados", apontou a Amnistia Internacional no documento.
O relatório especificou ainda que o uso de reconhecimento facial nunca foi tão generalizado como na Cisjordânia ocupada, onde "foi utilizado por Israel para reforçar as restrições à liberdade de circulação e ajudar a manter o sistema de 'apartheid'".
Também na Sérvia, apontou a ONG, "a introdução de um sistema de segurança social semiautomático fez com que milhares de pessoas perdessem o acesso a assistência social vital", afetando "particularmente as comunidades ciganas e as pessoas com deficiência".
Com milhões de pessoas a fugir de conflitos em todo o mundo, o relatório da Amnistia Internacional observou como "foram utilizadas tecnologias abusivas" para a gestão das migrações e a aplicação das fronteiras.
Tecnologias como 'software' de dados, biometria e sistemas algorítmicos de tomada de decisão foram utilizadas como alternativas digitais à detenção ou externalização de fronteiras, referiu o documento, sublinhando que "a sua proliferação perpetua e reforça a discriminação, o racismo e a vigilância desproporcional e ilegal de pessoas racializadas".
A organização de direitos humanos prevê que estes problemas irão agravar-se neste ano eleitoral histórico, graças a modelos de vigilância através das principais plataformas de redes sociais, como o Facebook, o Instagram, o TikTok e o YouTube.
"Vimos como o ódio, a discriminação e a desinformação são amplificados e disseminados por algoritmos de redes sociais otimizados para maximizar o 'engajamento' acima de tudo", advertiu Agnès Callamard.
No entanto, as legislações eleitorais não incluem ainda regras contra "ferramentas que podem gerar imagens sintéticas, áudio e vídeo em segundos ou atingir grupos de audiência específicos em grande escala", criticou a representante.