Observatório identifica imagens de crianças suspeitas de abuso em dados de inteligência artificial
Um relatório hoje divulgado pelo Observatório da Internet da Universidade de Standford, nos Estados Unidos, identificou numa base de dados de inteligência artificial (IA) milhares de imagens de crianças suspeitas de terem sido abusadas sexualmente.
Em causa estão mais de 3.200 imagens detetadas na base de dados de IA de acesso aberto da organização sem fins lucrativos alemã LAION, que na terça-feira indicou à agência noticiosa AP, quando confrontada com o assunto, que estava a remover temporariamente a sua série de dados.
A base de dados LAION é um índice de imagens e legendas 'online' que tem sido usado para treinar programas de IA para gerar imagens.
Numa resposta à AP, a LAION argumentou que "tem uma política de tolerância zero em relação a conteúdo ilegal" e que retirou da internet os seus conjuntos de dados para "garantir que são seguros antes de republicá-los".
No relatório, o Observatório da Internet da Universidade de Standford insta as empresas de IA a adotarem medidas, reconhecendo que, apesar de a LAION ter feito algumas tentativas para filtrar conteúdo explícito de crianças, poderia ter realizado um trabalho melhor se tivesse consultado especialistas em segurança infantil.
Para Rebecca Portnoff, diretora para a ciência de dados na organização Thorn, que trabalha no combate à exploração sexual de crianças, as empresas que desenvolvem modelos de IA podem mitigar danos se se certificarem de que os dados que usam para treinar os seus modelos estão livres de conteúdos ilícitos.
Segundo a Thorn, apesar de pequena, a prevalência de imagens geradas por tecnologia de IA entre os abusadores sexuais está a crescer de forma consistente.