A Roulette IMAGEnet é um aplicativo da web que permite que os usuários enviem uma selfie para a inteligência artificial da ferramenta analisá-la e nos mostrar tags de imagem descritivas, ou seja, para nos descrever o que “vê” a IA quando você olha para a nossa foto.
Não difere muito do efeito alcançado durante a última queda parcial do Facebook que, dada a impossibilidade de carregar as imagens, começou a mostrar aos usuários dos rótulos das redes sociais que tentavam descrever (com maior ou menor precisão) o conteúdo do mesmo .

Assim, quando carregamos uma foto (ou a fotografamos em tempo real usando uma webcam ou vinculamos uma imagem já carregada à Internet), a IMAGEnet Roulette leva alguns segundos para estudá-la e, em seguida, fornece uma hierarquia de etiquetas , da mais ampla ” alguém, pessoa, indivíduo, mortal “para outros progressivamente mais concreto: de” capitalista “o” agente de seguros “, o” empresário “.
A ferramenta, desenvolvida pelo artista Trevor Paglen e pela pesquisadora Kate Crawford na ocasião de uma exposição na Fondazione Prada, em Milão, recebe o nome do conjunto de dados IMAGEnet, que desde 2009 abriga mais de 14 milhões de imagens rotuladas e disponíveis gratuitamente para qualquer pesquisador, com 2833 categorias referentes a fotos de pessoas.
E todos eles foram usados para treinar a rede neural (usando a estrutura Caffe) responsável por gerar as descrições que vemos quando usamos o ImageNet Roulette.
Como quase sempre quando é abordado o lançamento de um software de visão artificial aplicado a seres humanos e, pior ainda, que trabalha com dados previamente rotulados por seres humanos, um debate foi gerado nas redes sobre os supostos preconceitos raciais da IA.

De fato, a razão pela qual Paglen e Crawford incluíram esse software em sua exposição se deve ao desejo de mostrar o que acontece quando uma IA é exposta, por mais bem programada que seja, a dados de baixa qualidade.
Eles denunciam que é isso que acontece quando “bancos de dados que coletam termos usados em Pinceton nos anos 80” são usados. e que, embora o conjunto de dados IMAGEnet seja uma grande conquista para a IA, seu viés é um problema “difícil de resolver”.
No entanto, devemos analisar cuidadosamente o que pode ser entendido como viés. Uma coisa é o caso bem conhecido no qual um casal afro-americano denunciou que o Google Images os rotulou como “gorilas” e outro que um jornalista do New Statesman denunciou que uma de suas selfies foi classificada pela IMAGEnet Roulette com o “termo racista” de “negroide” “
Tal termo, embora certamente não seja o que escolheríamos nos referir a uma pessoa negra, é relativamente comum em contextos antropológicos (assim como o “caucasoide” se aplica aos brancos … ou “mongoloide”).