Executivos do Twitter disseram que a plataforma irá analisar os algoritmos que fazem recortes automáticos em fotos, após usuários apontarem que o recurso tinha uma inclinação a escolher rostos de pessoas brancas em imagens que também possuíam rostos de pessoas negras.
Diversos perfis publicaram fotos com uma pessoa negra em uma ponta e uma pessoa branca na outra, invertendo a ordem em uma imagem seguinte.
Na prévia, antes de abrir a imagem completa, o algoritmo do Twitter mostrava a pessoa branca com mais frequência.
Os testes informais começaram depois de um usuário americano publicar sobre um problema que percebeu no sistema de reconhecimento facial do Zoom, um aplicativo de videochamadas.
Quando ele publicou uma imagem do problema, reparou que o Twitter privilegiava seu rosto, em vez do enquadramento que mostrava o seu colega negro.
Depois disso, muitas pessoas, inclusive brasileiros, começaram a realizar testes com fotos de pessoas brancas e negras.
O Twitter disse que realizou testes antes de lançar a ferramenta e "não encontrou evidências de preconceito racial ou de gênero", mas que há "mais análises a fazer" e que abrirão o código para que possa haver uma revisão.
A rede social utiliza uma rede neural para realizar cortes automáticos nas prévias das imagens publicadas na plataforma desde 2018.
Uma rede neural é um modelo computacional que faz o reconhecimento de padrões. No caso do Twitter, é utilizado um sistema que "prevê saliências em imagens para detectar pets, rostos, texto e outros objetos de interesse".
Para realizar as previsões, esses sistemas são alimentados com bases de imagens para ensiná-los o que é um objeto de interesse.
O diretor executivo de design do Twitter, Dantley Davis, tuitou que a empresa estava investigando a rede neural, enquanto ele realizava alguns experimentos não-científicos com imagens. Na imagem que publicou, o sistema exibe o recorte com uma pessoa negra.
Liz Kelley, do time de comunicação da rede social, publicou no domingo (20) que a companhia realizou testes para vieses em suas inteligências artificias, mas não tinha encontrado evidências de problemas com discriminação de raça ou gênero.
"É claro que temos mais análises a fazer. Iremos abrir o código do nosso trabalho para que outros possam analisar e replicar", disse Kelley.
O diretor executivo de tecnologia do Twitter, Parag Agrawal, disse que o modelo precisa de "melhorias constantes" e que estava "ansioso para aprender com isso".
*Com informações de G1.
Comentários
Postar um comentário
Olá, agradecemos a sua mensagem. Acaso você não receba nenhuma resposta nos próximos 5 minutos, pedimos para que entre em contato conosco através do WhatsApp (19) 99153 0445. Gean Mendes...