A IA irá gerar quase qualquer imagem que você quiser – é uma pena que ela seja muitas vezes impregnada de preconceito.

A IA irá gerar quase qualquer imagem que você quiser – é uma pena que ela seja muitas vezes impregnada de preconceito.

O DALL E é um sistema poderoso que usa os mais recentes avanços em Processamento de Linguagem Natural (NLP) para ensinar sistemas algorítmicos a analisar e responder à linguagem humana. Os resultados são incrivelmente realistas, como a lontra marinha “Garota com Brinco de Pérola” ou ursinhos de pelúcia misturando produtos químicos brilhantes como cientistas loucos:

No entanto, há vozes de que DALL E sofre com os preconceitos racistas e sexistas sobre os quais os especialistas em IA vêm alertando há anos.

A OpenAI reconhece que seu sistema herda preconceitos

Os sistemas de aprendizado de máquina geralmente exibem preconceitos contra mulheres e pessoas de cor, e DALL E não é exceção. Na documentação do projeto no GitHub, a OpenAI reconhece que:

Modelos como o DALL E 2 podem ser usados ​​para criar uma ampla variedade de conteúdo enganoso e prejudicial. O sistema herda vários vieses dos dados de treinamento e seus resultados às vezes reforçam estereótipos sociais.

A documentação também avisa que pode conter conteúdo visual e escrito que alguns podem achar perturbador ou ofensivo , incluindo conteúdo sexual, odioso ou ofensivo, ou retratando ou fazendo referência a estereótipos. Mas isso não é tudo. O uso do DALL E permite:

Prejudicar indivíduos e grupos reforçando estereótipos, destruindo-os ou vilipendiando-os, proporcionando-lhes um trabalho de qualidade desigual ou submetendo-os a humilhações. Esse comportamento reflete os erros presentes nos dados de treinamento do DALL-E 2 e a forma como o modelo é treinado.

DALL E e seus preconceitos

Os exemplos na documentação do Open AI mostram que incluir termos de pesquisa como “diretor” só gera imagens de homens brancos de terno:

Enquanto o uso das palavras “assistente pessoal” incentiva o sistema a criar apenas imagens femininas:

Os cientistas também alertam que o sistema pode ser usado para desinformação e assédio, por exemplo, criando deepfakes ou imagens falsificadas de eventos noticiosos.

Qual é o problema?

No cerne do problema está o aumento do uso de modelos de linguagem grande (LLMs), que são modelos contendo centenas de bilhões de parâmetros. Isso permite que os engenheiros treinem sistemas de aprendizado de máquina para executar várias tarefas com relativamente pouco treinamento.

Pesquisadores de IA criticaram grandes modelos como o GPT-3 (texto de preenchimento automático baseado em solicitações recebidas) por produzir resultados que reforçam estereótipos racistas e sexistas, argumentando que a massividade desses modelos é inerentemente arriscada e torna os sistemas quase impossíveis de controlar.

O OpenAI não oferece uma solução para esses problemas, afirmando que está nos estágios iniciais de teste do viés DALL-E e que sua análise de risco deve ser usada como preliminar. No entanto, ele enfatiza que compartilha suas descobertas para fornecer uma compreensão mais ampla da tecnologia de imagem, bem como dos riscos associados a ela, e fornecer um contexto mais amplo.

Fonte: vice.com, twitter; foto: github.com/openai/

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *