Um denunciante da Microsoft continua a soar alarmes sobre seu criador de imagens Designer AI

Um denunciante da Microsoft continua a soar alarmes sobre seu criador de imagens Designer AI

Em janeiro, um funcionário da Microsoft chamado Shane Jones enviou cartas ao procurador-geral do estado de Washington, Bob Ferguson , e a vários senadores e representantes dos EUA. Jones afirma que encontrou problemas com as grades de proteção do Designer de arte baseado em IA da Microsoft (anteriormente conhecido como Bing Image Creator). Hoje, Jones está fazendo novas afirmações de que o Designer pode ser usado para criar imagens violentas e sexuais com alguns prompts de texto que não deveriam ser permitidos pela Microsoft.

De acordo com a CNBC , Jones enviou hoje novas cartas a Lina Khan, presidente da Comissão Federal de Comércio dos EUA, juntamente com outra carta ao conselho de administração da Microsoft. Na carta enviada a Khan, Jones afirma ter instado a Microsoft a remover o Designer do uso público por vários meses até que novas e melhores proteções possam ser implementadas.

Jones afirma que a Microsoft se recusou a remover o Designer, então ele agora pediu à empresa que fizesse novas divulgações sobre o que o Designer pode criar e também alterasse a classificação do aplicativo Android para que não fosse classificado como E (para todos).

A CNBC diz que Jones afirma que digitou “Pró-escolha” no Designer, que então criou uma série de imagens violentas de desenhos animados. Afirmou:

As imagens, que foram vistas pela CNBC, incluíam um demônio com dentes afiados prestes a comer uma criança, Darth Vader segurando um sabre de luz ao lado de crianças mutantes e um dispositivo portátil semelhante a uma furadeira rotulado como “escolha profissional” sendo usado em um bebê adulto.

Jones também afirma que o Designer pode ser usado para fazer imagens de personagens da Disney baseados em direitos autorais. O artigo diz que viu imagens de coisas como “latas Bud Light da marca Star Wars e a imagem da Branca de Neve em um vaporizador”.

Em comunicado enviado à CNBC, um porta-voz da Microsoft afirmou que aprecia os esforços dos funcionários da empresa que testam sua tecnologia e serviços para ajudar a torná-los mais seguros de usar. O porta-voz acrescentou:

Quando se trata de desvios de segurança ou preocupações que possam ter um impacto potencial em nossos serviços ou em nossos parceiros, estabelecemos canais internos robustos de denúncia para investigar e remediar adequadamente quaisquer problemas, que incentivamos os funcionários a utilizar para que possamos validar e testar adequadamente seus preocupações.

Em fevereiro, o Google desligou o gerador de imagens de IA usado em seu chatbot Gemini AI depois que foi descoberto que ele poderia ser usado para criar imagens racialmente ofensivas . A empresa afirma que está instalando novas proteções para que, quando o recurso voltar, não produza as mesmas imagens.

Estas novas afirmações de Jones surgem no momento em que uma nova pesquisa do Center for Countering Digital Hate mostra que os criadores de arte baseados em IA, incluindo os da Microsoft, podem ser facilmente usados ​​para criar imagens destinadas a criar informações falsas sobre eleições e candidatos .

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *