Google ultrapassa DALL-E com imagem

Google ultrapassa DALL-E com imagem
O mundo da inteligência artificial tem como objetivo nos deixar de boca aberta de vez em quando há vários anos, e a verdade é que eles conseguem isso. De empresas específicas do setor como OpenAI a grandes empresas de tecnologia como Google, nesse período vimos como a inteligência artificial aprendeu a fazer de tudo, desde escrever textos sobre um tema específico que indicamos até dimensionar imagens de jogos na vida real. escala. tempo para melhorar a experiência de jogo.

Uma área muito interessante dessa evolução da inteligência artificial pode ser encontrada na geração de imagens, em alguns casos puramente por acaso, em outros com base em uma descrição previamente fornecida pelo usuário. E neste último grupo, podemos encontrar soluções especializadas para um determinado tipo de imagens, como o GauGAN2 da NVIDIA ou o gerador de rostos popular do Google, além de soluções de uso geral.

Entre estes últimos, até agora a medalha de ouro foi consistente com o sistema OpenAI DALL-E, mas isso mudou com a apresentação do Image, um novo sistema desenvolvido pelo Google para criar imagens a partir de descrições de texto. E reside no fato de que, como vemos na página de apresentação do projeto , algumas das imagens geradas por essa inteligência artificial podem muito bem passar por reais, exceto que pelo menos algumas delas reproduzem motivos não totalmente realistas.

No entanto, é importante notar que, como sempre acontece nesses casos, o Google selecionará os melhores resultados obtidos, mas podemos supor que também não houve resultados muito eficazes. Além disso, isso é algo que não poderemos testar, pelo menos no curto prazo, pois o Google decidiu que, pelo menos por enquanto, não disponibilizará a imagem para usuários/clientes em potencial.

Neste exemplo, você pode ver que o resultado da imagem nem sempre é perfeito.

Há duas razões para isso. Primeiro, a empresa está preocupada com o potencial uso malicioso da imagem, desde notícias falsas até conteúdo sexual ilegal como CSAM. Nesse quesito, o Google está agindo com muito bom senso, pois podemos ter certeza de que tal uso ocorrerá. quase desde o primeiro momento em que esta tecnologia se tornou disponível para todos.

A outra, e isso também faz muito sentido, é que, como é o caso de quase todos os conjuntos de dados massivos usados ​​para alimentar os processos de aprendizado de IA, podemos encontrar alguns vieses que precisam ser corrigidos. O problema é que analisar esses conjuntos de dados em detalhes é uma tarefa complexa que até mesmo empresas do tamanho do Google empalidecem em comparação. Então, em vez de abordar dessa forma, a abordagem é tornar a própria IA capaz de aprender sobre esses vieses para corrigi-los automaticamente.

Pessoalmente, admito que não tenho certeza se acho isso excitante ou intimidador, então provavelmente são as duas coisas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *