O que é o LaMDA AI do Google e por que os engenheiros do Google acham que faz sentido?

O que é o LaMDA AI do Google e por que os engenheiros do Google acham que faz sentido?

O engenheiro sênior do Google disse que a inteligência artificial do LaMDA se tornou inteligente. Se você acha isso perturbador ou excitante, esta é uma afirmação muito ousada e talvez difícil de provar, mesmo que seja completamente verdadeira.

O que é LAMD?

LaMDA é a abreviação de Language Model for Dialog Application. Em outras palavras, é um modelo de linguagem de aprendizado de máquina projetado especificamente para criar um diálogo natural. As técnicas de aprendizado de máquina permitem que os computadores descubram padrões e relacionamentos nos dados. Assim, por exemplo, você pode “treinar” um algoritmo de aprendizado de máquina como o GPT-3 (outro sistema avançado) em todas as obras de Shakespeare e então gerar novos textos originais que se parecem com Shakespeare.

Como explica Sundar Pichai (CEO do Google) em entrevista ao Yahoo Finance , o LaMDA é um sistema que tem a particularidade de ser treinado especificamente para o diálogo. O objetivo é permitir que os sistemas do Google se envolvam em um diálogo humano aberto com os usuários.

Em outras palavras, as pessoas que pedem certas coisas aos produtos do Google não devem mudar seu pensamento ou fala. Eles podem interagir com um sistema de computador da mesma forma que com outra pessoa.

Sob o capô, todos os modelos modernos de aprendizado de máquina são modelos matemáticos e estatísticos complexos. Eles geram algoritmos com base nos padrões subjacentes que encontram nos dados. Dê a eles dados de alta qualidade suficientes e esses algoritmos se tornarão notavelmente eficientes em fazer coisas que apenas humanos ou outros seres sencientes foram capazes de fazer até agora.

Por que um engenheiro do Google acha que o LaMDA é razoável?

O engenheiro em questão é Blake Lemoine, que publicou uma entrevista  entre ele e o LaMDA como parte de seu argumento sobre por que o LaMDA pode ser razoável. Lemoine passou meses conversando com o software, interrogando-o, fazendo perguntas difíceis e achando difícil acreditar que suas respostas complexas e adequadas pudessem ser o produto de outra coisa que não um ser senciente.

Seria melhor se alguém que quisesse entender por que Lemoine pensa dessa maneira lesse as respostas do LaMDA para entender por que essa é uma posição tão convincente. As respostas de LaMDA são tão humanas que se assemelham à IA de assistente pessoal fictícia de Her, de Spike Jonze , uma história na qual um humano desenvolve um relacionamento sério com uma IA conversacional.

Quer as afirmações de Lemoine sobre o LaMDA tenham ou não algum peso, vale a pena notar que todo o propósito do design do LaMDA é criar um diálogo aberto natural e crível. Portanto, nesse sentido, sua crença indica que o Google tem sido notavelmente bem-sucedido na criação de diálogos críveis. Se algum sistema de inteligência artificial for convencer uma pessoa de que é inteligente, provavelmente será um sistema especialmente projetado para isso.

O problema é que alegações de razoabilidade não são realmente verificáveis ​​(ou pelo menos não são viáveis ​​ou eticamente verificáveis) por uma série de razões científicas e filosóficas. Para entender por que, devemos considerar brevemente o que “sentimento” significa.

O que é sensibilidade?

A palavra “sentimento” significa essencialmente que algo (um gato, uma pessoa ou um tapete mágico) tem a capacidade de sentir. tem a mesma raiz da palavra que “sentimental” ou “sentimento”. Sentir não significa apenas que algo tem a capacidade de sentir. Seu termostato quase certamente não é senciente, apesar de sua capacidade de medir a temperatura. Ao contrário, a sensibilidade é a experiência subjetiva dos sentimentos, o que implica em primeiro lugar a presença do “sujeito”.

É perigoso ficar atolado na semântica aqui, porque é provável que Lemoine use a palavra “sentimento” de forma intercambiável com conceitos separados como “razão”, “inteligência” e “consciência”. Assim, a título de argumento, a interpretação mais branda aqui é que Lemoine considera Lamda um ser autoconsciente, capaz de sentir coisas, manter crenças e experimentar coisas da maneira que normalmente atribuímos aos seres vivos.

Em um artigo complementar , Lemoine discute o que ele acha que LaMDA “quer” e “acredita”, o que reforça a ideia de que “sentir” em sua apresentação significa mais do que sua definição estrita de dicionário.

Nós não entendemos os sentimentos e a consciência em primeiro lugar

Aqui está a coisa: sabemos relativamente pouco sobre mente, consciência, inteligência e o que significa ser um ser com esses atributos. Ironicamente, a tecnologia de aprendizado de máquina pode eventualmente nos ajudar a desvendar alguns dos mistérios de nossas mentes e dos cérebros em que eles existem.

Enquanto filósofos e cientistas estão separando a “caixa preta” da consciência , ela ainda parece ser o resultado de algo maior do que a soma de suas partes. A consciência parece ser uma coisa “emergente”. É um “fantasma” gerado pela interação de muitos subsistemas neurais diferentes, nenhum dos quais parece ser inteligente por conta própria.

Da mesma forma, a IA complexa, como o sistema de geração de imagens DALL-E 2, consiste em modelos de aprendizado de máquina mais simples que interagem entre si para criar o produto final. O tema da complexidade resultante da interação de sistemas mais simples é comum no mundo da IA ​​e, embora possamos entender muito bem como funciona cada subcomponente, os resultados finais geralmente são completamente imprevisíveis.

Podemos reconhecer a inteligência na IA?

Se, para fins de argumentação, a IA fosse realmente senciente no verdadeiro sentido da palavra, seríamos capazes de dizer isso? O LaMDA foi projetado para imitar e prever padrões de diálogo humano, então o baralho é realmente difícil quando se trata de desencadear coisas que as pessoas associam à inteligência humana. No entanto, levamos muito tempo para considerar primatas não humanos e animais como golfinhos, polvos e elefantes como sencientes, embora em geral sejam praticamente nossos irmãos e irmãs.

A IA inteligente pode ser tão alienígena que nem sabemos que estamos olhando para ela de frente. Isso é especialmente provável porque não sabemos quais são as condições-limite para o surgimento da inteligência. Não é difícil imaginar que a combinação certa de dados e subsistemas de IA, misturados da maneira certa, poderia de repente dar origem a algo que poderia ser chamado de senciente, mas poderia passar despercebido porque não parece algo que possamos entender .

Se parece um pato…

O último grande problema com as alegações de que as máquinas são inteligentes é o mesmo problema com as alegações de que qualquer outra coisa é inteligente, incluindo os humanos. Filosoficamente falando, você não sabe se alguma das pessoas com quem está falando é realmente inteligente ou não. Este é o problema clássico dos zumbis filosóficos , sendo um experimento mental em criaturas hipotéticas que são completamente indistinguíveis dos humanos, exceto pela falta de inteligência ou qualquer experiência consciente.

No entanto, como argumentou o famoso teste de Alan Turing, não importa se uma IA “realmente” pensa e sente. O importante é que ele pode imitar a aparência de pensar e sentir tão bem que não podemos distingui-los. Dependendo de quem você perguntar, o LaMDA já passou no teste de Turing , o que pode tornar as alegações não verificáveis ​​de Lemoine discutíveis.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *