Pela primeira vez, o Opera agora permitirá que os usuários executem LLMs localmente
O Opera adicionou recentemente um novo recurso que permite aos usuários do Opera One baixar e utilizar Large Language Models (LLMs) em seus computadores pessoais. Este recurso está acessível para usuários que recebem atualizações de fluxo de desenvolvedor e fornece acesso a mais de 150 modelos de diversas famílias, como Llama da Meta, Gemma do Google, Vicuna, Mistral AI e outros.
De acordo com Krystian Kolondra, vice-presidente executivo de navegadores e jogos da Opera, ele afirmou :
“A introdução de LLMs locais desta forma permite que a Opera comece a explorar maneiras de construir experiências e conhecimento dentro do espaço de IA local em rápido crescimento.”
A Opera rotulou essas últimas adições como parte de seu “Programa AI Feature Drops” e promete que os dados do usuário permanecerão armazenados em seus dispositivos, permitindo-lhes utilizar IA generativa sem a necessidade de enviar quaisquer dados para um servidor. A empresa está empregando a estrutura de código aberto Ollama para executar esses modelos diretamente nos computadores dos usuários. Cada versão dos modelos ocupa de 2 a 10 GB de espaço de armazenamento no dispositivo.
A Opera está fazendo um grande esforço para aderir à tendência de utilização da tecnologia de IA com a introdução desses novos recursos. No entanto, esta não é a primeira vez que o navegador incorpora IA, como visto com o lançamento do Opera One no ano passado. Essa mudança solidificou o objetivo da empresa de se tornar um navegador líder com foco em IA, o que foi demonstrado ainda mais com o lançamento de seu assistente de IA, Aria. Ao oferecer recursos distintos e criativos, espera-se que essas atualizações ajudem a Opera a aumentar sua participação no mercado. De acordo com um relatório da Statcounter de dezembro de 2023, o Opera conquistou 3,8% do mercado e foi classificado entre os 5 principais navegadores de desktop.
Para experimentar esse novo recurso no Opera, basta atualizar para a versão mais recente do Opera Developer e seguir estas instruções para habilitar LLMs locais em seu dispositivo. Isso permitirá que a máquina do usuário use o LLM local em vez do assistente de IA do Opera, Aria, a menos que o usuário inicie um bate-papo com Aria ou o reative.
Deixe um comentário