Início Ciência e tecnologia O Google revela o modelo Gemma 3 de código aberto com janela...

O Google revela o modelo Gemma 3 de código aberto com janela de contexto de 128k

7
0

Participe de nossos boletins diários e semanais para obter as atualizações mais recentes e conteúdo exclusivo sobre a cobertura de IA líder do setor. Saber mais


Mesmo quando os grandes modelos de linguagem e raciocínio permanecem populares, as organizações se transformam cada vez mais a modelos menores para executar processos de IA com menos preocupações de energia e custo.

Enquanto algumas organizações estão destilando modelos maiores para versões menores, provedores de modelos como Google Continue a lançar pequenos modelos de linguagem (SLMs) como uma alternativa a grandes modelos de idiomas (LLMS), que podem custar mais para ser executado sem sacrificar o desempenho ou a precisão.

Com isso em mente, o Google lançou a versão mais recente de seu pequeno modelo, Gemma, que apresenta janelas de contexto expandidas, parâmetros maiores e recursos de raciocínio mais multimodais.

Gemma 3, que possui o mesmo poder de processamento que os modelos Gemini 2.0 maiores, permanece mais utilizado por dispositivos menores, como telefones e laptops. O novo modelo possui quatro tamanhos: parâmetros 1b, 4b, 12b e 27b.

Com uma janela de contexto maior de 128k tokens – por outro lado, o Gemma 2 tinha uma janela de contexto de 80k – Gemma 3 pode entender mais informações e solicitações complicadas. O Google atualizou a Gemma 3 para trabalhar em 140 idiomas, analisar imagens, texto e vídeos curtos e suportar a chamada de funções para automatizar tarefas e fluxos de trabalho agênticos.

Gemma dá um desempenho forte

Para reduzir ainda mais os custos de computação, o Google introduziu versões quantizadas do Gemma. Pense em modelos quantizados como modelos compactados. Isso acontece através do processo de “reduzir a precisão dos valores numéricos nos pesos de um modelo” sem sacrificar a precisão.

O Google disse que a GEMMA 3 “oferece desempenho de ponta por seu tamanho” e supera os principais LLMs como LLAMA-405B, Deepseek-V3 e O3-mini. Gemma 3 27b, especificamente, ficou em segundo lugar para o Deepseek-R1 nos testes de pontuação do Chatbot Arena Elo. Ele coberto DeepseekModelo menor, Deepseek V3, Openai‘S O3-mini, MetaLlama-405b e Mistral Grande.

Ao quantizar a Gemma 3, os usuários podem melhorar o desempenho, executar o modelo e criar aplicativos “que podem se encaixar em um único host de GPU e unidade de processamento tensoras (TPU)”.

Gemma 3 se integra a ferramentas de desenvolvedor como abraçar transformadores de rosto, Ollama, Jax, Keras, Pytorch e outros. Os usuários também podem acessar o Gemma 3 através do Google AI Studio, abraçando o rosto ou o kaggle. Empresas e desenvolvedores podem solicitar acesso à API Gemma 3 através do AI Studio.

Escudo Gemma para Segurança

O Google disse que criou protocolos de segurança no Gemma 3, incluindo um verificador de segurança para imagens chamadas Shieldgemma 2.

“O desenvolvimento da Gemma 3 incluiu uma extensa governança de dados, alinhamento com nossas políticas de segurança por meio de ajustes finos e avaliações robustas de referência”, escreve o Google em uma postagem no blog. “Embora os testes completos de modelos mais capazes geralmente informem nossa avaliação de menos capazes, o desempenho aprimorado do STEM da Gemma 3 provocou avaliações específicas focadas em seu potencial de uso indevido na criação de substâncias nocivas; Seus resultados indicam um nível de baixo risco. ”

Shieldgemma 2 é um verificador de segurança de imagem de parâmetro 4B construído na fundação Gemma 3. Ele encontra e impede que o modelo responda com imagens contendo conteúdo sexualmente explícito, violência e outro material perigoso. Os usuários podem personalizar o Shieldgemma 2 para atender às suas necessidades específicas.

Pequenos modelos e destilação em ascensão

Desde que o Google lançou a Gemma pela primeira vez em fevereiro de 2024, o SLMS viu um aumento no interesse. Outros pequenos modelos, como o PHI-4 da Microsoft e o Mistral Small 3, indicam que as empresas desejam criar aplicativos com modelos tão poderosos quanto os LLMs, mas não necessariamente usam toda a amplitude do que um LLM é capaz.

As empresas também começaram a se voltar para versões menores dos LLMs que preferem através da destilação. Para ficar claro, Gemma não é uma destilação de Gemini 2.0; Em vez disso, é treinado com o mesmo conjunto de dados e arquitetura. Um modelo destilado aprende com um modelo maior, que Gemma não.

As organizações geralmente preferem ajustar certos casos de uso a um modelo. Em vez de implantar um LLM como O3-Mini ou Claude 3,7 sonetos em um editor de código simples, um modelo menor, seja um SLM ou uma versão destilada, pode facilmente realizar essas tarefas sem ajustar um modelo enorme.


Fonte