Os esforços de IA do Google são sinônimos de Gemini, que agora se tornou um elemento integrante de seus produtos mais populares em todo o software e hardware também. No entanto, a empresa também lançou vários modelos de IA de código aberto sob a gravadora Gemma há mais de um ano.
Hoje, Google revelado Seus modelos de IA de terceira geração de código aberto com algumas reivindicações impressionantes a reboque. Os modelos Gemma 3 vêm em quatro variantes – 1 bilhão, 4 bilhões, 12 bilhões e 27 bilhões de parâmetros – e são projetados para executar em dispositivos que variam de smartphones a estações de trabalho robustas.
Pronto para dispositivos móveis
O Google diz que a Gemma 3 é o melhor modelo de acelerador único do mundo, o que significa que ele pode ser executado em uma única GPU ou TPU em vez de exigir um cluster inteiro. Teoricamente, isso significa que um modelo Gemma 3 AI pode ser executado de forma nativa na unidade de núcleo de processamento de tensores (TPU) do Smartphone Pixel, da maneira como ele executa o Modelo de Nano Gêmeos localmente em telefones.
A maior vantagem do Gemma 3 sobre a família Gemini dos modelos de IA é que, como é de código aberto, os desenvolvedores podem empacotá-lo e enviá-lo de acordo com seus requisitos exclusivos dentro de aplicativos móveis e software de desktop. Outro benefício crucial é que a Gemma suporta mais de 140 idiomas, com 35 deles chegando como parte de um pacote pré-treinado.
E, assim como os mais recentes modelos da série Gemini 2.0, a Gemma 3 também é capaz de entender texto, imagens e vídeos. Em poucas palavras, é multi-multimdal. No lado da performance, a Gemma 3 sugere-se superar outros modelos populares de IA de código aberto, como o Deepseek V3, o OpenAi O3-Mini pronto para o raciocínio e a variante Llama-405b da Meta.
Versátil e pronto para implantar
Tomando o intervalo de insumos, o Gemma 3 oferece uma janela de contexto no valor de 128.000 tokens. Isso é o suficiente para cobrir um livro completo de 200 páginas impulsionado como uma entrada. Para comparação, a janela de contexto para o modelo flash Lite Gemini 2.0 do Google fica a um milhão de tokens. No contexto dos modelos de IA, uma palavra média em inglês é aproximadamente equivalente a 1,3 tokens.

O GEMMA 3 também suporta chamadas de funções e saída estruturada, o que significa essencialmente que ele pode interagir com conjuntos de dados externos e executar tarefas como um agente automatizado. A analogia mais próxima seria Gêmeos e como pode fazer o trabalho em diferentes plataformas, como o Gmail ou os documentos sem problemas.
Os mais recentes modelos de IA de código aberto do Google podem ser implantados localmente ou através das plataformas baseadas em nuvem da empresa, como a Suite AI Vertex. Os modelos Gemma 3 AI já estão disponíveis no Google AI Studio, bem como repositórios de terceiros, como abraçar o rosto, ollama e kaggle.

A GEMMA 3 faz parte de uma tendência do setor em que as empresas estão trabalhando em grandes modelos de idiomas (Gêmeos, no caso do Google) e simultaneamente empurrando também pequenos modelos de idiomas (SLMS). A Microsoft também segue uma estratégia semelhante com sua série PHI de código aberto de pequenos modelos de idiomas.
Modelos de idiomas pequenos, como Gemma e Phi, são extremamente eficientes em termos de recursos, o que os torna uma escolha ideal para executar em dispositivos como smartphones. Morando, pois oferecem uma latência mais baixa, eles são particularmente adequados para aplicativos móveis.