O Novo Modelo de IA do Google Gemma roda em Celulares

Crédito:Pixabay
Na terça-feira, no Google I/O 2025, o Google revelou o Gemma 3n, um modelo desenvolvido para operar “perfeitamente” em celulares, laptops e tablets. Já disponível em versão prévia, o Gemma 3n pode processar áudio, texto, imagens e vídeos, de acordo com o Google.
Nos últimos anos, modelos capazes de operar offline e sem depender de computação em nuvem tornaram-se cada vez mais populares na comunidade de IA. Esses modelos não são apenas mais econômicos do que modelos maiores, mas também aumentam a privacidade, eliminando a necessidade de enviar dados para data centers remotos.
O Gemma 3n pode Operar em Dispositivos com menos de 2 GB de RAM, afirma o Gerente de Produto Gus Martins
Durante uma palestra no I/O, o gerente de produto do Gemma, Gus Martins, anunciou que o Gemma 3n pode operar em dispositivos com menos de 2 GB de RAM. Ele também mencionou: “O Gemma 3n compartilha a mesma arquitetura do Gemini Nano e foi projetado para um desempenho excepcional.“
Juntamente com o Gemma 3n, o Google está lançando o MedGemma por meio do programa Health AI Developer Foundations. A empresa descreve o MedGemma como seu modelo aberto mais poderoso para análise de textos e imagens relacionados à saúde.
Modelos Abertos do Google para Compreensão Multimodal de Textos e Imagens em Saúde
“O MedGemma é nossa coleção de modelos abertos para compreensão multimodal de textos e imagens sobre saúde”, explicou Martins. “Ele tem um bom desempenho em diversos aplicativos de imagem e texto, permitindo que os desenvolvedores personalizem os modelos para seus próprios aplicativos de saúde.”
Além disso, o Google está trabalhando no SignGemma, um modelo aberto projetado para traduzir a linguagem de sinais para texto escrito. Este modelo permitirá que os desenvolvedores criem novos aplicativos e integrações para usuários surdos ou com deficiência auditiva.
“O SignGemma é um novo conjunto de modelos projetado para traduzir a linguagem de sinais para texto falado, com foco específico na Língua Americana de Sinais e no inglês”, afirmou Martins. “É o modelo de compreensão de linguagem de sinais mais avançado até o momento, e estamos entusiasmados para que os desenvolvedores, bem como as comunidades de surdos e com deficiência auditiva, usem essa base para construir novas soluções.”
Também vale mencionar que o Gemma tem enfrentado críticas por seus termos de licenciamento personalizados e não padronizados, que alguns desenvolvedores acreditam tornar o uso comercial dos modelos arriscado. Apesar disso, os desenvolvedores já baixaram os modelos Gemma dezenas de milhões de vezes.
Leia o Artigo Original em: Techcrunch
Leia mais: Google Atinge 150 Milhões de Assinantes, graças à IA