in

Gemma 4 de Google: modelo abierto, potente y listo para ejecutarse en dispositivos

Google presenta Gemma 4: un modelo abierto bajo Apache 2.0 diseñado para razonamiento avanzado, multimodalidad y ejecución local en móviles y laptops

Gemma 4 de Google: modelo abierto, potente y listo para ejecutarse en dispositivos

La llegada de Gemma 4 marca un paso significativo en la disponibilidad de modelos de inteligencia artificial para desarrolladores y usuarios finales. Distribuido bajo la licencia Apache 2.0, un modelo open source como Gemma 4 permite la descarga, modificación y uso comercial sin cargos por regalías, conservando solo la obligación de atribución. Además, Google destaca que estos pesos están optimizados para operar en una amplia gama de hardware, desde miles de millones de dispositivos Android hasta GPUs de portátiles, lo que facilita la ejecución local y una experiencia con mayor privacidad y control de datos.

Es importante distinguir entre Gemma y Gemini: mientras que Gemini representa la familia propietaria integrada en productos comerciales de Google, Gemma 4 es la oferta abierta que comparte la tecnología de investigación empleada en Gemini 3. Al poder ejecutarse sin conexión, un modelo local como Gemma 4 evita el envío de conversaciones y archivos a servicios externos, y permite a desarrolladores construir asistentes, herramientas de análisis y flujos agentivos sin suscripciones recurrentes ni dependencia de servidores externos.

Capacidades principales de Gemma 4

Gemma 4 incorpora avances en razonamiento avanzado, planificación multi‑paso y seguimiento de instrucciones, lo que la hace apta para tareas que exigen lógica profunda. La familia soporta multimodalidad, procesando texto, imágenes, audio y video; funciones como OCR y comprensión de gráficos están integradas de serie. Además, la compatibilidad nativa con function calling y salidas estructuradas en JSON facilita la creación de agentes autónomos capaces de ejecutar comandos y coordinar herramientas externas, un componente clave para flujos de trabajo agentivos y asistentes locales.

Tamaños, arquitectura y contexto

Gemma 4 se ofrece en cuatro variantes: E2B, E4B, 26B (MoE) y 31B (Dense). Las versiones para borde priorizan eficiencia frente a conteo bruto de parámetros, integrando técnicas como Per-Layer Embeddings (PLE) en los modelos más pequeños y una estructura de Mixture-of-Experts (MoE) en la variante de 26B, que activa solo alrededor de 3.8 mil millones de parámetros en inferencia.

Los tamaños de contexto van desde 128.000 tokens en las variantes E2B/E4B hasta 256.000 tokens en los modelos más grandes, permitiendo procesar documentos extensos, repositorios o proyectos de código en una sola pasada.

Rendimiento práctico en dispositivos

Pruebas iniciales han mostrado que Gemma 4 puede entregar velocidades de respuesta competitivas en hardware de consumo: algunos informes indicaron más de 40 tokens/s en modelos intermedios y picos de más de 60 tokens/s en los más pequeños, mientras que la variante de 31B sigue siendo capaz en máquinas potentes con tasas alrededor de 10 tokens/s en configuraciones concretas. Estas mediciones subrayan el enfoque de inteligencia por parámetro que permite ejecutar capacidades avanzadas sin necesidad de infraestructuras masivas en la nube.

Licencia, distribución y cómo probarlo

El cambio más relevante desde la perspectiva legal es que Gemma 4 se publica bajo Apache 2.0, lo que autoriza el uso comercial, la modificación y la redistribución sin pagos de licencia, manteniendo únicamente la obligación de incluir la licencia y la atribución. Esto contrasta con versiones previas que eran de open-weight pero sujetas a términos más restrictivos. Las referencias públicas indican que los pesos y variantes están disponibles en plataformas como Google AI Studio, Hugging Face, Kaggle y Ollama, facilitando la experimentación y la integración en proyectos propios.

Impacto para desarrolladores y privacidad

Para equipos de producto y desarrolladores, Gemma 4 ofrece la posibilidad de construir asistentes de código offline, sistemas de extracción de conocimiento y agentes autónomos sin cargos recurrentes por uso del modelo. El soporte nativo para más de 140 idiomas y la capacidad de ajuste fino permiten adaptar el modelo a necesidades locales o sectoriales: ya se han citado ejemplos de personalizaciones y colaboraciones en salud y modelos de idioma específicos. Además, la opción de ejecución local mejora la soberanía digital al reducir la dependencia de terceros para el procesamiento de datos sensibles.

En resumen, la liberación de Gemma 4 como modelo open source bajo Apache 2.0 acerca capacidades avanzadas de IA al borde y democratiza herramientas potentes para la comunidad. Al combinar una arquitectura optimizada, contextos extensos y soporte multimodal con una licencia permisiva, Gemma 4 puede acelerar prototipos, despliegues locales y proyectos comerciales que requieren control, privacidad y flexibilidad.

¿Qué piensas?

Escrito por Federica Bianchi

Biologa nutricionista y periodista cientifica. 10 anos de practica clinica.

Comparativa de servicios de eliminación de datos: por qué elegir PrivacyBee

Comparativa de servicios de eliminación de datos: por qué elegir PrivacyBee