
🚀 Probando Gemma 4: Cómo correr la nueva IA de Google 100% local (sin Internet y con privacidad total)
Hola a todos,
Muchos conocemos Gemini, pero lo que realmente está cambiando el juego para los que buscamos privacidad y control es Gemma 4, la versión de "código abierto" (open weights) de Google.
ARTÍCULO COMPLETO: Gemma 4: La IA de Google sin Internet
Lo mejor de este modelo es que no necesitas una supercomputadora ni enviar tus datos a los servidores de Google para que funcione. Aquí les cuento cómo configurarla y por qué vale la pena:
🛠️ ¿Cómo instalarla en 2 minutos? (Usa Ollama)
La forma más técnica y limpia de hacerlo sin complicaciones de librerías es usar Ollama:
- Descarga Ollama de su web oficial.
- Abre tu terminal y escribe:
ollama run gemma4 - ¡Listo! Ya puedes chatear con ella desde la consola, totalmente offline.
💡 ¿Por qué usar Gemma 4 en lugar de ChatGPT o Gemini?
- Privacidad 🔒: Todo lo que escribes se queda en tu RAM. Ideal para analizar documentos privados o código sensible de tu empresa.
- Sin censura técnica 🔓: Al correrla local, puedes ajustar los "system prompts" para que sea mucho más directa en tareas de programación.
- Latencia cero ⚡: No dependes de si los servidores de OpenAI están caídos o si tu internet va lento.
💻 Requisitos mínimos
Para que la versión de 9B (la más equilibrada) corra fluida, recomiendo:
- GPU: Mínimo 8GB de VRAM (Nvidia RTX serie 30 o superior funciona de lujo).
- Mac: Cualquier chip M1, M2 o M3 con 16GB de RAM unificada lo mueve sin despeinarse.
- RAM: 16GB mínimo si vas a usar solo CPU.
¿Alguien más la está probando para desarrollo o automatizaciones? Me gustaría saber qué tal les rinde en comparación con Llama 3 o Mistral.
¡Los leo en los comentarios! 👇