¿Te imaginas tener un modelo de lenguaje de última generación corriendo localmente en tu Mac, sin necesidad de internet ni preocupaciones por privacidad?
Con LMStudio y el modelo Codestral-22B, puedes hacer exactamente eso.
Desde generar código, revisar pull requests, crear comandos de terminal, hasta explicarte código complejo… todo de forma rápida, privada y sin enviar datos a terceros.
En esta guía te muestro cómo instalar y configurar paso a paso:
- El modelo Codestral-22B optimizado en formato GGUF
- La integración con VSCode usando el plugin Continue.dev
- Tips de uso, configuración avanzada y recomendaciones de rendimiento
Ideal para desarrolladores que quieran tener un asistente de IA poderoso en su entorno local.
👉 Sigue leyendo y empieza a experimentar la IA generativa sin límites ni dependencias externas.
Requisitos: Apple Silicon con 32 GB o más de RAM
- Descarga LMStudio para MacOS:
- En LMStudio, busca:
bartowski/Codestral-22B-v0.1-GGUF
- Descarga el modelo que termina en
Q6_K(columna derecha): Nota: El modeloQ6_Kconsume 18.40 GB de RAM al cargarse.
Si tienes más memoria disponible, puedes probar el modeloQ8_0, que ofrece mayor calidad pero menor velocidad.
Este último requiere al menos 23.30 GB de RAM y que desbloquees el límite de memoria cableada usando:
Deja un comentario