🧠 Corre un modelo de IA local de 22B en tu Mac con Apple Silicon (¡sin depender de la nube!)

¿Te imaginas tener un modelo de lenguaje de última generación corriendo localmente en tu Mac, sin necesidad de internet ni preocupaciones por privacidad?

Con LMStudio y el modelo Codestral-22B, puedes hacer exactamente eso.
Desde generar código, revisar pull requests, crear comandos de terminal, hasta explicarte código complejo… todo de forma rápida, privada y sin enviar datos a terceros.

En esta guía te muestro cómo instalar y configurar paso a paso:

  • El modelo Codestral-22B optimizado en formato GGUF
  • La integración con VSCode usando el plugin Continue.dev
  • Tips de uso, configuración avanzada y recomendaciones de rendimiento

Ideal para desarrolladores que quieran tener un asistente de IA poderoso en su entorno local.

👉 Sigue leyendo y empieza a experimentar la IA generativa sin límites ni dependencias externas.

Requisitos: Apple Silicon con 32 GB o más de RAM

  1. Descarga LMStudio para MacOS:
  2. En LMStudio, busca:
    • bartowski/Codestral-22B-v0.1-GGUF
  3. Descarga el modelo que termina en Q6_K (columna derecha): Nota: El modelo Q6_K consume 18.40 GB de RAM al cargarse.
    Si tienes más memoria disponible, puedes probar el modelo Q8_0, que ofrece mayor calidad pero menor velocidad.
    Este último requiere al menos 23.30 GB de RAM y que desbloquees el límite de memoria cableada usando:


Publicado

en

por

Etiquetas:

Comentarios

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *