{"id":49,"date":"2025-10-23T23:03:45","date_gmt":"2025-10-23T23:03:45","guid":{"rendered":"https:\/\/bitacora.lado.mx\/?p=49"},"modified":"2025-10-29T02:12:41","modified_gmt":"2025-10-29T02:12:41","slug":"corre-un-modelo-de-ia-local-de-22b-en-tu-mac-con-apple-silicon-sin-depender-de-la-nube","status":"publish","type":"post","link":"https:\/\/bitacora.lado.mx\/index.php\/2025\/10\/23\/corre-un-modelo-de-ia-local-de-22b-en-tu-mac-con-apple-silicon-sin-depender-de-la-nube\/","title":{"rendered":"\ud83e\udde0 Corre un modelo de IA local de 22B en tu Mac con Apple Silicon (\u00a1sin depender de la nube!)"},"content":{"rendered":"\n<p>\u00bfTe imaginas tener un modelo de lenguaje de \u00faltima generaci\u00f3n corriendo <em>localmente<\/em> en tu Mac, sin necesidad de internet ni preocupaciones por privacidad?<\/p>\n\n\n\n<p>Con <strong>LMStudio<\/strong> y el modelo <strong>Codestral-22B<\/strong>, puedes hacer exactamente eso.<br>Desde generar c\u00f3digo, revisar pull requests, crear comandos de terminal, hasta explicarte c\u00f3digo complejo\u2026 todo de forma r\u00e1pida, privada y sin enviar datos a terceros.<\/p>\n\n\n\n<p>En esta gu\u00eda te muestro c\u00f3mo instalar y configurar paso a paso:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>El modelo <strong>Codestral-22B<\/strong> optimizado en formato GGUF<\/li>\n\n\n\n<li>La integraci\u00f3n con <strong>VSCode<\/strong> usando el plugin <strong>Continue.dev<\/strong><\/li>\n\n\n\n<li>Tips de uso, configuraci\u00f3n avanzada y recomendaciones de rendimiento<\/li>\n<\/ul>\n\n\n\n<p>Ideal para desarrolladores que quieran tener un asistente de IA poderoso en su entorno local.<\/p>\n\n\n\n<p>\ud83d\udc49 Sigue leyendo y empieza a experimentar la IA generativa sin l\u00edmites ni dependencias externas.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Requisitos: Apple Silicon con 32\u202fGB o m\u00e1s de RAM<\/h3>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Descarga LMStudio para MacOS:<\/strong>\n<ul class=\"wp-block-list\">\n<li><a class=\"\" href=\"https:\/\/lmstudio.ai\">LMStudio<\/a><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>En LMStudio, busca:<\/strong>\n<ul class=\"wp-block-list\">\n<li><code>bartowski\/Codestral-22B-v0.1-GGUF<\/code><\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>Descarga el modelo que termina en <code>Q6_K<\/code><\/strong> (columna derecha): Nota: El modelo <code>Q6_K<\/code> consume 18.40\u202fGB de RAM al cargarse.<br>Si tienes m\u00e1s memoria disponible, puedes probar el modelo <code>Q8_0<\/code>, que ofrece mayor calidad pero menor velocidad.<br>Este \u00faltimo requiere al menos 23.30\u202fGB de RAM y que desbloquees el l\u00edmite de memoria cableada usando:<\/li>\n<\/ol>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00bfTe imaginas tener un modelo de lenguaje de \u00faltima generaci\u00f3n corriendo localmente en tu Mac, sin necesidad de internet ni preocupaciones por privacidad? Con LMStudio y el modelo Codestral-22B, puedes hacer exactamente eso.Desde generar c\u00f3digo, revisar pull requests, crear comandos de terminal, hasta explicarte c\u00f3digo complejo\u2026 todo de forma r\u00e1pida, privada y sin enviar datos [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-49","post","type-post","status-publish","format-standard","hentry","category-sin-categoria"],"_links":{"self":[{"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/posts\/49","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/comments?post=49"}],"version-history":[{"count":1,"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/posts\/49\/revisions"}],"predecessor-version":[{"id":55,"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/posts\/49\/revisions\/55"}],"wp:attachment":[{"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/media?parent=49"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/categories?post=49"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/bitacora.lado.mx\/index.php\/wp-json\/wp\/v2\/tags?post=49"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}