Hace tiempo que me lo planteo, pero ahora lo estoy valorando seriamente: montar un ordenador realmente potente, diseñado específicamente para ejecutar modelos de inteligencia artificial en local.
No es una decisión que tome a la ligera, porque tiene un coste elevado, tanto económico como en dedicación. Pero tengo clara la motivación: quiero más control, más privacidad, más soberanía ;-), y profundizar aún más en el conocimiento real de lo que estoy haciendo.
Ya aviso que no es una opción para todo el mundo, aunque en este artículo no entraré en detalle.
Objetivos
Uno de los objetivos principales de este ordenador será crear un asistente personal avanzado y proactivo (no solo reactivo), capaz de ayudarme en tareas diarias como revisar correos, recordar citas, resumir conversaciones o tomar decisiones rápidas.
Este asistente necesitaría acceso a mi correo, calendario e incluso mensajes personales, algo que prefiero hacer en local para evitar que estos datos viajen más de lo necesario. Sé perfectamente que estos datos ya están en la nube y posiblemente ya están cruzados, pero “el que hace lo que puede, no está obligado a más”. Alguna vez he pensado en mover mi correo a un servidor local, pero solo pensar en cambiar la dirección en todos los servicios en los que estoy suscrito ya me marea.
Otro agente que tengo en mente sería un copiloto interno para el trabajo diario, con capacidad para procesar información procedente de documentos internos, históricos de correos con clientes, reuniones de Teams transcritas o informes compartidos.
Obviamente también lo utilizaré para darme “superpoderes” en programación (vibe coding como expliqué en este post) y de paso como herramienta creativa: generación de ideas y creación de imágenes o vídeos.
La máquina necesaria
Tras analizar varias opciones (como la Nvidia DGX Spark), he llegado a la conclusión de que a día de hoy lo mejor a nivel doméstico es que tengas un ordenador muy potente para poder “mover” ágilmente el modelo. Ahora mismo, la única opción doméstica (si no queremos invertir 12.000 € en el ordenador) es esta configuración:
- CPU: Intel Core i9-14900KF (24 núcleos, hasta 6 GHz)
- GPU: NVIDIA RTX 5090 con 32 GB GDDR7
- RAM: 128 GB DDR5-6000 CL30
- SSD: Samsung 990 EVO NVMe 2 TB
- Fuente de alimentación: 1200 W
Esta máquina estaría preparada para ejecutar modelos MoE (mixture of experts) grandes (como el Kimi-K2 32B), contextos largos (40k–60k tokens) y velocidades de inferencia altas con cuantizaciones optimizadas.
Ya hablaremos más adelante, pero como veis, es una configuración bastante cara. De momento, comparto las razones que me han llevado hasta aquí y qué ventajas e inconvenientes implica realmente este paso.

Ventajas
- Privacidad y soberanía
- Censura y corrección política
- Facilidad para cambiar de modelo
- Control absoluto de la arquitectura
- Mayor aprendizaje
Privacidad y soberanía
La razón más evidente es la privacidad. Actualmente uso modelos de IA para traducir textos (como las traducciones de series y Baldur’s Gate 3), responder preguntas sobre temas que me interesan, controlar la domótica de casa o desarrollar aplicaciones con vibe coding.
Aunque estas actividades no implican datos personales, para algunos proyectos futuros (como los asistentes comentados anteriormente) sí necesitaré usar información más sensible, que prefiero mantener bajo mi control, sin enviarla a APIs externas como OpenAI o Anthropic.
Quizá ahora este riesgo no parezca inminente, pero creo que será evidente dentro de un par de años, cuando todo el mundo esté habituado a usarlos. Muy probablemente se implementarán restricciones para que, si el modelo debe recomendarte cierto producto, no lo haga en base a tus preferencias, sino en función de lo que las empresas anunciantes hayan pagado al proveedor del servicio. Esto es solo un ejemplo de los cambios que podrían ocurrir en un servicio (ya básico) como el de la IA.
Sinceramente, si puedo, prefiero no dejar en manos de una empresa externa un servicio ya tan importante para mí como es la IA, que uso constantemente y que cada vez tiene más influencia en mis decisiones cotidianas.
Censura y corrección política
Los modelos comerciales actuales, tanto occidentales como los de OpenAI, como orientales como Baichuan o DeepSeek, tienen sistemas de censura y restricciones muy marcadas. Estos sistemas pueden ser extremadamente intrusivos, interfiriendo en la libertad de explorar ciertas preguntas o ideas críticas.
Por ejemplo, pide a ChatGPT que haga una broma sobre hombres: no tendrá problema. Pídele una sobre mujeres y te soltará un discurso sobre igualdad de género, insinuando que eres machista, en lugar de contarte un chiste. Los modelos chinos, por su parte, directamente se niegan a tratar temas políticamente sensibles como el Tíbet o las libertades civiles.
Ejecutar modelos en local implica borrar todos estos límites. Si quiero poner filtros, que sean míos. Si quiero experimentar con casos extremos, quiero tener la libertad de hacerlo sin censuras impuestas.
Facilidad para cambiar de modelo
Una gran ventaja del entorno local es que cambiar de modelo no implica reconfigurar nada. Los datos, preferencias y flujos permanecen intactos. No dependo de ninguna API ni cuota externa.
Si cambia alguna política de los servicios que utilizo o aparece un modelo LLM mejor, solo tendría que sustituirlo, pero el resto de la arquitectura en torno al motor quedaría intacto. Es un cambio casi instantáneo y sin quebraderos de cabeza.
Control absoluto de la arquitectura
En local, la arquitectura y los flujos son estables e independientes de cualquier API externa o limitaciones. Esto me da flexibilidad y estabilidad a largo plazo.
Mayor aprendizaje
Ejecutar IA en local implica entender profundamente todo el proceso: cuantizaciones, optimización CUDA, gestión de memoria de la GPU, embeddings, truncamiento de contexto, descompresión de modelos e integración con sistemas vectoriales. Es aprender cada detalle de la configuración y comprender mucho mejor el poder y las limitaciones de esta tecnología para construir exactamente la herramienta que necesito.

Inconvenientes
- Alta inversión inicial
- Ruido y temperatura
- Alto consumo eléctrico
- Menor potencia en modelos abiertos
Alta inversión inicial
Una máquina con las características óptimas (como la que he compartido) para poder ejecutar con fluidez algunos de los modelos open source puede tener un coste elevado, entre 4.000 y 6.000 €, según los componentes elegidos.
Ruido y temperatura
Hay pocas alternativas a comprar un ordenador personal potente para ejecutar modelos de IA. Aún no ha salido, pero en principio el Nvidia DGX Spark es silencioso y consume poco. Sin embargo, es un ordenador pensado exclusivamente para ejecutar modelos de IA y, por el mismo precio, es bastante más potente montar un PC genérico con la potencia necesaria para hacerlo con garantías.
Alto consumo eléctrico
La GPU puede consumir más de 450 W. Con CPU y otros componentes, la factura eléctrica aumenta considerablemente.
Menor potencia en modelos abiertos
Los modelos abiertos actuales todavía están un paso por detrás de los modelos comerciales como GPT-4o, Claude 4 o Gemini 2.5. Siempre se puede recurrir a servicios externos de forma puntual, pero gran parte del trabajo diario debería poder hacerse con estos modelos.
Obsolescencia de la arquitectura
También he considerado la posibilidad de quedarme atrás si aparecen modelos revolucionarios que no pueda ejecutar en local. Siempre puedo actualizar el ordenador, haciendo una copia de bases de datos, flujos, configuraciones, etc., para reactivarlo todo en la nueva infraestructura. Aun así, sinceramente creo que a día de hoy hemos llegado a un punto en el que los modelos actuales ya son suficientemente potentes para cubrir sobradamente las necesidades del día a día. Puede que necesites lo más puntero para ayudarte en una investigación científica o para resolver problemas muy complejos, pero el 99 % de las tareas restantes pueden hacerse con garantías.
De hecho, creo que el verdadero reto ya no es aumentar la potencia bruta, sino hacer los modelos más útiles, prácticos y mejor integrados en nuestra forma de pensar y trabajar. Y eso ya lo puedo hacer desde hoy mismo.

Conclusiones
A pesar de la alta inversión inicial y las dificultades técnicas, considero que ganaré claramente en control, libertad y aprendizaje profundo.
Ahora solo falta hacer la compra y empezar a trastear. Cuando lo haga, compartiré benchmarks, configuraciones detalladas y flujos concretos.
Si tú también has dado este paso, me encantaría conocer tu experiencia. Al fin y al cabo, ejecutar IA en local no es solo una moda: es una filosofía de trabajo.