Site icon Arnau Dunjó Workspace

Ho tinc clar, apostare per la I.A en local

Fa temps que m’ho plantejo, però ara ho estic valorant seriosament: muntar un ordinador realment potent, dissenyat específicament per executar models d’intel·ligència artificial en local.

No és una decisió que prengui a la lleugera, perquè te un cost elevat, tant econòmicament com en dedicació. Però tinc clara la motivació: vull més control, més privacitat, més sobirania ;-), i aprofundir encara més en el coneixement real del que estic fent.

Ja aviso que no es una opció per a tothom, tot i que en aquest article no entrare al detall.

Objectius

Un dels objectius principals d’aquest ordinador serà crear un assistent personal avançat i pro-actiu (no nomes reactiu), capaç d’ajudar-me en tasques diàries com revisar correus, recordar cites, resumir converses, o prendre decisions ràpides.

Aquest assistent necessitaria accés al meu correu, calendari i fins i tot a missatges personals, cosa que prefereixo fer en local per evitar que aquestes dades viatgin més del necessari. Se perfectament  que aquestes dades ja estan al núvol i possiblement ja estan creuades, pero “el que fa el que pot, no està obligat a més”. Algun cop he pensat en moure el meu e-mail a un servidor en local, pero nomes pensar en canviar l’adreça en tots els serveis als que estic subscrit ja em mareja.

Un altre agent que tinc al cap seria un copilot intern per a la feina diària, amb capacitat per processar informació procedent de documents interns, històrics de correus amb clients, reunions de Teams transcrites o informes compartits.

Òbviament tambe el l’utilitzaré per donar-me “super poders” en programació (vibe coding com vaig explicar en aquest post ) i ja de pas com a eina creativa: generació d’idees i creació d’imatges o videos.

La maquina necesaria

Després d’analitzar diverses opcions (com Nvidia DGX Spark), he arribat a la conclusió que avui per avui el millor a nivell domèstic es que tinguis un ordinador molt potent per poder “moure” àgilment el model. Ara mateix la única opció domestica (sino volem invertir 12.000€ en l’ordinador) es aquesta configuració

Aquesta màquina estaria preparada per executar models MoE (mixer of experts) grans (com el Kimi-K2 32B), contextos llargs (40k–60k tokens) i velocitats d’inferència altes amb quantitzacions optimitzades.

Ja ho parlarem més endavant pero com veieu es una configuració força cara, pero de moment us comparteixo les raons que m’han portat fins aquí, i quins avantatges i inconvenients implica realment aquest pas.

Avantatges

Privacitat i sobirania

La raó més evident és la privacitat. Actualment faig servir models d’IA per traduir textos (com les traduccions de sèries i el Baldur’s Gate 3), respondre preguntes sobre temes que m’interessen, controlar la domòtica de casa o fer aplicacions amb vibe coding.

Encara que aquestes activitats no impliquen dades personals, per alguns projectes futurs (com els assistents comentats anteriorment) sí que necessitaré utilitzar informació més sensible, que prefereixo mantenir sota el meu control, sense enviar-la a APIs externes com OpenAI o Anthropic.

Potser a hores d’ara no hi ha aquest risc a la vista pero crec que serà molt evident en un parell d’anys quan tothom estigui habituat a utilitzar-los molt provablement s’afegiran configuracions per tal que si el model t’ha de recomanar X tipus de producte, no ho faci seguint les teves indicacions o preferències, sino que ho faci en funció del que les empreses anunciants hagin pagat a l’empresa propietaria del servei. Això es nomes un exemple dels canvis que podrien succeir, en un servei (ja bàsic) com el de I.A

Sincerament, si puc, prefereixo no deixar que un servei ja tant important per mi com el de I.A que utilitzo constantment i que cada vegada te un poder més gran en les meves decisions quotidianes, en mans d’una empresa externa.

Censura i la correcció política

Els models comercials actuals, ja siguin occidentals com els d’OpenAI, o orientals com els de Baichuan o DeepSeek, tenen sistemes de censura i guardrails molt marcats. Aquests sistemes poden ser extremadament intrusius, interferint en la llibertat d’explorar certes preguntes o idees crítiques.

Per exemple, prova a demanar a ChatGPT que faci una broma sobre homes: no tindrà problema. Demana-li sobre dones, i et donarà un discurs sobre igualtat de gènere i t’insinuarà que ets uns masclista, en comptes d’un acudit. Els models xinesos, per la seva banda, es neguen directament a abordar temes políticament sensibles com el Tibet o les llibertats civils.

Executar models en local implica esborrar tots aquests límits. Si vull posar filtres, que siguin meus. Si vull experimentar amb casos extrems, vull tenir la llibertat de fer-ho sense censures imposades.

Facilitat per canviar de model

Una gran avantatge del local és que canviar de model no implica reconfigurar res. Les dades, preferències i fluxos continuen intactes. No depenc de cap API ni quota externa.

Si canvia alguna política del serveis que utilitzo o apareix un model LLM millor, només hauria de substituir-lo, pero la resta d’arquitectura al voltant del motor (LLM )quedaria intacte. És un canvi gairebé instantani, sense maldecaps.

Control absolut de l’arquitectura

En local, l’arquitectura i els fluxos són estables i independents de qualsevol API externa ni quotes. Això em dona flexibilitat i estabilitat a llarg termini.

Major aprenentatge

Executar IA en local implica entendre profundament tot el procés: quantitzacions, optimització CUDA, gestió de memòria GPU, embeddings, truncament de context, descompressió de models i integració amb sistemes vectorials. És aprendre cada detall de la configuració i entendre molt millor el poder i les limitacions de la tecnologia per a construir exactament l’eina que necessito.

Inconvenients

Inversió inicial alta

Una màquina amb les característiques optimes (com el que us he compartit) per poder ejecutar amb fluïdesa algun dels models open source pot tenir un cost elevat, entre 4.000 i 6.000 €, segons els components escollits.

Soroll i temperatura

Hi han poques alternatives a comprar un ordinador personal potent per correr models de I.A. Encara no ha sortit pero en principi el Nvida DGX Spark es silencios i te poc consum, pero es un ordinador pensat únicament per correr models de I.A i preu per preu es força més potent montar una ordinador genèric pero amb prou potencia com per fer-ho amb garanties.

Consum elèctric elevat

La GPU pot consumir més de 450 W. Amb CPU i altres components, la factura elèctrica augmenta considerablement.

Menys potència en models oberts

Els models oberts actuals encara estan un pas enrere respecte a models comercials com GPT-o3, Claude 4 o Gemini 2.5. Sempre es pot escollir utilitzar serveis externs puntualment, pero gran part de la feina del dia a dia hauria se ser possible fer amb aquest models

Obsolescencia de l’arquitectura

Tambe li he donat una volta a la possibilitat de quedar-me enrere si apareixen models revolucionaris que no pugui executar en local. Sempre puc actualitzar l’ordinador pero fent una copia de la base de dades, fluxes, configuracions etc per tornar-ho tot actiu en la nova infraestrcutura. Tot i això crec sincerament que a dia d’avui hem arribat a un punt on els models actuals ja són prou potents per cobrir sobradament les necessitats del dia a dia. Potser necesites el més poten del models per a que t’ajudi amb una recerca científica, o per resoldre problemes molt complexos, pero el 99% de les tasques restants les poden fer amb garanties.

De fet, crec que el repte real ja no és augmentar-ne la potència bruta, sinó fer-los més útils, pràctics, i millor integrats en la nostra manera de pensar i treballar. I això, ja ho puc fer des d’avui mateix.

Conclusions

Malgrat l’alta inversió inicial i les dificultats tècniques, considero que guanyare clarament en control, llibertat i l’aprenentatge profund.

Ara només falta fer la compra i començar a tocar . Quan ho faci, compartiré benchmarks, configuracions detallades i fluxos concrets.

Si també has fet aquest pas, m’encantaria conèixer la teva experiència. Al capdavall, executar IA en local no és només una moda: és una filosofia de treball.

Exit mobile version