|
| Precedente :: Successivo |
| Autore |
Messaggio |
Zeus News Ospite
|
|
| Top |
|
 |
{fusore} Ospite
|
Inviato: 19 Gen 2026 10:47 Oggetto: |
|
|
Questa è una cosa buona e giusta, in ogni caso se l'indirizzo è quello di creare sistemi più specializzati che girano bene in locale, ben vengano.
Pur avendo un computer potente non riesco a far girare con prestazioni decenti LLM generalisti in locale: con llama.cppcon come loader e quantizzazione a 4-bit posso far girare modelli locali tra 10B e 14B parametri, ma senza addestramento e fine tuning.
Un modello specializzato gira con una infinità di parametri in meno, rendendone possibile l'utilizzo anche su computer da ufficio.
Quello che mi chiedo è come si inquadra questa tendenza localizzatrice con le spese faraoniche in datacenter degli hyperscaler, come appunto Google. |
|
| Top |
|
 |
|
|
Non puoi inserire nuovi argomenti Non puoi rispondere a nessun argomento Non puoi modificare i tuoi messaggi Non puoi cancellare i tuoi messaggi Non puoi votare nei sondaggi
|
|