matteofortini@mastodon.unotoIntelligenza Artificiale @feddit.it•Come funziona Italia, il modello nazionale di AI che sfida i grandi LLM
1·
8 months ago@informapirata @aitech @pazpi Qualcuno/a è riuscito ad eseguirlo? Su CPU è lentissimo, su GPU alloca 100GB di VRAM, ricarica il modello ad ogni query, non supporta motori come ollama…
@Moonrise2473 @informapirata e molto più intelligentemente Alexa, da sempre: “Alexa, due minuti” “Due minuti, a partire da ora”. (Con Google devi spiegare tutto per filo e per segno)