Zum Inhalt der Seite gehen


an die #Nerds unter euch. Gibt es eine LLM welche ich via Docker auf einem Server ohne GPU nutzen kann? Würde diese gerne nutzen für den #Nextcloud assistent
Eigentlich alles was gebrauch von Llama.cpp macht da diese für den CPU-Betrieb optimiert sind.

LLama.cpp/Ollama usw