Zum Inhalt der Seite gehen
Friendica
Suche
2025-01-25 10:16:02
2025-01-25 10:11:47
2025-01-25 08:58:24
1155498
lars
1 Monat her
•
lars
1 Monat her
•
an die #
Nerds
unter euch. Gibt es eine LLM welche ich via Docker auf einem Server ohne GPU nutzen kann? Würde diese gerne nutzen für den #
Nextcloud
assistent
#
nextcloud
#
nerds
Frend
mag das.
Frend
1 Monat her
•
Eigentlich alles was gebrauch von Llama.cpp macht da diese für den CPU-Betrieb optimiert sind.
LLama.cpp/Ollama usw
⇧
Frend •
LLama.cpp/Ollama usw