heise+ | Wie man riesige Sprachmodelle auf praxistaugliche Maße schrumpft
Für den Betrieb von Modellen wie DeepSeek braucht man teure Grafikkarten. Komprimierte Versionen schaffen Abhilfe.
https://www.heise.de/hintergrund/Wie-man-riesige-Sprachmodelle-auf-praxistaugliche-Masse-schrumpft-10286307.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon
#KünstlicheIntelligenz #Spracherkennung #news
Für den Betrieb von Modellen wie DeepSeek braucht man teure Grafikkarten. Komprimierte Versionen schaffen Abhilfe.
https://www.heise.de/hintergrund/Wie-man-riesige-Sprachmodelle-auf-praxistaugliche-Masse-schrumpft-10286307.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon
#KünstlicheIntelligenz #Spracherkennung #news