Podcasty > DeepSeek

DeepSeek

DeepSeek
2024/12
Tento model využívá architekturu Mixture-of-Experts (MoE) a obsahuje celkem 671 miliard parametrů, z nichž je pro každý token aktivov...
DeepSeek
2025/01
Model s pokročilými schopnostmi logického uvažování, určený pro řešení složitých úloh v matematice a programování. 671 mili...
DeepSeek
2024/09
Vylepšená verze modelu V2, specializovaná na matematiku, logiku a programování. Stejné jako u V2, s vylepšeným tréninkem a jemným ...
DeepSeek
2024/05
Model s architekturou Mixture-of-Experts (MoE), optimalizovaný pro efektivní trénink a inferenci.
DeepSeek
2024/11
Velký jazykový model určený pro generování lidsky podobného textu a vedení kontextově uvědomělých dialogů, vhodný pro chatboty...
DeepSeek
DeepSeek je pokročilý AI model zaměřený na generování textu a porozumění jazyku. Využívá hluboké učení pro analýzu dat a pos...

© 2025

vyrobila