DeepSeek
Was ist DeepSeek?
DeepSeek ist ein chinesisches KI-Startup, das sich auf die Entwicklung fortschrittlicher Sprachmodelle und künstlicher Intelligenz spezialisiert hat.
Das Unternehmen wurde im März 2023 in Hangzhou, China, gegründet und wird vom chinesischen Hedgefonds High-Flyer finanziert.
DeepSeek gewann internationale Aufmerksamkeit durch die Veröffentlichung seiner leistungsstarken KI-Modelle, die mit etablierten Systemen wie ChatGPT von OpenAI und Claude von Anthropic konkurrieren.
Wie hat sich DeepSeek entwickelt?
Die Ursprünge von DeepSeek liegen im Hedgefonds High-Flyer, der 2016 von drei Informatikern mit Schwerpunkt auf algorithmischen Handelsstrategien gegründet wurde.
2019 nutzte das Unternehmen seine Handelserlöse, um eine KI-gestützte Tochtergesellschaft, High-Flyer AI, zu gründen und investierte 28 Millionen US-Dollar in Deep-Learning-Infrastruktur.
Diese Investition wurde 2021 verfünffacht. Bis 2023 war die KI-Forschung so weit fortgeschritten, dass ein separates Forschungslabor namens DeepSeek gegründet wurde, das sich ausschließlich auf die Entwicklung künstlicher allgemeiner Intelligenz (AGI) konzentriert.
Welche KI-Modelle hat DeepSeek entwickelt?
DeepSeek V3
DeepSeek V3 ist das aktuelle Flaggschiff-Modell mit einer revolutionären Mixture-of-Experts (MoE)-Architektur und insgesamt 671 Milliarden Parametern, wobei nur 37 Milliarden pro Token aktiviert werden.
Es wurde mit 14,8 Billionen hochwertigen Token trainiert und verfügt über eine Kontextlänge von 128K. Das Modell setzt neue Maßstäbe in den Bereichen logisches Denken, mathematische Berechnungen, Programmierung und mehrsprachige Verarbeitung.
DeepSeek R1
Im Januar 2025 präsentierte DeepSeek das erweiterte LLM DeepSeek-R1. Im Gegensatz zu bisherigen Modellen mit überwachter Feinabstimmung nutzt R1 das auf Millionen von Inferenzspuren trainierte Bestärkende Lernen (RL).
Es war der erste KI-Chatbot, bei dem die Schritte des Denkprozesses beim Nachdenken (Reasoning) mitverfolgt werden können. DeepSeek-R1 wurde unter der MIT-Lizenz veröffentlicht, die uneingeschränkten Open Access fördert.
Wie schneidet DeepSeek in Benchmarks ab?
DeepSeek V3 erzielt herausragende Ergebnisse in verschiedenen KI-Benchmarks:
- MMLU (EM) Score von 88.5, fast auf dem Niveau von Llama3.1 (88.6) und Claude-3.5 (88.3)
- In der MMLU-Redux (EM)-Bewertung führt DeepSeek V3 mit 89.1 und übertrifft Claude-3.5 (88.9)
- Übertrifft alle anderen Modelle in DROP (3-shot F1) mit 91.6, was auf ausgezeichnete Fähigkeiten zur logischen Schlussfolgerung hinweist
- Zeigt eine außergewöhnliche IF-Eval (Prompt Strict)-Bewertung von 86.1
Wie kann man auf DeepSeek zugreifen?
Der Zugang zu DeepSeek ist auf verschiedene Weisen möglich:
- Über die DeepSeek-App (verfügbar für Android und iOS)
- Über die Webseite
- Über die Programmierschnittstelle (API)
- Durch Installation auf einem eigenen Computer
- Über die Microsoft Azure Cloud
Was macht DeepSeek besonders?
DeepSeek zeichnet sich durch seine Mixture-of-Experts-Architektur aus, die es ermöglicht, ein sehr großes Modell (671 Milliarden Parameter) effizient zu betreiben, da nur 37 Milliarden Parameter pro Token aktiviert werden.
Dies macht das Modell wesentlich schneller und kostengünstiger als andere führende LLMs bei vergleichbarer oder besserer Leistung. Besonders in den Bereichen Mathematik, logisches Denken und Programmierung setzt DeepSeek neue Maßstäbe unter den Open-Source-KI-Modellen.
Häufige Fragen (FAQ)
Wer leitet DeepSeek?
DeepSeek wird von CEO Liang Wenfeng geleitet.
Ist DeepSeek Open Source?
DeepSeek-R1 wurde unter der MIT-Lizenz veröffentlicht, die kommerzielle und akademische Nutzung ohne Einschränkungen erlaubt, allerdings sind die spezifischen Trainingsdaten nicht zugänglich.
Welche Sprachen unterstützt DeepSeek?
DeepSeek unterstützt mehrere Sprachen, darunter auch Deutsch.
Wie kann ich DeepSeek kostenlos nutzen?
DeepSeek bietet eine kostenlose Version seiner KI über die mobile App und die Webseite an.
Verwandte Begriffe
- Künstliche Intelligenz (KI)
- Large Language Model (LLM)
- Mixture-of-Experts (MoE)
- Chain-of-Thought (CoT)
- Open-Source-KI
- Reinforcement Learning (RL)
- Generative KI
- Natural Language Processing (NLP)
- Künstliche Allgemeine Intelligenz (AGI)
- Sprachmodell