DeepSeek
Open-source модели из Китая. Сильный reasoning, низкие цены
Ключевые особенности
- Полностью open-source
- Можно запускать локально
- Сильный reasoning (R1)
- Самые низкие цены среди топ-моделей
- 671B параметров (V3)
Тарифы
| План | Цена |
|---|---|
| API (V3) | $0.27/1M input |
| API (R1) | $0.55/1M input |
| Self-hosted | Бесплатно |
Обзор
DeepSeek — китайская компания, создавшая одни из лучших open-source моделей. V3 и R1 показывают результаты на уровне проприетарных моделей при значительно меньших затратах. Полностью открытый код — можно запустить локально или использовать через API.
Модели
| Модель | Назначение | Параметры | Цена API |
|---|---|---|---|
| DeepSeek V3 | Основная модель | 671B (MoE) | $0.27/1M input |
| DeepSeek R1 | Reasoning | 671B | $0.55/1M input |
R1 конкурирует с o3 в задачах на рассуждение — при цене в 18 раз дешевле.
Быстрый старт: локальный запуск
Через LM Studio:
- Скачать LM Studio с lmstudio.ai
- В поиске найти
deepseek— выбрать модель по размеру (7B для слабых машин, 33B для мощных) - Скачать модель (несколько GB)
- Начать диалог — модель работает без интернета
Ожидаемая скорость: ~13 токенов/сек на локальном DeepSeek против ~80 у облачного Claude.
Демо: срез знаний
На уроке был показан наглядный эксперимент: локальному DeepSeek задали вопрос «Что произошло 15 марта 2025?» — модель начала галлюцинировать, уверенно генерируя выдуманные события. Это демонстрация среза знаний: локальная модель не знает ничего после даты обучения и не может проверить информацию в интернете.
Когда использовать
- Эксперименты — бесплатный запуск без лимитов и подписок
- Приватность — данные не покидают устройство
- Обучение — наглядная демонстрация работы LLM: видно генерацию токенов, скорость, ограничения
- Дешёвый API — для высоконагруженных задач, где стоимость критична
В курсе
| Урок | Контекст |
|---|---|
| Урок 2 | Пример локальной модели: thinking models, срез знаний, разница между local и cloud workflow |