LM Studio
Запуск LLM локально на своём компьютере — без облака и подписок
Ключевые особенности
- Локальный запуск LLM
- Без интернета и подписок
- Визуальный интерфейс
- Поддержка GGUF моделей
Обзор
LM Studio — приложение для запуска LLM локально на своём компьютере. Без облака, без подписок, без интернета. Модели скачиваются и работают полностью на устройстве.
Быстрый старт
- Скачать LM Studio с lmstudio.ai
- В поиске найти
deepseekилиllama— выбрать модель по размеру - Скачать модель (от 2 до 30+ GB в зависимости от размера)
- Начать диалог — модель работает полностью локально
Выбор модели по железу
| RAM | Рекомендованный размер модели |
|---|---|
| 8 GB | 7B параметров (базовые задачи) |
| 16 GB | 13-14B (хорошее качество) |
| 32 GB+ | 33B+ (приближается к облачным) |
Демо: срез знаний
На уроке был показан наглядный эксперимент: локальному DeepSeek задали вопрос «Что произошло 15 марта 2025?» — модель начала уверенно генерировать выдуманные события. Наглядная демонстрация: локальная модель не знает ничего после даты обучения и не может проверить информацию.
Скорость: локальное vs облачное
| Модель | Скорость | Стоимость |
|---|---|---|
| Локальный DeepSeek (LM Studio) | ~13 токенов/сек | Бесплатно |
| Облачный Claude Opus | ~80 токенов/сек | $15/1M input |
Локальные модели в 6 раз медленнее, но данные не покидают устройство и нет лимитов.
Когда использовать
- Обучение — наглядная демонстрация работы LLM: видно генерацию токенов, скорость
- Эксперименты — бесплатный запуск без лимитов
- Приватность — данные не покидают устройство
- Офлайн — работа без интернета
Когда НЕ использовать
- Для продуктивной разработки — облачные модели значительно быстрее и качественнее
- Для сложных задач — локальные 7B модели не сравнятся с Opus по качеству
В курсе
| Урок | Контекст |
|---|---|
| Урок 2 | Наглядный пример: thinking models, срез знаний, разница между local и cloud |