LLM (Large Language Model)
Большая языковая модель — нейросеть, обученная предсказывать следующий токен в последовательности
Определение
LLM — языковая модель, обученная на огромных массивах текста методом самоконтролируемого обучения. В основе — трансформерная архитектура: модель вычисляет вероятности следующего слова, опираясь на весь контекст. Современные LLM мультимодальны — обрабатывают текст, изображения, аудио и код.
Простая аналогия: LLM — T9 на максималках. T9 предсказывал одно слово по предыдущему. LLM предсказывает следующий токен, опираясь на миллиарды параметров и весь контекст разговора.
Почему это важно
За всеми инструментами — Claude, ChatGPT, V0, Cursor — стоит одна и та же механика: LLM предсказывает следующий токен. Понимание этого объясняет:
- Почему контекст важнее длинных промптов — модель опирается на всё окно, не только на последнее сообщение
- Почему модели «галлюцинируют» — генерируют правдоподобный, но неверный текст (высокая вероятность слова не значит правильность факта)
- Почему разные модели дают разные результаты — один промпт → три разных ответа в Claude, ChatGPT, Gemini
Актуальные модели (март 2026)
| Модель | Провайдер | Сила | Цена API (input) |
|---|---|---|---|
| Claude Opus 4.6 | Anthropic | Кодинг, SWE-bench 80.9% | $15/1M |
| Claude Sonnet 4.5 | Anthropic | Баланс скорости и качества | $3/1M |
| GPT-4o | OpenAI | Мультимодальность | $2.50/1M |
| o3 | OpenAI | Reasoning, математика | $10/1M |
| Gemini 2.5 Pro | Контекст 2M токенов | $1.25/1M | |
| DeepSeek V3 | DeepSeek | Open-source, дешёвый | $0.27/1M |
| Claude Haiku 4.5 | Anthropic | Дешёвая рутина | $0.25/1M |
Разные модели для разных задач
Не все задачи требуют самой мощной модели:
- Opus — архитектура, планирование, оркестрация
- Haiku — рутинные задачи (парсинг, форматирование). В 60 раз дешевле Opus
- o3 — задачи на сложное рассуждение и математику
- Gemini 2.5 Pro — работа с большими документами (контекст 2M)
Галлюцинации
LLM генерирует текст, который статистически вероятен — не обязательно правдивый. Модель может уверенно написать несуществующую функцию API или сослаться на выдуманную статью. Для фактов — проверяйте через Perplexity или Exa. Для кода — запускайте тесты.
Срез знаний
Модель обучена на данных до определённой даты. Всё, что произошло после — она не знает и может выдумать. LM Studio наглядно демонстрирует это: локальный DeepSeek не знает событий после даты обучения. Решения: Context7 (свежая документация), Exa (поиск в интернете), Perplexity (ручной ресёрч).
Мультимодальность
Современные LLM работают не только с текстом:
- Изображения: загрузить скриншот бага → модель объясняет проблему и предлагает фикс
- Аудио: голосовой ввод, транскрипция, диалог
- Код: не просто генерация — агент читает проект, понимает архитектуру, пишет связный код
- Видео: Gemini обрабатывает видео, другие модели пока ограничены кадрами
В курсе
| Урок | Контекст |
|---|---|
| Урок 1 | Введение через аналогию с T9. Студенты сравнивают модели: один промпт → разные результаты |
| Урок 2 | Различие AI-редакторов через LLM: «суть не в интерфейсе, а в модели под капотом» |
| Урок 4 | Haiku vs Opus: разные модели для разных задач. Haiku дешевле, используется субагентами |
Ссылки
Связанное
- Токен — единица текста, которую обрабатывает LLM
- Контекст — окно внимания модели
- Оркестрация — координация нескольких LLM
- Агентский цикл — LLM в цикле с действиями