LLM (Large Language Model)

Большая языковая модель — нейросеть, обученная предсказывать следующий токен в последовательности

Категория
Основы
Сложность
Начинающий

Определение

LLM — языковая модель, обученная на огромных массивах текста методом самоконтролируемого обучения. В основе — трансформерная архитектура: модель вычисляет вероятности следующего слова, опираясь на весь контекст. Современные LLM мультимодальны — обрабатывают текст, изображения, аудио и код.

Простая аналогия: LLM — T9 на максималках. T9 предсказывал одно слово по предыдущему. LLM предсказывает следующий токен, опираясь на миллиарды параметров и весь контекст разговора.

Почему это важно

За всеми инструментами — Claude, ChatGPT, V0, Cursor — стоит одна и та же механика: LLM предсказывает следующий токен. Понимание этого объясняет:

  • Почему контекст важнее длинных промптов — модель опирается на всё окно, не только на последнее сообщение
  • Почему модели «галлюцинируют» — генерируют правдоподобный, но неверный текст (высокая вероятность слова не значит правильность факта)
  • Почему разные модели дают разные результаты — один промпт → три разных ответа в Claude, ChatGPT, Gemini

Актуальные модели (март 2026)

МодельПровайдерСилаЦена API (input)
Claude Opus 4.6AnthropicКодинг, SWE-bench 80.9%$15/1M
Claude Sonnet 4.5AnthropicБаланс скорости и качества$3/1M
GPT-4oOpenAIМультимодальность$2.50/1M
o3OpenAIReasoning, математика$10/1M
Gemini 2.5 ProGoogleКонтекст 2M токенов$1.25/1M
DeepSeek V3DeepSeekOpen-source, дешёвый$0.27/1M
Claude Haiku 4.5AnthropicДешёвая рутина$0.25/1M

Разные модели для разных задач

Не все задачи требуют самой мощной модели:

  • Opus — архитектура, планирование, оркестрация
  • Haiku — рутинные задачи (парсинг, форматирование). В 60 раз дешевле Opus
  • o3 — задачи на сложное рассуждение и математику
  • Gemini 2.5 Pro — работа с большими документами (контекст 2M)

Галлюцинации

LLM генерирует текст, который статистически вероятен — не обязательно правдивый. Модель может уверенно написать несуществующую функцию API или сослаться на выдуманную статью. Для фактов — проверяйте через Perplexity или Exa. Для кода — запускайте тесты.

Срез знаний

Модель обучена на данных до определённой даты. Всё, что произошло после — она не знает и может выдумать. LM Studio наглядно демонстрирует это: локальный DeepSeek не знает событий после даты обучения. Решения: Context7 (свежая документация), Exa (поиск в интернете), Perplexity (ручной ресёрч).

Мультимодальность

Современные LLM работают не только с текстом:

  • Изображения: загрузить скриншот бага → модель объясняет проблему и предлагает фикс
  • Аудио: голосовой ввод, транскрипция, диалог
  • Код: не просто генерация — агент читает проект, понимает архитектуру, пишет связный код
  • Видео: Gemini обрабатывает видео, другие модели пока ограничены кадрами

В курсе

УрокКонтекст
Урок 1Введение через аналогию с T9. Студенты сравнивают модели: один промпт → разные результаты
Урок 2Различие AI-редакторов через LLM: «суть не в интерфейсе, а в модели под капотом»
Урок 4Haiku vs Opus: разные модели для разных задач. Haiku дешевле, используется субагентами

Ссылки

Связанное

Редактировать на GitHub →