Pre-training
Определение
Предобучение — начальный этап обучения AI-модели на огромных объёмах неразмеченных данных для формирования базовых знаний и способностей.
Простое объяснение
Это когда AI сначала читает огромное количество текстов из интернета, чтобы выучить язык и получить базовые знания.
Подробнее
Этапы создания LLM:
- Pre-training — обучение на интернет-данных
- Instruction tuning — обучение следовать инструкциям
- RLHF — alignment с человеческими предпочтениями
Pre-training требует огромных вычислительных ресурсов (миллионы GPU-часов).
Связанные термины
QLoRA
Quantized LoRA — усовершенствованная версия LoRA, сочетающая квантизацию модели до 4 бит с адаптацией низкого ранга.
Deep Learning
Глубокое обучение — подраздел машинного обучения, использующий многослойные нейронные сети для обработки сложных данных и выявления абстрактных паттернов.
Few-shot Learning
Few-shot Learning — способность модели выполнять новую задачу, увидев лишь несколько примеров в промпте без дополнительного обучения.
Transformer
Трансформер — архитектура нейронной сети с механизмом внимания (attention), ставшая основой современных языковых моделей и генеративного AI.
