Attention Mechanism
Определение
Механизм внимания — фундаментальный компонент современных нейросетей, позволяющий модели динамически фокусироваться на релевантных частях входных данных.
Простое объяснение
Механизм внимания работает как ваш мозг при чтении: когда вы отвечаете на вопрос о тексте, вы не перечитываете всё заново, а фокусируетесь на ключевых местах, которые относятся к вопросу.
Подробнее
Связанные термины
Глубокое обучение
Подмножество машинного обучения, использующее многослойные нейронные сети для анализа данных.
Few-shot Learning
Few-shot Learning — способность модели выполнять новую задачу, увидев лишь несколько примеров в промпте без дополнительного обучения.
MoE
Mixture of Experts — архитектура нейросети, состоящая из множества специализированных подсетей (экспертов) и маршрутизатора, который направляет входные данные к наиболее подходящим экспертам.
Pre-training
Предобучение — начальный этап обучения AI-модели на огромных объёмах неразмеченных данных для формирования базовых знаний и способностей.
