GPT
Определение
GPT (Generative Pre-trained Transformer) — семейство языковых моделей OpenAI, основанных на архитектуре Transformer, ставших стандартом в генеративном AI.
Простое объяснение
GPT — это название очень умных программ от OpenAI, которые научились писать тексты почти как люди.
Подробнее
Эволюция GPT:
- GPT-1 (2018) — 117M параметров
- GPT-2 (2019) — 1.5B параметров
- GPT-3 (2020) — 175B параметров
- GPT-4 (2023) — мультимодальный
- GPT-4o (2024) — omni-модальный
Связанные термины
Языковая модель
Языковая модель — AI-система, обученная понимать и генерировать текст на естественном языке, предсказывая вероятность следующего слова или токена.
LLaMA
LLaMA (Large Language Model Meta AI) — семейство открытых языковых моделей от Meta, ставшее основой для множества производных моделей.
Diffusion Models
Диффузионные модели — класс генеративных моделей, которые учатся создавать данные путём постепенного удаления шума из случайного входа.
LLM
Большая языковая модель (LLM) — нейронная сеть с миллиардами параметров, обученная на огромных текстовых корпусах для понимания и генерации естественного языка.
