Hallucination
Определение
Галлюцинация AI — генерация языковой моделью информации, которая выглядит правдоподобно, но является фактически неверной или выдуманной.
Простое объяснение
Это когда AI уверенно рассказывает что-то, что на самом деле выдумал. Как друг, который «точно помнит» то, чего не было.
Подробнее
Причины галлюцинаций:
- Модель оптимизирована на правдоподобность, а не истинность
- Отсутствие информации в обучающих данных
- Смешение похожих фактов
Методы борьбы: RAG (поиск по базе знаний), fact-checking, цепочки рассуждений.
Связанные термины
Языковая модель
Языковая модель — AI-система, обученная понимать и генерировать текст на естественном языке, предсказывая вероятность следующего слова или токена.
Sora
Sora — модель генерации видео от OpenAI, способная создавать реалистичные видеоролики до минуты по текстовому описанию.
GAN
Generative Adversarial Network — архитектура из двух конкурирующих нейросетей: генератора, создающего данные, и дискриминатора, отличающего реальные данные от сгенерированных.
Diffusion Models
Диффузионные модели — класс генеративных моделей, которые учатся создавать данные путём постепенного удаления шума из случайного входа.
