Hallucination
Определение
Галлюцинация AI — генерация языковой моделью информации, которая выглядит правдоподобно, но является фактически неверной или выдуманной.
Простое объяснение
Это когда AI уверенно рассказывает что-то, что на самом деле выдумал. Как друг, который «точно помнит» то, чего не было.
Подробнее
Причины галлюцинаций:
- Модель оптимизирована на правдоподобность, а не истинность
- Отсутствие информации в обучающих данных
- Смешение похожих фактов
Методы борьбы: RAG (поиск по базе знаний), fact-checking, цепочки рассуждений.
Связанные термины
Sora
Sora — модель генерации видео от OpenAI, способная создавать реалистичные видеоролики до минуты по текстовому описанию.
Context Window
Контекстное окно — максимальный объём текста (в токенах), который языковая модель может обработать за один раз, включая входной запрос и генерируемый ответ.
Multimodal
Multimodal — способность AI-системы обрабатывать и генерировать данные разных типов: текст, изображения, аудио, видео.
Запрос
Запрос (промпт) — текстовая инструкция или вопрос, отправляемый пользователем языковой модели для получения ответа.
