Галлюцинации AI
Определение
Генерация AI-моделью правдоподобной, но фактически неверной информации.
Простое объяснение
Это когда AI придумывает вещи, которых не существует, но говорит о них уверенно, как будто это правда.
Подробнее
Галлюцинации — одна из главных проблем LLM. Модель может уверенно генерировать выдуманные факты, цитаты, ссылки.
Методы борьбы: RAG (retrieval-augmented generation), fine-tuning, chain-of-thought, fact-checking.
Связанные термины
XAI
XAI (Explainable AI) — подход к созданию AI-систем, чьи решения и процесс рассуждений можно объяснить и понять человеку.
Watermarking
Watermarking — технология встраивания скрытых меток в AI-генерированный контент для последующей идентификации его происхождения.
Data Privacy
Конфиденциальность данных — защита персональной информации при её сборе, хранении и обработке AI-системами.
Red Teaming
Red Teaming — практика систематического тестирования AI-систем на уязвимости путём симуляции атак злоумышленников.
