Этика AI
Определение
Этика AI — область, изучающая моральные вопросы разработки и применения AI: справедливость, прозрачность, ответственность, влияние на общество.
Простое объяснение
Это правила о том, как создавать и использовать AI так, чтобы он был честным, безопасным и не причинял вреда людям.
Подробнее
Ключевые принципы этики AI:
- Fairness — отсутствие дискриминации
- Transparency — объяснимость решений
- Accountability — ответственность за результаты
- Privacy — защита данных
- Safety — безопасность
Регулирование: EU AI Act, принципы OECD AI.
Связанные термины
Bias
Предвзятость в AI — систематические ошибки или искажения в данных и алгоритмах, которые приводят к несправедливым или дискриминационным результатам.
Data Privacy
Конфиденциальность данных — защита персональной информации при её сборе, хранении и обработке AI-системами.
Jailbreak
Jailbreak — техники обхода встроенных ограничений AI-модели для получения запрещённых ответов или нежелательного поведения.
Model Card
Model Card — стандартизированный документ, описывающий ML-модель: её назначение, производительность, ограничения и этические аспекты.
