Tokenizer
Определение
Tokenizer — компонент, преобразующий текст в последовательность токенов (чисел), которые понимает языковая модель.
Простое объяснение
Tokenizer — как переводчик человеческого языка в язык цифр, который понимает AI. Разбивает текст на кусочки и присваивает каждому номер.
Подробнее
Связанные термины
AI (Artificial Intelligence)
Искусственный интеллект — область компьютерных наук, занимающаяся созданием систем, способных выполнять задачи, требующие человеческого интеллекта.
Эпоха AI
Эпоха AI — текущий исторический период, характеризующийся массовым внедрением искусственного интеллекта во все сферы жизни и экономики.
Паттерн
Повторяющийся шаблон или закономерность в данных, которую AI-модели учатся распознавать и использовать для предсказаний.
Запрос (Query) в AI
Запрос (Query) — входные данные или команда, отправляемая AI-системе или базе данных для получения информации или выполнения действия.
