Частотные методы дают лучшие результаты
ИИ предсказывает вашу следующую покупку в приложении
Задача Next Basket Recommendation (NBR) ставит цель предсказывать, какие товары пользователь добавит в следующую корзину, основываясь на последовательности его прошлых корзин. В каждой корзине элементы образуют множество, внутри которого порядок не важен, поэтому модель учится на последовательности таких множеств. Рекомендуются k позиций по релевантности, которые затем сравнивают с настоящей корзиной. Размещение таких подсказок на странице корзины в приложении экономит время, напоминает забытые позиции и побуждает к новым покупкам, что в итоге поднимает средний чек и лояльность.
Методы варьируются от простых частотных до глубокого обучения. Частотные подходы, вроде TopFreq и PersonalTopFreq, часто дают сильныйBaseline. Более продвинутые — TIFU-KNN, учитывающий внутригрупповую и межгрупповую динамику, и TAIW, выделяющий временные паттерны купли товара. Среди DL-моделей выделяются Dream, Sets2Sets, Beacon и DNNTSP, которые работают с отношениями внутри корзин и зависимостями между корзинами во времени. Однако на практике частотные методы часто оказываются конкурентоспособными, а DNNTSP демонстрирует хорошие результаты на некоторых датасетах.
Что такое Next Basket Recommendation (NBR)
Задача Next Basket Recommendation (NBR) состоит в предсказании набора товаров, который пользователь добавит в свою следующую корзину на основе последовательности предыдущих корзин. В отличие от моделей, работающих с упорядоченными отдельными товарами, здесь каждая корзина — это множество элементов, и важна сама корзина, а не точная временная последовательность внутри неё. Мы формируем для пользователя рекомендации из k товаров, упорядоченных по релевантности, и сравниваем их с тем, что окажется в реальной корзине.
Главное применение — размещение таких рекомендаций на странице корзины в мобильном приложении: это экономит время пользователя, помогает не забывать нужные позиции и может подталкивать к новым продуктам. Для компаний это увеличение частоты повторных покупок и среднего чека, что positively влияет на юнит-экономику и лояльность клиента, и в итоге сказывается на его LTV.
Особенности задачи NBR
Особенности задачи NBR: внутри корзин нет строгой временной сортировки и каждая позиция одинаково важна для построения предсказаний. Задача строится на упорядоченной по времени последовательности множеств корзин пользователя, а не на отдельных товарах. Это значит, что модели должны работать с корзиной как с набором элементов, а не с последовательностью отдельных позиций. Как и в обычных рекомендациях, здесь есть exploration и exploitation: следующая корзина часто состоит из повторяющихся покупок и одновременно новых, но релевантных товаров. Повторения — характерная особенность: пользователи часто покупают те же товары снова. Но важно не зацикливаться на прошлом: нужно предлагать релевантные новые позиции. В итоге задача требует учитывать как внутри‑корзинную комплементарность и частоту встречаемости товаров, так и временную динамику между корзинами, то есть историю последовательностей множеств во времени.
Как оценивать качество?
Как оценивать качество? Лучшие способы проверки — онлайн A/B-тесты с бизнес-метриками: средний чек, частота покупок и доля товаров в корзине, добавленных благодаря рекомендациям. Эти метрики показывают реальное влияние модели на поведение пользователей и экономику приложения. Поскольку онлайн-тесты требуют затрат времени и ресурсов, перед ними применяют офлайн-метрики на исторических данных, чтобы предварительно сравнить модели и сузить круг кандидатов.
В задачах NBR обычно используют Recall@K и NDCG@K — долю истинных товаров корзины, попавших в топ-K и качество ранжирования соответственно. Дополнительно применяют Novelty@K — число правильно предсказанных ранее не встречавшихся в истории товаров, что демонстрирует способность к открытию новинок. Комбинация этих метрик позволяет оценивать как точность и релевантность, так и разнообразие рекомендаций, и подбирать оптимальный баланс для онлайн-проведения.
Методы рекомендаций для NBR
В задачe NBR применяют разные подходы: простые частотные методы и современные нейросетевые модели. Частотные методы — наилегчайшие и часто сильнейшие: TopFreq выбирает K самых популярных товаров, G-TopFreq исключает персональные предпочтения, PersonalTopFreq дополняет локальную частоту пользователя популярными глобальными товарами. Далее TIFU-KNN делит историю в группы одинакового размера и взвешивает корзины внутри групп, после чего усредняет группы по межгрупповым весам. Итоговый вектор пользователя используется для поиска ближайших соседей и усреднения их векторов. Но здесь не учитываются интервалы между покупками и веса товаров одинаковы.
TAIW — Time-Aware Item Weighting — вводит базовую интенсивность P_{u,i}^0 и добавляет усреднение соседей с учётом краткосрочных и долгосрочных паттернов покупки товара.
DL-подходы включают Dream, Sets2Sets, Beacon и DNNTSP. DNNTSP строит граф взаимосвязей товаров внутри корзин, затем через attention уловляет временные зависимости корзин и объединяет это через механизм обновления. Частотные методы остаются сильной базой, а DNNTSP порой демонстрирует лучшие результаты среди DL‑моделей на отдельных датасетах.
Частотные методы
Частотные методы в задаче NBR просты по сути: они строят рекомендации на частотности товаров в каталоге и в истории пользователя. Их главная сильная сторона — интерпретируемость: легко объяснить, почему конкретный товар попал в выдачу, и адаптировать стратегию под изменяющийся ассортимент. Благодаря этому они становятся прочным бейзлайном: на реальных данных часто превосходят более сложные нейросетевые решения и дают устойчивые результаты даже при ограниченной выборке.
Примеры базовых подходов включают TopFreq — выбираем k самых популярных товаров в каталоге; G-TopFreq — не учитывает индивидуальные предпочтения; PersonalTopFreq — сначала заполняет корзину товарами по частоте в истории конкретного пользователя, затем дополняет самыми популярными товарами из глобального датасета. Эти простые методы хорошо работают в NBR, особенно когда нужна прозрачная метрика и быстрая оценка идей.
TIFU-KNN (Temporal-Item-Frequency-Based User-KNN)
ТIFU-KNN была одной из первых моделей, которая уверенно обогнала PersonalTopFreq на публичных датасетах, сочетая персональную частоту покупки товара пользователем и популярность позиций среди пользователей с похожей историей. Это позволяет предлагать “новые” товары, которые закупают похожие пользователи.
Основные шаги: каждая корзина представляется как one-hot вектор размера каталога; историю покупок разбивают на K групп равного размера n, каждой группе присваиваются внутригрупповые веса w1…wn, причем более новые корзины внутри группы получают больший вес; суммируя взвешенные векторы внутри группы, получают вектор группы. Затем каждому такому вектору группы присваиваются межгрупповые веса r1…rK, и суммирование даёт итоговое представление пользователя ut. Для рекомендаций ищут m ближайших соседей ut среди векторов остальных пользователей и усредняют их, получая вектор un; итоговые очки товаров считаются на основе un.
Однако модель не учитывает различия между товарами во времени: веса одинаковы для всех позиций и не учитываются временные интервалы между покупками, то есть не видно, через сколько времени тот или иной товар может повториться.
TAIW (Time-Aware Item Weighting)
Модель TAIW добавляет временной компонент к оценке релевантности товаров. Для каждой пары пользователь u — товар i рассчитывается базовая интенсивность P_{u,i}^0, отражающая индивидуальные предпочтения и историческую частоту покупок. Затем, аналогично подходу TIFU-KNN, усредняются векторы соседей по последним транзакциям и этот средний вектор добавляется к текущему значению P_{u,i}(t) с учётом коэффициента α. В результате получается обновлённый вектор релевантности, по которому можно ранжировать товары для конкретного пользователя в данный момент.
DL-модели в NBR
Глубокие методы в NBR пытаются автоматически извлекать скрытые зависимости между товарами и формировать качественные представления пользователей. Они работают с неявными паттернами внутри корзин и с их временной динамикой, превращая сырые данные в векторные представления, на которых можно строить прогноз следующей покупки.
В списке заметных DL-архитектур DNNTSP особенно часто упоминается как пример потенциальной выгоды глубокой архитектуры: она состоит из трех взаимодополняющих частей — Element Relationship Learning (графовая сеть для обучения связей между товарами внутри корзин), Attention-based Temporal Dependency Learning (внимание к временным зависимостям между корзинами), и Gated Information Fusing (сшивка стационарного и временного сигналов). В ряде независимых обзоров DNNTSP демонстрирует сильные результаты на публичных датасетах и порой опережает традиционные частотные подходы, включая TIFU-KNN.
DNNTSP (Deep Neural Network for Temporal Sets Prediction)
DNNTSP — Deep Neural Network for Temporal Sets Prediction — предназначена для анализа последовательностей множеств и учета взаимосвязей элементов и временной динамики. Архитектура состоит из трех компонентов: 1) Element Relationship Learning: строится граф частот совместного появления товаров внутри истории, узлы — товары; применяется графовая сверточная сеть, которая распространяет информацию между узлами графа и учит комплементарности товаров. 2) Attention-based Temporal Dependency Learning: механизм внимания выявляет временные зависимости между корзинами и товарами; исторические состояния элементов сводятся в компактный скрытый вектор. 3) Gated Information Fusing: объединение неизменных характеристик элементов с временными зависимостями через механизм обновления, итоговая релевантность получает линейный слой на обновлённом представлении товара. DNNTSP учитывает как связи внутри корзин, так и эволюцию предпочтений во времени; по сравнению с частотными методами он демонстрирует конкурентные результаты на отдельных наборах данных, иногда превосходя их.
Итоги
Итоговая картина в Next Basket Recommendation такова: выбор подхода зависит от объема данных и задач. В большинстве случаев надёжнее и эффективнее работают частотные техники и их усовершенствования, например PersonalTopFreq и TIFU-KNN. Они дают крепкий бейзлайн, хорошо справляются с ограниченной информацией и приближенно моделируют повторяющиеся покупки, что критично в реальных приложениях.
DL-модели, включая DNNTSP, дают дополнительные преимущества там, где необходимы сложные паттерны и точная моделировка временной динамики между корзинами. Но они требуют большего объема данных и вычислительных ресурсов, что поднимает порог входа и риск переобучения на слабых наборах.
В идеале стоит сочетать подходы: начинать с частотных баз и их инструментов, а при наличии данных и ресурсов подключать DL-методы для повышения точности и учета временных зависимостей.