LLM Cache в поиске Лавки / Алексей Щекалев

Значительная часть продаж в Лавке приходится всего на небольшое число поисковых запросов. Чтобы повысить эффективность поиска, именно на этих запросах нужно обеспечивать максимально качественный ответ. В своём докладе Алексей рассказал, как эту задачу помогает решать LLM Cache — инструмент, который делает поиск точнее там, где это важнее всего для GMV. Кроме того он подробно разобрал, как устроен поисковый пайплайн с использованием LLM Cache. И особое внимание уделил практическим кейсам: от упрощённого подключения новых партнёров с незнакомым ассортиментом до успешных внедрений в категориях аптек, зоотоваров и цветов. Также он поделился результатами пилотных проектов с «Пятёрочкой» и «Перекрёстком» и сравнил разные подходы — SaaS‑решения против собственного LLM Cache. Спикер: Алексей Щекалёв, ML-разработчик в Яндекс Лавке