AI-поиск обоев: как векторный поиск меняет подбор фонов
Чем семантический CLIP-поиск отличается от поиска по тегам и почему он точнее находит «обои с настроением заката над океаном».

Раньше обои искали по тегам: ставили хэштеги вроде #горы, #закат, #4k и надеялись на удачу. Сегодня всё иначе — Cone AI Wallpapers использует CLIP-модель, которая превращает каждое изображение в 512-мерный вектор смыслов. Когда вы пишете «закат над океаном с лёгкой дымкой», запрос конвертируется в такой же вектор и матчится с базой через Qdrant — векторную базу данных.
Что такое векторное представление
Это набор чисел, описывающий не только то, ЧТО изображено, но и НАСТРОЕНИЕ, цвета, композицию. Близкие по смыслу запросы дают близкие векторы. «Тихий лес в тумане» и «спокойный утренний пейзаж» окажутся рядом в векторном пространстве.
Почему это лучше тегов
- Понимает синонимы: «море», «океан», «sea» дают одинаковые результаты
- Учитывает настроение: «уютный», «холодный», «эпичный» — разные оттенки
- Работает на разных языках без перевода
- Не зависит от того, как теги расставил автор
Как мы соединяем CLIP и цвет
Помимо текстового вектора, для каждого обоя считаем доминирующие цвета через k-means кластеризацию. Когда вы выбираете #FFD491 в палитре — мы фильтруем результаты по цветовому пересечению, а потом ранжируем по семантической близости. На выходе — обои, которые подходят и по смыслу, и по цвету одновременно.
Поисковая выдача за миллисекунды. CLIP даёт смысл, k-means даёт цвет, Qdrant даёт скорость.