淘宝网店做市场综合分析(智能淘宝店铺背后的算法研究登陆人工智能顶会AAAI)
淘宝网店做市场综合分析(智能淘宝店铺背后的算法研究登陆人工智能顶会AAAI)图 2 无向图中的非对称性图 1 有向图中的非对称性如今,不仅仅是电商网站首页会给你贴心推荐。你逛进一家淘宝商家的店铺,也很有可能享受到推荐算法的服务。这是阿里商家事业部推出的智能店铺「千人千面」模块。阿里商家事业部相关负责人介绍,单纯通过算法做出的商品推荐,未必符合商家利益。常有商家抱怨,自家想卖的商品得不到推荐,营销被算法牵着鼻子走。而「千人千面」,就是先让商家给出他们想要推送的商品集,算法再从指定候选集中为进入某家商铺的消费者做个性化推荐。如此一来,算法可以为商家的营销服务,为商家既定的 营销计划「锦上添花」。
机器之心专栏
作者:周畅(钟煌)、刘效飞(翼升)等
千人千面模块上线,每一家淘宝店铺从此都可能有一个隐形智能导购,推荐算法再升级。
电商时代,消费者对推荐系统已经不再陌生。「蓦然回首」,你发现喜欢的商品就在首页显眼处。
如今,不仅仅是电商网站首页会给你贴心推荐。你逛进一家淘宝商家的店铺,也很有可能享受到推荐算法的服务。
这是阿里商家事业部推出的智能店铺「千人千面」模块。
阿里商家事业部相关负责人介绍,单纯通过算法做出的商品推荐,未必符合商家利益。常有商家抱怨,自家想卖的商品得不到推荐,营销被算法牵着鼻子走。而「千人千面」,就是先让商家给出他们想要推送的商品集,算法再从指定候选集中为进入某家商铺的消费者做个性化推荐。如此一来,算法可以为商家的营销服务,为商家既定的 营销计划「锦上添花」。
图 1 有向图中的非对称性
图 2 无向图中的非对称性
2.我们的工作
我们的工作所做的改进其实非常简单,首先为了有能力表达非对称性相似度,我们为每个节点引入了两种 Embedding 向量,分别是 Source 向量和 Target 向量,如图一所示。我们将对于 A 来说 B 的相似度记为 sim(A,B),并使用 Source(A) 与 Target(B) 的点积来表示,图一中我们可以从 Embedding 中算出 sim(A,C)<sim(C A)。
图 3 节点的两种 Embedding 身份
其次我们遵循了一种标准的、用来估计 Rooted PageRank【3】的蒙特卡洛随机游走的方法【1】【8】来进行正例的采样。
节点 u 对于节点 v 的 Rooted PageRank(PPR)值代表了从 v 出发落在 u 点的概率。我们认为以这种方式生成图中节点对的正样例是更加自然、合理、有说法的。
这类游走方法都是基于常见的 Random Walk with Restart,即从一个点出发以(1-alpha)的概率选择邻居进行跳转,另外 alpha 的概率跳转回自己。那么现有的几种方法稍有一些区别:
例如 Monte Carlo End Point 只保留首次跳转之前的节点,Monte Carlo Full Path 保留路径上的所有节点,将路径的后缀也当作有效的采样【1】。因为这两条路径对于起始点来说可以看作是相互独立的。在最新的工作中也有对前缀路径进行重用的【8】,就不再此展开。值得注意的是,后两种的采样效率相对于 1 来说要更高,尽管这三种方法都在各自的文章中被证明是正确且有 Bound 的。
我们遵循这类游走方法,企图给图中的节点对创造一些正样本。对于每一个被标记为正例的样本(A B)我们会根据目标函数更新 A 的 source 向量和 B 的 Target 向量。并且随机采样其他的节点作为负样本。
我们定义给定节点 u,可以预测到节点 v 的概率
利用 Skip-Gram with Negative-Sampling【5】,近似等价于优化
K 是负采样数,P_D(n)在图中可用均匀分布替代。则总的目标函数如下:
下面我们来解释一个有趣的现象,我们非对称的点积最终会是以学习出两点之间的 PPR 的对数为目标。
这里,类似于 Levy【4】的证明,当维数充分大时,可看作互相独立的变量。于是另下式为 0:
得到:
由于|V| k 均为常数,我们可以看出 x 只跟 Rooted PageRank 的模拟值 Sim_u(v) 呈对数关系。通过以上证明,论证了该方法可以保持非对称的、高阶相似度的说法,因为 Rooted PageRank 就是一种非对称的、高阶的相似度度量。
3.小数据集上的实验
Link Prediction Task(AUC):Embedding 方法相对于传统 Pre-defined i2i 指标来说,在 AUC 上很占便宜。因为传统指标大多基于 2 跳以内的关系,包括阿里内部使用的 Swing。这样就有很多正例的结果是 0——完全无法和负例分开,AUC 不高。可以看出我们的方法(APP)在比现有的方法要好一些。
下表是为了体现非对称性的优势,而在负样本中加大了单向边的比例,即 A->B 有边,B->A 无边。可以看出我们与之前的方法在 LinkPrediction 任务上有显著提升。
Node Recommendation:
值得注意的是,在寻找 topk 的这个问题当中,我们发现之前的 Embedding 方法似乎并没有传统指标靠谱。但我们的方法可以比较好的反应 Topk 的相似关系。
4.在模块千人千面中的实践
为了缓解用户在店铺内部行为的稀疏性,我们将用户 Session 中的全网点商品击序列转化成一个全网商品点击转换图。之后应用我们的 Graph Embedding 方法得到商品向量。该向量可以用来计算用户点击行为所产生的商品之间的相似度。下图是我们与传统 topk i2i 方法在真实场景中的点击率比较。
我们的这项工作目前还只是作为 Match 打分的基础算法,我们正在尝试进一步融合一些外部信息,如商品文本属性、类目信息等,提高长尾商品的结构化 Embedding 质量。
参考文献:
1.Fogaras D.; R´acz B.; Csalog´any K.; and Sarl´os T. 2005. Towards scaling fully personalized pagerank: Algorithms lower bounds and experiments. Internet Mathematics 2(3):333–358.
2.Grover A. and Leskovec J. 2016. node2vec: Scalable feature learning for networks. In International Conference on Knowledge Discovery and Data Mining. ACM.
3.Haveliwala T. H. 2002. Topic-sensitive pagerank. In Proceedings of the 11th international conference on World Wide Web 517–526. ACM.
4.Levy O. and Goldberg Y. 2014. Neural word embedding as implicit matrix factorization. In Advances in neural information processing systems 2177–2185.
5.Mikolov T.; Sutskever I.; Chen K.; Corrado G. S.; and Dean J. 2013. Distributed representations of words and phrases and their compositionality. In Advances in neural information processing systems 3111–3119.
6.Perozzi B.; Al-Rfou R.; and Skiena S. 2014. Deepwalk: Online learning of social representations. In Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining 701–710. ACM.
7.Tang J.; Qu M.;Wang M.; Zhang M.; Yan J.; and Mei Q. 2015. Line: Large-scale information network embedding. In Proceedings of the 24th International Conference on World Wide Web 1067–1077. ACM.
8.Liu Q.; Li Z.; Lui J.; and Cheng J. 2016. Powerwalk: Scalable personalized pagerank via random walks with vertex-centric decomposition. In Proceedings of the 25th ACM International on Conference on Information and Knowledge Management 195–204. ACM.