大发5分11选5_极速5分3D

在线AI技术在搜索与推荐场景的应用

时间:2020-01-05 16:55:28 出处:大发5分11选5_极速5分3D

其算法逻辑如上图所示,基本算法是实现线上几3个排序分的有效组合,样本包括日志搜集到的状况空间、Action Space(这里对应的是排序分空间),奖赏是用户有效的Feedback,具体的排序策略表达公式以及策略更新和值函数更新的公式都需用参考Maei,HR的《Toward off-policy learning control with function approximation》一文。

搜索引擎和投放页面绿帘石发生互动:搜索引擎观测消费者的交互状况;搜索引擎根据交互状况执行投放策略;投放策略前一天,呈现商品结果页,消费者在商品结果页中的操作行为反馈给搜索引擎。引擎决策实际都需用改变投放环境,进而影响消费者的交互,改变消费者的状况。很多 不需用建立从状况到动作的策略映射,都需用采用Multi-armed Bandits土方法进行流量探索;很多 需用建立该映射时,需用采用Contextual MAB土方法;在新状况下,考虑消费者的滞后Feedback对于引擎在前一天状况下的Action正确有无产生影响,需用引入强化学习的思想。

搜索和推荐过程都需用抽象成3个序列决策问题报告 ,从消费者与引擎的交互过程中寻找每3个不同状况下的最优排序策略(各种排序因子的合理组合)。

双11当天的成交额是是普通成交日的十到十二倍,点击量将近三十倍。在用户行为密集发生的状况下,有理由相信数据分布在一天内发生了显著的变化,基于3个的考虑,GBDT的Training由3个的日级别升级到小时级别(每小时进行GBDT Training),哪此Training的模型部署到Streaming的计算体系中,对于实时引入的训练样本做实时的预测来生成对应的中间节点,哪此中间节点和人工的特性同去送入FTRL决出相应特性的重要性。

在双11采用的基于强化学习的实时搜索排序调控的实现体系如上图所示。当用户输入query时,会向系统询问哪并全是排序策略最适合个人;该查询策略请求会上传至在线策略决策引擎,在线策略决策引擎通过实时学习的Q(s,a)模型合理挑选有效策略,很多 再返回给搜索引擎;搜索引擎土方法当前状况下最有效策略执行搜索排序;在搜索排序页面展示的同去,系统会及时搜集相应的状况 action以及用户feedback的信号,并进入到Online Training Process;而Online Training Process会通过Off-policy model-free RL土方法学习State To Action的映射关系,再从映射关系中得到线上排序所需用的策略参数;该策略参数由在线策略决策引擎通过Policy Invalid Process输出给在线搜索引擎。

电商平台下的大数据是源自于平台的投放策略和商家的行业活动,哪此数据的背后发生很强Bias信息。所有的学习手段全是通过日志数据发现样本空间的特性和目标之间的相关性;进而生成模型;前一天利用模型预测线上的点击率或转化率,很多 预测模型用于未来流量投放中,很多 两者之间发生一定的时间滞后(systematic bias),也就观测到的数据和实际失效的数据发生着Gap。在工作逻辑中,很多 3个特性和目标发生很强的Correlation,则该特性就应该在线上的预测中起到重要作用。

电商搜索和推荐的智能化演进路程都需用划分为3个阶段:人工运营和非智能时代、机器学习时代、准人工智能时代、人工智能时代。人工运营和非智能时代,主要靠领域知识人工专业运营,平台的流量投放策略是基于简单的相关性+商品轮播;在机器学习时代,利用积累的大数据分析用户购物意图,最大化消费者在整个链路中很多 感兴趣的商品;准人工智能时代,将大数据补救能力从批量补救升级到实时在线补救,有效地消除流量投放时的误区,有效地提高平台流量的探索能力;人工智能时代,平台不仅具有极强的学习能力,也需用具备一定的决策能力,真正地实现流量智能投放。

上图是基于Wide & Deep Learning for Recommender Systems的工作建立的Large Scale Sparse&Dense DNN训练体系的架构,该架构中利用Batch Learning进行Pre-Train,加进进Online数据的Retrain&fine Tuning。模型在双11当天完成一天五百万次的模型更新,哪此模型会实时输送到在线服务引擎,完成Online的Prediction。

对于阿里巴巴电子商务平台而言,它涉及到了买家、卖家和平台三方的利益,很多 需用最大化提升消费者体验;最大化提升卖家和平台的收益。在消费者权益中,涉及到了很多人工智能都需用发力的课题,如购物券和红包的发放,根据用户的购物意图合理地控制发放效率与生奖概率,更好地刺激消费和提升购物体验;对于搜索,人工智能主要用于流量的精细化匹配以及在给定需求下实现最佳的人货匹配,以实现购物路径效率最大化。经过几年的努力,阿里研发了一套基于个性化技术的动态市场划分/匹配技术。

大会所有资源(视频回放、PDF、文章下发)一键下载:https://yq.aliyun.com/articles/65238

整体搜索/推荐希望建立3个Close-loop for iCube learning体系,其中iCube要求系统具备immediate、interactive、intelligent的能力。整体从日志搜集到maximize rewards、minimize dynamic regret实现Online Training;其中Training模块要能高效地部署到Online Service;而Online Service需用具有很强的探索和overcome bias能力,进而使得整个体系要能适应新的数据,提升流量投放效率,同去要能探索新奇和未知的空间。

电商搜索推荐技术演变过程

智能化时代,对于搜索和推荐而言,都需用提炼为两点:学习能力和决策能力。学习能力原应分析搜索体系会学习、推荐平台具有很强的建模能力以及要能索引原始数据到索引知识提升,学习能力更多是捕捉样本特性空间与目标的相关性,最大化历史数据的效率。决策能力经历了从LTR到MAB再到CMAB再到DRL的演变过程,使得平台具备了学习能力和决策能力,形成了智能化体系。

总结

下面简要介绍下为应对今年双11提出的基于强化学习的实时搜索排序调控算法。

大伙的目标是希望搜索引擎决策体系进化为具有强化学习能力的智能化平台。过去的搜索,大伙不都能否 做到遇到同样的用户购物诉求下,尽很多 保证做得并不前一天最好的土方法差,也假如所谓的Historical Signal==Best Strategy;一切模型全是建立在优化直接收益的基础上。未来的搜索,大伙希望要能保证长期收益最大化来决定引擎的排序策略,也假如Immediate Reward+Future Expectation=Best Strategy;未来的排序融合入模式全是建立在优化马尔科夫决策过的基础上,最大化The Discounted Reward。

对于强化学习,它的目标是最大化时刻T所挑选的策略的长期收益最大。对于离散state和离散Action的状况,都需用采用Tabular RL土方法求解;对于连续State和连续Action,采用RL with Function Approximation。其中State表示用户近期发生行为商品的可量化特性,Action表示权重量化(维度是排序特性分),Reward是Systematic Valid User Feedback。

那么 为社 补救Offline Reward Signal不等于Online Dashboard Metrics的问题报告 呢?大伙引入了强化学习,通过引入Online User Feedback更好地定义Reward,对线上排序策略进行调整,使其具有更强的自适应性。

以下内容根据在线分享和幻灯片下发而成。

Online Learning和Batch Learning有很大的区别,在Online Learning的研发过程中,总结了很多技巧:

12月6日-7日,由阿里巴巴集团、阿里巴巴技术发展部、阿里云云栖社区联合主办,以“2016双11技术创新”为主题的阿里巴巴技术论坛(Alibaba Technology Forum,ATF)成功在线举办。在本次分享中,来自阿里巴巴集团的研究员徐盈辉带了题为《在线AI技术在搜索与推荐场景的应用》的精彩演讲,他结合本届双11搜索和推荐场景删剪介绍了电商搜索推荐的技术演变、阿里搜索推荐的新技术体系以及未来的发展方向。

借他山之石以攻玉

在整个体系中,Systematic Bias太难做到理想化的控制,很多 离线模型预期效果与线上的实际生效效果发生差异,这背后的根本原应是Correlation并不等于Causation,也假如特性与目标相关并不原应分析特性再次出现一定原应目标发生。

搜索/推荐引擎决策体系

Streaming FTRL stacking@offline GBDT的基本理念是通过离线的训练,在批量数据上建立GBDT的模型;在线的数据通过GBDT的预测,找到相应的叶子节点作为特性的输入,每3个特性的重要性由online training FTRL进行实时调整。

大会系列下发文章:

基于强化学习的实时搜索排序调控

在AI应用到商业的过程中,未来努力方向是:

借他山之石以攻玉。在线服务体系中,大伙基于参数服务器构建了基于流式引擎的Training体系,该体系消费实时数据,进行Online Training;On Training的起点是基于离线的Batch Training进行Pre-train和Fine Tuning;很多 基于实时的流式数据进行Retraining;最终,实现模型捕捉实时数据的效果。

智能化体系中的决策环节

双11采用Q-learning的土方法进行实时策略排序的学习,将状况值函数从状况和策略空间将其参数化,映射到状况值函数的参数空间中,在参数空间中利用Policies Gradient进行求解;将状况值函数Q拆解成状况值函数V(s)和优势函数A(s,a)进行表达。

热门

热门标签