《Storm技术内幕与大数据实践》一9.3 广告投放的精准化

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

本节书摘来异步社区《Storm技术内幕与大数据实践》一书中的第9章,第9.3节,作者: 陈敏敏 , 黄奉线 , 王新春
责编: 杨海玲,更多章节内容可以访问云栖社区“异步社区”公众号查看。

9.3 广告投放的精准化

广告投放的精准化其实和个性化推荐本质是一样,都是在合适的时间、地点以及场景下,把用户最需要的信息推荐给他。不算黑暗互联网,广告、秀场/游戏和电商被认为是互联网的三大变现模式(也有说,移动互联网多了增值服务第四大变现模式),其中广告对收入的驱动力最直接,商业驱动技术的发展,造就了精准化营销发展的相对比较好;而推荐对电商的收入贡献是间接的(要知道现在电商的盈利模式不是通过差价,目前主要的盈利模式还是基于阿里巴巴的租金和渠道的流量模式,以及唯品会的清理尾货的模式),对于比较标准化的产品,互联网的信息对称让价格变得透明,通过差价来盈利目前还是比较困难的,除非有通过政策或者合同壁垒,只能独家销售的产品。广告投放区别于推荐和搜索主要见表9-4。


b4

9.3.1 点击率预测

互联网广告的蓬勃发展,让广告的精准化需求越来越大,计算广告学正在成为一个兴起的分支学科。2009年由Yahoo!的资深研究员Andrei Broder提出的计算广告学涉及大规模搜索和文本分析、信息获取、统计模型、机器学习、分类、优化以及微观经济学。计算广告学所面临的最主要挑战是在特定语境下特定用户和相应的广告之间找到“最佳匹配”。语境可以是用户在搜索引擎中输入的查询词,也可以是用户正在读的网页,还可以是用户正在看的电影,等等;用户相关的信息可能非常多也可能非常少;潜在广告的数量可能达到几十亿。但核心的思想都是为了市场参与者的利益平衡与最大化。

广告的收费模式主要有CPM(cost per thousand impressions,按每千次的展示进行付费)和CPC(cost per click,按点击付费),通常用eCPM(effective cost per mille, 每一千次展示可以获得的广告收入)来反映网站盈利能力,见表9-5。


b5

在CPC环境中,通过eCPM对广告进行排名。eCPM=bidPrice×CTR,其中bidPrice是指广告主给出的竞拍价格,CTR(Click Through Rate)是我们预估的该广告的点击率,总体结果越高越容易被展示。广告的bidPrice可事先确定,然后根据每个广告的最大价值和历史bidPrice,不断调整最新的bidPrice。广告的最大价值由CTR、客户愿意支付的CPC和毛利率目标来计算得到,其中最关键的是根据广告创意等特征估算广告的CTR。一般做法是通过逻辑回归等机器学习模型,根据查询和广告的特征来预估CTR。逻辑回归几乎是所有广告系统和推荐系统中点击率预估模型的基本算法,可以用来判断是否是垃圾邮件,是不是金融欺诈,等等,逻辑回归同时也是目前互联网广告的三大机器学习系统之一(另外两个是隐含主题模型和深度神经网络系统)。

逻辑回归的模型将多维特征根据其训练得到的权重和当前计算得到的值回归到(0, 1)区间上的一个概率值,对于预估点击率来说,即表示用户可能点击广告的概率。它是一个非线性的sigmoid模型,本质上还是一个线性回归模型,因为除去sigmoid映射函数关系,其他的步骤和算法都是线性回归的,一般采用如下公式:


q3

Logistic曲线如图9-9所示,逻辑回归就是通过拟合Logistic曲线,最终得到不同特征的权重,从而预测某个事例出现的概率。


9_9

其中X是输入变量,y是输出,theta是特征权向量,X可以是用户,广告,上下文组成的数据对<用户,广告,上下文>。预测CTR中,y=1代表用户会点击该广告,y=−1代表用户不会点击该广告。X中<用户,广告,上下文>数据对可以由数据对相应的特征向量构成,其特征可以达到10亿数量级,比如图9-10的组合。


9_10

其问题转换为通过历史中用户是否点击广告的情况,作为训练集来求解theta,从而得到模型。可以利用极大似然法估算模型的参数:


q2

转换为使得以上公式的结果概率最大,因为前面线性回归中梯度下降法是求最小值,通过对公式取负log,转换为求最小值问题,给theta赋予随机值,通过反复迭代得到极小值,作为最终的theta。


q1

CTR除了用在搜索的竞价广告中,在目前的实时竞价中也有广泛应用,实时竞价过程一般通过cookie映射(cookie mapping)技术关联用户,我们把实时竞价中的各方简化成ADX和DSP。

  • ADX:Ad exchange。互联网广告交易平台,联系的是广告交易的买方和卖方,也就是广告主方和广告位拥有方。谷歌、百度、淘宝、腾讯等拥有自己的ADX。
  • DSP:Demand Side Platform。可以看作流量的购买方,为广告主服务。广告主可以通过DSP购买流量,达到营销的目的。DSP通过接入ADX中,参与竞价,购买所需要的广告位。

当用户访问一个加入应用ADX服务的网站,网站上相关栏位出租广告,各个DSP通过cookie映射和ADX建立映射,识别为同一用户,然后DSP根据从ADX或者广告主等得到的用户信息,自动对广告进行出价,ADX也通过用户历史数据,预测CTR,对各个DSP出价的广告进行排名,显示收入最高的广告。实时竞价的过程如图9-11所示。


9_11

当然有些用户经常关闭cookie功能或者清空cookie,现实当中除了通过cookie映射来关联用户,还有很多种方式,具体可以参考访客追踪的开源项目evercookie,它可以通过standard HTTP cookies、Flash cookies、HTTP Etags、window.name.caching、userDatastorage、你强制缓存的PNG的RGB值、Web history、HTML5一些特有的存储特性等来关联用户的行为,但是切勿用于非法用途。

实时的CTR预测主要通过加快更新用户历史点击率的数据,越及时,预估出来的点击率就越准确。实际生产环境中,更新频次依赖于训练数据的规模、日志数据的回流速度以及集群规模等因素。在数据稀疏的情况下,可以通过经典的贝叶斯方案对点击率做平滑,贝叶斯需要通过先验概率训练参数。为提高实时性,也可以用一些简单的平滑公式做点击率平滑来提高性能。

9.3.2 搜索引擎营销

目前提高流量的方式有搜索引擎营销(Search Engine Marketing,SEM)、网盟、搜索引擎优化(Search Engine Optimization,SEO)等。各大互联网巨头抢占流量入口,目前搜索引擎仍然是主要的流量入口之一,每天十几亿的PV,应用得当,会让网站跨上千万级的PV。SEM的优化工作分为关键词选取、创意登录页面设计、网站结构优化等,在一个电商网站中,关键字又主要分为品牌词、竞品词、通用词、商品词等,其中商品词是流量的主要来源。一个网站拥有百万的SKU,通过人工管理代价很大,同时一些热门事情,如果处理不及时,会让几个热门词几分钟会花完网站一天的预算,所以需要一套智能的系统自动做SEM。SEM包含预警模块,用来实时监控投放数据、库存、热门关键字等,保证投放的时效性;还有爬虫模块,用来实时爬取投放关键字在搜索引擎中的排名,判断什么时候可以降低出价,让关键词出现在最好的位置,平衡高排名关键字的成本和转换率。当然,数百万的关键词,往往性能是很大的瓶颈。目前Storm在实时监控数据和实现爬虫上,都有不少的应用,利用Storm和内存数据库可以很好地解决SEM中实效性的问题。

9.3.3 精准化营销与千人千面

腾讯等公司在投放广告的时候,可以根据用户标签信息、用户原始行为和商圈等定向地投放广告,如图9-12和图9-13所示。

而下层的支持很大一块是准实时的用户画像系统,结合不同的场景用不同的算法展现广告或者物品。通过Storm的Spout实时收集不同的数据源的行为,从而屏蔽不同数据源的差异性,通过Bolt提取各种行为的标签,对各类标签进行去噪、补充近义词/同义词等进行数据清洗,然后把统计次数存入存储引擎中,最后根据历史统计的次数,实时计算得到的用户的兴趣度。通过图9-14可以看到,为了在海量数据下达到实时性,腾讯设计的实时计算的算法不是很复杂,没有对用户当前类目的其他相关类目的兴趣度进行降权,甚至没对当前类目的兴趣度根据日期变化进行相关衰减等,算法精准性、数据量、实时性总是一个相互制约的过程,腾讯牺牲了部分算法的精准性提高了实时性。


9_12

(截取自腾讯广点通网站e.qq.com,图中相关内容的著作权归属原著作权人所有)


9_13_14

阿里通过阿里妈妈达摩盘来做消费者洞察和精准化营销,如图9-15和图9-16所示,商家或运营通过选取用户画像标签、商品信息以及天气、时间等上下文信息,对用户进行分群投放广告,或者对新客、半新客等不同生命周期的用户采取不同的引导,从而达到精准化营销。


9_15_16


其他大型手机制造商,可以根据收集到的用户的详细行为,为应用开发者提供相应的广告接口,应用开发者开发相应的应用时,只需要调用它们的广告API,填入基本的用户群标签信息和广告的位置、大小等信息,就可以完成精准化的广告投放。

亚马逊等网站的千人千面基本也是基于用户标签、用户浏览、购买、搜索、加车等行为来让运营或者商家选取用户群,在非广告的栏位通过后台算法筛选出最优的产品展示在栏位上,这样运营和商家根据自己的产品特点,可以自己来选取人群(比如:一个月前买过洗发水,最近一月没有买过洗发水的用户;最近一周浏览和收藏过手机,但是没有购买的用户)。对于广告栏位,广告主通过选取用户群和栏位进行竞价,展示在用户前面的商品也是另外一种形式的千人千面。电商网站的精准化营销和千人千面可以基于如图9-17所示的统一平台来完成。


9_17

(1)根据用户画像和用户历史数据生成用户维度的基础表,在索引平台建立用户维度的索引。

(2)抽取商品的各种属性建立选品中心,在索引平台建立商品的索引。

(3)根据天气、地域等上下文信息和用户基础表,通过Apriori、FP-Growth等关联规则挖掘算法,挖掘出和类目或品牌经常一起出现的属性集合(称为频繁项集),然后在索引平台建立类目和品牌的索引。

(4)设置索引平台用户和商品等维度的Schema,选人、选品应用根据这些Schema的属性组合生成唯一的键。

(5)新建栏位或者短信、邮件等精准化营销的应用名,绑定到相应的键(通过这些键找到具体的查询条件)。

(6)精准化营销的产品或者千人一面的栏位就可以根据上一步的应用名,找到选人或选品需要的具体的属性条件,然后通过搜索平台精准的找出商品或用户。

(7)对于千人千面的栏位可以通过用户基础表找出用户的属性,然后根据之前设置的键,筛选出需要的属性,最后通过搜索平台找出相应的商品个性化的展现在栏位上。

基于目前流行的ElasticSearch或Solr建分布式索引和搜索平台,前端每个千人千面栏位哪怕只访问一次索引往往也需要较多的机器,也可以通过给栏位设置相应的选人和选品的属性条件,每天离线生成每一个栏位的用户到产品的映射关系,关存到MySQL或HBase中,前端栏位根据访问的当前用户,直接读取用户-产品的映射表来实现千人千面的个性化推荐。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
7月前
|
消息中间件 分布式计算 大数据
大数据组件之storm简介
大数据组件之storm简介
177 2
|
7月前
|
监控 大数据 数据处理
大数据组件之Storm简介
【5月更文挑战第2天】Apache Storm是用于实时大数据处理的分布式系统,提供容错和高可用的实时计算。核心概念包括Topology(由Spouts和Bolts构成的DAG)、Spouts(数据源)和Bolts(数据处理器)。Storm通过acker机制确保数据完整性。常见问题包括数据丢失、性能瓶颈和容错理解不足。避免这些问题的方法包括深入学习架构、监控日志、性能调优和编写健壮逻辑。示例展示了实现单词计数的简单Topology。进阶话题涵盖数据延迟、倾斜的处理,以及Trident状态管理和高级实践,强调调试、性能优化和数据安全性。
325 4
|
存储 运维 分布式计算
大数据组件-实时大数据处理框架Storm安装部署
大数据组件-实时大数据处理框架Storm安装部署
大数据组件-实时大数据处理框架Storm安装部署
|
消息中间件 Java 大数据
【大数据】Linux下Storm(0.9版本以上)的环境配置和小Demo
在storm发布到0.9.x以后,配置storm将会变得简单很多,也就是只需要配置zookeeper和storm即可,而不再需要配置zeromq和jzmq,由于网上面的storm配置绝大部分都是0.9以前的storm版本,所以有很多工作是不需要进行的,下面就storm的0.9.5版本在linux环境下进行配置进行详细解析。   由于配置storm只需要两个步骤,大大简化了配置,也是storm团队做了很大的努力,让程序员们专注于程序,让storm配置进行异常简单,好了,废话说了不少,下面正式开始讲解。
248 0
【大数据】Linux下Storm(0.9版本以上)的环境配置和小Demo
|
机器学习/深度学习 分布式计算 大数据
大数据分布式架构单点故障详解(Hdfs+Yarn+HBase+Spark+Storm)构建HA高可用架构
本文梳理了常见的hadoop生态圈中的组件:Hdfs+Yarn+HBase+Spark+Storm的单点故障问题,出现原因以及单点故障的原理和解决方案(构建HA(High Available)高可用架构)。阅读本文之前,最好了解清楚各组件的架构原理。
大数据分布式架构单点故障详解(Hdfs+Yarn+HBase+Spark+Storm)构建HA高可用架构
|
分布式计算 大数据 Apache
分布式处理与大数据平台(RabbitMQ&Celery&Hadoop&Spark&Storm&Elasticsearch)
热门的消息队列中间件RabbitMQ,分布式任务处理平台Celery,大数据分布式处理的三大重量级武器:Hadoop、Spark、Storm,以及新一代的数据采集和分析引擎Elasticsearch。 RabbitMQ RabbitMQ是一个支持Advanced Message Queuing Protocol(AMQP)的开源消息队列实现,由Erlang编写,因以高性能、高可用以及可伸缩性出名。
2082 0
|
分布式计算 大数据 流计算
流式大数据处理的三种框架:Storm,Spark和Samza
流式大数据处理的三种框架:Storm,Spark和Samza
1022 0
|
大数据 Apache 流计算
大数据的实时处理STORM简介
新技术如社交媒体、电邮、博客、地理信息系统GIS、无线射频识别RFID和智能手机等为基于服务信息构建提供了新的机会。 处理大数据常见的方法和框架是Apache Hadoop,它以批处理的方式运行数据处理任务。
840 0
|
大数据 流计算
大数据的实时处理STORM简介
版权声明:本文为博主chszs的原创文章,未经博主允许不得转载。 https://blog.csdn.net/chszs/article/details/9292831 《大数据的实时处理STORM简介》 作者:chszs,转载需注明。
977 0