资讯专栏INFORMATION COLUMN

如何实现分析去中心化的客户行为分析平台

lufficc / 1711人阅读

摘要:本期主题如何实现分析去中心化的客户行为分析平台嘉宾介绍孔淼,诸葛创始人连续创业者,毕业于华中科技大学,前。

极牛技术分享活动

极牛技术实践分享系列活动是极牛联合顶级VC、技术专家,为企业、技术人提供的一种系统的线上技术分享活动。

每期不同的技术主题,和行业专家深度探讨,专注解决技术实践难点,推动技术创新。隔周三20点通过极牛线上技术分享群准时开课。欢迎各个机构、企业的行业专家、技术人报名参加。

本期主题
如何实现分析去中心化的客户行为分析平台

嘉宾介绍

孔淼,诸葛io 创始人/CEO
连续创业者,毕业于华中科技大学,前37degree CTO。曾带领团队打造过脉搏网、知客数据等知名大数据平台,并服务中国电信、奥美、九阳集团等企业。2014年底,开始打造诸葛io。被李开复博士钦点“最具潜力的技术人才”,并获评2015年创业邦“30岁以下创业新贵”。


导语:
诸葛io是一款精细化的用户行为分析平台,为互联网企业提供一站式的用户行为采集智能分析以及决策方案,于2015年3月上线,至今已经超过累计万家企业注册使用,并且有过百家的付费客户,包括优信二手车,ENJOY,在行分答,罗辑思维得到等产品。
本期孔淼老师主要以诸葛io背后的大数据平台设计为重点展开讲解。

从本质上来讲,大数据平台的目标都是完成对数据的采集、清洗、加工、加载、建模分析,可视化的过程。

数据采集
采集是指集中企业待分析的原始数据的过程,例如可能是包含但不限于以下:

企业服务器的日志

企业各种信息系统的数据(CRM/ERP/数据库)

企业的网站/App/小程序等客户端的用户行为记录

使用的第三方系统(客服、IM、HR)提供的API

采集的方式基本上分为两种:PUSH(推)和PULL(拉)
PUSH模式:企业的数据一般来讲都是散落在很多地方,各种系统或者各种服务器,所以有一个数据采集中心,然后在各个数据产生的位置都有一个agent(可以认为是采集程序)然后朝数据采集中心发送数据的过程就是PUSH,比如在App或者网站植入了SDK,定期发送采集到的用户行为数据到服务端的过程就是PUSH模式

PULL模式:企业有数据采集中心,从采集中心去访问获取各个数据产生点的数据,这个过程就是PULL,比如从企业的数据中心去调用第三方系统的API获取数据,就是PULL模式

数据的清洗
数据清洗的过程是指对数据进行一些处理,过滤无用的信息,规范得到我们能用到的数据。包括但不限于以下情况:

过滤SPAM垃圾数据,例如被攻击/造假/BUG产生的大量数据

抽取有用字段,例如上传的数据包含的信息很多,我们只用到一小部分

原始数据有很多格式不规范,要统一格式

数据的加工
数据加工是指清洗后的数据,还需要补充一些信息,可能是通过数据库查询出来的,也可能是通过计算规则计算出来的,或者算法技术加工出来的新字段。

例如,数据里面有个ip地址,需要计算出用户的地理位置,那么地理位置就是加工出来的字段。一般来讲,对于大多数大数据分析平台而言,加工是很重要的过程,基本上最后可用来进行分析的数据,要通过这一步充分完成加工计算。

数据加载
数据加载是指把加工后的数据加载到合适的存储,可能是Hadoop集群的HDFS上,也可能是某个数据库,有可能是文件等等其他存储类型。

建模分析
建模分析是指在查询前需要把数据进行处理,以优化查询,例如以下:

数据仓库建好了仓库模型,要把数据加载到数据仓库中

需要做数据索引,把数据进行索引优化

数据模型很重要,也是整个数据处理分析的核心之一,每个企业都有自己的核心业务,以及核心目标,并且也有各自的数据源以及数据类型,所以也就意味着每一家企业的数据模型多少都会有些差异,也就是最个性化的一个地方,数据仓库就是这个数据模型的载体,一般来讲数据就是数据库技术,常见数据库之外,还有Infobright,Greenplum,Vertica,也有基于Hadoop技术的,用HDFS作为基础的存储,然后使用的查询引擎,包括Imapla,Presto,SparkSQL等等。

通常而言,数据团队要进行复杂的查询和分析,都是在此基础之上,通过SQL语言或者代码查询来实现的。

可视化
可视化是最终分析结果要展示的过程,例如“双十一”酷炫的图表,一般企业都有自己的数据看板等等。

可视化背后主要是执行SQL或者运行代码得到的数据结果,可能是一维,也可能是二维,还有可能是多维,然后选择合适的图表类型进行展示,例如“线状图”、“柱状图”、“饼状图”、“雷达图”、“中国地图”等等。

刚刚讲的主要是通用的大数据平台整个数据处理的方式,不知道是否讲的通俗易懂,接下来我就从诸葛io与通用的数据平台的差异入手,然后带入我们的技术设计。

首先,诸葛io的整套技术能够做到的是,对企业分析流程的效率提升。

大多数企业的分析现状:自建或者第三方统计平台(百度统计/友盟/Talkingdata)+ 数据BI团队(早期团队人数很少,甚至是一两个工程师兼任)

自建或者第三方统计平台:大多都是汇总统计指标平台。对通用指标(例如PV、UV、DAU、留存)的计算,对企业设定好的业务行为(打车、订单、参与、金额)等汇总统计人数或者次数,数据平台存储的都是指标的汇总结果。指标的选择和下钻分析都需要数据团队的支撑。
-数据BI团队:完成基础数据平台的搭建,并且梳理核心业务分析目标,对基础数据进行采集建模,并完成各个部门的分析需求。

所以大家可以看到最开始上面那张图就是大多数企业现在的分析现状:

基本上先统一由大数据部门整理输出各部门日常固定的数据指标,然后做个可视化,比如一个简单的页面

如果有新的分析需求,已经建模好的,那么数据团队就需要根据业务去写SQL然后得到结果,如果没有建模好的,就需要开始采集原始数据,然后重新开始清洗,这样一个过程,往往都比较反复耗时,分析效率很低

主要原因是,这样一种分析流程,是由固定的业务指标驱动数据的采集和处理,然后数据处理的过程基本上都是多维汇总的统计和计算

所以也就造成了问题:各个业务部门的分析需求需要依赖数据团队专业的数据分析能力进行问题建模,并且依赖他们SQL语言或者代码能力完成分析目标。但数据部门往往也有核心的分析需求和任务,所以公司变大过程中很多问题变得很低效。

相比而言,诸葛io数据分析工具的优势,诸葛io的整个数据处理也是符合上面的整个流程,我们和其他数据分析平台,尤其是传统数据平台,按照处理过程抽象的差异主要如下:

诸葛io的分析能力远远大于目前大多数的统计平台,我们把很多深入的分析场景,依赖数据团队进行建模以及SQL/代码等专业能力,变成了可视化的分析组件。这样极大的提高了企业的数据分析效率,并且我们还有专业的数据分析看板,辅助企业梳理了解分析需求和目标。诸葛io的亮点如下:

比如解决第一个问题:在线实时多维查询,用交互式组件替代SQL和代码。例如以前需要SQL完成的查询,现在只需要如下:

第二个:丰富的分析组件,支持市场/产品/运营部门的大多数场景分析

根据用户的新增情况,触发行为,用户字段筛选待分析的用户(用户群)

对某个业务行为的参与情况(事件分析)

用户的转化情况(漏斗分析)

用户的行为路径(用户行为路径)

某个功能或者某个业务用户的持续参与(自定义留存)

分析API和数据API,完全掌控您的数据,基于诸葛io灵活扩展

除此之外,细致入微的产品设计,贯穿分析过程
例如:

点击数字到用户画像的洞察

漏斗的无序和有序

用户群“新增后X天”
-还有更多的场景,可以去感受和体验

这样一来,回到刚刚的图片:

所以我们的流程如上图

我们在建模时非常抽象,并且基于独立用户跟踪了整个业务的流程,所以不只是指标任意的配置可视化,很多以前依赖于SQL和清洗代码的逻辑,也变成了交互式的查询组件,所以能提高效率,那我们是怎么做到的呢?

先来看看我们整体的架构:

首先看看数据采集端

我们提供丰富的接口和SDK,能够采集到企业各个有用户行为数据的地方,目前来讲,主要分为以下:

Android客户端 —— Android SDK
iOS客户端 —— iOS SDK
网站或微站H5 —— Javascript SDK
小程序 —— 小程序SDK
日志 —— 服务端Restful接口
CRM数据库 —— 导入工具

也就是采用了“PUSH”模式,各个端采集用户的行为,然后再按照规则发送给我们的数据收集中心,各个端也就写了一些SDK,让开发者调用采集

然后就是我们的数据收集端

上图是我们的数据收集架构
核心就是LVS+Nginx+Lua,我们没有用比较重的后端语言来采集,而是选择了比较轻的Lua脚本语言,在nginx中集成就能完成高并发的复杂,LVS做解析服务器的负载均衡,后面是多个Nginx,然后Nginx本身就是高性能高并发服务器,所以并发的承载能力非常强。

诸葛io采用的是HTTPS加密传输,以及支持HTTP2协议。

采用HTTPS的原因是,防止数据在传输过程中被抓包截获。

采用HTTP2协议,服务端的处理性能能够极大的提升,连接也有优化。

使用LVS的原因是,虽然Nginx的性能很高,但是在高并发压力情况下,我们能够快速添加Nginx节点,再加上数据采集是异步,所以大流量情况下,LVS+Nginx基本上都能保证不会出现连接等待的情况了。

Lua是一种轻型的脚本语言,直接在nginx配置中嵌入,在很多游戏的服务端架构以及电商秒杀的架构中使用。我们服务端接收到上传数据之后,Lua会进行解析,并且添加上传时一些信息(ip,服务端时间,User-Agent)等等,然后push到Kafka的集群。
我们这套架构也是在诸葛io的日上传数据量逐步上涨过程中,逐步演化出来的。

简单来讲,数据采集具有以下特点:

高并发

高伸缩性性
-HTTPS安全传输

然后就是数据清洗

诸葛io采集到的数据会有以下几个问题需要处理:

垃圾数据 —— 乱码或者埋点错误产生的数据

作弊数据 —— 恶意进行注入伪造的数据

淘汰数据 —— 已经弃用的SDK版本数据
所以我们会完成对于上述数据的清洗。

清洗完的数据,诸葛io还会进行一些信息加工,包括但不限于以下:

识别用户和设备的身份关系

加工字段:地理位置、UTM推广信息、设备、系统版本(网站或者微站根据UA)

事件行为匹配系统id

加工信息之后,我们还会对数据按照我们的数据模型进行格式转化和预计算处理,得到我们所需要的最优于查询的数据。

关于数据清洗加工部分,我们和其他大数据技术还有一些差异:

独立的用户行为跟踪

基于用户身份的数据整合

精准的用户和设备关系识别

事件的标签化

接下来是数据加载

数据加载的过程,就是把我们数据处理后的结果写入存储,这里,诸葛io主要加载的目标位置有以下:
原始数据备份:
—— AWS S3
—— HDFS(私有部署)

加工后的数据
—— AWS S3
—— HDFS(私有部署)

模型数据仓库
—— Redshift
—— Greenplum(私有部署)

因为诸葛io同时支持SaaS和私有部署,私有部署我们采用的方案会有差异,S3和HDFS都是文件访问,所以业务层基本是一致,S3是因为存储成本低,HDFS是大多数企业的Hadoop平台。加工后的数据同上。

模型仓库,Redshift和Greenplum都是基于PostgreSQL的。我们加上自定义函数,在数据访问层保持一致

然后在建模分析的过程,建模分析的核心是诸葛io的数据模型,也就是我们的数据仓库设计,诸葛io现在的核心数据模型,分为以下主题:

用户
—— 用户的属性信息
事件(行为)
—— 事件的属性信息
—— 事件的触发环境
行为发生平台
——平台(设备)的基础信息

诸葛io的数据模型底层都已经对用户和行为进行建模,我们从上层指标的计算,可以直接下钻用户群体,并且对于用户的行为历史也有完整的还原和实时的洞察。

传统的数据分析平台都以设备进行统计,我们是基于用户的,所以用户和设备的关系我们能精准还原。

诸葛io的数据查询和访问,主要分为两部分:
数据访问层,是诸葛io把基于数据仓库的SQL查询访问抽象了一层服务,分为对内和对外两部分,用以控制对数据访问的统一管理。
—— 对内是通过统一的API服务来进行访问
——对外是有Open API的开放平台

可视化查询在诸葛主要是通过诸葛io的网站进行完成,并且在技术上也是基于数据访问层实现。可视化在诸葛主要分为两部分:
—— 数据指标展现的可视化
——查询操作的可视化

指标展现可视化,包括不限于表格、柱状图、线图、漏斗。回到整个架构上:

可以看到有消息中心,诸葛io的消息中心是以Kafka为中心进行设计的。
消息中心主要处理包含以下业务消息的汇集和分发:
—— 各种SDK或者工具上传的数据
—— 数据清洗产生的中间的数据
—— 模型结果数据
—— 备份数据
——其他流式处理数据

Kafka具有多消费组的特点,也就意味着,我们可以在不同应用场景下对统一数据进行多种处理,并产生多种应用,例如下面场景:

我们收集到各种数据,并会添加到Kafka消息中心,然后会有以下不同消费应用:
—— 进行元数据统计管理
—— 进行备份
—— 进入数据仓库模型前的清洗
——进行实时的统计计算

实时计算中心,我们用的是Spark Streaming进行处理,也有其他套件辅助我们进行一些数据挖掘,实时数据和关系缓存,我们用的是Codis以及SSDB,Codis是分布式的Redis实现框架(由前豌豆荚团队开源)我们会用来做分布式的消息以及状态存储,而SSDB是基于Redis协议的硬盘实现(作者是懒投资的CTO吴总)我们会存储一些键值比较大或者多的数据,例如实时数据以及数据缓存。

基础存储刚刚讲过了主要是S3,索引用的是Elasticsearch,比如查询时的提示等等,在线多维实时数据处理查询就是Redshift和Greenplum了

然后我们统一了整个数据访问层以及API,并且分为内部和外部API,对外就是网站和开放平台了。

Q&A

Q1:业界现在流行一种不需要埋点的数据统计服务,和需要埋点的服务相比有什么样的差别?
A1:各有优劣,场景不太一样,之前不少文章和行业小伙伴都写过文章对比了,可以搜索一下。简单概括一下,无埋点在数据采集上会比较方便快速,但是采集数据准确率很容易出现数据丢失以及时机失误的情况,并且采集到的数据也基本上只能是页面上的显示元素,分析的时候也都是零散的指标,以及浏览量和点击量的统计

有埋点的服务则在采集上不会那么的便利,但是采集数据会更精确以及丰富,比如后台的业务数据,而且也能转换成业务指标进行分析

Q2:如果只有一个产品经理,能通过可视化埋点工具自己埋点吗?就是有没有可能在没有IT投入的情况下,变更数据采集规则
A2:可视化埋点的前提也是要IT来协助接入SDK的,在代码结构不变的情况下,可以快速去看不同页面元素的浏览和访问情况

Q3:有没有这种可能,针对数据A进行用户行为分析,再把这个用户群体关联到另外一个数据B中,进行用户分析。比如:购买商品A的用户,是否会浏览商品B
A3:于企业而言,肯定是要统一数据A和数据B的用户关联性,统一标示体系下的用户,“购买商品A的用户,是否会浏览商品B”,就是进行交叉查询就OK,如果是“购买商品A的用户,还可能会购买商品B吗?”,就是常见的个性化推荐了。找用户和用户,或者用户和物品或者物品和物品之前的关系。

Q4:多少数据量(比如年1000万条数据)的情况下,比较适合使用第三方数据分析工具?
A4:当然有一定基础数据,超过可以调研的基础之上,另外我个人的主观建议是,都需要数据分析,但如果细分领域的流量红利还在,就赶紧圈地,如果没有流量红利了,就需要更多分析来决策驱动

Q5:是否在服务端进行PULL或者PUSH的数据采集方式,支持的话需要做数据格式清洗吗?有SDK支持吗?需要多少开发量?
A5:是说诸葛io吗?我们提供sdk的格式转换文档,格式很简单,开发量不大,目前新的服务端数据接口招募测试,欢迎联系我们(微信号:zhugeio2016)

Q6:当业务在快速变化时,是否意味着要不断更新App埋点逻辑,以期得到新的统计结果?有什么方式不更新APP就得到统计结果?
A6:后端日志分析+app主业务路径跟踪分析+变化业务的埋点跟踪分析,多数据源整合分析。

报名请关注极牛(ji-niu)公号回复技术分享

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/32096.html

相关文章

  • AI中台:一种敏捷智能业务支持方案|宜信技术学院沙龙分享实录

    摘要:因此数据中台必须具备智能化能力,能够为业务提供一定的智能数据分析能力。宜信作为一家金融科技公司,更多面对的是金融领域的智能业务需求。 showImg(https://segmentfault.com/img/bVbqQM0?w=1155&h=492); 内容来源:宜信技术学院第1期技术沙龙-线上直播|AI中台:一种敏捷的智能业务支持方案 主讲人介绍:井玉欣 宜信技术研发中心AI应用团队...

    makeFoxPlay 评论0 收藏0
  • 【超越白皮书3】DAG技术解析与实测

    摘要:有向无环图,以下简称是其中的代表之一。的去中心化和可扩展性可认为是一体两面的,因为基于数据结构带来的异步记账特性,同时实现了高度的参与网络节点的去中心化和交易的可扩展性。因此,目前对于双花问题,需要综合考虑实际情况进行设计。 本报告由火币区块链研究院出品,作者:袁煜明、胡智威。原文地址 相关报告: 【超越白皮书2】EOS主网上线前夕的实测分析与技术建议 【超越白皮书1】EOSIO程序实...

    caikeal 评论0 收藏0
  • AI遇见SIEM,白山ATD革新企业安全大脑

    摘要:然而在中国,还处于比较初级的阶段,很多企业对自身安全问题并没有系统性的管理。年整个中国市场只有亿人民币的规模,这个数字相比中国经济对全球经济的占比是不相符的。 showImg(https://segmentfault.com/img/bV9xRN?w=865&h=950);作者简介: 丛磊,白山合伙人兼工程副总裁2016年加入白山,主要负责云聚合产品的研发管理和云链产品体系构建等。20...

    gself 评论0 收藏0
  • AI遇见SIEM,白山ATD革新企业安全大脑

    摘要:然而在中国,还处于比较初级的阶段,很多企业对自身安全问题并没有系统性的管理。年整个中国市场只有亿人民币的规模,这个数字相比中国经济对全球经济的占比是不相符的。 showImg(https://segmentfault.com/img/bV9xRN?w=865&h=950);作者简介: 丛磊,白山合伙人兼工程副总裁2016年加入白山,主要负责云聚合产品的研发管理和云链产品体系构建等。20...

    leanote 评论0 收藏0
  • 2021 年最新基于 Spring Cloud 微服务架构分析

    摘要:是一个相对比较新的微服务框架,年才推出的版本虽然时间最短但是相比等框架提供的全套的分布式系统解决方案。提供线程池不同的服务走不同的线程池,实现了不同服务调用的隔离,避免了服务器雪崩的问题。通过互相注册的方式来进行消息同步和保证高可用。 Spring Cloud 是一个相对比较新的微服务框架,...

    cikenerd 评论0 收藏0

发表评论

0条评论

lufficc

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<