欢迎光临
我们一直在努力

运营数据分析体系,最全搭建攻略来了!

news, news阅读(12)

从运营的工作特点说起

运营工作,和销售、供应有明显区别。比如销售工作,核心关注收入、利润、转化率,能赚钱就行。比如供应,核心关注商品供应、库存周转、成本控制,不缺货,少积压就行。这些工作的目标聚焦,流程清晰。

而运营工作目标多,形式灵活。比如做活动运营,可能是直接促进销售转化,也有可能是拉拉用户活跃,保持平台人气。比如做社群运营,可能是纯粹为了把公域用户先捞回来,也能基于社群做服务或者销售转化。

更有可能,比如做1次大型活动,要先做引流推广,再转化,再做售后支持,一场活动下来,各个类型工作都有关联。这种工作特点,使得做运营数据分析的时候,得特别注意以下四点:

第一:清晰目标

运营工作目标多,因此事前清晰目标很重要。清晰目标才能选择合适的方案,配置恰当的资源,事后分析也才有方向。

运营常见的目标设定方式有三种:

  1. 达成绝对值目标,比如:在5月内,实现总用户100万。
  2. 达成比例/比例类目标,比如:5月份全月,交易转化率从10%提升到15%。
  3. 达成增量目标,比如:在5月份内,较自然增长额外拉动交易3000万。

这里目标1、2都可以直接用数据观察,但目标3涉及“自然增长”的定义,必须事前谈清楚。不然事后很可能无法分析。常见的自然增长定义有3种(如下图所示)每一种都各有利弊,并没有一个完美方案,因此事前一定要和老板、各部门达成共识。

运营数据分析体系,最全搭建攻略来了!

这里经常有人偷懒,在事前不设量化目标,只是笼统说一句:“为提升业绩”、“为拉升用户活跃”……企图在事后,通过数据分析的手段来区分哪些是自然增长,哪些是活动效果。结果经常区分不出来,搬石头砸自己的脚,大家要引以为戒。

第二:梳理指标

运营工作形式灵活,因此经常需要根据实际工作流程,来设定数据指标。一来方便监控执行进度,二来在复盘的时候,好观察哪个环节出了问题,便于追查原因,寻找机会。

比如,运营部门上一个“签到领福利”的活动,每月打卡7/14/21次可以得奖励,奖励包含优惠券,希望同时刺激用户活跃+转化。此时要把下面这些过程指标都梳理出来,方便后续追踪数据,复盘效果(如下图所示):

  • 从什么渠道输出信息。
  • 一共吸引多少用户参与。
  • 每个阶段有多少人完成。
  • 领取奖励后多少人消费。

运营数据分析体系,最全搭建攻略来了!

注意,如果有连续开展的运营活动,需要持续追踪用户参与情况。比如上边说的打卡签到,在持续n个月以后,会有相当数据积累,可以观察:

  • 整体影响到用户是否增加。
  • 有多少用户重复参与。
  • 有多少用户从不参与。

不同的数据走势,可以得出不同结论(如下图),结合数据走势,可以更好地判断:一个运营手段应持续做下去,还是做出调整。

运营数据分析体系,最全搭建攻略来了!

第三:打好标签

影响运营效果的因素很多,推广渠道、推广文案、活动形式、操作步骤、转化商品、优惠力度等等,都会影响到效果好坏。因此需要在开始干活之前,先对推广文案、推荐商品、操作流程等关键因素,打好标签,才好在事后进行分析(如下图)。

运营数据分析体系,最全搭建攻略来了!

除了单个标签外,还可以对运营措施整体打标签,对整体情况进行判断。比如提升用户活跃,领红包、签到、大转盘、积分榜等等好几种手段都可以用,每种手段都可以配置奖励,此时就可以利用标签,把各种手段分组对比,从而了解每一种手段的效果范围,为后续运营提供经验积累(如下图)。

运营数据分析体系,最全搭建攻略来了!

第四:按图索骥

如果做好了前三步,在做运营数据分析的时候,难度就非常小了。

  • 对比目标,看完成了多少,看投入是否超支,先下个判断:本次做得好/不好。
  • 对比同样目标下,历次运营活动的效果,看本次属于:上、中、下什么水平。
  • 检查过程指标,看看引流→承接→转化,哪个环节有问题。
  • 对比不同标签下转化效果差异,看哪种手段好用/不好用。

这样就能输出结论了。

在工作中,经常看到运营分析没结论,是因为:

  • 目标不清晰,或者干脆没目标,光有一堆数据,没结论。
  • 过程指标收集少,只知道最后转化不行,不知道为啥不行。
  • 缺少标签,无法把运营手法量化,无法评价好坏。

做好准备,才有好的分析结果,切记切记。

小结

综上可见,想要做好运营分析,需要掌握数据指标体系梳理、标签制作、分析思路等综合能力,才能适应各种场景的要求。

结合真实数据,分享信贷产品盈利性评价方法

news, news阅读(37)

信贷产品运行一段时间后,对于信贷产品经理的一项重要工作就是要对信贷产品是否盈利进行评价,本文以某信贷产品某月投放一年后经历了完整产品周期表现后的真实数据为例,对该月的产品盈利性进行评价。

一、信贷产品盈利性评价的理论依据

信贷产品盈利性评价主要对产品从上线以来到评价时点的收入和成本情况进行分析,判断产品历史数据表现是否符合产品上线前盈利预期,并从数据角度找出收入及各类成本中存在的问题,进而对未来产品市场策略、风控策略及功能优化提供参考依据。

产品盈利情况=产品收入情况-产品成本情况

其中信贷产品收入情况由利息收入、罚息收入及其他相关费用。

信贷产品的主要成本包括资金成本、风险成本、营销成本、运营成本。运营成本包括由税务、数据等组成的直接运营成本以及由人力、科技等组成的间接运营成本,通常情况下运营成本需要根据公司整体运营情况进行分摊,因此在评价单产品单月投放盈利性的时候,我们暂不考虑运营成本。

二、某产品某月业务数据情况

某信贷产品主要面向市场中个体工商户提供个人经营性贷款,平均定价年化18%,产品期限12期,额度主要集中在20-25万之间,还款方式为等额本息,某月该产品投放18800万,经过12期表现后,经统计实现利息收入(含罚息)1600万,产生不良贷款本金520万,投入营销成本(含分润)410万,同时根据公司整体资金成本率测算,当月贷款投放的资金成本约470万。

该评价方法是从财务的收入和成本视角对历史上某一段时间信贷产品的盈利表现进行评价,评价产品是目前互联网贷款市场中比较典型的互联网小额信贷产品,在互联网小额信贷产品业务模式中,由于不存在现场调查、电话核实、人工审批等人工干预环节,因此此类产品的产品要素具有一定的共同点。

产品要素方面。由于监管对于超过50万以上的贷款有受托支付的要求,因此通常此类互联网贷款产品的最高额度不超过50万,平均额度不超过30万。

由于监管对于目前贷款有不超过24%的严格要求,产品定价通常在15%-24%之间;为了保证互联网贷款客户资质评估的有效性,市场中多数此类贷款期限通常在12期以内;同时为了便于客户有规划的还款,通常给客户提供的还款方式多为等额本息或等额本金的还款方式。因此该评价方法具有一定的代表性,可以作为参考。

三、该产品盈利情况评价

1. 产品利润额分析

产品净利润=产品收入-产品成本=产品收入-(风险成本+资金成本+营销成本)

因此在不考虑运营成本的情况下,该月投放的产品实现的利润约200万。

2. APR口径下产品盈利性评价

APR口径下的产品盈利性评价则考虑各项收入、成本及利润参照放款金额的情况下的名义收益表现情况。如APR口径下的年利率=利息收入/放款金额。

因此,在不考虑运营成本的情况下,在APR口径下,产品的盈利情况约为1.06%。APR口径下的产品盈利性可用来对比该产品不同月份放款的产品盈利情况差异。

3. IRR口径下产品盈利性评价

IRR口径下产品盈利性为内部产品盈利性,也就是对于企业来说真实的产品收益情况。在信贷业务中,IRR口径的产品盈利性要将产品的日均资金占用情况作为参照。当月放款金额共计18800万,根据每个月月末放款本金的资本占用情况,测出该部分资金日均占用金额为8900万元,因此,IRR口径下的盈利情况为。

因此,在不考虑运营成本的情况下,在IRR口径下,产品的盈利情况约为2.25%。IRR口径下产品盈利表现可在公司内部横向比对不同产品在相同统计时点的产品盈利情况。

四、评价结论

根据产品盈利情况评价,我们可以得出的结论及后续产品策略包括:

1)在不考虑运营成本的情况下,产品实现了约200万的净利润;相对于放款金额,产品APR口径下盈利1.06%;产品在IRR口径下的年化净收益2.25%。

2)该产品收入均为贷款利息收入及罚息收入,由于监管部门对于营销环节各项环节中的收入监管措施,因此该产品无法通过其他收入来源提高产品收入。

3)在各项成本中,产品风险成本占比最大,其次为资金成本,但资金成本受公司资金策略及负债端业务影响,因此降低风险成本为该产品进一步提升盈利空间的主要方向,具体措施包括优化风险策略、提升催收效率等。

4)营销成本占全部成本的30%,可通过精准客户画像提升营销效率、将线下营销环节线上化、加强渠道管理降低渠道分润占比等方式降低营销成本。

分析指标波动,数据模型得这么建

news, news阅读(55)

当业务指标开始波动的时候,人们总会有问题:

  • “为啥涨了5%”
  • “为啥又跌了1%”
  • “为啥涨了2天又跌了?”
  • “为啥三天了都没变化呀?”

总有十万个为什么,从各个部门口中脱出,然后搞得做数据的同学天天忙着跑数,晕头转向不说,还落个:“为啥不能事前洞察?”“你这也不深入呀!”的抱怨。

咋整?今天系统讲解下。

一、常见的错误做法

最常见的做法,就是遇到指标变化就拆解。各种维度都拉出来做交叉,最后哪个差异最大,就说是哪个因素导致的指标波动(如下图)。

分析指标波动,数据模型得这么建

而这么做,非常无脑+低效。

无脑,是因为:业务方关心的是具体的问题。比如:

  • 是不是新品不给力
  • 是不是对手有动作
  • 是不是执行没到位
  • 是不是环境有变化

……

这些业务原因,不是数据库里“性别、年龄、地域、产品名”这样的简单维度能概括的。因此即使拉出交叉表来,也不能解答这些深层问题。

低效,是因为:严重浪费数据分析师的时间。相当多的波动,丫根本就是自然波动,或者是业务自己整出来的活。相当多的波动,就是单纯因为开发动了埋点又没吭声。这些问题根本不需要反反复复拉交叉表。只知道逼数据分析师拉交叉表,不但浪费时间,而且错失了总结规律,深入分析的机会。

那么,怎么优化做法呢?

二、诊断模型三大关键

从源头上看,反问三个灵魂问题:

  1. 是不是所有指标波动都很重要?
  2. 是不是所有波动都原因未知?
  3. 是不是所有波动都值得行动?

回答是:不是、不是、不是!

至少3/4以上的波动是计划内的、可预知、不值得理会的。因此事前的基础工作,远比着急忙慌有用。把指标分清楚,原因提前收集,结果提前预判,是系统解决问题关键。想达成这一点,靠的是整个工作流程的支持,而不是一串神秘代码。

三、区分核心、附属、边缘指标

同收入、成本、利润相关的,都是核心指标。核心指标发生波动一定是优先关注的。

附属指标,则是组成收入、成本、利润的过程指标或子指标。比如用户数、转化率、客单价等等。附属指标的波动是问题吗?不一定是。很有可能只是业务发展有了新形态。因此,不需要每天看变化,而是关注发展趋势(如下图):

分析指标波动,数据模型得这么建

边缘指标,而是一些不直接相关,甚至不可准确量化的指标,比如满意度、NPS等等。这些指标监控其长期趋势即可。并且,关注口碑、舆情中极端个案(特别不满的顾客或者恶意攻击)会比看统计指标更有价值。

当然,不同业务的核心、附属、边缘定义会有差异。但区别对待是必须的,不然很有可能出现:“分析了一堆,对业绩影响一毛钱都没有”的窘境。

四、理清正向、负向原因

常见的正向原因:

  • 促销活动
  • 政策利好
  • 新品上市
  • 新店开张
  • 旺季到来

常见的负向原因:

  • 系统宕机
  • 政策利空
  • 旧品退市
  • 阴雨天气
  • 淡季到来

这些不但可以提前知道,而且其中相当多的部分,可以提前做分析,给出可接受的范围。

淡季/旺季,可以用周期分析法,从过往数据中提取周期波动规律(如下图)。

分析指标波动,数据模型得这么建

促销活动,可以先对活动类型打标签,再根据过往数据,测算每一类活动投入产出比。

分析指标波动,数据模型得这么建

新品上市,可以先对商品类型打标签,再根据过往数据,测算商品LTV曲线。

分析指标波动,数据模型得这么建

新店开张,可以先对门店类型打标签,再根据过往数据,测算店铺LTV曲线(原理同商品分类)。

通过标签分类+复盘分析,大部分自然原因、人为原因导致的波动,可以得出一个量化范围。在事前收集这些原因,就能极大地缓解指标波动带来的神经过敏,聚焦真正该聚焦的问题。

注意,这里有两类问题是很难事前准备的:

  1. 突发型事故,比如系统bug,恶劣天气等等
  2. 外部因素变化,比如对手促销,政策风险

这些需要沟通+问题排查机制解决。

五、常规沟通与问题排查

常规沟通:

  • 从业务:近期促销上线、产品上下架计划、开店计划、投放计划。
  • 从技术:开发进度、开发问题
  • 从外部:新政策发布、生效;竞争对手已公布动作

问题排查:基础数据质量,常规日报数据核对。

所有信息,汇总到时间表上,就能形成解读波动基本素材,之后静待数据给出结果。看结果再决定是否深入。

分析指标波动,数据模型得这么建

六、发生结果后诊断

A类:知道原因+期望内+正向变化。只要没有击穿期望值,监控趋势即可。要问波动原因,就四个字:正常波动。

B类:知道原因+期望内+负向变化。只要没有击穿期望值,监控趋势即可。要问波动原因,就四个字:正常波动。

C类:知道原因+期望外+正向变化。比如下图所示,原本预计的上促销会大涨,结果没啥反应,啥原因?活动拉胯了呗……这时候直接切入活动分析细节,让业务方赶紧做做一手调研,想想救命办法更靠谱。

D类:知道原因+期望外+负向变化。比如下图所示,原本预计恶劣天气持续太久,导致一些原本薄弱的门店快不行了。这时候要兵分两路。

  1. 一路:分析是否有其他交叉因素,助纣为虐
  2. 另一路:做标杆分析,看恶劣环境下有没有应急办法

分析指标波动,数据模型得这么建

E类:不知道原因+正向变化。超出预期是不是好事?不见得,比如回光返照式短期销售暴增,如果业务方信了,又补了货,那只会造成更大积压,因此正向事件超出预期时,要格外注意关联因素,比如畅销品缺货、滞销品积压、营销成本暴涨(别便宜了羊毛党)、投诉数量激增等问题。

F类:不知道原因+负向变化。这是得警惕的。这个时候要先“三看”

  1. 一看:局部问题or全局问题
  2. 二看:突发问题or持续问题
  3. 三看:有缓解迹象or越来越严重

(举个简单例子,如下图)

分析指标波动,数据模型得这么建

原则上局部、突发性问题,从内部找原因更快;全局、持续型问题,有可能存在外部深刻影响。之前在分享《提升DAU,数据分析要怎么做?》的时候,有更详细说明,大家可以参考。

总之,有了充分的基础准备,就能快速区分问题的轻、中、重,输出分析结论,也能为后续分析做好铺垫,避免漫无目地交叉。

七、小结

数据分析需要跑数,但想解读跑出来的数,需要的是掌握丰富的事实情况,用数据量化评估其中可量化的部分,监控其中持续发展的部分,拆解其中模糊部分,从而越来越接近真相。

需要注意的是,这些工作并非靠数据分析师一个人能完成。

  • 如果领导自己都不清楚目标
  • 如果开发我行我素瞎胡乱搞
  • 如果业务连啥叫“分类”都不懂
  • 如果业务一定要扯“我做的就是牛掰克拉斯!一定是其他原因干扰了我!”

……

分析?分析个屁!分析结论就是:这个公司蠢逼太多,救不了。

只是做数据的同学,要掌握这些基础的做分类、打标签、提取周期波动、计算ROI的方法,这样才能在争吵中清晰地判断是我们自己没有用对方法,还是对方不愿意配合,对方不懂得科学管理,对方在浑水摸鱼。毕竟好公司可遇不可求,自己长本事,才是进入好公司的正道。

 

作者:接地气的陈老师 ;微信公众号:接地气的陈老师

本文由 @接地气的陈老师 原创发布于运营派,未经许可,禁止转载。

题图来自 Unsplash,基于CC0协议。

这个数据分析思路,让人大呼“靠谱”

news, news阅读(92)

“你自己多想想……”是很多新手数据分析师最怕听的话。如果前边还加个自己不熟悉的业务,比如“做个内容分析,做个售后分析,做个呼入分析……你自己多想想”,那就更难受了。到底该咋个“多想想”,今天我们系统看下。

问题场景:

某个互联网厂子,领导对说:“做个积分分析,你自己多想想”。

一、从业务场景开始

之所以觉得难下手,是因为这里是两个问题,不是一个问题。

问题一,业务知识:到底是什么业务的,什么样的积分??

问题二,分析目标:这个积分到底啥现状,要分析出什么东西?

两个东西都不清楚,就如同盲人骑瞎马,当然毫无头绪了。

破题,要从业务知识开始。如果连业务的基本情况都不清楚,那就根本没法分析了。而且在梳理业务的过程中,可以收到业务人员的感性反馈,比如:

  • “积分太鸡肋啦,都没啥用!”
  • “积分成本太高啦,拿来干别的不行吗!”
  • “最近积分飚的太高啦,是不是有啥问题?”

这些感性反馈, 可以成为梳理分析目标的起点。

二、业务梳理逻辑

梳理业务,可以依照:来龙去脉,整体局部的顺序进行。搞清楚这个业务的上游、下游环节。从而梳理出最粗框架的业务流程。

以积分为例:

  • 上游:积分从哪里产生
  • 下游:积分在哪里消耗

整明白这两个问题,就能理清积分的业务流程。以电商业务为例,常见的积分来源、消耗方式如下图:

这个数据分析思路,让人大呼“靠谱”

梳理出粗框架业务流程以后,可以落实数据来源,即这些环节的数据有没有记录,有没有清晰的记录,在哪些系统进行记录。以积分为例,很有可能系统自动产生的积分,比如消费积分,是有清晰记录的,能具体到每一笔交易。但是活动赠送,人工调账的,很有可能没有详细记录是哪个活动/哪个投诉补偿进来的。

数据分析最大的难题是:没数据。在梳理业务流程的时候,要提前发现这些问题,避免事后查数据库的时候,面对一堆莫名其妙,没有标注的数据。

以上两个工作,可以不和业务部门沟通,直接顺着业务流程/系统流程/数据字典去查,但是仅仅做这两步,很有可能得到一个:知其然,不知其所以然的结果。

更深层的原因是不知道的,比如:

  • “为什么注册积分要设计成累积500分?”
  • “积分兑换的礼品,为啥专门有几款是500分的?”
  • “派积分的活动,为啥集中在这几个时间段做?”

很有可能这些设计的背后,有特定的业务目的。这些业务目的不是直接留在纸面文档里的。

因此,梳理工作不应停在仅了解流程/数据上。还应该再梳理:业务动作。理解了业务部门出于什么目的,做了什么事,才能理解数据背后的东西。很多常识性的结论可以直接从这些问题里获得,进一步分析的灵感也能从这里来。从而极大的避免:分析了一堆,业务说“我早知道了”。

这个数据分析思路,让人大呼“靠谱”

当然,不同公司沟通难度不同,这一点上同学们量力而行。能沟通清楚,是最好的。

三、基础数据呈现

在梳理完业务后,可以做基础数据呈现。基础数据呈现也要遵守:来龙去脉,整体局部的原则。先呈现基础情况,再发现问题。

比如积分情况,可以讲:

  • 整体上,存量积分有多少,每月新增多少,消耗多少?
  • 整体存量积分,每月新增/消耗,在近1年变化走势如何?
  • 积分来源有多少种?每一种占比如何?
  • 积分来源的结构是否有变化?
  • 积分消耗的方式有多少种?每一种占比多少?
  • 积分消耗的结构是否有变化?

呈现完现状以后,根据之前梳理情况,后续有不同的做法。

四、有感性反馈时,如何深入分析

如果在梳理过程中,已经拿到感性反馈,则可以直接对感性反馈进行深入分析。

比如业务部门反馈:“积分太鸡肋了,都没啥用”。可以进一步分析:

  • 清晰定义:什么叫没啥用(在产生端没用,还是使用端没用)?
  • 数据验证:“没啥用”到底是不是真的在数据上有证据?
  • 问题度量:是一直以来都没用,还是逐步变没用?
  • 原因分析:如果用户不喜欢积分,用户喜欢啥?

这里要注意几个关键问题:

1. 定义一定要清晰

感性反馈之所以感性,就是因为它没用规范的描述。比如积分没啥用,如果是说生产端,一般指:送积分不能带来效益(比如拉新人、促消费);如果是消耗端没用,一般指:积分不受客户喜欢,客户兑换使用得少。细节一定确认清楚,避免南辕北辙。

这个数据分析思路,让人大呼“靠谱”

2. 真实性验证不可少

业务部门给感性反馈背后的原因也很复杂:

  • 可能是真的了解情况,非常不满
  • 可能根本不了解情况,随口一说
  • 可能有其他目的(比如上新活动,把积分取代掉),就坡下驴

所以要用数据验证下,是否说的是真的。如果感性反馈和数据结果对不上,就得再深入思考:到底真实目的是哈?

3. 问题度量先于原因分析

问题先分轻重缓急,再看什么原因导致的。这样做不但有利于抓真正的重点问题,而且有利于梳理分析标杆,明确改进方向。比如说积分活动ROI太低,低于1:5就算不好,那么以下四种不同的表现,指向的分析结论是完全不同的(如下图)。

这个数据分析思路,让人大呼“靠谱”

五、无感性反馈时,如何深入分析

如果在梳理阶段,啥感性反馈都没拿到。那就只能自己做做探索。

在探索阶段,重点关注:趋势和变化

  • 突发性重大变化
  • 长期性缓慢变化
  • 周期性变化

比如在积分来源端,常见的变化情况如下:

这个数据分析思路,让人大呼“靠谱”

趋势和变化,本身可以成为进一步分析的点,比如:

  • 注册积分已经很少人领取,是否应该优化
  • 活动积分赠送太多,是否为1年后积分到期时埋了地雷
  • 人工调账缺少规范,经常有大笔异动,是否要追查

作为数据分析,可以把这些发现先罗列出来,要不要深入分析交给领导决定。一般情况下,会说出:“你自己想想……”,要么是领导自己不熟悉这个业务,要么是领导自己也不知道情况,要么是丫不关心这回事。

所以在接到问题时就问领导:“你想分析啥”很有可能是没答案的——他自己脑子都是空的。所以在呈现基础数据+变化趋势+变化以后,可以引发进一步的讨论。

当然, 也有可能到这个阶段,领导直接说:先这样吧,让业务看看。那就完美收工了。

小结

从本质上看,“自己多想想”问题,来源于对情况的不清晰,不止是分析思路,而是连基础业务情况都不知道。

这时候,破题的核心,就是做好梳理,把情况搞清楚。如果不去梳理流程,不去了解情况动作,不接收感性反馈,不检查数据来源,不分析发展趋势和变化,真的只是“自己多想想”,那肯定是抓破脑袋也想不出来的。

G端——市民热线数字化痛点需求分析

news, news阅读(99)

目前300多个城市设立了政务热线,目前大多数城市仅仅将其作为倾听民众声音、派员处理市民难事的渠道;存在对热线数据的分析应用,但基于数据和技术的原因,对政务热线数据进行挖掘比较有限。

01 市民热线发展背景

热线的存在首先要依托90年代技术的发展,电话、手机、APP、互联网,增加了诉求公开透明的渠道。

对政务热线的发展阶段进行分类:信息化阶段、数字化阶段、智能化阶段。

1、信息化阶段

背景是电话的普及,打电话极其方便。

但这个时候政务热线主要目标是“听”,解决问题。

但发生了多少相似的问题,诉求接听之间是不互通的,这其中的相关性也无法得知。

2、数字化阶段

背景是互联网、物联网的发展,网上政务大厅、政务服务APP等各种应用逐渐发展。

同时,这样热线数据由原来的分散式转变为集中式,数据得以汇集。

相关部门对热线不再停留在“听”的阶段,更加重视热线数据背后的应用价值。

典型的表现是相关部门的周报、月报、季度报告、年报等周期性报告。

有对应部门的人员进行定期报告的整理,以达到发现集中问题,辅助决策的目的。

这个阶段也是目前的主流阶段。

3、智能化阶段

随着人工智能的接入,对热线数据的分析、解析得以应用,这个时候的智能主要体现在“接听”和“派单”。

  • 由原来的人工接听,转为机器人接听,由机器人对问题进行初步处理,缓解接听压力;
  • 由原来的人工派单,转为系统派单,系统将问题工单派发给相关解决部门,缓解派单压力。

将智能技术应用数据采集和数据流转过程之后,对沉淀的数据应用的要求也更高了。

不再满足于人工报表,报表自动生成、数据可视化大屏、数据解析舆情分析、治理流程可视化等等。

02 市民热线数据流转模式

热线流转流程为 多对一对多 的形式,集中式处理,并对处理结果进行回访,实现流程闭环。

03 市民热线数据数字化痛点

从上面的热线流转可以看到,数据经过了接听、分类、办理、反馈、分析五个过程。

在调研过程中,用户痛点主要集中在接听、分类、分析中,我把它对应到常说的数据收集、数据清洗、数据分析三个方面。

1、接听:诉求量大,接听压力大

在整个诉求过程中,话务员是数据收集的最前端,接听电话,将诉求内容记录下来,才有接下来的分类、派单等等。

但是信息在传播过程中是逐渐递减的。

当话务员在接听市民诉求时,一般情况是需要在非常短的时间内记录市民反馈的问题

这样就导致对市民问题的记录描述无法进行格式统一化,

而且一旦格式统一化容易改变来电人的真实诉求表达。

2、分类:诉求识别能力不足,系统分类局限性

话务员对诉求记录之后,要根据诉求内容按照热线系统中给定的分类进行标记。

举例如下:

(1)系统分类无法自动更新

这样将热线进行分类时,系统设定的各级分类无法准确标记诉求问题。

(2)问题分类人工主观划定

工单分类由人工划定,不同话务员面对相似问题时,也会出现将相似问题划分在两个分类的主观情况。

(3)不同地区之间的分类标准不一

分类标准不一,对热线数据标记会出现差异性,数据无法在更高一级实现汇聚共享、分类就会受限。

3、分析:分析维度不一、深度分析有限

客户对热线数据的业务分析需求周期性分析、专题分析。

  • 周期性分析:常规的周报、月报、年报等;
  • 专题分析:拖欠工资专题、环境治理专题等;

分析是整个热线数字化最难的一部分。

比较容易做到的是标准化数据的分析,比如来电量、满意率、各固定分类的占比、各承办单位的占比;

难点在于非标准化数据的分析,比如拖欠工资分类中主要集中在哪些企业、哪些行业;某个镇街反映集中的问题是哪个分类等等。

这类分析通常依靠人工借助 【固定分类】筛选后,再进行人工判断,进行【再次辅助标记】统计,其人工工作量巨大。

一份常规性月报的形成往往需要业务人员一周时间的准备。

04 市民热线数据数字化需求

了解了热线业务流程和痛点,甲方的需求是什么呢?想做些什么呢?拥有这么丰厚的数据资产,该如何利用呢?甲方的痛点如何解决呢?

首先,一个稳健、灵活的热线接办系统对整个热线业务来说非常重要。

如何利用系统灵活、准确的对非标准化的诉求数据进行 准确记录、标准化处理

标准化处理的数据是数据分析应用的重要前提

1、接听:智能客服

智能客服引入,对非人工解决的咨询类、常规类、知识库类进行了过滤,承接部分热线压力。

(1)即时文字转换

以自然语言处理为核心模块的文字转换、语义判断、内容自动提取工具,实现对来电人口头表达的即时文字转换。记录完整通话内容。

(2)语义语境识别

自动识别来电人的基本信息,并根据信息进一步询问,自动提取关键字段以供话务员进一步筛选、编辑、点选,大幅提高话务员的分类效率。识别来电人的语义和语境,自动为接线员实时给出话术指引,降低沟通成本和工作压力。

(3)知识库调用

针对常规咨询类问题,智能客服可以直接调用知识库的相关内容进行解答,诉求止于智能客服,无需进一步流转。

2、分类:灵活与标准

这两个词感觉是矛盾对立的,但是确实是话务员的实际需求。

统一分类指的是同一地区,同一监管需求的统一,在相同的业务流程和业务环境中,使用同一套分类标准,能最大程度上保障分类数据的标准化。

在标准化的基础上,支持话务员在末级分类进行细分,将数据做到尽可能精确。

3、分析:自动与监测

(1)常规报表自动生成

对常规的来电量统计、分类占比统计可以自动即时生成,能看到数据的,一目了然看到数据。

(2)舆情热词监测

通过关键词、舆情重点词监测等,对诉求内容进行监测和提取,形成舆情热点图、热点地区图等。

05 市民热线数字化产品

1、热线接办平台

主要功能有:

  • 来电接听、其他渠道诉求汇集;
  • 生成、派发、承办办理工单;
  • 催办、督办办理工单;
  • 回访、办理结果反馈;
  • 知识库搭建、更新;
  • 工单分类管理;

2、数据分析驾驶舱

主要功能有:

  • 常规数据可视化:接听量、办理量、满意率;
  • 专题分析:专题事件的频次、高发地区等;
  • 热词舆情:热点词、敏感词、高频词;
  • 高发区域:事件高发区域;
  • 满意度分析:回访不满意情况分析;

06 总结

业务过程是非常痛苦的,给我印象最深刻的就是数据

对系统的整体要求是:

  • 数据采集减少失真;
  • 数据清洗尽量标准;
  • 数据分析更加联动。

这些的实现不仅是技术的支持,还需要对业务的深刻理解才能发现诉求之间的关联,也需要更多企业库、地点库、知识库等数据库的关联,才能支撑更深度的分析。

数据人,如何判断公司是“重用”你,还是“利用”你?

news, news阅读(105)

“我可能被PUA了!”

最近很多公司在确定去年的绩效,很多人看到结果以后,才恍然大悟:自己被领导利用了!今天我们就来聊这个很沉重,但是对自己发展很重要的话题:

如何识别自己被利用,还是被重用。

首先,数据类工作是PUA的高发区。因为普通体力工作,你让A搬20袋水泥,让B只搬10袋,A肯定不满意!所以没法PUA,大家计件工资,出一份力气拿一份钱。但数据类工作不一样,它有“技术成长”“业务洞察”“商业价值”这些很虚的成份在里边,没法计件工资,因此存在大量的PUA空间。

一、利用方法一:无穷无尽取数

典型表现:每天2000行SQL,天天都在取数,没有分析主题,没有项目。

PUA话术:“这是在锻炼你的能力,取数水平都不行也没法干别的”。

  • 隐蔽程度:低,对刚入行的新人很有用,新人傻乎乎以为写的SQL越多绩效越好。
  • 危害程度:高,往往在评绩效的时候,给你致命一击:“你有业务洞察吗?”“你有输出建议吗?”“你有产生价值吗?”“你看你啥都没有,我咋给你绩效呀!”

真正想重用你的领导,绝不会干这种平时让你疯狂跑数,事后抱怨你没有业务输出的事!能干得出这种事的,大概率是自己也没啥领导技巧,对数据部门承接的工作都没有统计,只会轻随手甩给下属。

一个好的数据部门领导,会建立如下图的需求管理表,这样既能统计自己部门员工工作时间,又能对上展示数据部门工作量,争取更多资源(如下图)

数据人,如何判断公司是“重用”你,还是“利用”你?

如果你疑似面对这种情况,那么可以

  • 记录每一个自己接的需求
  • 统计需求数量和工作时长
  • 主动向领导申请:承担更多分析型/项目型任务
  • 在加班超过小组其他同事时,出示需求记录,请求分摊工作
  • 在季度绩效沟通的时候,主动提:需要加人、需要得更好的绩效!

如果你的领导认同了,许诺可以加人/给高绩效,那么他有良心,他在重用你,值得追随。

如果他继续说:“你得多做出有价值的东西……”那你就铁定是被当成人工SQL机了。

二、利用方法二:让你自己想办法

典型表现:遇到难题,让你自己想,比如:

  • 需要做预测模型 → 你自己学学《机器学习》
  • 需要竞品数据 → 你自己学学《python爬虫》
  • 需要行业报告 → 你自己去网上搜搜

PUA话术:“这是在锻炼你的能力,要掌握全面的技能栈才能进步”。

  • 隐蔽程度:中,对很多人都有杀伤力,因为网上真的有这些东西能搜到。
  • 危害程度:高,往往在评价项目成果时,给你反戈一击:“你看你做的质量都不高,怎么能算是好呢?”“你还得努力呀,这个季度的绩效A就别想了,我给别人了!”

真正想重用你的领导,绝不会干这种干活前让你自己想想,干完了嫌你干得不好的事。数据不是天上掉下来的,高精度的模型需要强大的数据基建,高质量的外部数据在市场上售价很高。一个好领导,办事情得有成本意识,当他的老板/平级业务向他提需求的时候,连带上成本和对方谈,才能为数据部门争取到更多资源(如下图)。

数据人,如何判断公司是“重用”你,还是“利用”你?

如果你疑似面对这种情况,那么可以:

  • 咨询外部机构,了解他们的报价
  • 咨询同行前辈,判断下项目难点
  • 向领导汇报时,讲清楚市场价格与自身难度
  • 提示领导:我可以做,但时间/精确度上会有问题

很多同学吃过亏以后,都知道提前问一下了,在我的知识星球内,经常有同学来找我一对一辅导,就是想搞清楚:“这个需求到底有没有坑”提前避坑总比事后背锅强。

如果你的领导认同了,说“没事,你只管去干”,并且在业务投诉的时候,勇敢地说:“那没有资源投入,质量肯定差一点”。那么他有良心,在重用你,值得追随。

如果他继续说:“你看,你做得不行,你得多想想,这个季度绩效A就先没办法给你了”……你懂得!

三、利用方法三:让你去扛雷

典型表现:遇到棘手的汇报,让你自己去。

PUA话术:“这是在锻炼你的能力,你要独自承担项目”。

  • 隐蔽程度:高,很多同学都渴望独立负责项目,一听到独立承担立马上头!
  • 危害程度:高,往往在你被人质疑的时候,反戈一击:“我没把关好,回来再看看”。然后评绩效的时候说“不好意思,不是我不想给你绩效,而是大领导不喜欢,我给你争取得好努力的!”

这个套路一般初、中级接触少,有经验的接触得多。跳槽到其他公司+做高级岗的接触得尤其多。这种方式也很隐蔽,因为人家看起来确实也很无辜呀。

但是回头看看,你就会发现一个奇特现象:

  • 每次大老板不满意/业务很抵触/意见不统一的难题,都是你在搞;
  • 每次领导都对你好言安慰,但是你的绩效就是总不行;
  • 你们组有一个看着不吭声,但是每次绩效都很好的人。

恭喜你!你被当成“扛雷专家”了。但是这种情况,很难反抗。人家当年招你进来,给你一个“高级”的头衔可能就是想让你扛雷。而且面上人家也很委屈,也在替你说话呀。这时候只能接受一个现实:“这个领导不可能升我了”然后蛰伏等待新跳槽机会。

数据平台产品-数据集成篇–拖拽式数据集成

news, news阅读(100)

拖拽式的数据集成,到底属于数据集成还是数据开发,一直会有这个疑问;在加工过程中的各个组件,又能进行负责的转换、计算等操作。属于数据加工吧,这种拖拽式的加工,在国内不普及,开发人员开发能力强,还不如直接使用SQL脚本进行开发了。两边都靠,两边都不是,甚至会出现到底在国内场景下是不是有必要的讨论。

这里把这种拖拽式的开发形式,一般主要用户跨系统,或者说数据搬运的情况下使用,属于归类于数据集成产品。国外归类也是把他归属到ETL产品中。

这里多说一句:如果在你的产品设计里面,既有拖拽式的数据集成又有向导式的数据集成,在叫产品名称的时候,又不想加特别长的前缀,可以把拖拽式的数据集成叫数据集成,向导式的数据集成叫数据同步。这里就用了数据集成和数据同步在解释上的细微的区别,一个专注于数据的整合和数据处理,一个更注重数据的传输和一致性。这也就是开始说的依据具体的上下文场景、团队内的称呼习惯等灵活决定。

在转做产品经理之前,用过很长时间的拖拽类数据集成产品,就是Informatica powercenter。这款产品常年占据Genter数据集成产品象限的领导者地位。不过话说来也挺怪的在国内却缺少一款同类型的产品。也就是说在国内很少见以转换算子特别丰富的拖拽形式进行数据集成的产品。想了想,可能时国内开发人员普遍的代码能力较强(但是也不对,难道国外的开发人员代码能力就弱了?),这种拖拽的虽然貌似将门槛降低了,但是却没有直接写SQL的效率、维护上方便,所以也就没有这方面的需求,类似的产品也就没有生长出来(听说拖拽式的AI平台也面临同样的处境。真正会AI的人觉得拖拽式开发麻烦,不会AI的人对于各个算子的参数又不能很好理解,不知道是不是真的?)。

有需求才会有产品,既然国内很少用这个产品,我为什么设计过?

这是在一家公司做乙方的时候,一家公司曾经使用过IBM DataStage,所以当他们想上云时,也需要同样的类似功能,基于此设计、实现一套拖拽式的数据集成工具。

整体的设计还是不会摆脱数据集成的三部分—ETL,对应的组件就是:源端组件、转换组件、目标端组件。各个组件里面的展示细节,也在不断打磨中,这个过程更像产品是生长出来的感觉。不需要在一开始就要求是最好,让产品发生。

一、源端组件

源端插件是整个数据集成中的数据开始进入的地方,所以交互上第一步就是先选择一个数据源类型,根据类型变化具体类型下面的数据源的选择。选完数据源之后,选择一个具体的表,就完成了源端设置了。

二、目标端组件

目标端插件和源端设计一样,也需要先选择一个数据源类型,再根据类型确定具体的数据源可以进行哪些不同设置,目标端是整个数据集成的数据终点,从源端导入的数据,最终都将到达目标端。

只有一个源端,连接上一个目标端,其实就可以完成一个数据集成任务的开发了。只是中间没有任务的数据转换,仅仅是数据的同步。(这时候就细微的发现数据同步和数据集成两个名词之间的一点区别了)

目标端组件和源端组件在交互上最大的不同点是,目标端组件在数据写入的过程中有一个字段映射的问题。Powercenter是一个C/S架构产品(Informatica Powercenter 的使用是基于2013年的版本,当时是B/S 架构,后续的产品升级及上云都没有接触过,上述仅做参考),可以设计很复杂的交互,直接让字段和字段建立映射。

但是在B/S架构中,如果也使用这种交互,当打开的组件过多时,整个浏览器会变得特别的卡。所以,需要针对B/S对这种有字段映射的拖拽式开发,需要有一种不同的形式来完成字段映射。这部分将在后面的组件间的字段映射部分做详细说明。

三、转换组件

转换组件,是数据集成的能力体现,转换组件强大,则拖拽式的数据集成能力就强大。转换式组件的 设计思路基本上就和SQL中的一些关键字的抽象,同时参考powercenter的现有的一些组件,在初期的时候,设计了以下的转换组件:

1. 表达式组件-Map

在表达式组件内部,对行级别的处理,可以新增行,将原有行数据进行拆解、进行规范化、新增一行默认值等等。

2. 过滤组件-Filter

过滤组件其实并不是必须的,大可以在源端组件中直接完成过滤即可。这样进入整个数据集成的数据就会少很多。

3. JOIN组件

实现的功能和SQL的join逻辑是一样的,将两张表连接在一起。也会分内连接、外连接等的区别。在界面上输入是两个,输出是一个。也仅仅支持两个输入,多余三个join的话,就将上两个的结果,继续join第三张表。

4. Union组件

实现两张表的union,实现的功能和SQL中的Union也是一样的。

5. 分组聚合组件-Aggregator

对输入表进行分组聚合的计算。

四、组件间的字段映射

两个组件如何实现数据传输那,其实就是拉线,拉一条线,表示数据从上游传递到了下游。我们所有数据传递都是字段级别的,所以这个拉线是表级别的还是字段级别的。

在设计之初的时候想打开两个插件,然后将两个插件内部的每个字段进行一个行级别的对应映射,但是这样做的话一方面是交互特别复杂,而在浏览器中不能做到这么灵活的交互,一方面如果字段特别多,都开发的话,占用浏览器内存过多,交互过程会比较卡(CS架构的Informactica powercenter就是这种打开后字段级别的交互,但是也很好奇迁移到云上之后,他们是怎么交互的)。于是就选择了另一个中交互,也就是只是表级别,在表之间连线,然后传递上游所有字段到下游。在下游中进行字段映射。映射过程中字段对应关系怎么体现那,最简单也是最不友好的形式就是默认从上到下的一一映射。

友好一些的就是将上游的将字段传递到下游插件,在下游插件内部展示上游字段,然后在下游插件内部自己做字段对照。 如果上游的字段进行字段变更了,那么下游什么时候获取到这写变更的字段,这个是增加了一个局部保存还是全局保存的能力来做的。

源端、目标端、中间转换插件(算子),通过插件间的映射链接连接到一起。就是一个完成的拖拽式的数据集成任务了。

五、是离线还是实时任务

在上面介绍的所有算子,其实都是从离线的视角来介绍的。但是对于实时的视角其实一样适用。只是中间的转换算子不一样。

这个如果是离线的那个就可以当做一个普通的离线任务,放在离线的DAG图中,配置调度,如果是一个实时的,就可以直接启动运行了。

六、总结

做产品的过程,就是实现自己想法的过程,在实现了拖拽式数据集成之后,算是实现了一个做产品的个人小目标。看着一件事物在自己的规划中实现,还是很欣喜的,这可能是创造的乐趣,也是做产品的乐趣。

充电运营平台(国内)建设中,运营运维的各项指标

news, news阅读(115)

充电桩不同品牌在上线运营充电后,基本都会遇到形形色色的BUG,不仅是硬件,还有软件,充电桩即是资产运营又是用户运营,资产运行状况直接影响用户运营质量。

一、指标数据拆解

指标数据可从四个层(规模大小、企业性质)面进行简单拆解。

  1. 以站点运营商,这类客户相对比较小,可能也就运营最多几个站点为主。这类群体客户一般会购买多品牌的充电桩进行投建运营,部分也有自己的用户体系(APP、小程序等)。日常的运维一般会交予充电桩制造商为主。
  2. 以平台为主运营商,含主机厂性质、桩制造+桩运营、纯互联网平台,涉及的充电站点会分布在全国各地,且有自营、合作运营、独自运营(购买SaaS服务)等模式存在。
  3. 以第三方统计或政府监控平台,一般按要求进行数据上报即可,针对上报可能遇到异常,需要考虑数据重推机制及人工复查的功能。
  4. 充电用户(车队充电运营)既是充电桩运营,又是充电桩使用者,结合两种身份去考虑需要的指标定义。

二、具体指标

以下七个指标供参考,每个企业定义有所不同:

1. 一次充电成功率

主要作用是通过该指标反映充电用户体验。

公式=充电成功订单/全部订单(含失败订单)*100%

充电成功指电量 > 0.2 kWh 或充电时长 > 2分钟

失败订单指电量 <= 0.2kWh 或充电时长 < = 2分钟情况下置为失败订单

充电成功率拆解:

  1. 按桩类型交流、直流;
  2. 充电桩型号;
  3. 充电桩区域;
  4. 充电桩归属商多维度统计;
  5. 时间周期内数据占比趋势;

2. 充电失败占比率

主要作用是观察用户充电失败,是否可能导致流失。

公式=失败订单/充电成功订单*100%

失败订单:这里针对一个用户一个站点,只进行统计一次(因:一个用户失败后一般会尝试更换充电桩,如后面成功启动充电,前面失败的订单不进行统计)

充电失败占比率拆解:

  1. 站点;
  2. 用户分类;
  3. 用户区域;
  4. 充电桩归属商多维度统计;
  5. 时间周期内数据占比趋势;

3. 充电时间利用率

主要反映营业时间里充电桩的使用情况。

公式=(充电订单时长(含失败订单)/运行时长)*100%

运行时长:

  1. 如果是运营场站按具体开放时间进行合计,例:08:00-22:00点营业,每日的运行时长=14个小时;
  2. 如果是家庭充电桩按每日24小时进行合计;

充电时间利用率拆解:按区域;充电桩类型交流、直流;站点;自然月份进行统计;

4. 充电功率利用率

主要反映智慧充电中将能耗最大利用。

公式=(充电订单电量(含失败订单)/额定功率)*100%

额定功率:

  1. 如果是运营场站按具体开放时间合计,例:08:00-22:00点营业,单桩额定功率11 kW,单桩额定总功率=14*11=154kW,多桩进行累加;
  2. 如果是家庭充电桩按每日24小时进行合计,单桩额定功率11 kW,单桩额定总功率=24*11=264kW,多桩进行累加;

充电功率利用率拆解:按区域;充电桩类型交流、直流;自然月份进行统计;

5. 充电故障率

反映以故障为主的统计,也同样影响用户体验。

公式=(非正常操作导致订单停止数(不含失败订单)/全部订单(不含失败订单))*100%

正常操作:

用户主动通过APP、桩端进行停止充电;桩端因金额不足;车端充满自停;预约定时充电等

非正常:

车端异常(如BMS等)、桩端异常(高温、低压、低电流、在线转到离网策略等)、应用端(高温断电策略、SOC保护策略等)

充电故障率拆解:按区域;充电桩类型交流、直流;三大分类应用端(APP、Web)、充电桩、车辆端(如后续有车辆基础档案管理,需要进行车系、车型统计)进行统计;

6. 运行故障率

以桩运行为主的考核指标。

公式=(故障桩/正常桩)*100%

故障桩:

指因为桩端故障不能进行充电(部分告警不影响充电的不计入),如果是运营桩含离线情况;

  1. 运行故障率按桩类型交流、直流;充电桩型号;充电桩国家、区域;充电桩归属品牌商、代理商、服务商、运营商进行多维度统计;
  2. 统计全部故障类型的发生次数,并按TOP进行排序;

7. 设备离线率

公式=(所有充电桩离线总时间/每日对外运营总时间)*100%

家庭桩数据不纳入统计里;

设备离线率拆解:可以按地区、站点、桩型号、SIM卡类型进行数据统计

如何用数据分析思维打开心智?

news, news阅读(103)

最近,我看了《打开心智》这本书,感觉收获颇多。

下面我用数据分析的思维来解读这本书,分享一些我的学习心得、思考和实践,希望能够对你有所启发。

为了让结构更加简洁清晰,我把数据分析的 9 种思维,分成 3 大模块,在每个模块下面,分别包含 3 种思维。

读完一本书或看完一篇感兴趣的文章,我一般会记 3 点:

第 1 点:理解现状,看见差距

选择运用目标思维、对比思维或细分思维,不需要面面俱到,只要找到一个最有冲击力的点,让人看见就能引起好奇心。

比如,明确一个目标,对比目标与现状之间的差距,或者细分一个问题,等等。

第 2 点:分析原因,洞见可能

选择运用溯源思维、相关思维或假设思维,找到一个最有影响力的点,洞见事物的本质,探索更多的可能。

比如,问题背后的根本原因可能是什么,有哪些观念更新了,或者认知提升了,等等。

第 3 点:预测未来,预见指数

选择运用逆向思维、演绎思维或归纳思维,找到一个最有行动力的点,可以落实到实际工作和生活当中去,学以致用,知行合一。

比如,用 BMI (身体质量指数)衡量人体胖瘦程度,当指数异常时,可能存在健康隐患,需要采取适当的干预措施,例如:健康饮食、健身运动等,以便让未来的身体保持健康。

我把上面的方法称为「记三点写作法」,因为「记」与「骥」同音,而且 3 点比较好记,简单实用,以便在学习和实践的过程中,培养更有效、更良好的思维习惯,实现思维升级和认知升级。

从理解现状,到分析原因,再到预测未来;从看见差距,到洞见可能,再到预见指数;从有冲击力,到有影响力,再到有行动力。

经常做这样的思维练习,当训练的次数多了之后,思路就会变得更加清晰、更有条理。训练思维就像学习走路一样,走的路多了之后,就会习惯成自然,不需要思考先迈左腿,还是先迈右腿,也能把路走好。

一、理解现状,看见差距

《打开心智》的作者李睿秋(Lachel),公众号是:L先生说,下面我们简称他为 L 先生。

在这本书中,对我最有冲击力的点是「输入-输出」模型,因为「用输出倒逼输入」是我正在践行的一种方法。

2021 年 1 月,我开始总结「100 种分析思维模型」系列文章,目前已经写了 40+ 种,未来还将继续学习总结更多的思维模型,但我不想急于求成,如果只是简单地罗列一些思维模型的概念,其实可以很快完成目标,但是我认为这样对自己的成长并没有太大的好处。

我希望自己在学完每一个思维模型之后,都能够经过深度思考和认真实践,检验模型对自己确实有效之后,再进行总结和分享,我认为这既是对自己负责,也是对读者负责。

什么是「思维模型」?

简单来说,思维模型就是认知世界、思考问题的模式和习惯。

比如,看见新信息时,不要盲目地相信,而是思考信息的真实性和有效性,从中筛选出有价值的信息,这种思考的习惯,就是一种简单的思维模型。

所谓模型,就是从一系列元素中,找到背后共性的规律,经过归纳总结,浓缩成一个简单的、可复用和迁移的结构,能够应用到不同的场景中,提高我们决策和行动的效率和质量。

所以,思维模型是对世界运行规律的总结,其中蕴含着关于「事物本质」的信息,能够帮助我们更好地去观察事物、思考问题。

明确自己的目标之后,读书就像是站在巨人的肩膀上,把高手当作标杆去学习,从而更好地理解现状,看见差距。

二、分析原因,洞见可能

任何事物,如果你能洞见它的底层规律,就能更好地理解和应用它。

在《打开心智》这本书中,作者 L 先生基于心理学、认知科学和神经科学的研究,总结了 4 个底层的规律,其中对我影响最大的是「节能」。

这 4 个底层的规律,提升了我的认知,帮我拨开迷雾,更好地洞见事物的本质,从而有更大的可能性从根本上解决问题。

接下来,我简要介绍这 4 个底层的规律。

2.1 节能

为什么人不喜欢思考?

因为大脑思考需要消耗能量,人类为了生存和繁衍,大脑会想方设法进行「节能」,这是生命进化刻在基因里面的机制。

尽管大脑有「节能」的天性,但是我们可以运用目标思维,让自己变得更有动力,而且经过系统的训练,依然可以进行更加理性的思考,想办法为自己「赋能」。

我研发和应用「数据赋能系统」,掌控自己的时情绪和习惯,提升自己的专注力,就是在用数据为自己「赋能」,让自己把有限的能量,用在更加重要的事情上面,并通过数据分析和复盘总结,反过来促进自己做出更好的决策和行动。

2.2 稳定

为什么人不想离开舒适圈?

因为大脑天性追求稳定,不想为改变消耗能量。当你深刻理解了「稳定」的确定性、一致性和适应性,对未来的目标就会更加笃定,心中也会更有安全感,减少焦虑感。

在《影响力》这本书中,作者罗伯特·西奥迪尼总结了承诺和一致原理,当你公开做出一项承诺之后,你的行为就会向承诺靠拢。

所以,大胆公开说出自己的目标,这样有助于目标的实现。

但是,实现目标不能一蹴而就,因为适应需要时间,养成好习惯是一个渐变的过程,就像种下一颗种子,悉心照料,让它慢慢生长。

2.3 预测

为什么人不喜欢无聊的感觉?

因为大脑通过预测来理解世界,根据进化的历史和生活的经验,形成了一种心智模型:一成不变的生活不利于生存

大脑采用预测加工的模式,处理每天接收的各种信息,包括每天的一举一动,其实都是在不断训练我们的大脑,实现资源的优化配置,减少资源的浪费,让我们把资源集中在更重要的地方。

养成好的习惯之后,原来「费力」的事情,将变得不再费力。此时就能有更多的精力,用来养成新的习惯,学习新的东西,探索新的项目,为生活引入一些新鲜感,在无聊与焦虑之间取得某种平衡。

2.4 反馈

为什么人不能忍受长期没有反馈的付出?

因为大脑天性是趋利避害的,趋利主要是由「奖赏回路」控制。当我们做出对生存有利的行为时,大脑就会释放多巴胺,激发我们的动机系统,让我们更有动力和激情去做事。

进入现代社会之后,商家在利益的驱使下,精心设计了各种即时反馈的「奖赏回路」,包括游戏、短视频、娱乐节目、八卦新闻等,让人沉迷其中而难以自拔,虽然人们的内心深处知道,这些是浪费时间的活动,但就是无法控制自己。

一旦大脑习惯了这种即时反馈的多巴胺获取模式,就更加难以适应需要长期努力才能获得多巴胺的模式了。

那么,如何才能克服大脑短视的天性呢?

我们不妨做出一些改变,试着去做一些更长远的事情。

比如,设置一个长期的大目标,然后把它分解为一些小目标,并付诸行动,去完成这些小目标,获得积极的反馈,逐渐积累内驱力和成就感,就能不断获得成长。

三、预测未来,预见指数

学习之后,最重要的是结合自己的实际情况,把所学的知识落实到行动中去,真正做到知行合一,从而能够切实改变自己的生活。

书中介绍了 6 种重塑自我的方法,我结合自己的理解,应用到实际工作和生活中去。

3.1 掌控情绪

按照「情绪维度理论」,把情绪细分为 2 个维度,一个维度表示是否正面,另一个维度表示是否可控,通过坐标轴形成 4 个象限,然后把情绪放进去。

结合「情绪能量理论」和「情绪维度理论」,我优化了「数据赋能系统」的情绪设置,然后运用「控制两分法」,控制自己能控制的情绪,比如,喜悦、焦虑和愤怒,接纳自己无法控制的情绪,比如,恐惧、悲伤和极乐。

运用「数据赋能系统」,我持续记录自己的情绪,写下自己的心情、感受和想法,并对情绪进行打分,然后把情绪连点成线,这样就能比较直观地看到自己的情绪波动,包括什么事情让自己的情绪变得高涨,什么事情让自己的情绪变得低落,掌握自己情绪变化的规律。

不要小看记录这件小事,有许多研究证明,记录有助于减轻焦虑和压力。我从 2018 年开始养成随时记录的习惯,平均每天用 Excel 记录 20 多行数据,这些数据不仅帮助我掌控自己的时间、情绪和习惯,而且成为我复盘总结和了解自己的绝佳素材。

情绪控制能力是可以锻炼的,经常运用「控制两分法」,去面对现实中遇到的问题,减少抱怨和指责,积极创造和引导正面的情绪,比如,积极社交、多晒阳光、充足睡眠、健身运动、深度思考、阅读写作等,就能让自己变得更强大,也能有效减少负面情绪的困扰。

负面情绪不是洪水猛兽,有时候,负面情绪恰好是发现不足、挖掘内心的契机,把目光从外在事件转移到内在感受上,从第三方的视角观察和剖析自己,给自己留出理性思考的时间和空间,避免在情绪激动的时候做出错误的判断和行动。

按照「汉隆剃刀」原则,能解释为愚蠢的,就不要解释为恶意。如果我们更多用善念去理解外部的事件,情绪反应就会变得更加积极乐观。

在《情绪》这本书中,作者莉莎·费德曼·巴瑞特介绍了一种「情绪建构理论」,巴瑞特教授认为,情绪其实是大脑构建出来的,大脑会预测未来所需的能量,通过改变心率、血压等指标,做出相应的反应,当身体的感觉和外界的事件产生共鸣时,情绪就发生了。如果预测不同,那么身体的反应也会有所不同。

为了更好地掌控自己的情绪,我们可以通过刻意练习,提高自己的「情绪粒度」,尽可能多地掌握和情绪相关的词汇,准确识别并且描述情绪的状态,避免陷在一种情绪里无法自拔,从而能够更加准确有效地找到对应的解决办法,拥有一种更加健康的心理状态。

比如,同样是高兴,情绪粒度高的人,可以分成开心、愉快、得意、振奋,以及欣喜若狂,等等,能够很轻松地表达出自己内心的真实感受,对自己的情绪有着非常细致的认识。同样是表示糟糕的情绪,可以有生气、愤怒、惊恐、暴躁、窘迫、焦虑,等等。

在数据赋能系统中,我汇总整理了 100 多个情绪相关的词汇,并且按照情绪能量理论进行分层,再按照情绪维度理论分成四个象限,从而提升自己掌控情绪的能力。

未来我还将继续细化这些情绪词汇的含义,并举例说明它们之间的细微差别。将来在记录时间和情绪的时候,就可以选择更符合自己当前感受的情绪。

身体是情绪居住的地方,保持良好的生活习惯和身体状态,比如,注意饮食、健身运动、充足睡眠等等,也能增强自己的掌控感,让情绪变得更加稳定。

3.2 养成习惯

如何把自律转化为「自驱」,而不是「自虐」?

我的方法是养成良好的习惯,通过心理暗示,把遇到的问题和困难,当作是提升自己的机会,引导大脑按照正确的方向去行动,而不是强迫自己去做内心不愿做的事情。

比如,工作劳累一天之后,回到家时大脑似乎想要「罢工」,不想去做「烧脑」的事情,就想休息放松一下。如果选择放松的方式是看视频或玩游戏,大脑其实并没有得到休息,反而会让人感觉更加疲劳,而且会感觉空虚。

此时不妨转变一下思维观念,把时间和脑力用来做一些更有价值的事情,比如,陪家人聊聊天,散步锻炼一下身体,写一写复盘总结,等等,这样就可以让生活变得更充实。

按照「福格行为模型」,行为 = 动机 & 能力 & 提示,当动机发生改变之后,再把目标分解为有能力做到的小任务,只要加以适当的提示,就会采取相应的行动。

比如,在养成复盘总结的习惯之前,我一想到这件事就会感觉很难。但是,当我意识到复盘这件事的重要性,知道复盘可以促进思考,并且笃信长期复盘的好处之后,再把复盘这件事分解为哪怕每天写 1 个字也行,每天只要用闹钟提醒一下,就会立即开始写复盘总结。

如今我已经连续复盘总结了 1300 多天,越来越感受到复盘总结的好处,看到不断增长的数字,也能让我获得一种成就感。我不再需要依靠闹钟的提醒,就会自然地想起这件事,说明复盘已经成为我的一种习惯。

类似地,早睡早起、深度学习、用心写作等习惯,我都是这样逐渐养成的。

未来,我还将在发现问题和解决问题的过程中,把自己当成一个持续优化的系统,继续养成更多好习惯,并从中获得乐趣和动力,让整个系统朝着所期望的方向运转。

3.3 持续行动

自从我养成用「数据赋能系统」记录时间和情绪的习惯之后,持续行动就变得更加简单了,因为每记录一次,就相当于提醒了自己一次:要把时间花在更加重要的事情上面。

通过查看自己记录的时间数据,并问一问自己:假设这件事不做,会有什么后果?通过审视每件事对长期目标的贡献度,经过小心求证,从中找到一些其实可以不做的事,并从后续的日程计划中排除掉,这样就能节省出来很多时间。

比如,晚上下班回到家之后,如果不去刷手机,对长期目标不会什么负面影响,因此可以把刷手机的时间,用来读书或写作。

在日复一日的记录时间和复盘总结的过程中,逐渐用新习惯去代替旧习惯,从持续行动中获得正向的反馈,就能让自己进入更加自然舒适的状态,从而获得成长和进步。

在《打开心智》这本书中,作者 L 先生介绍了缺乏行动力的四种模式:

我用这个模型对自己的状态进行诊断,发现自己经常处于「威胁敏感」模式,就是容易「想太多」,有比较严重的选择困难症,有时候点个外卖都需要想很久,白白浪费了自己的时间和精力。

为了克服精力分散的问题,我关闭了几乎所有手机 App 的通知功能,养成了经常练习正念冥想的习惯。

另外,我会利用碎片时间来记录自己的时间和情绪,这样就能提醒我及时把注意力拉回来,并思考这件事值不值得做,为什么会有这样的情绪反应,从而提升专注和感知的能力,增强自己的掌控感。

我的很多想法和灵感,其实都是在记录的过程中产生的。我的很多行动,也是从记录这一刻开始的。比如,当我睡觉之前记录时间,其实就是在提醒自己,现在到点就该准备去睡觉了。

行动是改变一切的良方,如果你想提升自己的行动力,那么不妨试着从记录开始。

3.4 高效学习

作为终身学习的践行者,我一直在努力打造适合自己的学习系统。

我学习的目的,主要是为了把知识内化为自己的技能,从而能够用来化解现实中的难题。

运用假设思维,先大胆假设,然后再小心求证,通过实践检验知识的有效性,用来指导决策和行动,形成自己的思维模型和方法论,再把有效的经验分享出来,以便让更多人能够从中受益。

比如,假设我运用新的思维模型,会怎么样?假设让自己的工作更加贴合业务,会怎么样?假设我多花时间与他人交流,会怎么样?下一步就是去行动,经过对比分析,检验结果与当初的假设是否相符,如果相符,就总结经验。如果不符,就思考原因,大胆提出新的假设,再小心求证,循环往复,形成不断成长的闭环。

再比如,我在阅读了很多与时间、情绪和习惯有关书籍之后,总结对自己有效的方法论,运用数据分析的思维和工具,经过长期的思考实践和升级完善,用 Excel 制作出了「数据赋能系统」,并证明它对自己确实有效。

运用任何一种新的思维方式,刚开始的时候都难免会感觉不适应、不舒服或不理解,但只要及时把遇到的问题记录下来,做出自己的假设,并动手去检验它,经过反复的练习,就可以总结出一套有效的方法,让它成为解决问题的工具。其中记录是关键,有句俗话说得好:好记性不如烂笔头。

经过对问题的假设,以及对行动的检验和对比分析之后,下一步就是对结果的复盘总结,把过去的经验沉淀下来,以便能够更好地应对未来可能出现的问题。

学习追求的不是死记硬背,而是经过思考之后,能够融会贯通。读再多的书,如果没有自己的思考,那么结果也是徒劳的。

千万不要总想着「投机取巧」,不要以为通过简单的复制、划线或收藏就能学到知识,而要脚踏实地,做到学以致用,才能建立属于自己的知识体系。

关于建立知识体系的方法,我计划结合 DIKW 模型,另外再写一篇文章:如何用 DIKW 模型建立属于自己的知识体系?

3.5 深度思考

凡是优秀的人,都有深度思考的习惯。

如果一个人学会深度思考,掌握系统而有效的思维方式,就能成长为更优秀的人。

成长的过程,就是重建自己的思考方式,不断提升认知的过程。

一个有智慧的人,并不在于记忆好,而在于保持开放的心态和好奇心,升级自己的思维模式,勇于承认自己的错误,不断获得成长。

当遇到问题的时候,不妨把问题放到系统中去思考,打破固有的思维方式,运用溯源思维,多问几个为什么,找到问题的根本原因,拓宽心智世界的成长空间。

我们的生活充满未知和不确定性。比如,因为疫情原因居家办公,虽然有诸多不便,但从好的方面来想,可以节省上下班通勤的时间,增加与家人在一起的时间。选择主动适应和接纳这种变化,探索更多的可能性,就能避免陷入到负面情绪的泥潭中。

把一切问题、挑战和困难,都当成提升能力的机会,这就是成长性思维。不用太在乎最终的结果,更多关注「我能从中学到什么」,激发自己的潜能,让自己思考问题的方式变得更加灵活,并且更加积极地去采取行动,就能更好地化解难题。

3.6 积极创造

世界充满了限制和诱惑,有人想要我们偏离方向,要么被外界推动着失去自我,要么陷入空虚的娱乐难以自拔。

创造是我们生活的意义所在,也是获得快乐的一种方式。

在创造的过程中,需要付出努力和克服困难,但创造的成果可以让人获得快乐,这种快乐会激励你不断提升自己的能力,磨炼自己的心态,从而成为更好的自己,带来长期稳定的满足和幸福感。

反过来,通过消费获得的快乐,比如刷短视频、看娱乐新闻,由于没有付出努力,短时间内获得的快感,会不断堆高快乐的阈值,从而被推着去寻求更刺激的快乐,导致容易陷入空虚的状态。

如何在忙碌的工作和生活中,找到时间去进行创造呢?

我自己比较喜欢运用数据分析的思维,从底层原理去思考问题。比如,使用「数据赋能系统」掌控自己的时间、情绪和习惯,目的不是为了去做更多的事情,而是学会「断舍离」,尽量不去做那些不必要的事情,从而能够抽出更多的时间,专注去做更重要的事情,包括:深度学习、用心写作、健身运动、陪伴家人,等等。

每次记录时间和情绪的时候,其实都是一次思考的机会:这段时间我做了些什么事?这些事对目标有没有用?如何让自己做得更好?经常这样做,可以检视自己是否走在正确的路上,还可以把想法、灵感、经验、心得、教训等沉淀下来,成为下一次行动的能量来源。

我会用关键词简单记录自己做事的思路、想法和进展,下次再继续做的时候,就能更快地进入到心流的状态,让自己全神贯注地把当下最重要的一件事做好。通过记录自己的情绪得分,可以找到「波峰时间」、「波谷时间」和「正常时间」,以便按照自己的节律,在思维比较活跃、精力比较旺盛的时间段,去做更具有创造性的事情。

每天记录自己的时间和情绪是什么,思考背后的原因是为什么,以及规划下一步应该怎么做,养成复盘总结的习惯,给我产生了一种神奇的力量,不仅增强了我的掌控感,而且降低了我的焦虑感,还提高了一种自律的满足感,从而增强了我追求目标的动力和信心。

最后的话

生活如果没有目标,就容易缺乏热情和动力,甚至产生虚无感。

我养成每天深度学习和用心写作的习惯,没有人要求我这么做,而是我自愿选择这么做,因为我觉得这件事本身是有意义的,学习可以获得新知,写作可以促进思考,或许还能帮助他人,比如:对他人有所启发,把正能量传递给他人,点亮他人的思维盲区,等等。

反过来,如果我学习和写作只是为了功利或考试的目的,那么最终就会面对存在性焦虑。就像很多人在高考结束之后,就再也不想看书了。

我们需要不断去探索更多的可能性,找到自己真正热爱的东西,才能获得更高的成就感和自我效能感。如果你暂时还没有找到,千万不要放弃,继续寻找下去,从行动中获得反馈。只要你倾听自己的心声,当你找到的时候,你的内心会告诉你的。

通过持续记录自己做过的事情和相应的情绪,那些能让你情绪能量高涨、精神振奋的事情,也许就是你真正喜欢做的事情。

人的兴趣就像情感一样,也是可以培养出来的。我们在探索世界的过程中,逐渐建立与世界的联系,并对世界产生影响,这会带来快乐和满足感,反过来产生一种驱动力。当你发现自己擅长某件事情之后,获得了正向的反馈,也许逐渐就会产生兴趣。

每天在复盘总结的时候想一想:这是我想要的生活吗?哪些地方不够满意?如何改变才会更加满意?哪些做得好的事情需要继续做?哪些做得不好的事情需要停止做?哪些值得尝试的事情需要开始做?

然后,第二天就去尝试做出改变,当再次复盘的时候,就可以问一问自己:改变是否让自己变得更加满意了?如果是的话,那就维持这个改变。如果不是的话,那就假设做出新的改变,然后再用行动去验证自己的假设。这样就可以把过去的经验,转变为自己的宝贵财富。

当你找到自己擅长并且喜欢的事情之后,不妨再问一问自己:是否可以通过这件事,去影响和帮助更多的人?如果可以的话,那么恭喜你,你可能找到了自己热爱的终身事业。

对我来说,用数据赋能成长,能给我带来满足感,而分享数据赋能的方法和工具,让自己周围的世界能够变得好那么一点点,能让我产生成就感和意义感。

在「数据赋能系统」中,有一列名为「量化」的指标,你可以用来记录目标的完成情况,也可以用来给时间进行打分。比如,你可以问一问自己:从长期来看,这段时间对自己的成长和目标有多大的价值?如果发现自己在很长的时间里,一直都在做一些低价值的事情,那么就要提高警惕了,你也许已经偏离了目标的方向。

最后,我将运用数据分析的 9 种思维和 100 种分析思维模型,把不同的思维模型组合起来,通过对比分析和追根溯源等方法,找到事物发展的底层规律,演绎出不同的使用方法,不断完善自己的预测模型,以便将来能够更好地化解难题。

以内容型小程序为例,分享数据分析框架

news, news阅读(98)

背景:公司为了更好地打造品牌,往往会布局不同功用的小程序,如内容型、工具型、转化型小程序,为了优化小程序生态,盘活小程序之间的用户流量,往往需要做针对性的数据分析,本文谨以内容型小程序的数据分析作为切入点,为大家提供一个参考思路。

一、第一关键指标

据不同产品性质,以及产品不同的生命周期,锚定对应第一关键指标,同时参考第二关键指标。区分虚荣指标与可付诸实践指标,活跃人数、累计访问人数 vs 活跃人数/月访问总人数、单位时间内新赠人数。

二、用户维度数据

在明确第一关键指标后,确定小程序的关注重点,可以根据新客、老客户的维度细化用户旅程图,并甄选重点优化的功能模块。

针对不同类型用户,甄选重点优化功能,并锚定对应指标针对性运营策略。内容小程序为例:

  1. 用户活跃度:周活跃人数/周访问总数,目标>35%,参考近三月均值34%
  2. 7天留存率目标>45%,参考近三月活跃用户留存率42.36%;
  3. 小程序分享率>23%,参考近三月转发率20.82%. 分享率=用户分享次数/用户访问次数。

举例来说,内容型小程序的数据指标更关注活跃老用户,则需要拉取用户活跃度数据,进行对比。

如下图,以近3月数据为基础做活跃度环比分析,判断整体用户活跃走势,Ex:

  1. 用户日活周活:反映用户活跃的绝对值;
  2. 7天活跃留存:体现总体活跃留存情况。

三、产品维度数据-主要流量分布

根据主要流量页的分布图,明晰可重点关注的功能模块。Ex:下图为内容小程序首页近3月流量分布,每日推荐、内容精选等模块为主要流量分布点。

此外,根据热力图反映首页流量分布,根据视觉习惯做调整动作。Ex:每日推荐流量最大,若放在用户视觉重点区-最左侧,探索数据提升的可能性。

首页资源位的点击率可以充分反映用户兴趣,除此之外,搜索页的热搜关键词高频词,更能反映对于主动搜索相关内容的兴趣,特别是用户自定义关键词搜索,高频词的分析和布局可进一步提升用户运营的质量。

四、产品维度-页面流量断点

一般来说,退出率和页面访问人数漏斗图,能反应不同二级页对用户的吸引力,为此,我们可以通过这两个数据指标看小程序需重点关注的页面节点。如下图所示,页面B和页面C之间的流量存在较大的断点,用户流失较多,可以重点关注。

可以由此再往下深挖,细拆不同页面,特别是内容型小程序较关注的受访页、分享页的人数/停留时长等指标。

五、时间维度-主要数据对比

除了流量页面、二级页面的分析外,为了更好地了解用户习惯,需要对比不同时间段下用户的数据指标,转化类小程序更多关注GMV和转化率,内容型小程序主要关注以下指标:

  1. 产品主要数据指标对比:活跃度=活跃人数/总访问人数、次均停留时长、受访页跳出率;
  2. 主要受访页数据对比:次均停留时长、受访页退出率,结合运营调整策略,分析增长/下滑原因。

当然还可以根据流量趋势来看,以24小时为时间颗粒度,判断流量高峰期,结合受访页流量数据,判断运营着力点:

六、最低增长指标-参考健康数据标准

数据分析的目的,是为了判断产品健康程度,确定产品目标是否达成,明确改进的大致方向。就内容型产品来说,一般有以下几个方向:

  1. 用户获取,用户成本/用户带来收益<=1/3
  2. 用户活跃,维持每周5%的新用户增长,维持每天活跃用户/总访问人数>=10%
  3. 用户停留时长,活跃用户的7天留存率目标值5%,主页面跳出率<=30%
  4. UGC内容,人均生产内容量每月>=3条
  5. 传播率,分享人数/总访问人数的比值,理想病毒传播系数75

参考1-5指标,以及当时产品的主要改进方向,我与团队达成共识的着力点,确定为以上第2点。

七、产品改进点-目标策略度量

一旦确定产品的目标,则需继续拆分具体的改进点,确定可执行的假想解决方案、印证指标有效的数据衡量标准。Ex:

八、日常数据指标监控

在日常运营中,特别是在产品迭代优化后,特别需关注数据指标,确保产品运营无bug。以每天/每周为最小时间单位,监控产品的日常数据,及时反馈异常,与复盘运营优化数据效果。

综上所述,是继我在两家公司,负责2个内容型产品后的数据简析框架,参考过国内外大神的数据分析书籍,加上自己的经验总结出来的,希望曾经的经验能帮到同路人。