商务数据分析的流程
第一步:明确分析目的。首先要明确分析目的,并把分析目的分解成若干个不同的分析要点,然后梳理分析思路,最后搭建分析框架。
第二步:数据采集。主流电商API接口数据采集,一般可以通过数据库、第三方数据统计工具、专业的调研机构的统计年鉴或报告以及市场调查等方式来采集数据。
第三步:数据处理。数据处理主要包括:数据清洗、数据转化、数据抽取以及数据计算等处理方法,将各种原始数据加工成数据分析所要求的样式。
第四步:数据分析。常用的数据分析工具包括:Excel、Python、R等。
第五步:数据可视化。一般能用图说明问题的就不用表格,能用表说明问题的就不用文字。
四、数据采集
数据的采集流程
-
明确采集要求 2. 明确分析对象 3. 按需求采集数据
商务数据的采集方法
数据采集主要是针对定性数据和定量数据这两种数据的采集。其中,定性数据主要采用问卷调查和用户访谈的方式获取,而定量数据则分为内部数据
问卷调查是一项有目的的研究实践活动,其调研的信息一般是不确定性的用户信息或无法通过后合数据获取的信息。此外,问卷调查需要用有限的问题来获取有价值的信息,因此,在进行问卷调查时首先应考虑样本的容量,然后再设计内容,最后按照确定目标进行问卷投放、收集汇总和结果分析等工作。
在访谈之前,运营人员首先要确定访谈目标:其次设计访谈提纲,并选择访谈对象:最后对访谈结果进行记录和分析。在分析访谈结果时,一般采取关键词提炼法,即对每位用户、每个问题的反馈进行关键词提炼,然后对所有访谈对象反馈的共性关键词进行汇总分析。
第三方数据统计分析平台有很多,如CNZZ (友盟)、百度统计和神策数据等。前两个平台是免费的,主要采集前端数据,其优点是操作简单,缺点是采集的数据比较粗糙;最后一个平台是收费的,可采集前后端数据,其优点是采集的数据更精准,缺点是操作比较复杂。
网络爬虫( Web crawler)是一种按照定的规则自动抓取 互联网信息的程序或脚本。它们可以自动采集所有能够访问到的页面内容,以获取或更新这些网站的内容和检索方式。
网站日志是网站的用户点击信息和其他访问信息的汇总。通过网站日志可以清楚得知用户在何时、用何种操作系统和浏览器访问网站的哪一一个页面。其优点是保证用户的使用行为可以被查询,同时针对用户的一些误操作还可以通过日志文件进行恢复。
一般的互联网平台后端都有业务数据库,里面存储了订单详情、用户注册信息等数据。通过此种方式获得的数据都是实时、准确的,可以直接用于衡量网站的绩效和目标。但由于数据表单数量过多,增加了分析难度,会导致数据的使用价值变低。