设为首页 - 加入收藏 铜仁站长网 (http://www.0856zz.com)- 国内知名站长资讯网站,提供最新最全的站长资讯,创业经验,网站建设等!
热搜: 系统 平台 vivo
当前位置: 首页 > 运营中心 > 建站资源 > 优化 > 正文

干货收藏!Python完整代码带你一文看懂抽样

发布时间:2019-09-26 02:57 所属栏目:[优化] 来源:宋天龙
导读:1.什么时候需要抽样 抽样工作在数据获取较少或处理大量数据比较困难的时期非常流行,这主要有以下几方面原因: 数据计算资源不足。计算机软硬件的限制是导致抽样产生的基本原因之一,尤其是在数据密集的生物、科学工程等领域,不抽样往往无法对海量数据进

1.什么时候需要抽样

抽样工作在数据获取较少或处理大量数据比较困难的时期非常流行,这主要有以下几方面原因:

  • 数据计算资源不足。计算机软硬件的限制是导致抽样产生的基本原因之一,尤其是在数据密集的生物、科学工程等领域,不抽样往往无法对海量数据进行计算。
  • 数据采集限制。很多时候抽样从数据采集端便已经开始,例如做社会调查必须采用抽样方法进行研究,因为根本无法对所有人群做调查。
  • 时效性要求。抽样带来的是以局部反映全局的思路,如果方法正确,可以以极小的数据计算量来实现对整体数据的统计分析,在时效性上会大大增强。

如果存在上述条件限制或有类似强制性要求,那么抽样工作仍然必不可少。

但是在当前数据化运营的大背景下,数据计算资源充足、数据采集端可以采集更多的数据并且可以通过多种方式满足时效性的要求,抽样工作是否就没有必要了?其实不是的,即使上述限制条件都满足,还有很多场景依然需要通过抽样方法来解决具体问题。

  • 通过抽样来实现快速的概念验证。数据工作中可能会包括创新性或常识性项目,对于这类项目进行快速验证、迭代和交付结论往往是概念验证的关键,通过抽样方法带来的不仅是计算效率的提升,还有前期数据准备、数据预处理、算法实现等各个方面的开发,以及服务器、硬件的配套方案的部署等内容的可行性、简单化和可操作性。
  • 通过抽样来解决样本不均衡问题。通过欠抽样、过抽样以及组合/集成的方法解决不均衡的问题,这个过程就用到了抽样方法。
  • 无法实现对全部样本覆盖的数据化运营场景。典型场景包括市场研究、客户线下调研分析、产品品质检验、用户电话满意度调查等,在这些场景下无法实现对所有样本的采集、分析、处理和建模。
  • 定性分析的工作需要。在定性分析工作中,通常不需要定量分析时的完整假设、精确数据和复杂统计分析过程,更多的是采用访问、观察和文献法收集资料并通过主观理解和定性分析找到问题答案,该过程中主要依靠人自身的能力而非密集的计算机能力来完成研究工作。如果不使用抽样方法,那么定性分析将很难完成。
干货收藏!Python完整代码带你一文看懂抽样

2 如何进行抽样

抽样方法从整体上分为非概率抽样和概率抽样两种。非概率抽样不是按照等概率的原则进行抽样,而是根据人类的主观经验和状态进行判断;概率抽样则是以数学概率论为基础,按照随机的原则进行抽样。本节以下内容介绍的抽样方法属于概率抽样。

1. 简单随机抽样

该抽样方法是按等概率原则直接从总样本中抽取n个样本,这种随机抽样方法简单、易于操作,但是它并不能保证样本能完美代表总体。这种抽样的基本前提是所有样本个体都是等概率分布的,但真实情况却是多数样本都不是或无法判断是否是等概率分布的。

在简单随机抽样中,得到的结果是不重复的样本集,还可以使用有放回的简单随机抽样,这样得到的样本集中会存在重复数据。该方法适用于个体分布均匀的场景。

2. 等距抽样

等距抽样是先将总体中的每个个体按顺序编号,然后计算出抽样间隔,再按照固定抽样间隔抽取个体。

这种操作方法易于理解、简便易行,但当总体样本的分布呈现明显的分布规律时容易产生偏差,例如增减趋势、周期性规律等。该方法适用于个体分布均匀或呈现明显的均匀分布规律,无明显趋势或周期性规律的数据。

3. 分层抽样

分层抽样是先将所有个体样本按照某种特征划分为几个类别,然后从每个类别中使用随机抽样或等距抽样的方法选择个体组成样本。这种操作方法能明显降低抽样误差,并且便于针对不同类别的数据样本进行单独研究,因此是一种较好的实现方法。该方法适用于带有分类逻辑的属性、标签等特征的数据。

4. 整群抽样

整群抽样是先将所有样本分为几个小群体集,然后随机抽样几个小群体集来代表总体。

这种操作方法与之前的3种方法的差异点在于该方法抽取的是小群体集,而不是每个数据个体本身。该方法虽然简单易行,但是样本的分布受限于小群体集的划分,抽样误差较大。这种方法适用于小群体集的特征差异比较小的数据,并且对划分小群体集有更高要求。

3.抽样需要注意的几个问题

1. 数据抽样要能反映运营背景

数据能正确反映运营背景,这看起来非常简单,但实际上需要数据工作者对于运营环节和流程非常熟悉才有可能实现。以下是常见的抽样不能反映运营背景的情况。

  • 数据时效性问题:使用过时的数据(例如1年前的数据)来分析现在的运营状态。
  • 缺少关键因素数据:没有将运营分析涉及的主要因素所产生的数据放到抽样数据中,导致无法根据主要因素产生有效结论,模型效果差,例如抽样中没有覆盖大型促销活动带来的销售增长。
  • 不具备业务随机性:有意/无意多抽取或覆盖特定数据场景,使得数据明显趋向于特定分布规律,例如在做社会调查时使用北京市的抽样数据来代表全国。
  • 没有考虑业务增长性:在成长型公司中,公司的发展不都是呈现线性趋势的,很多时候会呈现指数趋势。这时需要根据这种趋势来使业务满足不同增长阶段的分析需求,而不只是集中于增长爆发区间。
  • 没有考虑数据来源的多样性:只选择某一来源的数据做抽样,使得数据的分布受限于数据源。例如在做各分公司的销售分析时,仅将北方大区的数据纳入其中做抽样,而忽视了其他大区的数据,其结果必然有所偏颇。
  • 业务数据可行性问题:很多时候,由于受到经费、权限、职责等方面的限制,在数据抽样方面无法按照数据工作要求来执行,此时要根据运营实际情况调整。这点往往被很多数据工作者忽视。

2. 数据抽样要能满足数据分析和建模需求

数据抽样必须兼顾后续的其他数据处理工作,尤其是分析和建模需求。这时需要注意以下几个方面的问题。

(1)抽样样本量的问题

对于大多数数据分析建模而言,数据规模越大,模型拟合结果越准确。但到底如何定义数据量的大小,笔者根据不同类型的数据应用总结为以下几个维度:

  • 以时间为维度分布的,至少包含一个能满足预测的完整业务周期。例如,做月度销售预测的,至少包含12个月的数据;做日销售预测的,至少包含30天的数据,如果一天中包含特定周期,则需要重复多个周期。同时,时间性特征的要充分考虑季节性、波动性、节假日等特殊规律,这些都要尽量包含在抽样数据中。
  • 做预测(包含分类和回归)分析建模的,需要考虑特征数量和特征值域(非数值型)的分布,通常数据记录数要同时是特征数量和特征值域的100倍以上。例如数据集有5个特征,假如每个特征有2个值域,那么数据记录数需要至少在1000(100×5×2)条以上。
  • 做关联规则分析建模的,根据关联前后项的数量(每个前项或后项可包含多个要关联的主体,例如品牌+商品+价格关联),每个主体需要至少1000条数据。例如只做单品销售关联,那么单品的销售记录需要在1000条以上;如果要同时做单品+品牌的关联,那么需要至少2000条数据。
  • 对于异常检测类分析建模的,无论是监督式还是非监督式建模,由于异常数据本来就是小概率分布的,因此异常数据记录一般越多越好。

【免责声明】本站内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。

网友评论
推荐文章