分布式消息订阅分发也是一种常见的数据采集方式Y其中YKaa就是一种具有代
表性的产品Kaa是由LinkedIn公司开发的一种高吞吐量的分布式发布订阅消息
系统Y用户通过Kaa系统可以发布大量的消息Y同时也能实时订阅消费消息
Kaa的架构包括以下组件x话题生产者服务代理消费者。
EtL是英文Extract-transform-Load的缩写Y常用于数据仓库中的数据采
集和预处理环节顾名思义YEtL从原系统中抽取数据Y并根据实际商务
需求对数据进行转换Y并把转换结果加载到目标数据存储中可以看出Y
EtL既包含了数据采集环节Y也包含了数据预处理环节
Kettle是一款国外开源的EtL工具Y使用Java语言编写Y可以在
windowsLinuxUnix上运行Y数据抽取高效稳定。
网络数据采集是指通过网络爬虫或网站公开应用程序编程接口等方式从
网站上获取数据信息该方法可以将非结构化数据从网页中抽取出来Y
将其存储为统一的本地数据文件Y并以结构化的方式存储它支持图片
音频视频等文件的采集Y文件与正文可以自动关联网络数据采集的
应用领域十分广泛Y包括搜索引擎与垂直搜索平台搭建与运营Y综合门
户与行业门户地方门户专业门户网站数据支撑与流量运营Y电子政
务与电子商务平台的运营Y知识管理与知识共享Y企业竞争情报系统的
运营YbI商业智能系统Y信息咨询与信息增值Y信息安全和信息监控等。
数据清洗的主要应用领域包括数据仓库与数据挖掘数据质量管理
?
1?数据仓库与数据挖掘数据清洗对于数据仓库与数据挖掘应用来
说Y是核心和基础Y它是获取可靠有效数据的一个基本步骤数据仓
库是为了支持决策分析的数据集合Y在数据仓库领域Y数据清洗一般是
应用在几个数据库合并时或者多个数据源进行集成时例如Y消除数据
库中的重复记录数据挖掘是建立在数据仓库基础上的增值技术Y在数
据挖掘领域Y经常会遇到挖掘出来的特征数据存在各种异常情况Y如数
据缺失数据值异常等对于这些情况Y如果不加以处理Y就会直接影
响到最终挖掘模型的使用效果Y甚至会使得创建模型任务失败因此Y
在数据挖掘过程中Y数据清洗是第一步。
数据质量管理数据质量管理贯穿数据生命周期的全过程在
数据生命周期中Y可以通过数据质量管理的方法和手段Y在数据生成
使用消亡的过程里Y及时发现有缺陷的数据Y然后借助数据管理手
段Y将数据正确化和规范化Y从而达到符合要求的数据质量标准总
体而言Y数据质量管理覆盖质量评估数据去噪数据监控数据探
查数据清洗数据诊断等方面Y而在这个过程中Y数据清洗是决定
数据质量好坏的重要因素。
数据清洗按照实现方式Y可以分为手工清洗和自动清洗
?
1?手工清洗x手工清洗是通过人工方式对数据进行检查Y发现数据中
的错误这种方式比较简单Y只要投入足够的人力物力财力Y也能
发现所有错误Y但效率低下在大数据量的情况下Y手工清洗数据几乎
是不可能的
?
2?自动清洗x自动清洗是通过专门编写的计算机应用程序来进行数据
清洗这种方法能解决某个特定的问题Y但不够灵活Y特别是在清理过
程需要反复进行时?一般来说,数据清理一遍就达到要求的很少?Y程序
复杂Y清理过程变化时工作量大而且Y这种方法也没有充分利用目前
数据库提供的强大的数据处理能力。
数据清洗主要是对缺失值重复值异常值和数据类型有误的数据
进行处理Y数据清洗的内容主要包括四点
?
1?缺失值处理由于调查编码和录入误差Y数据中可能存在
一些缺失值Y需要给予适当的处理常用的处理方法有x估算
整例删除变量删除和成对删除
?
2?异常值处理根据每个变量的合理取值范围和相互关系Y检