hadoop的使用场景

* 大数据量存储:分布式存储

* 日志处理: Hadoop擅长这个

* 海量计算: 并行计算

* ETL:数据抽取到oracle、mysql、DB2、mongdb及主流数据库

* 使用HBase做数据分析: 用扩展性应对大量的写操作—Facebook构建了基于HBase的实时数据分析系统

* 机器学习: 比如Apache Mahout项目

* 搜索引擎:hadoop + lucene实现

* 数据挖掘:目前比较流行的广告推荐

* 大量地从文件中顺序读。HDFS对顺序读进行了优化,代价是对于随机的访问负载较高。

* 数据支持一次写入,多次读取。对于已经形成的数据的更新不支持。

* 数据不进行本地缓存(文件很大,且顺序读没有局部性)

* 任何一台服务器都有可能失效,需要通过大量的数据复制使得性能不会受到大的影响。

* 用户细分特征建模

* 个性化广告推荐

* 智能仪器推荐

from: http://www.aboutyun.com/thread-5726-1-1.html

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容