大数据的论文

大数据的核心在于新的大数据平台。

大数据平台hadoop 使得原来需要超级计算中心才能做的事情,现在在企业,通过普通的集群也可以处理了。

大数据的核心理论-谷歌的三大论文

Google File System :分布式文件系统

原来的数据存储有两大问题:

1. 单个磁盘不够大------->  解决方法是:GFS 的解决是多个磁盘(DataNode)来存储 -------> 新的问题:效率地下 -------> 新问题的解决办法水平复制+按照块存储(hadoop1.x 一个块 64M,hadoop2.x 一个块是128M) -------> 新的问题:磁盘太慢 ------->新的解决方案:SPARK解决磁盘和内存映射问题

2.数据不安全。磁盘损坏,坏道等。-------> 解决多级冗余备份,对于hadoop默认是三级备份,也就是一份数据默认在三个位置上存储-------> 多个磁盘如何管理(NameNode)监控和处理磁盘故障

BigTable 所有的数据存入一张表中间。

好处效率更高,坏处需要的存储空间更大 -------> HDFS 存储

MapReduce

解决大数据运算问题,Map 拆分计算,映射运算,reduce 规约汇总。

深度学习算法也就是改进了的神经网络。

以前的机器学习算法偏向与SVM等,不需要集群也能做出一点效果的,神经网络的算法很多时候不能做出好的效果,原因有二:其一是算法需要的计算即资源太多。其二数据一旦上规模之后,运算不出来。算法得到了改进,第二大数据的进步让规模以上数据的计算成为可能。

未来的发展方向:

推理:类脑计算。

创造:方向尚不明了。


©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容