《《数学之美》》读书笔记
这是我的第一篇读书笔记,不知道为什么我觉得读书笔记的用处变得很大,记得小时候老师让自己写读书笔记自己不懂老师的意图,都是快到交作业的时候随便凑,4大名著,就这样4大名著在我的小学读书笔记本上出现的10次之9.现在准备每天都写一些新学的东西的读“书”笔记,这样方便我日后复习以及学习。
《数学之美》--吴军
这本书主要讲了数学在计算机科学中的灵巧应用,以及在解决计算机科学技术中使用数学模型,“自然语言”,在我没有阅读这本书之前感觉这是一个“高大上”的计算机分类,弱校的我估计不可能接触这些东西,而读了这本书之后虽然只是一遍但我感觉我有可能可以接触这方面的东西,首先提出“用数学方法处理自然语言是香农(Claude Shannon)提出来的”,但是首先解决了当时自然语言语言处理的是贾里尼克,当时他正在IBM做学术休假,统计语言模型就是那个时候提出来的,设计自然语言处理的领域有机械翻译,语音识别,印刷体,手写识别,拼写纠错,汉字输入和文献的查询,看到这些高大上的词汇我一面懵逼,我尼玛就会c语言和c#编程简单的网页你给我扯这些我哪听的懂。。。
这块首先回忆了一下计算机科学,说真的学计算机,计算机的基础决定你未来能走多远这句话真没错,要不是我在mooc看了清华的课算法,理解起来真有些难度,蜗居的要想学好程序首先不能用人的思维,没错就是不能用人的思维,应该活在虚拟世界这样才能很好的解决计算机问题,最关键的一点就是在现实社会中穷举的难度极其大,而计算机做这件事情就比较简单,比如在小学的时候解决,鸡兔同笼问题,这个问题最笨的方法就是用穷举一只鸡几只兔,2只鸡几只兔‘’‘’‘’‘’‘N只鸡几只兔,这种方法人估计很难有耐性做下去,但对于计算机来说却是秒秒中的事情知道这一点我再说下面的事情
这个统计语言模型,据书中所说就是查找一句话在这篇文章所出现的次数,例如统计“我爱你”在一篇情书中出现的次数,首先“我爱你”这句话“我”在“爱”的前面,“爱”在你的前面,这样的顺序可以看成一个字符串S,要想知道S在这文章中出现的次数书中给出了个公式“P(S)=P(W1)P(W2|W1)P(W3| W1 W2)...P(Wn|W1..Wn-1)”其中P(W1)表示第一个词W1出现的概率;P(W2|W1)是在已知第一个词的前提下第二个词出现的概率;以此类推。不难看出到了Wn个次他出现的概率取决于他前面出现的所有的词,这样无疑计算量比较大,但是我们从“我爱你”这三个词中取中间的“爱”和前面的“我”做比较(这个书中说叫做马尔科夫假设)于是问题变得比较简单了下面给出公式“P(S)=P(w1)P(w2|w1)P(w3|w2)...P(Wi|wIi-1)...”说实话我第一次看这些公式一脸懵逼,但是我第二遍读书的时候才明白点,这就和我们c语言中的逻辑与运算一样他们直接只要有一个不成立就是0,’我‘后面如果是“爱”,”爱“后面如果是“你”那么系统可以记录一次否则不记录,(大家都知道计算机做Bool类型数据最为快速,也就是我们常说的0和1的运算)这篇就说到这例子是我自己想到如果有不正确的地方大家多多批评,这是我自己的一点读书笔记,大神就不要嘲讽我这条咸鱼了--.