可汗统计学

第一课,均值 中位数  众数

    均值(mean):集中趋势的最常用测度值,目的是确定一组数据的均衡点。是一组数据x_{1} ,x_{2} ,x_{3} ...x_{n} 的样本和除以样本的数量n。

    \bar{x}  = \frac{\sum_{i=1}^nx_i }{n}  = \frac{x_{1}+x_{2}+...+x_{n} }{n}

    中位数(median):一组数据x_{1} ,x_{2} ,x_{3} ...x_{n} ,这群数据的一半的数据比它大,而另外一半数据比它小。

x_{median} = \begin{cases} x_{\frac{n+1}{2}}& { n为奇数}\\ \ \frac{ x_{\frac{n}{2}} +  x_{\frac{n}{2}+1}      }{ 2 }  & {n为偶数 } \end{cases}

    众数(mode):一组x_{1} ,x_{2} ,x_{3} ...x_{n} 中出现次数最多的数据值。



第二课,极差 中程数

    极差(range):一组数据x_{1} ,x_{2} ,x_{3} ...x_{n} 最大值最小值后所得数值

{\displaystyle R=x_{\mathrm {max} }-x_{\mathrm {min} }}

    中程数(midrange):一组数据x_{1} ,x_{2} ,x_{3} ...x_{n} 最大数和最小数的平均值。

R=\frac{x_{\mathrm {max} }+x_{\mathrm {min} }}{2}



第三课——第十课为统计图形课,在其他的专题讨论



第十一课、集中趋势mean,median,mode

    描述性统计量(descriptive):描述性统计量提供数据的简要汇总。可以用数值或图形方式汇总数据。例如,快餐店的经理跟踪一周内午餐期间客户的等待时间,并对数据进行汇总。

    推断性统计量(inferential):推断性统计使用从总体中随机抽取的数据样本,描述总体并对其进行推断。当不方便或不可能检查整个总体的每个成员时,推断性统计非常有用。例如,测量铣床中制造的每个钉子的直径可能不现实,但是您可以测量钉子的代表性随机样本的直径并使用此信息概括生产的所有钉子的直径。


第十二课,样本和总体

    样本(sample):从总体中选取的一部分。例如:3年二班同学身高。

样本均值\bar{x}

\bar{x}  = \frac{\sum_{i=1}^nx_i }{n}

    总体(population):研究对象的整个群体。例如:全中国人的身高。

总体均值\mu

\mu  = \frac{\sum_{i=1}^Nx_i }{N}


第十三课,离散趋势

总体方差(variance):总体中变量离其平均值距离的平均。一组数据x_{1} ,x_{2} ,x_{3} ...x_{N}

\sigma^2  = \frac{\sum_{i =1}^N(x_i-\mu ) ^2}{N}

第十四课,离散趋势

样本方差(variance):样本中变量离其平均值距离的平均。一组数据x_{1} ,x_{2} ,x_{3} ...x_{n}

S^2  = \frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n-1}

到这你可能会想:为什么样本方差中分母是n-1而不是n?好,那我们假设是n看看会怎样:

\frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n}  =\frac{1}{n}\sum_{i=1}^n [(x_i-\mu ) +(\mu -\bar{x} )]^2

=\frac{1}{n}\sum_{i=1}^n (x_i-\mu ) ^2 +\frac{1}{n}\sum_{i=1}^n (\mu -\bar{x} )^2 +\frac{2}{n}\sum_{i=1}^n (x_i-\mu )  (\mu -\bar{x} )

=\frac{1}{n}\sum_{i=1}^n (x_i-\mu ) ^2  +2(\bar{x} -\mu )(\mu -\bar{x} ) + (\mu -\bar{x} )^2

=\frac{1}{n}\sum_{i=1}^n (x_i-\mu ) ^2  -(\bar{x}-\mu)^2

从上式可以看出除非:\mu =\bar{x} ,否则一定有

\frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n} <\sigma^2  = \frac{\sum_{i =1}^N(x_i-\mu ) ^2}{N}


再想为什么除以n-1不是n-2,n-3??请看:

E(\bar{x} ) = E(\frac{1}{n } \sum_{i=1}^nx_{i} ) = \frac{1}{n } \sum_{i=1}^nE(x_{i} )  = \mu

E(\bar{x}-\mu)^2 = E(\bar{x}-E(\bar{x} ))^2 = var(\bar{x} )

=\frac{1}{n^2 }  var( {\sum_{i=1}^nx_i }) = \frac{1}{n^2 } {\sum_{i=1}^nvar(x_i )} = \frac{n\sigma ^2}{n^2 }  

=\frac{\sigma ^2}{n }

E(\frac{1}{n}\sum_{i=1}^n (x_i-\mu ) ^2  -(\bar{x}-\mu)^2)=\sigma ^2 - \frac{1}{n}\sigma ^2

=\frac{n-1}{n}\sigma ^2

所以有\frac{n}{n-1}E( \frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n}) = E( \frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n-1})  = \sigma ^2

S^2  = \frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n-1}

而且我们可以直观的看到随着样本总量n的增大,S^2会越接近\sigma ^2


第十五课,标准差

总体标准差(population standard deviation):总体方差的平方根

\sigma =\sqrt{\frac{\sum_{i =1}^N(x_i-\mu ) ^2}{N}  }

样本标准差(sample standard deviation):样本方差的平方根

S = \sqrt{\frac{\sum_{i =1}^n(x_i-\bar{x}  ) ^2}{n-1}  }


第十六课,诸方差公式

对上节的方差公式进行简化:

\sigma^2= \operatorname{E}\left[X^2 - 2X\operatorname{E}[X] + (\operatorname{E}[X])^2\right] = \operatorname{E}\left[X^2\right] - 2\operatorname{E}[X]\operatorname{E}[X] + (\operatorname{E}[X])^2 = \operatorname{E}\left[X^2 \right] - (\operatorname{E}[X])^2

我们可以这样记:平方的期望減掉期望的平方。也许你会想一个问题,既然都有方差了为什么还要标准差?原因是:标准差和均值的量纲(单位)是一致的,在描述一个波动范围时标准差比方差更方便。

比如一个班男生的平均身高是170cm,标准差是10cm,那么方差就是100cm^2。可以进行的比较简便的描述是本班男生身高分布是170±10cm,方差就无法做到这点。


第十七课,随机变量

假设一个随机试验的可能结果(称为基本事件)的全体组成一个基本空间Ω。那么,随机变量是定义于Ω上的函数,即对每一基本事件ωΩ,有一数值(ω)与之对应。

例如抛一枚硬币,定义随机变量X(正面朝上) = 1,X(反面朝上) = 0。即当X=1时,我们说硬币正面朝上。

如果X的取值是有限的或者是可数无穷尽的值:X={\left\{ x_{1} ,x_{2},...\right\} },则称X为离散型随机变量(discrete random variable)。如抛硬币只有2个基本事件。

如果X由全部实数或者由一部分区间组成:X = \lbrace x | a\le x \le b \rbrace,- \infty < a < b < \infty

则称X为连续型随机变量(continues random variable)。如明天的降雨量,可以是1米,1.1米,1.11米...。


第十八课,概率密度函数

概率密度函数(probability density function):一个描述连续随机变量的输出值,在某个确定的取值点附近的可能性的函数。图中,横轴为随机变量的取值,纵轴为概率密度函数的值,而随机变量的取值落在某个区域内的概率为概率密度函数在这个区域上的积分

0<X<0.45:

例如:将某一区间分成n份并向其中随机地扔球,那么f(x)越大,在点x附近的球就越多,也就是说,f(x)是小球的“密度”。


第十九课,二项分布

    排列(permutation):是将相异对象或符号根据确定的顺序重排。每个顺序都称作一个排序。从n个元素中取k个元素进行排序。排序的数量为:

P_k^n = \frac{n!}{(n-k)!} = \frac{n\times (n-1)\times ...\times 1}{(n-k)\times (n-k-1)\times ...\times 1}

理解排序的关键在于有序。排序AB和排序BA是不一样的。

    组合(combination):从n个元素中取k个元素形成一个组合,组合不考虑顺序。组合AB和BA是 一样的。组合的数量为:

C_k^n ={n \choose k} = \frac{P_k^n}{k!} = \frac{n!}{k!(n-k)!}

联系:排序相当于从n个元素中取k个元素,然后将这k个元素进行排序,于是有:

C_k^n*k! = P_{k}^n

有了以上背景,我们借助以下例子来理解二项分布。

例子:你卖三明治,70% 的人买鸡肉三明治,其他的买猪肉。接下来的三个顾客买两个鸡肉,一个猪肉三明治的概率是多少?

我们来画个数图:


黄色为买两个鸡肉一个猪肉三明治的概率

由上看出P(CCP)P(CPC)出现的概率都为0.147,也就是说两个鸡肉和一个猪肉的各种组合方式出现的概率相同。那么我们很自然就会想到用两个鸡肉,一个猪肉三明治能形成的组合数量乘以组合出现的概率,是不是就能得到买两个鸡肉,一个猪肉三明治(事件A)的概率:

P(A) = C_{2}^3*0.7*0.7*0.3 = 3*0.147

答案确实如此,你要是不相信可以试试计算买买两个猪肉,一个鸡肉三明治的概率。

到此我们给出二项分布的总结:试验是独立的,每个试验只有两个可能结果,每个试验里的 "成功" 概率是不变的。假设每一次独立实验中P(B) = q,n个里有k个B(事件C)的概率:

P(C) = 组合的数量*组合出现的概率=C_{k}^n *q^k*(1-q)^{n-k}


第二十三课,期望值E(X)

    期望(expectation)是试验中每次可能的结果乘以其结果概率的总和。如果

X离散的随机变量,输出值为\left\{ x_{1} ,x_{2} ...x_{n}  \right\} ,和输出值相应的概率为\left\{ p_{1} ,p_{2} ...p_{n}  \right\} (概率和为1)。则期望的公式:

{E}(X) = \sum_{i=1}^nx_{i} *p_{i}

如果X连续的随机变量,对应的概率密度函数为f(x),则期望公式为:

{E}(X) = \int_{-\infty}^\infty x f(x)\,\mathrm{d}x


第二十四课,二项分布的期望与方差

    设二项分的概率分布函数为:P(X=k)=\binom{n}{k}p^k(1-p)^{n-k},则有:

% <![CDATA[\begin{aligned}&E(X)\\=&\sum_{k=0}^{n}k\binom{n}{k}p^k(1-p)^{n-k}\\=&np\sum_{k=1}^{n}\binom{n-1}{k-1}p^{k-1}(1-p)^{n-k}\\=&np\sum_{k=0}^{n-1}\binom{n-1}{k}p^{k}(1-p)^{n-1-k}\\=&np\end{aligned} %]]>


% <![CDATA[\begin{aligned}&Var(X)\\=&\sum_{k=0}^{n}k^2\binom{n}{k}p^k(1-p)^{n-k}-(np)^2\\=&\sum_{k=0}^{n}k(k-1)\binom{n}{k}p^k(1-p)^{n-k}+\sum_{k=0}^{n}k\binom{n}{k}p^k(1-p)^{n-k}-(np)^2\\=&n(n-1)p^2\sum_{k=0}^{n-2}\binom{n-2}{k}p^{k}(1-p)^{n-2-k}+np\sum_{k=0}^{n-1}\binom{n-1}{k}p^{k}(1-p)^{n-1-k}-(np)^2\\=&np(1-p)\end{aligned} %]]>


第二十五课,泊松分布

    首先了解一下重要极限:

\lim_{n\to\infty}\left(1-{\lambda \over n}\right)^n=e^{-\lambda}

然后二项分布的定义:

P(X=k)={n \choose k} p^k (1-p)^{n-k}

最后,在二项分布中,如果试验次数n很大,二项分布的概率p很小,且乘积λ = np 比较适中,则事件出现的次数的概率可以用泊松分布来逼近。事实上,二项分布可以看作泊松分布在离散時間上的对应物。证明如下:

p=\frac{\lambda }{n} n趋近于无穷时P的极限:

\begin{align}\lim_{n\to\infty} P(X=k)&=\lim_{n\to\infty}{n \choose k} p^k (1-p)^{n-k} \\ &=\lim_{n\to\infty}{n! \over (n-k)!k!} \left({\lambda \over n}\right)^k \left(1-{\lambda\over n}\right)^{n-k}\\&=\lim_{n\to\infty}\underbrace{\left[\frac{n!}{n^k\left(n-k\right)!}\right]}_F\left(\frac{\lambda^k}{k!}\right)\underbrace{\left(1-\frac{\lambda}{n}\right)^n}_{\to\exp\left(-\lambda\right)}\underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to 1} \\&= \lim_{n\to\infty}\underbrace{\left[ \left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right) \ldots \left(1-\frac{k-1}{n}\right)  \right]}_{\to 1}\left(\frac{\lambda^k}{k!}\right)\underbrace{\left(1-\frac{\lambda}{n}\right)^n}_{\to\exp\left(-\lambda\right)}\underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to 1}      \\&= \left(\frac{\lambda^k}{k!}\right)e^{-\lambda}\end{align}


你看完上面的证明后,可能会产生说:恩,我知道泊松分布怎么来的了,但泊松分布具体是怎么个分布法?这里推荐一篇博文,同时感谢作者:

http://www.ruanyifeng.com/blog/2015/06/poisson-distribution.html


第二十七课,大数定理

    大数定律(law of large numbers),是描述相当多次数重复实验的结果的定律,即样本数量越多,则其样本均值就有越高的概率接近总体期望。

其中X1,X2...Xn独立同分布,{X}_n=\frac1n(X_1+\cdots+X_n)。则

当n \to \infty时,{X}_n \to \mu \quad\

例如:掷一枚骰子出现点数的期望是:E(X) = \frac{1}{6}  (1+2+3+4+5+6) = 3.5

随着掷骰子次数的增加,出现点数的均值就有很高的概率接近期望。


第二十九,正态分布

    正态分布(normal distribution),是一种非常常见的分布,也叫钟形分布。

若随机变量X服从位置参数为\mu (期望),尺度常数\sigma^2(方差)的正态分布,记为:

X \sim N(\mu,\sigma^2),其概率密度为:f(x) = {1 \over \sigma\sqrt{2\pi} }\,e^{- {{(x-\mu )^2 \over 2\sigma^2}}}


标准分数(z-score):

Z = {x - \mu \over \sigma}

Z值的量代表着原始值和总体期望之间的距离,是以标准差为单位计算。在原始分数低于平均值时Z则为负数,反之则为正数。换句话说,Z值是从感兴趣的点到均值之间有多少个标准差。

经验法则:假设一组数据具有近似于正态分布的概率分布。则约68.3%数值分布在距离平均值有1个标准差之内的范围,约95.4%数值分布在距离平均值有2个标准差之内的范围,以及约99.7%数值分布在距离平均值有3个标准差之内的范围。



第三十六课,中心极限定理

中心极限定理(central limit theorem):设从均值为\mu ,方差为\sigma ^2 的任意一个总体中抽取样本量为n的样本,当n充分大时,样本均值\bar{X} 的抽样分布近似服从均值为\mu ,方差为\frac{\sigma ^2}{n}  的正态分布。


以上就是中心极限定理的实质,它意味着不管总体服从什么样的分布。只需要从总体中取n个的样本,计算其均值\bar{X_1} 。然后重新从总体中取n个样本计算其均值\bar{X_2} 。然后不断取样得到\bar{X_3},\bar{X_4}  ...\bar{X_m} 。然后抽样均值分布与总体的关系为:

E(\bar{X})  = \frac{\bar{X_1} +\bar{X_2}+...+\bar{X_m}  }{m}  =\mu

\sigma_{\bar{x} }^2   *\sqrt{n}  = \sigma ^2

推荐一篇好的博文,同时感谢作者:

https://www.jqr.com/article/000534


第四十课,置信区间

另开一篇文章:置信区间


第四十七课,假设检验

另开一篇文章:


第四十九课,Z分布 VS T分布

如果总体方差已知且样本足够多(n\geq 30)时,则应该用正态分布来估计总体均值。

Z=\frac{\overline{X}_n-\mu}{\frac{\sigma}{\sqrt{n}}}

但Z分布(正态分布)用在小样本(n<30)时会产生很大的误差,因此必须改用T分布以求准确。

T=\frac{\overline{X}_n-\mu}{\frac{S_n}{\sqrt{n}}}

如果总体方差未知则只能用T分布,T分布的自由度为n-1

随着T分布自由度的增大(样本数量增大),T分布逐渐类似Z分布。如图所示


随着T分布自由度增大,不断趋向正态分布


随着自由度的增大,t统计量不断近似z统计量:\lim\nolimits_{n\to\infty} t_{0.025}   =  z_{0.025}


第五十四课,期望的性质

1.C是常数:E(C)= C

2.C是常数:E(CX) = CE(X)

3.E(X_1+X_2) = E(X_1)+E(X_2)

4.X,Y独立,则E(XY)= E(X)E(Y)


第六十二课,线性回归

    在统计学中,线性回归(Linear regression)是利用称为线性回归方程的最小二乘法函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,多于一个自变量情况的叫做多元回归。

例如简单回归中,通俗的解释就是找一条直线y = mx + b,尽可能去拟合所有的点(x_i,y_i)。我们寻找目标直线的方法就是最小二乘法。即如图所示,最合适的线性回归线(Best fitting regression)就是使所有点Error的方差和最小的直线。


线性回归

SE=\sum\nolimits_{i=1}^n[y_{i}  - (mx_i + b)]^2

           =\sum\nolimits_{i=1}^n[y_i^2-2y_i(mx_i+b)+(w^2x^2+b^2+2mx_ib)]^2

            =n\bar{y^2}  - 2mn \bar{xy}  - 2bn\bar{y} +m^2n\bar{x^2} +2mb\bar{x^2} +nb^2

其中\bar{x}  =\frac{1}{n} \sum\nolimits_{i=1}^n	x_i       \bar{y}  =\frac{1}{n} \sum\nolimits_{i=1}^n	y_i        \bar{xy}  =\frac{1}{n} \sum\nolimits_{i=1}^n	x_iy_i

           \bar{x^2}  =\frac{1}{n} \sum\nolimits_{i=1}^n	x_i^2          \bar{y^2}  =\frac{1}{n} \sum\nolimits_{i=1}^n	y_i^2

原函数SE是一个凸函数,当SE分别对m,b求偏导,且偏导为0时,得到SE_{min}



解方程组可得:


      第六十八课,决定系数      

决定系数R^2,一般用在回归模型用用于评估预测值和实际值的符合程度,R^2的定义如下:

R^2  = 1 - \frac{\mathrm{RSS}}{\mathrm{TSS}} = 1 - \frac{\sum\limits_i(y_i - f_i)^2}{\sum\limits_i(y_i - \bar{y} )^2}

其中f_i是回归模型的估计值,\bar{y} \frac{1}{n}\sum\nolimits_{i=1}^n y_i

决定系数R^2可以通俗的解释为:用回归模型拟合相较于直接用均值拟合的提升。R^2越接近1,表示回归分析中自变量对因变量的解释越好。


第七十一课,协方差与线性回归线

    协方差(Covariance)用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。

随机变量XY的期望值分别为E(X)=\bar{X}  ,E(Y) = \bar{Y} ,则两个随机变量之间的协方差为:

\operatorname{cov}(X, Y) = \operatorname{E}((X - \bar{X} ) (Y - \bar{Y} ))=\operatorname{E}(X \cdot Y) -\bar{X} \bar{Y} = \bar{XY}  -\bar{X}\bar{Y}

我们回想一下线性回归模型中的m=\frac{\bar{XY}  -\bar{X}\bar{Y} }{\bar{X}^2-\bar{X^2}  } ,其中Var(X)= \bar{X}^2-\bar{X^2}

所以有:m = \frac{\operatorname{cov}(X, Y) }{Var(X)} ,这便是线性回归系数与协方差之间的关系。


第七十二课,\chi ^2分布

卡方分布(chi-square distribution 写作\chi ^2分布),是一种常见的概率分布。k个独立的标准正态分布变量的平方和服从自由度为k-1的卡方分布。

\chi ^2 = \sum_{i=1}^k\frac{(O_i-E)^2}{E}

其中:O_i为实际值,E为期望。实际的例子推荐一篇好文,同时感谢作者

https://www.shuxuele.com/data/chi-square-test.html


第七十五课,方差分析




第七十九课,演绎推理和归纳推理

演绎推理(inductive inference)是由普通性的前提推出特殊性结论的推理。是一个由一般到个别的过程。例子:

前提:所有人都是会死;苏格拉底是人;

结论:苏格拉底会死。

归纳推理是由特殊的前提推出普遍性结论的推理。例子:

前提:锐角三角形的面积等于底乘高的一半;直角三角形的面积等于底乘高的一半;钝角三角形的面积等于底乘高的一半;

结论:凡三角形的面积等于底乘高的一半。

演绎推理和归纳推理的区别在于:假设前提正确,演绎推理的结果是正确的。而归纳推理的结果不一定是正确的。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,001评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,210评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,874评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,001评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,022评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,005评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,929评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,742评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,193评论 1 309
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,427评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,583评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,305评论 5 342
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,911评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,564评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,731评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,581评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,478评论 2 352

推荐阅读更多精彩内容

  • Chapter 8 ANOVA 本篇是第八章,内容是方差分析。前一段考试,汇报,作业。忙不过来,停更了一段时间,现...
    G小调的Qing歌阅读 15,859评论 6 24
  • 按照用途分类出以下统计函数: AVEDEV 用途:返回一组数据与其平均值的绝对偏差的平均值,该函数可以评测数据(例...
    四方院祭司阅读 2,894评论 0 3
  • 基本概念 统计是对数据进行收集、分析、展示和解读的科学和艺术,这句话听起来很高深,但其实也没必要非要把统计想得过于...
    拓季阅读 10,801评论 0 6
  • 文/燕子 这个周末,女儿只休一天,我们一日游的目标就锁定了距离里士满只有一个小时车程的威廉姆斯堡。威廉姆斯堡曾经是...
    魅力春天阅读 315评论 4 4
  • 其实我不知道自己要写什么,但是就是想写。关于诗词,关于运营,关于人性,总觉得有一大堆想写的。从今天开始,每天写点吧...
    鱼小剑阅读 120评论 0 0