机器学习第三次打卡

目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。对于noisy gradient,我们需要谨慎的选取学习率和batch size, 来控制梯度方差和收敛的结果。

gt=∂w1|Bt|∑i∈Btf(xi,wt−1)=1|Bt|∑i∈Btgi,t−1.

An ill-conditioned Problem

Condition Number of Hessian Matrix:

condH=λmaxλmin

where λmax,λmin is the maximum amd minimum eignvalue of Hessian matrix.

让我们考虑一个输入和输出分别为二维向量x=[x1,x2]⊤和标量的目标函数:

f(x)=0.1x12+2x22

condH=40.2=20→ill-conditioned

Maximum Learning Rate

For f(x), according to convex optimizaiton conclusions, we need step size η.

To guarantee the convergence, we need to have η .

Supp: Preconditioning

在二阶优化中,我们使用Hessian matrix的逆矩阵(或者pseudo inverse)来左乘梯度向量 i.e.Δx=H−1g,这样的做法称为precondition,相当于将 H 映射为一个单位矩阵,拥有分布均匀的Spectrum,也即我们去优化的等价标函数的Hessian matrix为良好的identity matrix。

Section 11.4一节中不同,这里将x12系数从1减小到了0.1。下面实现基于这个目标函数的梯度下降,并演示使用学习率为0.4时自变量的迭代轨迹。

In [1]:

%matplotlibinlineimportsyssys.path.append("/home/kesci/input")importd2lzh1981asd2limporttorcheta=0.4deff_2d(x1,x2):return0.1*x1**2+2*x2**2defgd_2d(x1,x2,s1,s2):return(x1-eta*0.2*x1,x2-eta*4*x2,0,0)d2l.show_trace_2d(f_2d,d2l.train_2d(gd_2d))

epoch 20, x1 -0.943467, x2 -0.000073

可以看到,同一位置上,目标函数在竖直方向(x2轴方向)比在水平方向(x1轴方向)的斜率的绝对值更大。因此,给定学习率,梯度下降迭代自变量时会使自变量在竖直方向比在水平方向移动幅度更大。那么,我们需要一个较小的学习率从而避免自变量在竖直方向上越过目标函数最优解。然而,这会造成自变量在水平方向上朝最优解移动变慢。

下面我们试着将学习率调得稍大一点,此时自变量在竖直方向不断越过最优解并逐渐发散。

Solution to ill-condition

Preconditioning gradient vector: applied in Adam, RMSProp, AdaGrad, Adelta, KFC, Natural gradient and other secord-order optimization algorithms.

Averaging history gradient: like momentum, which allows larger learning rates to accelerate convergence; applied in Adam, RMSProp, SGD momentum.

In [2]:

eta=0.6d2l.show_trace_2d(f_2d,d2l.train_2d(gd_2d))

epoch 20, x1 -0.387814, x2 -1673.365109

Momentum Algorithm

动量法的提出是为了解决梯度下降的上述问题。设时间步 t 的自变量为 xt,学习率为 ηt。 在时间步 t=0,动量法创建速度变量 m0,并将其元素初始化成 0。在时间步 t>0,动量法对每次迭代的步骤做如下修改:

mt←βmt−1+ηtgt,xt←xt−1−mt,

Another version:

mt←βmt−1+(1−β)gt,xt←xt−1−αtmt,

αt=ηt1−β

其中,动量超参数 β满足 0≤β<1。当 β=0 时,动量法等价于小批量随机梯度下降。

在解释动量法的数学原理前,让我们先从实验中观察梯度下降在使用动量法后的迭代轨迹。

In [3]:

defmomentum_2d(x1,x2,v1,v2):v1=beta*v1+eta*0.2*x1v2=beta*v2+eta*4*x2returnx1-v1,x2-v2,v1,v2eta,beta=0.4,0.5d2l.show_trace_2d(f_2d,d2l.train_2d(momentum_2d))

epoch 20, x1 -0.062843, x2 0.001202

可以看到使用较小的学习率 η=0.4 和动量超参数 β=0.5 时,动量法在竖直方向上的移动更加平滑,且在水平方向上更快逼近最优解。下面使用较大的学习率 η=0.6,此时自变量也不再发散。

In [4]:

eta=0.6d2l.show_trace_2d(f_2d,d2l.train_2d(momentum_2d))

epoch 20, x1 0.007188, x2 0.002553

Exponential Moving Average

为了从数学上理解动量法,让我们先解释一下指数加权移动平均(exponential moving average)。给定超参数 0≤β<1,当前时间步 t 的变量 yt 是上一时间步 t−1 的变量 yt−1 和当前时间步另一变量 xt 的线性组合:

yt=βyt−1+(1−β)xt.

我们可以对 yt 展开:

yt=(1−β)xt+βyt−1=(1−β)xt+(1−β)⋅βxt−1+β2yt−2=(1−β)xt+(1−β)⋅βxt−1+(1−β)⋅β2xt−2+β3yt−3=(1−β)∑i=0tβixt−i

(1−β)∑i=0tβi=1−βt1−β(1−β)=(1−βt)

Supp

Approximate Average of 11−β Steps

令 n=1/(1−β),那么 (1−1/n)n=β1/(1−β)。因为

limn→∞(1−1n)n=exp⁡(−1)≈0.3679,

所以当 β→1时,β1/(1−β)=exp⁡(−1),如 0.9520≈exp⁡(−1)。如果把 exp⁡(−1) 当作一个比较小的数,我们可以在近似中忽略所有含 β1/(1−β) 和比 β1/(1−β) 更高阶的系数的项。例如,当 β=0.95 时,

yt≈0.05∑i=0190.95ixt−i.

因此,在实际中,我们常常将 yt 看作是对最近 1/(1−β) 个时间步的 xt 值的加权平均。例如,当 γ=0.95 时,yt 可以被看作对最近20个时间步的 xt 值的加权平均;当 β=0.9 时,yt 可以看作是对最近10个时间步的 xt 值的加权平均。而且,离当前时间步 t 越近的 xt 值获得的权重越大(越接近1)。

由指数加权移动平均理解动量法

现在,我们对动量法的速度变量做变形:

mt←βmt−1+(1−β)(ηt1−βgt).

Another version:

mt←βmt−1+(1−β)gt.

xt←xt−1−αtmt,

αt=ηt1−β

由指数加权移动平均的形式可得,速度变量 vt 实际上对序列 {ηt−igt−i/(1−β):i=0,…,1/(1−β)−1} 做了指数加权移动平均。换句话说,相比于小批量随机梯度下降,动量法在每个时间步的自变量更新量近似于将前者对应的最近 1/(1−β) 个时间步的更新量做了指数加权移动平均后再除以 1−β。所以,在动量法中,自变量在各个方向上的移动幅度不仅取决当前梯度,还取决于过去的各个梯度在各个方向上是否一致。在本节之前示例的优化问题中,所有梯度在水平方向上为正(向右),而在竖直方向上时正(向上)时负(向下)。这样,我们就可以使用较大的学习率,从而使自变量向最优解更快移动。

Implement

相对于小批量随机梯度下降,动量法需要对每一个自变量维护一个同它一样形状的速度变量,且超参数里多了动量超参数。实现中,我们将速度变量用更广义的状态变量states表示。

In [6]:

defget_data_ch7():data=np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat',delimiter='\t')data=(data-data.mean(axis=0))/data.std(axis=0)returntorch.tensor(data[:1500,:-1],dtype=torch.float32),\torch.tensor(data[:1500,-1],dtype=torch.float32)features,labels=get_data_ch7()definit_momentum_states():v_w=torch.zeros((features.shape[1],1),dtype=torch.float32)v_b=torch.zeros(1,dtype=torch.float32)return(v_w,v_b)defsgd_momentum(params,states,hyperparams):forp,vinzip(params,states):v.data=hyperparams['momentum']*v.data+hyperparams['lr']*p.grad.datap.data-=v.data

我们先将动量超参数momentum设0.5

In [7]:

d2l.train_ch7(sgd_momentum,init_momentum_states(),{'lr':0.02,'momentum':0.5},features,labels)

loss: 0.243297, 0.057950 sec per epoch

将动量超参数momentum增大到0.9

In [8]:

d2l.train_ch7(sgd_momentum,init_momentum_states(),{'lr':0.02,'momentum':0.9},features,labels)

loss: 0.260418, 0.059441 sec per epoch

可见目标函数值在后期迭代过程中的变化不够平滑。直觉上,10倍小批量梯度比2倍小批量梯度大了5倍,我们可以试着将学习率减小到原来的1/5。此时目标函数值在下降了一段时间后变化更加平滑。

In [9]:

d2l.train_ch7(sgd_momentum,init_momentum_states(),{'lr':0.004,'momentum':0.9},features,labels)

loss: 0.243650, 0.063532 sec per epoch

Pytorch Class

在Pytorch中,torch.optim.SGD已实现了Momentum。

In [10]:

d2l.train_pytorch_ch7(torch.optim.SGD,{'lr':0.004,'momentum':0.9},features,labels)

loss: 0.243692, 0.048604 sec per epoch

11.7 AdaGrad

在之前介绍过的优化算法中,目标函数自变量的每一个元素在相同时间步都使用同一个学习率来自我迭代。举个例子,假设目标函数为f,自变量为一个二维向量[x1,x2]⊤,该向量中每一个元素在迭代时都使用相同的学习率。例如,在学习率为η的梯度下降中,元素x1和x2都使用相同的学习率η来自我迭代:

x1←x1−η∂f∂x1,x2←x2−η∂f∂x2.

“动量法”一节里我们看到当x1和x2的梯度值有较大差别时,需要选择足够小的学习率使得自变量在梯度值较大的维度上不发散。但这样会导致自变量在梯度值较小的维度上迭代过慢。动量法依赖指数加权移动平均使得自变量的更新方向更加一致,从而降低发散的可能。本节我们介绍AdaGrad算法,它根据自变量在每个维度的梯度值的大小来调整各个维度上的学习率,从而避免统一的学习率难以适应所有维度的问题 [1]。

Algorithm

AdaGrad算法会使用一个小批量随机梯度gt按元素平方的累加变量st。在时间步0,AdaGrad将s0中每个元素初始化为0。在时间步t,首先将小批量随机梯度gt按元素平方后累加到变量st:

st←st−1+gt⊙gt,

其中⊙是按元素相乘。接着,我们将目标函数自变量中每个元素的学习率通过按元素运算重新调整一下:

xt←xt−1−ηst+ϵ⊙gt,

其中η是学习率,ϵ是为了维持数值稳定性而添加的常数,如10−6。这里开方、除法和乘法的运算都是按元素运算的。这些按元素运算使得目标函数自变量中每个元素都分别拥有自己的学习率。

Feature

需要强调的是,小批量随机梯度按元素平方的累加变量st出现在学习率的分母项中。因此,如果目标函数有关自变量中某个元素的偏导数一直都较大,那么该元素的学习率将下降较快;反之,如果目标函数有关自变量中某个元素的偏导数一直都较小,那么该元素的学习率将下降较慢。然而,由于st一直在累加按元素平方的梯度,自变量中每个元素的学习率在迭代过程中一直在降低(或不变)。所以,当学习率在迭代早期降得较快且当前解依然不佳时,AdaGrad算法在迭代后期由于学习率过小,可能较难找到一个有用的解。

下面我们仍然以目标函数f(x)=0.1x12+2x22为例观察AdaGrad算法对自变量的迭代轨迹。我们实现AdaGrad算法并使用和上一节实验中相同的学习率0.4。可以看到,自变量的迭代轨迹较平滑。但由于st的累加效果使学习率不断衰减,自变量在迭代后期的移动幅度较小。

In [11]:

%matplotlibinlineimportmathimporttorchimportsyssys.path.append("/home/kesci/input")importd2lzh1981asd2ldefadagrad_2d(x1,x2,s1,s2):g1,g2,eps=0.2*x1,4*x2,1e-6# 前两项为自变量梯度s1+=g1**2s2+=g2**2x1-=eta/math.sqrt(s1+eps)*g1x2-=eta/math.sqrt(s2+eps)*g2returnx1,x2,s1,s2deff_2d(x1,x2):return0.1*x1**2+2*x2**2eta=0.4d2l.show_trace_2d(f_2d,d2l.train_2d(adagrad_2d))

epoch 20, x1 -2.382563, x2 -0.158591

下面将学习率增大到2。可以看到自变量更为迅速地逼近了最优解。

In [12]:

eta=2d2l.show_trace_2d(f_2d,d2l.train_2d(adagrad_2d))

epoch 20, x1 -0.002295, x2 -0.000000

Implement

同动量法一样,AdaGrad算法需要对每个自变量维护同它一样形状的状态变量。我们根据AdaGrad算法中的公式实现该算法。

In [13]:

defget_data_ch7():data=np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat',delimiter='\t')data=(data-data.mean(axis=0))/data.std(axis=0)returntorch.tensor(data[:1500,:-1],dtype=torch.float32),\torch.tensor(data[:1500,-1],dtype=torch.float32)features,labels=get_data_ch7()definit_adagrad_states():s_w=torch.zeros((features.shape[1],1),dtype=torch.float32)s_b=torch.zeros(1,dtype=torch.float32)return(s_w,s_b)defadagrad(params,states,hyperparams):eps=1e-6forp,sinzip(params,states):s.data+=(p.grad.data**2)p.data-=hyperparams['lr']*p.grad.data/torch.sqrt(s+eps)

使用更大的学习率来训练模型。

In [14]:

d2l.train_ch7(adagrad,init_adagrad_states(),{'lr':0.1},features,labels)

loss: 0.242258, 0.061548 sec per epoch

Pytorch Class

通过名称为“adagrad”的Trainer实例,我们便可使用Pytorch提供的AdaGrad算法来训练模型。

In [15]:

d2l.train_pytorch_ch7(torch.optim.Adagrad,{'lr':0.1},features,labels)

loss: 0.243800, 0.060953 sec per epoch

11.8 RMSProp

我们在“AdaGrad算法”一节中提到,因为调整学习率时分母上的变量st一直在累加按元素平方的小批量随机梯度,所以目标函数自变量每个元素的学习率在迭代过程中一直在降低(或不变)。因此,当学习率在迭代早期降得较快且当前解依然不佳时,AdaGrad算法在迭代后期由于学习率过小,可能较难找到一个有用的解。为了解决这一问题,RMSProp算法对AdaGrad算法做了修改。该算法源自Coursera上的一门课程,即“机器学习的神经网络”。

Algorithm

我们在“动量法”一节里介绍过指数加权移动平均。不同于AdaGrad算法里状态变量st是截至时间步t所有小批量随机梯度gt按元素平方和,RMSProp算法将这些梯度按元素平方做指数加权移动平均。具体来说,给定超参数0≤γ0计算

vt←βvt−1+(1−β)gt⊙gt.

和AdaGrad算法一样,RMSProp算法将目标函数自变量中每个元素的学习率通过按元素运算重新调整,然后更新自变量

xt←xt−1−αvt+ϵ⊙gt,

其中η是学习率,ϵ是为了维持数值稳定性而添加的常数,如10−6。因为RMSProp算法的状态变量st是对平方项gt⊙gt的指数加权移动平均,所以可以看作是最近1/(1−β)个时间步的小批量随机梯度平方项的加权平均。如此一来,自变量每个元素的学习率在迭代过程中就不再一直降低(或不变)。

照例,让我们先观察RMSProp算法对目标函数f(x)=0.1x12+2x22中自变量的迭代轨迹。回忆在“AdaGrad算法”一节使用的学习率为0.4的AdaGrad算法,自变量在迭代后期的移动幅度较小。但在同样的学习率下,RMSProp算法可以更快逼近最优解。

In [16]:

%matplotlibinlineimportmathimporttorchimportsyssys.path.append("/home/kesci/input")importd2lzh1981asd2ldefrmsprop_2d(x1,x2,s1,s2):g1,g2,eps=0.2*x1,4*x2,1e-6s1=beta*s1+(1-beta)*g1**2s2=beta*s2+(1-beta)*g2**2x1-=alpha/math.sqrt(s1+eps)*g1x2-=alpha/math.sqrt(s2+eps)*g2returnx1,x2,s1,s2deff_2d(x1,x2):return0.1*x1**2+2*x2**2alpha,beta=0.4,0.9d2l.show_trace_2d(f_2d,d2l.train_2d(rmsprop_2d))

epoch 20, x1 -0.010599, x2 0.000000

Implement

接下来按照RMSProp算法中的公式实现该算法。

In [17]:

defget_data_ch7():data=np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat',delimiter='\t')data=(data-data.mean(axis=0))/data.std(axis=0)returntorch.tensor(data[:1500,:-1],dtype=torch.float32),\torch.tensor(data[:1500,-1],dtype=torch.float32)features,labels=get_data_ch7()definit_rmsprop_states():s_w=torch.zeros((features.shape[1],1),dtype=torch.float32)s_b=torch.zeros(1,dtype=torch.float32)return(s_w,s_b)defrmsprop(params,states,hyperparams):gamma,eps=hyperparams['beta'],1e-6forp,sinzip(params,states):s.data=gamma*s.data+(1-gamma)*(p.grad.data)**2p.data-=hyperparams['lr']*p.grad.data/torch.sqrt(s+eps)

我们将初始学习率设为0.01,并将超参数γ设为0.9。此时,变量st可看作是最近1/(1−0.9)=10个时间步的平方项gt⊙gt的加权平均。

In [18]:

d2l.train_ch7(rmsprop,init_rmsprop_states(),{'lr':0.01,'beta':0.9},features,labels)

loss: 0.243334, 0.063004 sec per epoch

Pytorch Class

通过名称为“rmsprop”的Trainer实例,我们便可使用Gluon提供的RMSProp算法来训练模型。注意,超参数γ通过gamma1指定。

In [19]:

d2l.train_pytorch_ch7(torch.optim.RMSprop,{'lr':0.01,'alpha':0.9},features,labels)

loss: 0.244934, 0.062977 sec per epoch

11.9 AdaDelta

除了RMSProp算法以外,另一个常用优化算法AdaDelta算法也针对AdaGrad算法在迭代后期可能较难找到有用解的问题做了改进 [1]。有意思的是,AdaDelta算法没有学习率这一超参数。

Algorithm

AdaDelta算法也像RMSProp算法一样,使用了小批量随机梯度gt按元素平方的指数加权移动平均变量st。在时间步0,它的所有元素被初始化为0。给定超参数0≤ρ0,同RMSProp算法一样计算

st←ρst−1+(1−ρ)gt⊙gt.

与RMSProp算法不同的是,AdaDelta算法还维护一个额外的状态变量Δxt,其元素同样在时间步0时被初始化为0。我们使用Δxt−1来计算自变量的变化量:

gt′←Δxt−1+ϵst+ϵ⊙gt,

其中ϵ是为了维持数值稳定性而添加的常数,如10−5。接着更新自变量:

xt←xt−1−gt′.

最后,我们使用Δxt来记录自变量变化量gt′按元素平方的指数加权移动平均:

Δxt←ρΔxt−1+(1−ρ)gt′⊙gt′.

可以看到,如不考虑ϵ的影响,AdaDelta算法与RMSProp算法的不同之处在于使用Δxt−1来替代超参数η。

Implement

AdaDelta算法需要对每个自变量维护两个状态变量,即st和Δxt。我们按AdaDelta算法中的公式实现该算法。

In [20]:

definit_adadelta_states():s_w,s_b=torch.zeros((features.shape[1],1),dtype=torch.float32),torch.zeros(1,dtype=torch.float32)delta_w,delta_b=torch.zeros((features.shape[1],1),dtype=torch.float32),torch.zeros(1,dtype=torch.float32)return((s_w,delta_w),(s_b,delta_b))defadadelta(params,states,hyperparams):rho,eps=hyperparams['rho'],1e-5forp,(s,delta)inzip(params,states):s[:]=rho*s+(1-rho)*(p.grad.data**2)g=p.grad.data*torch.sqrt((delta+eps)/(s+eps))p.data-=gdelta[:]=rho*delta+(1-rho)*g*g

In [21]:

d2l.train_ch7(adadelta,init_adadelta_states(),{'rho':0.9},features,labels)

loss: 0.243485, 0.084914 sec per epoch

Pytorch Class

通过名称为“adadelta”的Trainer实例,我们便可使用pytorch提供的AdaDelta算法。它的超参数可以通过rho来指定。

In [22]:

d2l.train_pytorch_ch7(torch.optim.Adadelta,{'rho':0.9},features,labels)

loss: 0.267756, 0.061329 sec per epoch

11.10 Adam

Adam算法在RMSProp算法基础上对小批量随机梯度也做了指数加权移动平均 [1]。下面我们来介绍这个算法。

Algorithm

Adam算法使用了动量变量mt和RMSProp算法中小批量随机梯度按元素平方的指数加权移动平均变量vt,并在时间步0将它们中每个元素初始化为0。给定超参数0≤β1<1(算法作者建议设为0.9),时间步t的动量变量mt即小批量随机梯度gt的指数加权移动平均:

mt←β1mt−1+(1−β1)gt.

和RMSProp算法中一样,给定超参数0≤β2<1(算法作者建议设为0.999), 将小批量随机梯度按元素平方后的项gt⊙gt做指数加权移动平均得到vt:

vt←β2vt−1+(1−β2)gt⊙gt.

由于我们将m0和s0中的元素都初始化为0, 在时间步t我们得到mt=(1−β1)∑i=1tβ1t−igi。将过去各时间步小批量随机梯度的权值相加,得到 (1−β1)∑i=1tβ1t−i=1−β1t。需要注意的是,当t较小时,过去各时间步小批量随机梯度权值之和会较小。例如,当β1=0.9时,m1=0.1g1。为了消除这样的影响,对于任意时间步t,我们可以将mt再除以1−β1t,从而使过去各时间步小批量随机梯度权值之和为1。这也叫作偏差修正。在Adam算法中,我们对变量mt和vt均作偏差修正:

m^t←mt1−β1t,

v^t←vt1−β2t.

接下来,Adam算法使用以上偏差修正后的变量m^t和m^t,将模型参数中每个元素的学习率通过按元素运算重新调整:

gt′←ηm^tv^t+ϵ,

其中η是学习率,ϵ是为了维持数值稳定性而添加的常数,如10−8。和AdaGrad算法、RMSProp算法以及AdaDelta算法一样,目标函数自变量中每个元素都分别拥有自己的学习率。最后,使用gt′迭代自变量:

xt←xt−1−gt′.

Implement

我们按照Adam算法中的公式实现该算法。其中时间步t通过hyperparams参数传入adam函数。

In [23]:

%matplotlibinlineimporttorchimportsyssys.path.append("/home/kesci/input")importd2lzh1981asd2ldefget_data_ch7():data=np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat',delimiter='\t')data=(data-data.mean(axis=0))/data.std(axis=0)returntorch.tensor(data[:1500,:-1],dtype=torch.float32),\torch.tensor(data[:1500,-1],dtype=torch.float32)features,labels=get_data_ch7()definit_adam_states():v_w,v_b=torch.zeros((features.shape[1],1),dtype=torch.float32),torch.zeros(1,dtype=torch.float32)s_w,s_b=torch.zeros((features.shape[1],1),dtype=torch.float32),torch.zeros(1,dtype=torch.float32)return((v_w,s_w),(v_b,s_b))defadam(params,states,hyperparams):beta1,beta2,eps=0.9,0.999,1e-6forp,(v,s)inzip(params,states):v[:]=beta1*v+(1-beta1)*p.grad.datas[:]=beta2*s+(1-beta2)*p.grad.data**2v_bias_corr=v/(1-beta1**hyperparams['t'])s_bias_corr=s/(1-beta2**hyperparams['t'])p.data-=hyperparams['lr']*v_bias_corr/(torch.sqrt(s_bias_corr)+eps)hyperparams['t']+=1

In [24]:

d2l.train_ch7(adam,init_adam_states(),{'lr':0.01,'t':1},features,labels)

loss: 0.242722, 0.089254 sec per epoch

Pytorch Class

In [25]:

d2l.train_pytorch_ch7(torch.optim.Adam,{'lr':0.01},features,labels)

loss: 0.242389, 0.073228 sec per epoch

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,001评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,210评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,874评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,001评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,022评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,005评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,929评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,742评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,193评论 1 309
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,427评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,583评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,305评论 5 342
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,911评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,564评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,731评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,581评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,478评论 2 352