kubernetes deployment部署策略

随着kubernetes中服务数量的越来越多, 我们需要频繁的对服务进行升级发布。 那么对于服务可用性就存在了要求, 我们是可以容忍服务停机一段时间还是在不停机的情况下完成发布? 而随着发布回滚的进行需要进行如下的操作:

  • 新版本服务启动
  • 旧版本服务停止
  • 验证新服务是否启动成功

kubernetes中对与程序发布的策略是如何实现的呢? kubernets中已经考虑了这方面的诉求, 它允许我们使用不同的策略更新我们的应用程序. 根据具体的需求可选的方案如下:

  • 重新创建(recreate):终止旧版本并释放新版本;
  • 滚动更新(rolling-update):一个接一个地以滚动更新的方式发布新版本;
  • 蓝/绿(blue/green):与旧版本一起发布新版本,然后切换流量;
  • 金丝雀(canary):向部分用户发布新版本,然后进行全面推出;
  • a/b 测试(a/b testing):以精确的方式向用户的子集发布新版本(HTTP标头,cookie,重量等)。

Kubernetes部署本质上只是ReplicaSets的包装。ReplicaSet管理正在运行的Pod的数量,Deployment在此之上实现功能,以允许滚动更新,对Pod的运行状况检查以及轻松回滚更新。

Kubernetes滚动更新

Kubernetes部署本质上只是ReplicaSets的包装。ReplicaSet管理正在运行的Pod的数量,Deployment在此之上实现功能,以允许滚动更新,对Pod的运行状况检查以及轻松回滚更新。

在正常操作期间,部署将仅管理一个ReplicaSet,以确保所需数量的Pod正在运行:

image.png

使用Deployment来控制Pod的主要好处之一是能够执行滚动更新。滚动更新允许您逐步更新Pod的配置,并且Deployments提供了许多选项来控制此过程。

配置滚动更新最重要的选项是更新策略。在您的部署清单中,spec.strategy.type具有两个可能的值:

  • RollingUpdate:逐渐添加新的Pod,逐渐终止旧的Pod
  • recreate: 在添加任何新吊舱之前,所有旧吊舱均已终止

在大多数情况下,RollingUpdate是部署的首选更新策略。如果您将Pod作为单例运行,并且重复的Pod持续几秒钟是不可接受的,则Recreate很有用。

Rolling Deployment

滚动更新的概念主要存在于k8s中的deployment资源对象, deployment创建基于label选择的Replicaset,使用新版本的应用程序创建辅助 ReplicaSet ,然后减少旧版副本的数量,并增加新版本,直到达到正确数量的副本。

参数如下:

[...]
 replicas: 3
 strategy:
   type: RollingUpdate
   rollingUpdate:
     maxSurge: 1
     maxUnavailable: 0
[...]

replicas: 3 定义运行几个副本

strategy.type 指定更新的策略, 主要包括 Rollingupdate和recreate 两种策略, 其中Rollingupdate为默认策略

strategy.rollingUpdate.maxSurge:1 除了relicas中指定的副本数更新时可以临时运行的副本数, 上面的例子中表示更新时最多可以运行4个副本

strategy.rollingupdate.maxUnavailable: 1 定义在更新的过程中不可用的副本数量, 这个数量是基于relicas配置的,上面的例子中总共定义三个副本也就是更新的时候只有1个副本不可用, 两个副本可用

maxSurge和maxUnavailable都可以指定为整数(例如2)或百分比(例如50%),并且不能都为零。当指定为整数时,它表示实际的容器数;当指定百分比时,将使用所需pods数量的百分比,四舍五入。例如,如果您对maxSurge和maxUnavailable使用默认值25%,并且将更新应用于具有8个容器的Deployment,则maxSurge将为2个容器,而maxUnavailable也将为2个容器。这意味着在更新过程中:

  • 更新期间准备10个pods(8个所需容器+ 2个maxSurge 容器)
  • 在更新期间,至少有6个容器(8个所需容器-2个最大不可用容器)将始终处于就绪状态

重要的是要注意,在考虑部署应在更新期间运行的Pod数量时,它将使用在部署的更新版本中指定的副本数,而不是现有版本
部署horizontal-pod-autoscaling时,才可以基于百分比的值而非 maxSurge和 maxUnavailable 的数字
除了上面说到的几个参数以外,Health Probe也是重要的组成部分, 这样可以保证程序的0停机时间更新应用程序 请参考阅读Kubernetes使用什么方法方法来检查应用程序的运行状况?

优点:

  • 版本在实例间缓慢发布
  • 有状态应用程序可以很方便的处理数据得到平衡

缺点:

  • 首次发布/回滚可能需要一些时间
  • 支持多种 API 很难
  • 无法控制流量

1.定义yaml

假设k8s集群中当前运行的v1版本的程序, 我们需要更新到v2版本

v1.yaml

apiVersion: v1
kind: Service
metadata:
  name: backend
spec:
  type: ClusterIP
  selector:
    app: backend
  ports:
    - name: http
      port: 9898
      protocol: TCP
      targetPort: http
    - port: 9999
      targetPort: grpc
      protocol: TCP
      name: grpc

---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: backend
spec:
  replicas: 3
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 1
  selector:
    matchLabels:
      app: backend
  template:
    metadata:
      labels:
        app: backend
    spec:
      containers:
      - name: backend
        image: stefanprodan/podinfo:3.2.3
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 9898
          protocol: TCP
        - name: http-metrics
          containerPort: 9797
          protocol: TCP
        - name: grpc
          containerPort: 9999
          protocol: TCP
        command:
        - ./podinfo
        - --port=9898
        - --port-metrics=9797
        - --grpc-port=9999
        - --grpc-service-name=backend
        - --level=info
        env:
        - name: PODINFO_UI_COLOR
          value: "#34577c"
        - name: VERSION
          value: v1.0.0
        livenessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/healthz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        readinessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/readyz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        resources:
          limits:
            cpu: 2000m
            memory: 512Mi
          requests:
            cpu: 100m
            memory: 32Mi

v2.yaml

apiVersion: apps/v1beta2
kind: Deployment
metadata:
  name: app
  labels:
    app.kubernetes.io/name: app
spec:
  replicas: 1
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 1
  selector:
    matchLabels:
      app.kubernetes.io/name: app
  template:
    metadata:
      labels:
        app.kubernetes.io/name: app
    spec:
      containers:
        - name: app
          image: "nginx:1.7.9"
          imagePullPolicy: IfNotPresent
          env:
          - name: VERSION
            value: v2.0.0
          ports:
            - name: http
              containerPort: 80
              protocol: TCP
          livenessProbe:
            httpGet:
              path: /
              port: http
          readinessProbe:
            httpGet:
              path: /
              port: http
          resources:
            {}

上面两个资源清单文件中的 Deployment 定义几乎是一直的,唯一不同的是定义的环境变量VERSION值不同

2.首先部署v1.0.0应用

$  kubectl apply -f v1.yaml
service/app created
deployment.apps/app created

测试v1 是否部署成功

➜  kubectl get pods    -l app.kubernetes.io/name=app
NAME                   READY   STATUS    RESTARTS   AGE
app-7cfcdf4b77-bt6nk   1/1     Running   0          72s
app-7cfcdf4b77-h9mzs   1/1     Running   0          72s
app-7cfcdf4b77-nr44j   1/1     Running   0          72s

➜ kubectl get svc  -l app.kubernetes.io/name=app
NAME   TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)   AGE
app    ClusterIP   10.222.46.182   <none>        80/TCP    99s

➜ kubectl get ep  -l app.kubernetes.io/name=app
NAME   ENDPOINTS                                            AGE
app    10.41.206.150:80,10.41.206.164:80,10.41.206.185:80   2m54s

确认当前v1.0.0提供服务

watch -n 1 curl -s backend:9898/env |grep VERSION 

3.部署v2.0.0应用

➜ kubectl apply -f v2.yaml
deployment.apps/backend configured

验证

 ➜ watch -n 1 curl -s 10.222.50.39:9898/env |grep VERSION
  ..........
  "VERSION=v3.0.0",
  "VERSION=v3.0.0",
  "VERSION=v4.0.0",
  "VERSION=v4.0.0",
  "VERSION=v4.0.0",
  "VERSION=v4.0.0",
  "VERSION=v3.0.0",
  "VERSION=v3.0.0",
  "VERSION=v3.0.0",
  "VERSION=v3.0.0",
  "VERSION=v4.0.0",
  "VERSION=v4.0.0",
  "VERSION=v4.0.0",
  .......

我们可以看到在部署的过程中不是基于版本控制的而是基于副本数控制的

recreate

滚动更新策略对于确保更新过程中的零停机时间。但是,这种方法的副作用是在更新过程中,容器的两个版本同时运行。这可能会给服务消费者带来问题,特别是当更新过程在服务api中引入了向后不兼容的更改,而客户端无法处理这些更改时。对于这种场景, 策略定义为Recreate的Deployment,会终止所有正在运行的实例,然后用较新的版本来重新创建它们。

recreate策略的本质是将maxUnavailable设置为replicas中的的副本数量。

spec:
  replicas: 3
  strategy:
    type: Recreate

蓝/绿(blue/green)

蓝绿部署是最常见的一种0 downtime部署的方式,是一种以可预测的方式发布应用的技术,目的是减少发布过程中服务停止的时间。 蓝绿部署原理上很简单,就是通过冗余来解决问题。通常生产环境需要两组配置(蓝绿配置),一组是active的生产环境的配置(绿配置),一组是inactive的配置(蓝绿配置) 用户访问的时候,只会让用户访问active的服务器集群。在绿色环境(active)运行当前生产环境中的应用,也就是旧版本应用version1。当你想要升级到version2 ,在蓝色环境(inactive)中进行操作,即部署新版本应用,并进行测试。如果测试没问题,就可以把负载均衡器/反向代理/路由指向蓝色环境了。随后需要监测新版本应用,也就是version2 是否有故障和异常。如果运行良好,就可以删除version1 使用的资源。如果运行出现了问题,可以通过负载均衡器指向快速回滚到绿色环境。

蓝绿部署的简短流程如下:

  • v1对外提供服务
  • 部署v2
  • 验证v2版本可用性
  • 测试完成后切换v1上的流量到v2上
  • 关闭v1的服务

关于蓝绿部署的细节请阅读BlueGreenDeployment

1.部署v1

v1.yaml

apiVersion: v1
kind: Service
metadata:
  name: backend
  labels:
    app: backend
spec:
  type: ClusterIP
  selector:
    app: backend
    version: v1.0.0
  ports:
    - name: http
      port: 9898
      protocol: TCP
      targetPort: http
    - port: 9999
      targetPort: grpc
      protocol: TCP
      name: grpc

---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: backend-v1
  labels:
    app: backend
spec:
  replicas: 3
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 1
  selector:
    matchLabels:
      app: backend
      version: v1.0.0
  template:
    metadata:
      labels:
        app: backend
        version: v1.0.0
    spec:
      containers:
      - name: backend-v1
        image: stefanprodan/podinfo:3.2.3
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 9898
          protocol: TCP
        - name: http-metrics
          containerPort: 9797
          protocol: TCP
        - name: grpc
          containerPort: 9999
          protocol: TCP
        command:
        - ./podinfo
        - --port=9898
        - --port-metrics=9797
        - --grpc-port=9999
        - --grpc-service-name=backend
        - --level=info
        env:
        - name: PODINFO_UI_COLOR
          value: "#34577c"
        - name: VERSION
          value: v1.0.0
        livenessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/healthz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        readinessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/readyz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        resources:
          limits:
            cpu: 2000m
            memory: 512Mi
          requests:
            cpu: 100m
            memory: 32Mi

执行部署

$ kubectl apply -f v1.yaml
service/backend unchanged
deployment.apps/backend configured

查看部署是否成功

 $ curl -s 10.222.50.39:9898/env |grep VERSION
  "VERSION=v1.0.0",

2.部署v2

v2.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: backend-v2
  labels:
    app: backend
spec:
  replicas: 3
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 3
      maxUnavailable: 3
  selector:
    matchLabels:
      app: backend
      version: v2.0.0
  template:
    metadata:
      labels:
        app: backend
        version: v2.0.0
    spec:
      containers:
      - name: backend-v2
        image: stefanprodan/podinfo:3.2.3
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 9898
          protocol: TCP
        - name: http-metrics
          containerPort: 9797
          protocol: TCP
        - name: grpc
          containerPort: 9999
          protocol: TCP
        command:
        - ./podinfo
        - --port=9898
        - --port-metrics=9797
        - --grpc-port=9999
        - --grpc-service-name=backend
        - --level=info
        env:
        - name: PODINFO_UI_COLOR
          value: "#34577c"
        - name: VERSION
          value: v2.0.0
        livenessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/healthz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        readinessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/readyz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        resources:
          limits:
            cpu: 2000m
            memory: 512Mi
          requests:
            cpu: 100m
            memory: 32Mi

执行部署

$ kubectl apply -f v2.yaml 
deployment.apps/backend-v2 created

查看是否部署成功

$ kubectl get pods  -l app=backend
NAME                          READY   STATUS    RESTARTS   AGE
backend-v1-76bdc697d7-4nc89   1/1     Running   0          148m
backend-v1-76bdc697d7-lvn6n   1/1     Running   0          148m
backend-v1-76bdc697d7-vkf2z   1/1     Running   0          148m
backend-v2-78f8b89f4-hl4qr    1/1     Running   0          79s
backend-v2-78f8b89f4-kshrg    1/1     Running   0          79s
backend-v2-78f8b89f4-s2w77    1/1     Running   0          79s

3.流量切换

通过上面的步骤我们已经将v1版本和v2版本的pod全部部署到主机上但是service仍然发送流量到V1的版本, 修改资源让service将所有的流量发送到label=v2.0.0上

$ kubectl patch service backend -p '{"spec":{"selector": {"version":"v2.0.0"}}}'

测试流量是否切换成功

 # watch -n 1 curl -s 10.222.50.39:9898/env |grep VERSION
  "VERSION=v2.0.0",
  "VERSION=v2.0.0",
  "VERSION=v2.0.0",
  [...]

查看pod现在v1版本的pod和v2版本的pod是同时存在的, 清理v1的pod

$ kubectl get pods  -l app=backend
NAME                          READY   STATUS    RESTARTS   AGE
backend-v1-76bdc697d7-4nc89   1/1     Running   0          156m
backend-v1-76bdc697d7-lvn6n   1/1     Running   0          156m
backend-v1-76bdc697d7-vkf2z   1/1     Running   0          156m
backend-v2-78f8b89f4-hl4qr    1/1     Running   0          9m28s
backend-v2-78f8b89f4-kshrg    1/1     Running   0          9m28s
backend-v2-78f8b89f4-s2w77    1/1     Running   0          9m28s

$ kubect delete deployment backend-v1

4.Cleanup

$ kubectl delete all -l app=backend

金丝雀(canary)

金丝雀发布还有一种说法叫灰度发布. 是指在原有版本可用的情况下,同时部署一个新版本做为金丝雀, 测试新版本的性能和表现,以保障系统稳定的前提下尽早的发现问题和处理问题

金丝雀发布的简短流程如下:

  • v1对外提供服务
  • 部署v2
  • 创建对应canary的ingress规则, 分部分流量到canary的实例上
  • 确定canary可以正常处理请求流量并没有抛异常
  • 将所有流量切到v2版本上
  • 关闭v1的服务

比较主流的ingress controller目前都支持canary也可以使用istio本文使用的traefik

1.部署v1

v1.yaml

apiVersion: v1
kind: Service
metadata:
  name: backend-v1
  labels:
    app: backend
spec:
  type: ClusterIP
  selector:
    app: backend
    version: v1.0.0
  ports:
    - name: http
      port: 9898
      protocol: TCP
      targetPort: http
    - port: 9999
      targetPort: grpc
      protocol: TCP
      name: grpc
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: backend-v1
  labels:
    app: backend
spec:
  replicas: 3
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 1
  selector:
    matchLabels:
      app: backend
      version: v1.0.0
  template:
    metadata:
      labels:
        app: backend
        version: v1.0.0
    spec:
      containers:
      - name: backend-v1
        image: stefanprodan/podinfo:3.2.3
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 9898
          protocol: TCP
        - name: http-metrics
          containerPort: 9797
          protocol: TCP
        - name: grpc
          containerPort: 9999
          protocol: TCP
        command:
        - ./podinfo
        - --port=9898
        - --port-metrics=9797
        - --grpc-port=9999
        - --grpc-service-name=backend
        - --level=info
        env:
        - name: PODINFO_UI_COLOR
          value: "#34577c"
        - name: VERSION
          value: v1.0.0
        livenessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/healthz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        readinessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/readyz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        resources:
          limits:
            cpu: 2000m
            memory: 512Mi
          requests:
            cpu: 100m
            memory: 32Mi

执行部署

$ kubectl apply -f v1.yaml
service/backend-v1 configured
deployment.apps/backend-v1 configured

2.部署v2

v2.yaml

apiVersion: v1
kind: Service
metadata:
  name: backend-v2
  labels:
    app: backend
spec:
  type: ClusterIP
  selector:
    app: backend
    version: v2.0.0
  ports:
    - name: http
      port: 9898
      protocol: TCP
      targetPort: http
    - port: 9999
      targetPort: grpc
      protocol: TCP
      name: grpc
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: backend-v2
  labels:
    app: backend
spec:
  replicas: 3
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 1
  selector:
    matchLabels:
      app: backend
      version: v2.0.0
  template:
    metadata:
      labels:
        app: backend
        version: v2.0.0
    spec:
      containers:
      - name: backend-v2
        image: stefanprodan/podinfo:3.2.3
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 9898
          protocol: TCP
        - name: http-metrics
          containerPort: 9797
          protocol: TCP
        - name: grpc
          containerPort: 9999
          protocol: TCP
        command:
        - ./podinfo
        - --port=9898
        - --port-metrics=9797
        - --grpc-port=9999
        - --grpc-service-name=backend
        - --level=info
        env:
        - name: PODINFO_UI_COLOR
          value: "#34577c"
        - name: VERSION
          value: v1.0.0
        livenessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/healthz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        readinessProbe:
          exec:
            command:
            - podcli
            - check
            - http
            - localhost:9898/readyz
          initialDelaySeconds: 5
          timeoutSeconds: 5
        resources:
          limits:
            cpu: 2000m
            memory: 512Mi
          requests:
            cpu: 100m
            memory: 32Mi

执行部署

$ kubectl apply -f v2.yaml
service/backend-v1 configured
deployment.apps/backend-v1 configured

3.创建canary ingress

因为v2版本打入的流量太少不好测试所以权重设置为v1和v2各50%

ingress-canary.yaml

---
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: bakcend
      labels:
        app: backend
        version: v2.0.0
        traffic-type: devops
      annotations:
        kubernetes.io/ingress.class: "traefik"
        traefik.ingress.kubernetes.io/service-weights: |
          backend-v2: 50%
          backend-v1: 50%
    spec:
      rules:
      - host: canary-test.com
        http:
          paths:
          - backend:
              serviceName: backend-v2
              servicePort: http
            path: /
          - backend:
              serviceName: backend-v1
              servicePort: http
            path: /

测试

$ while sleep 0.1
do
curl -s http://canary-test.com/env  |grep VERSION
done
  [...]
  "VERSION=v1.0.0",
  "VERSION=v2.0.0",
  "VERSION=v2.0.0",
  "VERSION=v2.0.0",
  "VERSION=v1.0.0",
  "VERSION=v1.0.0",
  [...]

4.切换流量到v2版本

ingress.yaml

---
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: bakcend
      labels:
        app: backend
        version: v2.0.0
        traffic-type: devops
      annotations:
        kubernetes.io/ingress.class: "traefik"
        traefik.ingress.kubernetes.io/service-weights: |
          backend-v2: 100%
          backend-v1: 0%
    spec:
      rules:
      - host: canary-test.com
        http:
          paths:
          - backend:
              serviceName: backend-v2
              servicePort: http
            path: /
          - backend:
              serviceName: backend-v1
              servicePort: http
            path: /

部署

➜ kubectl apply -f ingress.yaml
ingress.extensions/bakcend configured

测试

➜  canary while sleep 0.1
do
curl -s http://canary-test.com/env  |grep VERSION
done
  [...]
  "VERSION=v2.0.0",
  "VERSION=v2.0.0",
  "VERSION=v2.0.0",
  [...]

5.Cleanup

$ kubectl delete all -l app=backend

参考

kubernetes-deployment-strategies

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,445评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,889评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,047评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,760评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,745评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,638评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,011评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,669评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,923评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,655评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,740评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,406评论 4 320
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,995评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,961评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,023评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,483评论 2 342

推荐阅读更多精彩内容