金融模型——AHP比较矩阵的最大特征值对应的特征向量是权重向量的数学推导

目录

简介

比较矩阵

一致矩阵及其性质

比较矩阵的最大特征值对应的特征向量是权重向量的数学推导

简介

最近在解决一些定性的问题,这些问题很难定量化,所以想到了层次分析法,在梳理层次分析法时,发现了一个问题,几乎所有的文档都直接给出比较矩阵的特征向量就是权重向量,没有在数学上给出证明,感觉这个结论很想当然,本文在数学上对这个结论进行推导。

比较矩阵

我们在处理定性问题时,通常要考虑很多因素,这些因素很难定量刻画,但是我们又需要知道每个因素对我们目标的影响权重,这种情况下就可以使用层次分析法,定性问题定量化。

如果不使用层分析法,实际影响因素的权重是定性给出的,可能极不合理,所以,我们要用定量的方法(层次分析法)刻画这个定性的过程,使在定性的过程中合情合理,层次分析采用了两两因素之间比较重要性,构造比较矩阵的方式,使定性问题定量化。

比较矩阵的构造

对一个比较矩阵A,其元素a_{i,j}表示第i个因素比第j个因素的重要性,其取值和对应的意义如下:

数值 含义
1 两个因素相比,具有相同的重要性
3 两个因素相比,前面的因素比后面的因素稍微重要
5 两个因素相比,前面的因素比后面的因素明显重要
7 两个因素相比,前面的因素比后面的因素强烈重要
9 两个因素相比,前面的因素比后面的因素极端重要
2,4,6,8 上面两个相邻判断的中值
倒数 因素i和因素j的比较值为a_{i,j},那么因素j和因素i的比较值为1/ a_{i,j}

比较矩阵的性质

由上面的比较矩阵的构造可以看出比较矩阵有如下性质:
比较矩阵一定是正互反矩阵,即a_{i,j}=\frac{1}{a_{j,i}},其中a_{i,j}>0.

一致矩阵

一致矩阵的定义

对于矩阵A,如果a_{i,j}>0, 且a_{i,k}a_{k,j}=a_{i,j},则称矩阵A为一致矩阵。

一致矩阵的性质

由一致矩阵的定义可以得到以下性质:
1、一致矩阵的对角线都是1.
2、一致矩阵的秩等于1.
3、秩等于1的正互反矩阵一定是一致矩阵。
4、一致矩阵一定是正互反矩阵。

对于以上性质的证明用到以下定律:
A为一致性矩阵的充分必要条件是,存在正向量W=(w_1,w_2,w_3....w_n),有a_{i,j}=\frac{w_i}{w_j}(其中w_j>0),下面先对这个定理进行证明。

证明:

充分性:若对于矩阵A,有a_{i,j}=\frac{w_i}{w_j}(其中w_j>0)。则:

a_{i,k}a_{k,j}=\frac{w_i}{w_k}\frac{w_k}{w_j}=\frac{w_i}{w_j}=a_{i,j}

所以A是一致性矩阵。

必要性:若A是一致性矩阵,有a_{i,k} a_{k,j} = a_{i,j},取i=j,得到: a_{i,i}=1

所以对角线上元素为1。

a_{i,k} = \frac{ a_{i,j}}{a_{k,j}}

令i=j得到:
a_{j,k}= \frac{ 1}{a_{k,j}}

所以,一致矩阵是正互反矩阵。

a_{i,j}=a_{i,k} a_{k,j},所以:

a_{i,j}=\frac{a_{i,k}} {a_{j,k}}

取k=1,有:
a_{i,j}=\frac{a_{i,1}} {a_{j,1}}

所有取W=(a_{1,1},a_{2,1},a_{3,1},...a_{n,1}),且有:
W^TW_1=A

其中W_1=(\frac{1}{ a_{1,1}},\frac{1}{ a_{2,1}},\frac{1}{ a_{3,1}},...\frac{1}{ a_{n,1}})

所以必要性得到证明。

所以上面的性质1,2,3,4得到证明。

比较矩阵的特征向量是权重向量的数学推导

一致性矩阵下面的证明

我们从问题出发,我们现在想要得到的是,各因素对目标影响的权重向量。设这个向量为W=(w_1,w_2,w_3....w_n)

先来看看这个向量的含义,这个向量中每个元素含义是对应于每个因素对目标的影响权重.

所以,我们可以直接从这个权重向量来构造比较矩阵。显然第i个因素对第j个因素的比较值为\frac{w_i}{w_j}

所以比较矩阵为A=(\frac{w_i}{w_j})_{nxn}

所以我们只需要证明,A的特征向量就是W。

证明:
AW=(\frac{w_i}{w_j})_{nxn}(w_1,w_2,...w_n)^T=nW

所以,W是A的属于特征值n的特征向量,因为A的秩为1,所以A只有一个特征值,所以,比较矩阵的特征向量就是权重向量。

上面只证明了完全一致性矩阵的情况。对于有满意的一致性的矩阵的情况,我们只需证明正互反矩阵可以唯一分解成标准形和一致矩阵 的 hadamard乘积即可。有下面定理。

有满意的一致性的非一致矩阵的证明

hadamard乘积定义

A=(a_{i,j})_{nxn},B=(b_{i,j})_{nxn},定义A○B=(a_{i,j}·b_{i,j})_{nxn},为矩阵A与矩阵B的hadamard乘积定义。

标准型定义

标准型I:如E是一个正互反矩阵,如果对任意的i,k 有\sum_{j=1}^ne_{i,j}=\sum_{j=1}^ne_{k,j}

谱半径定义

对于一个矩阵A,谱半径\rho(A)定义为所有特征值的模的最大值。

hadamard分解定理

对任意的正互反矩阵A,有唯一的hadamard分解,即A=W_1oE_1,其中W_1=(\frac{w_i}{w_j})_{nxn}为一致矩阵。E_1为标准型I.w_i为一致性矩阵W_1的特征向量,\sum w_i=1

证明:设A的属于特征值\lambda的归一化后的特征向量为w=(w_1,w_2,....w_n)

因为a_{i,j}=\frac{w_i}{w_j}\frac{w_j}{w_j} a_{i,j}

所以
A=(\frac{w_i}{w_j})_{nxn}o (\frac{w_j}{w_i} a_{i,j})_{nxn}

W_1=(\frac{w_i}{w_j})_{nxn} ,E_1 =(\frac{w_j}{w_i} a_{i,j})_{nxn}

对于W_1,w=(w_1,w_2,....w_n)刚好是其特征向量,且是一致矩阵。(上面已经证明)

对于矩阵E_1,设e_{i,j}=\frac{w_j}{w_i} a_{i,j},则:

e_{i,j}=\frac{w_j}{w_i} a_{i,j}= \frac{w_j}{w_ia_{j,i} } =\frac{1}{e_{j,i}}

所以E_1也是一个正互反矩阵。

且有:A=diag(w_1,w_2...w_n)E_1 diag(w_1,w_2...w_n)^{-1}

所以,A与E_1相似。所以A与E_1有相同的特征值。

对于\sum_{j=1}^n\frac{w_j}{w_i} a_{i,j}与\sum_{j=1}^n\frac{w_j}{w_k} a_{k,j}

因为A的属于特征值\lambda的特征向量为w=(w_1,w_2,....w_n)

所以:
\sum_{j=1}^n\frac{w_j}{w_i} a_{i,j}=\frac{\sum_{j=1}^n w_j a_{i,j} }{w_i} = \lambda \frac{w_i}{w_i}=\lambda

所以:
\sum_{j=1}^n\frac{w_j}{w_i} a_{i,j}=\sum_{j=1}^n\frac{w_j}{w_k} a_{k,j}=\lambda

所以,E_1时标准型I。

再证唯一性。

这里只需要证明,\lambda是A的最大特征值,且是A的单特征根,加上w是归一化之后的,我们就可以唯一的确定w,从而唯一的确定W_1,从而唯一的确定hadamard分解。

前面我们证明了,A和E_1是相似的,E_1 也是正互反矩阵,我们只要证明E_1的最大特征值是\lambda即可。

对于一个正矩阵B=(b_{i,j})_{nxn},有其下性质(这里不给出证明):
1、最大特征值一定为正,且一定是单特征根。
2、其谱半径\rho(A)的范围如下:
\min_i \sum_{j=1}^nb_{i,j} \le \rho(B) \le \max_i \sum_{j=1}^nb_{i,j}

由上面正矩阵的性质,我们得到:
\lambda=\min_i \sum_{j=1}^nb_{i,j} \le \rho(A) \le \max_i \sum_{j=1}^nb_{i,j} =\lambda

所以,\rho(A)=\lambda

所以\lambda是A的最大特征值,且是A的单特征根。

所以分解式是唯一的。所以定理得到证明。

我们证明了hadamard分解定理,但是并没有结束,因为我们还没有得到想要的结论:非一致的比较矩阵的最大特征值对应的特征向量就是我们想要的权重向量。有了上面的准备工作,下面给出这个结论的证明。

证明:
由上面的hadamard分解定理,我们得到一个非一致的矩阵,我们可以唯一分解为一个一致矩阵和一个标准型I。而这个标准型I只能进行如下分解:
E_1=(1)_{nxn}oE_1

所以,我们把一个非一致的比较矩阵分成了两部分,一个一致矩阵和一个标准型。

这个标准型可以理解为,我们在构造比较矩阵时引入的噪音和不确定性,我们是不需要考虑的,我们只需要考虑一致矩阵W_1,而W_1是一致的,其特征向量刚好就是原矩阵A的属于最大特征值\lambda的特征向量。

所以非一致的比较矩阵的最大特征值对应的特征向量就是我们想要的权重向量。

最后

在得到我们想要的结论后,我们自然而然的会产生一个问题,那就是被分离出来的E_1被我们忽略了,但是当E_1影响很大时,我们就不能忽略。所以在AHP的做法里面,构造CI指标,要对原比较矩阵做一致性检验,对原矩阵做一致性检验,就是对E_1做一致性检验。

为什么比较矩阵的最大特征值一定大于等于n(矩阵阶数)。

证明:根据Perron-Frobenius定理,对于比较矩阵A 有一下不等式。

\rho(A) \ge \sum_{\lambda \in spec(A)} \frac{|\lambda|}{n} \ge \frac{tr(A)}{n}\ge 0

反证发,若\rho(A)<n

则:
\sum_{\lambda \in spec(A)} \frac{|\lambda|}{n} \le 1

这与\sum_{\lambda \in spec(A)} \frac{|\lambda|}{n}\ge \frac{tr(A)}{n}=1 矛盾。

所以,比较矩阵的最大特征值一定大于等于n(矩阵阶数)。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。