矩阵求导术(上)

 我来答
新科技17
2022-06-23 · TA获得超过5887个赞
知道小有建树答主
回答量:355
采纳率:100%
帮助的人:74.1万
展开全部

矩阵求导的技术,在统计学、控制论、机器学习等领域有广泛的应用。鉴于我看过的一些资料或言之不详、或繁乱液纤无绪,本文来做个科普,分作两篇,上篇讲标量对矩阵的求导术,下篇讲矩阵对矩阵的求导术。本文使用小写字母x表示标量,粗体小写字母 表示(列)向量,大写字母 表示矩阵。

首先来琢磨一下定义,标量f对矩阵X的导数,定义为

即 f 对 逐元素求导排成与 尺寸相同的矩阵。然而,这个定义在计算中并不好用,实用上的原因是对函数较复杂的情形难以逐元素求导;哲理上的原因是逐元素求导破坏了整体性。试想,闹首仿为何要将 f 看做矩阵 而不是各元素 的函数呢?答案是用矩阵运算更整洁。所以在求导时不宜拆开矩阵,而是要找一个从整体出发的算法。

为此,我们来回顾,一元微积分中的导数(标量对标量的导数)与微分有联系:

多元微积分中的梯度(标量对向量的导数)也与微分有联系:

这里第一个等号是全微分公式,第二个等号表达了梯度与微分的联系:全微分 是梯度向量 与微分向量 的内积

受此启发,我们将矩阵导数与微分建立联系:

其中 代表迹(trace)是方阵对角线元素之和,满足性质:对尺寸相同的矩阵A,B, ,芹贺即 是矩阵 , 的内积。与梯度相似,这里第一个等号是全微分公式,第二个等号表达了矩阵导数与微分的联系:全微分 是导数 与微分矩阵 的内积。

然后来建立运算法则。回想遇到较复杂的一元函数如 ,我们是如何求导的呢? 通常不是从定义开始求极限,而是先建立了初等函数求导和四则运算、复合等法则,再来运用这些法则。 故而,我们来创立常用的矩阵微分的运算法则:

我们试图利用矩阵导数与微分的联系 ,在求出左侧的微分 后,该如何写成右侧的形式并得到导数呢?这需要一些迹技巧(trace trick):

观察一下可以断言,若标量函数 f 是矩阵 经加减乘法、逆、行列式、逐元素函数等运算构成,则使用相应的运算法则对 f 求微分,再使用迹技巧给 套上迹并将其它项交换至 左侧,对照导数与微分的联系 ,即能得到导数。

特别地,若矩阵退化为向量,对照导数与微分的联系 ,即能得到导数。

在建立法则的最后,来谈一谈复合:假设已求得 ,而 是 的函数,如何求 呢?在微积分中有标量求导的链式法则 ,但这里我们 不能随意沿用标量的链式法则 ,因为矩阵对矩阵的导数 截至目前仍是未定义的。于是我们继续追本溯源,链式法则是从何而来?源头仍然是微分。我们直接从微分入手建立复合法则:先写出 ,再将 用 表示出来代入,并使用迹技巧将其他项交换至 左侧,即可得到 。

最常见的情形是 ,此时

可得到

接下来演示一些算例。特别提醒要依据已经建立的运算法则来计算,不能随意套用微积分中标量导数的结论,比如认为AX对X的导数为A,这是没有根据、意义不明的。

,求 。其中 是 列向量, 是 矩阵 是 列向量, f 是标量。

解:

先使用矩阵乘法法则求微分, ,注意这里的 , 是常量, , ,得到: 。

由于 是标量,它的迹等于自身, ,套上迹并做矩阵乘法交换: ,注意这里我们根据 交换了 与 。

对照导数与微分的联系 ,得到 。

注意:这里不能用 ,导数与矩阵乘法的交换是不合法则的运算(而微分是合法的)。有些资料在计算矩阵导数时,会略过求微分这一步,这是逻辑上解释不通的。

,求 。其中 是 列向量, 是 矩阵, 是 列向量, 表示逐元素求指数, f 是标量。

解:

先使用矩阵乘法、逐元素函数法则求微分:

再套上迹并做交换:

注意这里我们先根据 交换了 、 与 ,再根据 交换了 与 。

对照导数与微分的联系 ,得到

,求 。其中 是 列向量, 是 矩阵, 是 矩阵, 是 对称矩阵, 是逐元素函数, f 是标量。

解:

先求 ,求微分,使用矩阵乘法、转置法则: ,对照导数与微分的联系,得到 ,这里 是对称矩阵。

为求 ,再将 用 表示出来代入,并使用矩阵乘法/逐元素乘法交换: ,对照导数与微分的联系,得到 。

, 求 的最小二乘估计,即求 的零点。其中 是 列向量, 是 矩阵, 是 列向量, l 是标量。

解:

这是标量对向量的导数,不过可以把向量看做矩阵的特例。

先将向量模平方改写成向量与自身的内积:

求微分,使用矩阵乘法、转置等法则:

对照导数与微分的联系 ,得到 。

的最小二乘估计为 。

样本 ,求方差 的最大似然估计。

写成数学式是: ,求 的零点。其中 是 列向量, 是样本均值, 对称正定矩阵, l 是标量, 表示自然对数。

解:
首先求微分,使用矩阵乘法、行列式、逆等运算法则,

第一项是
第二项是 。

再给第二项套上迹做交换:
= = ,

其中先交换迹与求和,然后将 交换到左边,最后再交换迹与求和,并定义 为样本方差矩阵。
得到 。对照导数与微分的联系,有 ,其零点即 的最大似然估计为 。

,求 。其中 是除一个元素为1外其它元素为0的 列向量, 是 矩阵, 是 列向量, l 是标量; 表示自然对数, ,其中 表示逐元素求指数, 代表全1向量。

解1:

首先将softmax函数代入并写成 = ,这里要注意逐元素log满足等式 ,以及 满足 。

求微分,使用矩阵乘法、逐元素函数等法则: 。

再套上迹并做交换,注意可化简 ,这是根据等式 ,


=
= 。

对照导数与微分的联系,得到 。

解2:

定义 ,则 ,先同上求出 ,再利用复合法则: ,
得到 。

最后一例留给经典的神经网络。神经网络的求导术是学术史上的重要成果,还有个专门的名字叫做BP算法,我相信如今很多人在初次推导BP算法时也会颇费一番脑筋,事实上使用矩阵求导术来推导并不复杂。为简化起见,我们推导二层神经网络的BP算法。

,求 和 。其中 是除一个元素为1外其它元素为0的的 列向量, 是 矩阵, 是 矩阵, 是 列向量,

已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式