为何你学不好高等数学

今天看到一篇文章,很有感悟,顺笔就写点东西。

Google的I/O大会之后,“AI将无处不在,智能将无处不在”。

数据分析, 人工智能, 图像识别等趋势, 不彻底学习线性代数 信号处理 算法导论(特别重要,以前看的时候感觉有些算法就是没事找事),是无法应付的。

为什么学得不好,我前段时间看《射雕英雄传》的时候, 刚好看到郭靖在江南七怪的教导下,武功没长进,全真道长说了十个字“教而不得法,学而不得道”。
这里并不是指责说大学的老师没有良好的教授方法,主要还是自己学不知其所以然。。

这里的高等数学当然是包括 微积分 线性代数 概率统计。

《程序员的数学--线性代数》这本书,综述里有一句话。

m*n的矩阵A, 表示了从n维空间到m维空间的“映射”。具体来说就是,把n维空间中的点x(n维列向量)变换到m维空间的点(m维列向量)Ax的映射。

为什么要引入矩阵,矩阵是用来做空间变换的,矩阵是一种映射,所以要学习好矩阵的乘积。

行列式=对角线元素的乘积,但是行列式有什么意义呢?
为什么对角矩阵如何特殊,要拿出来单独讲呢?

书中以“空间变换”的角度进行了解释。一个n维向量乘以一个n*n的对角矩阵,
实际上就是把对角矩阵中的各个值直接乘到了n维向量的对应的值上,
也就是对n维空间的各个维度进行了系度拉伸。
那么这些对角元素的乘积,实际上是这个矩阵变换給n维空间带来的体积变化的倍数。
(n维空间体积=第一维长度*第二维长度……*第n维长度)
行列式的值是空间体积变化的倍数!!

接着有网友表示,他的线性代数,是看了mit的公开课才明白的,:),你感觉学的那些貌似没啥意义,自然也没有足够的兴趣,自然也学不好,线性代数教給我们的是一种方法,我们需要从更高级的学科中重新思考过它,才能看明白数学现象的本质。