【摘要】线性代数“课程思政”建设对于实现强化价值引领、知识传授、能力培养“三位一体”的教育教学目标格外重要.本文以课程发展、定理和算法的形成、言传身教的核心,以及应用为着力点,研究如何有效地将 “课程思政”元素融入线性代数教学.
【关键词】“课程思政”;线性代数;教学方法
【基金项目】上海理工大学“教学成果奖”培育项目,上海市课程思政领航高校建设项目.
为了贯彻习近平在全国高校思政会议上关于 “各类课程与思想政治理论课同向同行,形成协同效应” 的讲话精神,各高校纷纷开展“课程思政”的探讨.线性代数是高等学校的重要公共基础课程,是本科理、工、经、管等非数学类各学科本科生的必修课程.该课程的内容、思想及方法,对学生后继课程的学习有直接的影响.正因如此,线性代数的“课程思政”建设对于实现强化价值引领、知识传授、能力培养“三位一体”的教育教学目标格外重要,具有推广价值.
一、以课程发展历史增强学生的民族凝聚力
学过线性代数的人都知道,线性代数的发展史上并没有中国人的名字,难道说古老的中华民族在近代数学发展中落伍了?其实不然,以矩阵的起源为例,早在《九章算术》中,我们的祖先就采用分离系数的方法表示线性方程组.《九章算术》方程章中共计18道题目,其中关于二元一次方程组的有8道题目,三元的有6道题目,四元、五元的各2道题目,其求解的基本方法和加减消元法基本一致,是世界上最早的完整的简单线性方程组的解法.而在西方,直到17世纪才由莱布尼兹提出完整的线性方程的解法.这既说明了人类的认知途徑是从简单到复杂,从形象到抽象,形象和抽象相结合的认知规律,又验证了 “实践—理论—实践”的马克思主义认识论,更说明了中国数学对于世界的影响.
二、以定理和算法的形成树立学生的辩证唯物观
数学是一门客观、严谨的自然科学,体现了唯物论和辩证法的哲学思想.线性代数中的很多定理和算法都是从具体的客观现象中抽象出来的.比如,线性方程组的解法、向量组线性相关和线性无关的判定定理等都是由实际问题归纳总结出来的,最终回归到实践中,经过了“由特殊到一般,再由一般到特殊”的认识过程及“从具体到一般,再从一般到具体”的思维方法.
三、言传不如身教,教师是“课程思政”的核心
“课程思政”建设的关键在于教师.教师是课堂教学实施的主体,也是第一责任人.多年来形成的教学观念和教学习惯,难免会让部分教师对数学课程开展中融入课程思想政治的认识深度不够,认为与己无关.因此,认识到“课程思政”的重要性和必要性,改变教师多年形成的教学观念和教学习惯,提高育人意识,才能切实做到“爱学生、有学问、会传授、做榜样”.
四、以实际应用为着力点
线性代数有何用?这是线性代数“课程思政”的着力点.理论来源于实践,理论的价值最终也在实践中体现.线性代数在编码解码等领域有重要的应用,可以毫不夸张地说,一半以上的实际应用问题,最终都可以转化成一个超大规模的线性方程组问题.下面就以几个实际的例子说明线性代数的应用.
1.向量在数据表示中的应用
(1)onehot编码.在机器学习中,对一个对象的表示有两种常见的方式.最简单且不需要学习的方式就是onehot编码,它可以将研究的对象表示为向量,这个向量只有某一个分量为1,其余全为0.
可以想象有多少种类型,这个向量的维数就是多少.如果用这种方式将中文汉字向量化,假设所有的中文汉字有N个,要想通过这种方式去表示这些汉字,那么每个字都需要用一个N维的向量,总共需要N×N大小的矩阵.在自然语言处理中,词袋模型就是以此为基础构建的.
例1 用onehot编码表示“我爱苹果,我爱香蕉”,一个词语对应着一个数字,那么上面的4个词语,可以用下列方式编码:
“我”的编码为[1,0,0,0],“爱”的编码为[0,1,0,0],“苹果”的编码为[0,0,1,0],“香蕉”的编码为[0,0,0,1].
(2)分布式表示.分布式表示是一种高维空间中的向量表示方法.首先,通过某种方式得到一个低维稠密的向量表示研究对象,最典型的例子就是颜色.我们知道任何一种颜色都可以通过红、绿、蓝3种颜色混合得到,在计算机中通常使用RGB方式将颜色表示为一个三元组.比如用RGB表示粉色、浅粉色、深粉色分别为(255,182,193),(255,192,203),(255,20,147).这种表示方法可以反映颜色的相近程度.而如果要用onehot编码表示这些颜色,对于256级的RGB来说,总共有约2563种色彩,就需要2563维向量,数据是非常高维且稀疏的.
例2 例1中的四个词可以用以下四个三维向量表示:我 [1,1,1],爱 [1,-1,1],苹果 [-1,1,0.5],香蕉 [-1,1,0.4].不但维数降低了,还可以直观地看出苹果和香蕉在语义上较为接近,因为它们都是水果.
2.线性运算在卷积神经网络的应用
卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一,在深度学习中占有非常重要的地位.一般情况下,CNN由3个部分构成:卷积层、池化层和全连接层.卷积层负责提取图像中的局部特征,而卷积其实质是一种特殊的线性运算.
例3 假设卷积核为一个3阶方阵B=010201112,图片A=2351000122332114130032622经卷积后可得到图片C=141410191210311619.其运算为对A的3阶子阵的元素按系数分别为0,1,0,2,0,1,1,1,2进行线性运算.
c11=0×2+1×3+0×5+2×0+0×0+1×1+1×3+1×3+2×2=14;
c12=0×3+1×5+0×1+2×0+0×1+1×2+1×3+1×2+2×1=14;
c13=0×5+1×1+0×0+2×1+0×2+1×2+1×2+1×1+2×1=10;
c21=0×0+1×0+0×1+2×3+0×3+1×2+1×4+1×1+2×3=19;
c22=0×0+1×1+0×2+2×3+0×2+1×1+1×1+1×3+2×0=12;
c23=0×1+1×2+0×2+2×2+0×1+1×1+1×3+1×0+2×0=10;
c31=0×3+1×3+0×2+2×4+0×1+1×3+1×3+1×2+2×6=31;
c32=0×3+1×2+0×1+2×1+0×3+1×0+1×2+1×6+2×2=16;
c33=0×2+1×1+0×1+2×3+0×0+1×0+1×6+1×2+2×2=19.
3.特征值和特征向量在主成分分析法的應用
在用统计分析方法研究多变量问题时,变量个数太多会增加问题的复杂性,还会增加运算成本.理想的做法是在减少变量个数的同时,尽量保留完整的信息.实际上,有些变量之间往往具有一定的相关性,当两个变量之间有一定相关性时,它们携带的信息往往有一定程度的重复.
主成分分析(Principal Component Analysis,PCA)是一种统计方法,是设法将原来变量重新组合成一组新的相互无关的综合变量,同时根据实际需要从中选出较少的总和变量尽可能多地反映原来变量信息.其数学定义为:一个正交化线性变换,把数据变换到一个新的坐标系统中,使得这一数据的任何投影的第一大方差在第一个坐标(第一主成分)上,第二大方差在第二个坐标(第二主成分)上,依次类推.
假设有m个样本数据,每个数据是n维的,按列组成矩阵Xnm,则PCA步骤如下:
(1)均值化矩阵Xnm,得到X=Xnm-X-nm(其中X-nm的第i行元素均为Xnm的第i行元素的均值).
(2)求出协方差矩阵C=1m-1XXT.
(3)求出协方差矩阵C的特征值和特征向量.
(4)选取k个最大的特征值对应的特征向量.
(5)降维矩阵Ykm=WknX.
例4 假设X2×5=22353-11122.
(1)均值化:X=X2×5-X-2×5=-1-1020-20011.
(2)协方差矩阵:C=15-1XXT=321132.
(3)特征值:λ1=52,λ2=12,取特征向量ω1=11,ω2=1-1,将特征向量单位化,ω′1=1212,ω′2=12-12.
(4)按照特征值大小排序,这里选取λ1,此时矩阵W1×2=1212.
(5)降维矩阵
Y1×5=W1×2X=1212-1-1020-20011=-32-1203212.
【参考文献】
[1]刘锡平,宇振盛,何常香,魏连鑫.线性代数[M].北京:高等教育出版社,2018.
[2]曹伟丽,蔡康盛.线性代数[M].长沙:湖南科学技术出版社,2013.
[3]刘锡平,曹伟丽,宇振盛.线性代数[M].北京:科学出版社,2013.
[4]Jolliffe I T.Principal Component Analysis[M].Berlin:SpringerVerlag,2002.