当今人们认识到,科学技术的迅速发展,特别是信息时代的到来,要求人们具有更高的数学素养,现代高技术越来越表现为一种数学技术。高科技的发展、应用,把现代数学以技术化的方式迅速辐射到人们日常工作和生活的各个领域。近年来,从高端制造需要的材料科学,到物流、交通和智慧城市离不开的运筹学,到安全技术所依赖的密码学,再到直接卡住人工智能进展的算法层的思想革新,“硬科技”在工业界的落地,处处呼唤着数学。
1、数学与计算机
改变人类生活的电子计算机出现于1940年代的美国,它的设计者是一位数学家:冯·诺依曼(John von Neumann,1903-1957)。令人们意想不到的是,数理逻辑竟成为发明现代电子计算机的先导。而计算机的出现,不仅使数学比以往任何时候都更具威力,同时也极大地改变了数学科学自身的某些特点。一方面,计算机进入数学领域,使一些以前不大受重视的数学理论重放光彩,促进了计算数学、数学模型、离散数学、数理逻辑等许多数学分支的发展,并开发了许多边缘科学,如人工智能、图象识别、机器证明、数据处理等;计算机开拓了一系列数学研究的新领域和新课题,改变了数学各分支之间的平衡,也促进了数学内部的统一;计算机为数学发现和证明提供了新工具。
另一方面,正如计算机给数学提供了新的机会一样,数学也使计算机越来越具有了不可思议的威力。数学为解释自然现象提供了构造模型的方法,也开发出运用计算机语言实现这些模型的算法,极大地提高了计算机处理问题的功能。事实上,计算机本身以及计算机的进一步开发、改进和应用都离不开数学。随着现代数学的发展,数学既广泛与各门自然科学相渗透,又与计算机结合直接应用于高技术,这就使得建立模型日渐成为数学的主要目标之一。
当人们面对纷繁复杂的科学技术和社会现象时,数学可以通过建立模型、分析和求解、计算乃至形成软件等一系列方法来帮助我们把握客观世界。计算机已经深刻地改变了世界,它对数学的影响更是这样。例如,对素数的研究以往认为很少有实用价值,但有了计算机,却不料它在密码学中受到重用。计算机也影响到如何做数学,现在,人们可以利用计算机证明数学定理,各种以计算机为主要设备的数学实验室也已经建立起来。数学研究方式的变化以及数学与以计算机为核心的信息技术相结合的研究方式和强大功力,使数学本身也越来越显示出技术化的特征。计算机的出现和更新换代使一种新学科的出现成为可能:基于计算机仿真和模拟的实验数学。比如:找到大素数;对加密信息的解密;天气仿真及预报;创立分形几何(尽管数学规律早已客观存在,但是,如果不是借助计算机来实现可视化,Beniot Mandelbrot就不可能创立分形几何)。再比如:交通堵塞模拟实验,基于细胞自动化模拟的计算机仿真可以模拟交通堵塞的特征,如果车辆密度达到了某个值,堵塞就不可避免,尽管如此,原则上还存在某种方法使车辆在不混乱的境况下行驶。
2、数学与网络
网络无疑是现代科学技术的一项重大成就。我们以搜索引擎为例,说明网络需要数学。先输入关键词,搜索之后,计算机上依次给出网页的排序。那么,排序的规则是什么?答案如下:将网页标记为{i,j,k,…}。若i与j之间有链接,则命aij=1;否则,置aij=0。我们得到一个非负方阵A=(aij)。按照矩阵论的一个经典结果,非负方阵(需连通性的小条件)有最大特征根λ*、它对应于一个左正特征向量u={u1,…,um}:uA=λ*u.这个u即为所求:取其第i个分量ui为网页的PageRank。我们所见到的网页就是依照ui的大小排序的。这就是Larry Page和Sergey Brin创建Google搜索引擎(1998)的数学依据。
再例如新闻自动分类:如果人工对新闻进行分类,我们必须把每一篇新闻读懂并找出其主题,然后根据主题的不同对新闻进行分类。但计算机只能做快速计算,无法读懂新闻。为此,我们首先要把文字的新闻变成可以计算的一组数字,然后再设计一个算法来计算出任意两篇新闻的相似性。新闻是传递信息的,而词是信息的载体,新闻的信息是和词的语义联系在一起的。一篇新闻由许多词组成,有些词表达的语义重要,有些词表达的语义次要。显然,含义丰富的实词比“的、地、得”这些助词,或者“之、乎、者、也”这样的虚词重要,而且,这些助词和虚词对新闻主题的影响几乎可以忽略。因此,我们只需对每个实词的重要性进行度量。我们把某个词在网页中出现的次数除以网页的总词数得到的商称为这个词的频率(或称“单文本词频”)。比如,如果某个网页中一共有2000个词,其中“函数”、“应用”分别出现了4次、10次,那么它们的词频分别为:0.002、0.005。
我们可以这样来构造一组描述新闻主题的数字:对于一篇新闻中的所有实词,计算出它们的词频。把这些值按照对应的实词在词汇表的位置依次排列,就得到一个向量。这样,我们就可以用一个向量来代表这篇新闻,并称为该新闻的特征向量。直观地看,如果两篇新闻属于同一类,它们的特征向量在某几个维度的值都比较大,而在其他维度的值都比较小。反之,如果两篇新闻不属于同一类,由于用词的不同,它们的特征向量中,值较大的维度应该没有什么交集。如果要定量地衡量两个特征向量的相似性,我们可以通过计算两个向量的夹角来判断对应的新闻主题的接近程度。
3、数学与芯片
在芯片设计、制造的繁复流程中,每个微小差别——比如不同的组件尺寸、组件材质、元器件排布等——都可能使芯片性能产生巨大差异,所谓“失之毫厘,谬以千里”。而数学的引入,则能在仿真和模拟环节代替成本高、耗时长的真实实验,提前预判芯片的效果。如果我们能先透过半导体数学的模拟计算,来预测某个条件下,组件所具有的物理特性,我们便能快速的找出最适合某类组件的组成系数,就能节省开发新组件所需的成本,这样的好处在越往小组件发展所节省的成本就越明显,可以看出半导体数学在制作过程中所占居的位置。从1969 年第一颗包含一个晶体管(Transistor)的芯片(Chip)被发明至今,短短的五十年间,技术已经可以做到把超过两千万个晶体管放到同一片芯片上了。
随着半导体产业的突飞猛进,组件的尺寸越来越小,晶体管的数目越来越多,相对的研发的成本也越来越高,在此情况下,想要对每一种设计理念,包括不同的组件尺寸(Device Geometry)、组件材质(Device Material)、不同的偏压(Bias)以及制程技术中的微影(Lithography)、参杂(Diffusion、Implantation)等,都加以实际实验是非常不实际的,其付出的成本可以说是天文数字,因此就有人把数学引进半导体业界,主要分成组件仿真(Device Simulation)和制程模拟(Process Simulation)。但是此时就会遇到两个无法避免的难题:(1)如何找到可以描述半导体特性的数学方程式?(2)如何找出这些方程式的真正解?目前,科学家已找到了许多描述半导体特性的数学方程,但是在求得精确解上,数学家仍束手无策,只能借由计算机得到近似解。随着芯片制造难度的升级,工业界急需找到更优的计算方法。对于工程界有兴趣的问题,现今的数学并没有方法求得这些方程式的真正解,那怕是最简单的Drift Diffusion Model 都没有办法, 更不要说是Boltzmann’s Transport Equation 或Quantum Transport Model了。
相信大家一定会觉得很奇怪,既然没有办法解这些方程式,那如何把数学带进半导体产业呢?虽然数学没有办法解出真正的解,但借由数值方法和高运算能力的计算机,我们可以得到近似的解,只要近似解够接近真正解,我们就可以用此近似解来当作实验所得的数据,如此就可以把一些不良的设计在此阶段就先加以剔除。但是随着方程式的逐渐复杂化,如今连想要求得近似解的难度也越来越高了,对此我们只有期望能有新的方法来计算这些方程式,以及更快速的计算机能早日被发明出来以满足呈爆炸性成长的计算量。
总之,在半导体组件日渐缩小的情况下,以前所被简略的物理特性也都一一呈现出其重要性来,因此我们需要更为精确更为复杂的数学模式来替代物理实验,其所代表的意义是在更小的区域中未知函数的变化更为复杂,想要求得精确的近似解则需要更多的计算量,进而使得仿真组件特性须要耗费更多的时间。另外,数值模拟结果必需与实验相互验证、比较, 因此数学、物理与工程等领域的整合也是非常重要的环节,所以半导体模拟需要非常高度的科学计算技术与扎实的基础科学基础。
4、数学与人工智能
机器学习是一种实现人工智能的方法。机器学习理论是与统计学、概率论、计算机科学、算法等方面交叉的领域,它产生于从数据出发的学习迭代,试图找出用于开发智能应用的隐藏的洞见。机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。机器学习直接来源于早期的人工智能领域。传统算法包括决策树学习、推导逻辑规划、聚类、强化学习和贝叶斯网络等等。机器学习最成功的应用领域是计算机视觉,虽然也还是需要大量的手工编码来完成工作。
人们需要手工编写分类器、边缘检测滤波器,以便让程序能识别物体从哪里开始,到哪里结束;写形状检测程序来判断检测对象是不是有八条边;写分类器来识别字母“ST-O-P”。使用以上这些手工编写的分类器,人们总算可以开发算法来感知图像,判断图像是不是一个停止标志牌。这个结果还算不错,但并不是那种能让人为之一振的成功,直至深度学习的出现。深度学习的本质还是人工神经网络,但它使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围,并摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能。
数学在人工智能的研发中,起到决定性的作用。上世纪70年代,计算机科学家就开始研究神经网络在推进人工智能上的可行性。2012年之后,深度学习在“大算力+大数据”加持下获得神速进展。深度学习成了一个人们只知其然而不知其所以然的“黑匣子”,效果显著,却缺乏数学理论支持。而在前沿计算机领域,数学界也显现出兴趣,并开始挑战困扰人工智能已久的深度学习的“黑匣子”问题。丘成桐及其团队在2017年10月发表了一篇论文,用几何学解释了GAN(生成对抗网络)。这个成果将GAN与最优传输理论、凸几何进行类比,使其转化为了一个可求解的数学问题,从而为黑箱给出了透明的几何解释——这将有助于设计出更高效、可靠的计算方法。
5、数学与5G
华为持续在数学上投资,如在俄罗斯研究所招聘了数十名全球顶级的数学家,创造性地用非线性数学多维空间逆函数解决了GSM多载波干扰问题。使华为在全球第一个实现了GSM多载波合并,进而实现了2G、3G 、LTE的单基站Single RAN设计。华为在2008年推出的传奇技术方案SingleRAN,是数学支撑工业应用的一个经典范例。对华为的客户,即网络运营商们来说,SingleRAN解决了一个刚需:在2G、3G、4G和不断到来的通信网络迭代中,提供同时运营多制式网络的能力,从而让运营商以更低成本平滑进入4G时代。借助SingleRAN,此前通信设备业务收入排名全球第四的华为力压爱立信、诺基亚、西门子,在4G普及的2014年,一跃登上世界头把交椅。
华为5G标准是源于十多年前土耳其Arikan教授的一篇数学论文。2010年,已投入5G研发两年的华为发现了Arikan在2008年提出的Polar Code(极化码)理论。相比Arikan的导师Robert G. Gallager(香农的学生)在1963年提出的信道编码技术LDPC码,Polar Code有理论上的优势,但从工程学的角度来说不成熟。华为顶着风险,陆续围绕Polar Code投入了数千人的研发资源,把Arikan的论文变成了一系列专利和技术,并使之在2016年底成为5G控制信道编码方案——这是中国厂商第一次掌握了国际移动通信标准制定的话语权。5G时代,数学又帮华为进一步获得了制定标准的先机。
6、数学与经济
在传统的社会科学领域中,经济学是最成功地实现数学化的学科,成就令人瞩目。自1969年设立诺贝尔经济学奖以来,超过2/3的获奖者是由于在经济学领域运用数学方法获得重大突破而获奖的。微积分学、集合论、拓扑学、实凸分析以及概率论,在研究和表达经济理论方面都起了重要的作用。很多数学家惊讶地发现,极其抽象的拓扑学最有用的地方竟是在经济学领域。数学在经济学中的应用,产生了包括数理经济学、经济计量学、经济控制论、经济预测、经济信息等分支的数量经济学科群,以致一些西方学者认为:当代的经济学实际上已成为应用数学的一个分支。计划经济向市场经济的转化,给我国经济生活带来了巨大的变化,经济行业的经营者们要对投资、贷款、市场预测、风险评估、成本、利润、投入、产出等一系列经济活动有很好的把握,包括信息的收集、整理分析,可以说,一个好的工商业经营者,如果他不能对经济活动的规律作出正确的分析,那么他将难以应付复杂变化的经济现象。而这些定量分析方法的掌握、对经济规律正确分析的能力的获得,都将源于对数学知识、思想方法的了解和掌握。
7、数学与现代生活
数学对整个社会发展的影响不仅仅局限在一些比较专门的领域,随着社会的发展,现代生活处处充满着数学。如每日天气预报中用到的降水概率、正数、负数及表示空气污染程度的百分数;个人和家庭在购物、购房、购买股票、参加保险等项投资活动中所采用的具体方案策略;外出旅游中的路线的选择;选择房屋装修的设计和装修费用的估算;还有对新闻媒介带给人们的各种各样信息的分析,这些都与数学有着密切的联系。大众媒体、日常生活中用到越来越多的数学概念,如纬度、统计、变化率等都成为常用的词语。
当今人们越来越强烈地感受到对数学的依赖。人们从幼儿园开始接受思维训练;从小学开始接受奥数训练……在生活中,几乎每天都会纠结手机套餐的选择、理财产品的选择、保险产品的选择、购物打折方式的选择、股票投资的选择……在工作中,几乎每天都会使用成本、利润、投入、产出、贷款、效益、股份、市场预测、风险评估等一系列经济词汇。而这些无一能离开数学。当今社会对每个人的数学素养提出了普遍的高要求,人人都需要接受优质的数学教育
© 2024. All Rights Reserved. 沪ICP备2023009024号-1