实验室里的葛瑶儿果然眼睛放光:嚯,还是博士啊!
温:你把问题整理一下,1、2、3的条理清楚,我统一给你作答。现在我先给你去发货,你也能早点拿到。可以吗?
葛瑶儿咬着嘴唇想了想,发什么货啊还没怎样就发货了,先测试你一下瞧瞧是真是假,
葛:等下,我现在正在看,碰到一个问题。
温晓光一看,回道:那你说吧。
葛:就是最优化的部分,江理对数学部分作了一点要求,这和别的学校都不一样,其实我们本科的时候都没有开过这门课,所以看起来很费劲。
温:嗯,不必害怕,有要求一是未来不论是机器学习,数据挖掘还是深度学习的神经网络,即使你运用一些简单模型,最优化的理论与算法都有比较广泛的应用,另外一个是出题的那个老师擅长数学也重视数学,所以才有这么个要求,不过它对这方面的要求也只限于了解,题目都很简单。
葛瑶儿看这一段话人都犯傻,等会儿……
神经网络?
数据挖掘?
请打中文,谢谢。
葛:可是我连书都看不懂啊,我至今不知道最优化是什么。
对于花钱的人,温晓光耐心足够:这么说吧。大学应该开设有数学模型这门课,模型就像人学习思考模式,在每次学习过程中,人知道自己怎么学,学哪里,学错了还可以调整,但模型和计算机没这么聪明,
而最优化就是告诉模型应该学什么、怎么学的工具。在数学上,模型学习往往是一个映射函数,也就是模型中的参数,这个参数的好坏通过答案体现,如果不够好,最优化就可以帮助调整,
这么说明白了吗?
葛瑶儿勉勉强强能看懂一些,毕竟说的那么简单,再看不懂就是智障了。
她又问:那有的地方提到的凸优化又是啥啊?
温:凸优化是最优化的一个子领域,简单来说就是定义在凸集中的凸函数的最小化问题,凸优化的应用价值比较高,所以研究的很多。而凸问题的局部最优解就是全局最优解,再加上凸优化理论中的Lagrange对偶,提供了凸优化算法最优性的保证。
另外一些非凸问题通过一定手段可以等价化为凸问题或者用凸问题近似、逼近得到边界,比如深度学习,其中关键的Back Propagation算法,本质就是凸优化算法中的梯度下降法,即使问题极度非凸,梯度下降还是有很好的表现。
明白了吗?
葛:凸━┳━━┳━凸,原来你真的是博士。
温晓光:当然,你还怀疑这一点?
脸不红心不跳。
聊天到此结束,温晓光去打印,然后发货。
葛瑶儿在晃动实验室邻座的林贝:“贝贝,太好了,我找一个特别牛逼的人!”
林贝不明所以的瞎乐:“什么啊?什么牛逼的人?!”
葛瑶儿也没说什么,就是拉她过来把电脑上的聊天记录拉出来,“你看。”
林贝:“卧槽!”