机器学习视角下的人生成长

教育能改变人,环境能造就人,从机器学习的角度看再正常不过。
无监督学习是不自觉的,比如说男女性别之分,年长年幼年龄之分。
监督学习存在于家庭教育、校园教育体系中,我们通过对目标函数(普世意义下的正确成功的行为)的逼近拟合(模仿)来减少损失代价(错误、走入歧途)。
强化学习则普遍存在于环境对人的影响,比如说大家发现炒股可以赚钱就去炒股,女人发现胸大吸引人就去丰胸,男人发现游戏能带来快感就去玩,这些都是环境提供的强化信号所驱使。
从机器学习的角度看,所谓的价值观人生观不过就是train出的model而已。
我们从小到大,从初始参数不断喂进训练数据,带label的不带label的,干净的脏的,过了一个个CNN的convolution层、pooling层、激活函数,过了一个个RNN的Attention,LSTM、HRED,过了一个个全连接层、softmax层,有条件的不断加深网络,改变迭代方法,加dropout,加bitch_normalize,体验了各种方向,训练出了适合各种各样不同领域、不同任务的model。Predict就像条件反射一样,给什么data,出什么result。
有些data很好,像ImageNet,大家都读都用,如名著圣经为人熟知。
有些model很好,像Word2Vector,大家都学都用,如手机电脑深入生活。
不妨拿国内的教育体系来举例。为什么中学老师逼着你学习,因为他们发现学生教的好自己有利可图(无论是名还是利,这里没有贬义之意),这种强化信号给他反馈,尽管他一开始并不知道怎么教好学生,但是渐渐就明白了。为什么你不自觉的开始所谓奋斗,因为你要去拟合好学生,逼近高分数,你结合老师给你的迭代方法,加上自己的learning_rate,定下bitch_size,开始train啊train,为了高效率不惜烧cpu、gpu,甚至花血本买高性能gpu加速。后来聪明的你学乖了,还学会了模型压缩、Knowledge Distillation等等高端方法来提升自己。在这波大浪潮中,总有少数几个model这里那里出了问题,由于各种原因,飞了loss,爆了参数,学坏了。还有不少最后走上了overfitting的道路,变成了general能力很差的书呆子。
在漫漫历史长河中,由于人类的文明经验,保留了历代传承的优良weights,致使后人能在前人的基础上继续涨点。
偶尔出了几个令人惊艳的AlexNet、GoogLeNet、ResNet,作为模范model为世人所效仿、继承。
所谓机器学习,和人类学习又有多少分别呢。还是说,人类学习有多少区别于机器学习呢。

 

发表评论

电子邮件地址不会被公开。 必填项已用*标注