gu903();因为我写的是严肃科研,不是那种自称科幻、实际上却是玄幻的系统流。这就注定每一个大科研工程的成果落地,动辄几年。因此如果不写生活不写学术论文这些,中间就没东西写了。
严肃的科研,尤其是系统性大工程的科研,根本不适合短平快装逼。要节奏快,只能跳时间线,做好实验设计后,几个月研发经过直接略过,然后出成果、受景仰。
新书我想了想,还是要在11月份开,所以目前这本连11月底都写不到了,可能也就到11月中吧。我大概书中时间一年三四章的速度,能把几个大科研成果写出来,后续就流水账一点。
因为如果12月初再开书,有个最大的问题是上架的时候会赶上过年或者是学生期末考试,那样首订成绩肯定会很噩梦的。
如果能赶上元旦档前后上架,下本书可能命运会好一点。为了避开过年和期末考试上架,我只能11月中开新书。
很对不起喜欢这本书的朋友,大家千万别再打赏了,我受之有愧。
第13章如果你一辈子只能喝一口鸡汤
后世很多对理工科和工程技术没什么兴趣的人,都觉得人工智能只是一个工具,一个应用。
哪怕人工智能有可能夺走你的工作,大家也就怕一怕,或者咒骂一下,咒骂完之后该干啥干啥,这事儿就算完了。
不过,顾玩却知道有一条后世被无数人懊悔没有早知道的人工智能铁律:这条铁律很容易听懂,只要你不对技术的东西心存成见和抵触,那么哪怕你是个纯文科生,你也能很轻松理解这条铁律,并且从中受益。
说句不夸张的话,哪怕你把它当成是鸡汤那么,只要你脑子里有一个系统,系统给你下了一个任务,告诉你,整个人类21世纪里生产出来的鸡汤,你只能喝一碗,剩下的都要倒掉,如果多喝一碗,系统就把你抹杀。
那么,那一刻你该怎么选择
你应该把全人类生产的其他鸡汤全部倒掉,只喝这一碗。
这是一碗被科学充分严谨证明、而且能让人的学习能力终生受益的科学鸡汤。
其蕴含的补益,属于朝闻道、夕可死矣的档次,一入口就是一甲子的内力。放到武侠小说里,主角不跳个十次崖都不配得悟这种宇宙本源之道。
而顾玩此时此刻,就是在给麻依依描绘如何测量出这碗科学鸡汤。
只不过,很多先知先觉的话,他要修饰一下才好说出口,所以就成了下面这种诱导性的对话:
“你有没有想过一个问题:你这辈子读了十三年书了,你的学习效率一直是这么高,而且很稳定的么
难道就没有什么时候学习效率低、自习了一晚上什么都没进步,做了一张卷子也毫无收获的时候”
麻依依立刻觉得心有戚戚焉。
学霸和学神,虽然学习能力比正常人强,但他们对效率的变化也更敏感。有些时候学了一会儿毫无收获,就会比普通人更焦虑,然后调整学习方法和节奏。
要是没心没肺的学渣,说不定做一晚上毫无收获的重复劳动,他也乐呵呵的不觉得有什么问题。
“当然,我经常对自己的学习效率不满,有时候又觉得课上老师在浪费我时间。”麻依依感同身受地说。
顾玩笑道:“这个问题,其实说到底,是因为学习的节奏,跟你的能力区,没有精准匹配。你也学了一学期的心理学和认知神经科学了,下面这几个概念你应该不陌生,那就是学习中的学习区、舒适区和恐慌区。”
麻依依:“这个我当然知道,舒适区就是我完全懂了的东西。比如我们高考前很多时候在做卷子,有些简单题已经滚瓜烂熟,哪怕是为了加深印象,一个月练三四遍也就足够了。
但题海战和做模拟卷的时候,不得不每个月练几十遍甚至上百遍,何止三五遍,做到后来情绪都毛了,很不耐烦。这个就是舒适区嘛,练了也没进步,全都懂了。
至于恐慌区,就是一张卷子看下来,有些题目什么都不懂,一点头绪都没有。不但不知道怎么解,连解它需要的前置知识都不知道,完全听天书。
而最后的学习区,就是介于舒适区和恐慌区之间的,这里的难度对你刚刚好。有一点挑战性,有一些你不懂的东西,但是只要你用心,借助你现有知识结构体系内的已有知识,重新嫁接、归纳、演绎、推演,可以把这个不懂解决掉。
在学习区的时候,如果不懂的比例太高,就会恐慌,厌学。如果不懂的比例太低,就会疲掉,懒得走心。只有不懂的比例刚刚好,才最容易进入最高效学习状态按照大心理学家米哈利的理论,这种状态就叫心流。”
“心理学和认知神经科学的基础还不错嘛。”顾玩表扬了女朋友一句,
确实,作为才双修心理学一个学期的新人,有这种见解已经很牛逼了。
然后顾玩话锋一转:“不过,以往我们都认为,心流是一种可遇而不可求的状态,但很快,随着对机器学习的剖析,我们会发现,进入心流或者说最高效学习状态,是有科学的最优解的。
这个最优解,就需要我们把一张卷子、一次学习、一个机器大数据训练集的对错比例、难易比例,调到一个最优化的玄妙数值上。只有量身定做了这个数值,无论人还是机器,都能达到最完美的学习效率。哪怕一个学渣,都能在学习中感受物我两忘开天眼的高效。”
“具体要怎么做到”麻依依已经忘了自己是在聊学术问题了。
对啊,具体要怎么做到
在地球上,2018年的时候,亚利桑那大学和布朗大学的两位人工智能算法专家,就给出了最优解。
他们的结论是,让一个机器学习的训练集中,对错比例控制在1587时,可以达到机器学习算法效率最高、进步最快的状态。
比如让计算机用人工智能图像识别,来鉴别一万张类似猫的图片,来学习“怎样判断图里面的东西是不是一只猫”。
这时候,你要拿8413张真的是猫的图片,和1587张似猫非猫的图片,去给人工智能喂数据,那么机器学完这10000万图片、得到对错评分后,得到的提高是最多的。
这个是自然数学法则的最优解了,换句话说,你拿8414张真猫图和1586张似猫非猫图去喂,机器吃完这1万个大数据之后,进步量也会比岗前前一组略低。
这个数据具体怎么来的呢是人类算法学家,从2010年,谷歌开始操练深度学习以来,不断反复试验,全人类算法专家共同实验了八年,摸出来的。
更奇妙的是,地球人后来做了更多深入实验,发现这个学习效率机制,真的不仅适用于机器学习,也适用于人类大脑。
在“试错型学习”,或者说早期认知方面,人脑和模拟人脑宏观运作规律表现的深度学习,是一致的。
地球人当时设
gu903();