学习密度与专注力
By 刘未鹏(pongba)
C++的罗浮宫(http://blog.csdn.net/pongba)
上次学校里面有一个免费的李阳英语讲座,好奇于是就去听了一下。对一句话印象比较深刻,大意是说许多人学了快10年的英语,其开口的时间还不如在集训的七天内开口的时间长。也就是说,尽管学习时间很长,但学习密度极低,结果乘起来还是低。其实这种情况不仅存在于英语学习中,而是一种普遍的现象。人太容易为各种各样的事情分心,要集中注意力做一件事情是非常难的,而正因为难,少有人做到,那些做到的,就都变成了牛。
其实,在大学期间,最不缺的就是业余时间,最缺的就是专注精神,非凡的注意力造就非凡的专家。而生活中太多的分散注意力的因素:游戏、篮球、选修课、女朋友… 要想集中注意力对一个单一的目标猛下功夫,其实还是相当有难度的。这个难度并非来自自制力,如果一个人要靠自制力去强迫自己不受干扰,那只能说还是寻常人(mediocre)。真正的效率源自于内心对一个东西强烈的热忱,也就是我们俗称的追求,这时候从表层意识到深层意识都关注在这件事情上面,脑细胞高度活跃,才能创造最大的效率。为什么作诗的时候要趁着酒兴,就是因为少了这种狂热的专注,效率就低下了,一首诗作个好几天顶多是个平庸之作,跟交家庭作业也差不到哪去了。很多人正是因为缺乏专注,所以虽然也和别人一样过来了大学四年,实质上四年里面利用的时间无形中少了不知多少。
专注力为什么会对学习效率造成这么大的影响。这来源于两个方面,一是专注于一件事情能让表层意识全功率运作,这个是显式的效率。第二点,也是更重要的,它还能够使你的潜意识进入一种专注于这件事情的状态。有过连续几天乃至一周或更长时间思考同一个问题的人想必都有一种感觉,就是在这个思考的期间,有时候虽然表层意识因为种种原因不在思考这个问题了(比如睡觉,比如被其它事情中断),但潜意识层面仍然保留着其“惯性”,也就是说,潜意识层面仍然在做思考的努力,从而虽然表层意识被其它事情占据,但潜意识仍然将时间无形中利用起来了。这种无形中的时间利用日积月累可以产生宏大的效应。关于后一点,著名的例子有我们熟知的那个睡觉中想出苯的化学分子式的老大。非著名的例子有老爸告诉我的两个事情,一是他在20岁左右,组装村子里第一台电视机的时候,装到最后关口,电视机总是不能工作,苦思冥想一整天不得要领,结果睡到半夜突然从梦里醒来,想到了答案,连夜就把电视机装好了。还有一次是妹妹拿一道高中数学题问他,也是想了一天多没答案,结果睡午觉的时候想到了。这些都很好的证明了潜意识能在你觉察不到的情况下产生效率。另一方面,潜意识也能在你觉察不到的情况下干扰你的注意力,我们平常就有这样的经验,一个球迷即使在表层意识专心工作的时候也会不知为何突然想起比赛的事情,一个焦虑某件事情的人即使在做其它事情的时候也会被突然涌上来的焦虑打断。也就是说表层意识在关注一件事情,但潜意识却在关注另一件事情,并且时不时来打扰表层意识,从而影响注意力和效率。所以,如果表层意识和潜意识都能专注同一件事情,也就是俗称的完全投入,这个时候的效率就能double。此外这种专注成了一种习惯之后,就容易在很短时间之内把自己的潜意识带入到一种关注的“惯性”中,于是即便表层意识的注意力已经移开了,然而潜意识仍在继续关注原来的问题。比如你可能有这样的经历,学习一首歌曲,一开始的时候并没有完全学会,然后你就去忙别的事情了,一个星期之后想起这首歌曲,居然发现原来难学会的几个地方突然会哼了;或者思考一个问题,一开始的时候总有一个地方没有思考出来,然后你就先放着了,几天之后回想这个问题,突然发现一切都清晰了。这就是潜意识的效率,它能在你不知不觉中把时间利用起来。
了解专注力的作用不够,如何获得专注力才是更重要的问题。跟人身上的其它特质(性格、心态…)一样,专注力也是一种习惯。一个习惯于专注事情的人不管做什么事情都容易并迅速进入一种专注的状态。既然是一种习惯,就能够培养,金出武雄在《像外行一样思考,像专家一样实践——科研成功之道》里面提到“思维体力”的概念,所谓思维体力就是能够持续集中注意力的时间,注意力造就非凡专家,天才来源于长期的专注的训练。培养你的思维体力,是成为非凡专家的一个必要条件。除了培养专注的习惯之外,还可以通过另一个充分条件来实现专注力,即做自己喜欢做的事。我们从小对自己喜欢做的事情都是极其专注的,当然,即使长大了之后,仍然还是某种程度上保留了这种专注的能力,只不过因为种种外界因素,长久专注的能力反而削弱了,要考虑房子,要考虑业绩,要考虑小孩,要考虑医疗保险…这些让人焦虑的事情会积压在潜意识当中,总是在影响你专注做事,削弱你人生的效率。卡耐基用一整本《人性的优点》来介绍如何克服焦虑,可见焦虑的负面影响有多大。要使自己能像小的时候一样对喜欢的事情投入最大的专注,除了克服焦虑的负面影响之外,还有另一个条件就是不能放弃,今年的奥斯卡独立电影《阳光小美女》上,Frank和Dwayne在码头的那场Loser对话,以及Richard决定把他老爸的遗体带走时说的:“世界上有两种人,赢家和失败者,两者的区别在于,赢家从不放弃…”。佛家说逆境是增上缘,课本说天降降大任于斯人必先苦其心智劳其筋骨…宗教里说经受磨难才能到达彼岸,说的都是同样的道理。不过我还是更欣赏Frank在码头说的那段话(摘自卓别灵的blog):
“(普鲁斯特)是个法国作家。彻底的失败者。一生没工作,情事不断还是个同性恋。花20年写了一本没几个人看的小说。但他也许是莎士比亚之后最伟大的作家。晚年回首人生,他发现那些难熬的日子才是一生中最好的时光,因为那些日子造就了他。而快活的日子全是浪费时间,没有任何收获。你想一觉醒来就到18岁,觉得这样可以跳过高中时期的痛苦。但高中是你一生中最重要的苦难时光,你不可能经历比这更好的苦难了。”
多好的心态啊。什么是黄金心态,这就是。其实过来人你我都有这样的体会。此外,如何不让生活中其它细节干扰也是一个重要的因素,除了那些你焦虑的事情之外,还有诸如收拾衣服、打扫房间、清理书桌、接孩子回家、瑜伽等等;对此史蒂芬柯维在《高效能人士的七个习惯》里面提到的第四代时间管理法则,即要事第一(指重要但不紧迫的事,即长远积累会对你今后人生产生重大影响的事)法则就非常有效。关注有两种关注法,主动关注和被动关注,许多人对琐事错误的采取了主动式关注,比如常常回到家就开始想“今天还有哪些事没做完”,实际上,让这些不重要的事情自己来找你就可以了,即中断式被动关注,后者可以防止空转轮询浪费的时间,从而把最集中注意力的时间利用在最重要的事情上。
最后,如何知道你已经获得了专注力。这样的现象太多了,比如本不想洗头却无意识把洗发露倒在手上结果不得不洗头,或者干脆把洗发露当沐浴露了。比如去食堂吃饭指着南瓜说黄瓜(因为南瓜是黄的),或者端了免费汤还拿卡出来打卡。至于像牛顿这样牛到顿的老大能把手感差异如此巨大的钟表当成鸡蛋煮了的阶段还远没达到,看来人家姓牛也不是白姓的:-)
分享到:
相关推荐
### 多头注意力+自适应带宽核密度估计+ 区间预测 - CNN-BiGRU-MATT-ABKDE的多头注意力机制自适应带宽核密度估计 #### 核心知识点概述 本篇文章主要介绍了如何在Matlab环境下实现一种结合了卷积神经网络...
- 注意力机制(Attention Mechanism)是深度学习中的一种技术,旨在让模型能够自主地聚焦于输入数据中最重要的部分,类似于人类在获取信息时的注意力分配。 - 在深度学习模型中加入注意力机制,可以帮助模型提高...
**CNN-GRU-MATT-ABKDE** 是一种结合了卷积神经网络(CNN)、门控循环单元(GRU)、多头注意力机制(MATT)和自适应带宽核密度估计(ABKDE)的深度学习框架,旨在解决复杂的多变量回归问题,并进行有效的区间预测。...
优化技术如迁移学习、模型轻量化、注意力机制等也可以提升模型的性能。同时,为了评估模型的准确性,可以使用Mean Absolute Error (MAE) 和 Root Mean Squared Error (RMSE) 等指标。 总结来说,人群密度检测是一项...
本文提出了一种基于深度学习的非局部注意力增强网络图像去雨算法,旨在解决单幅图像去雨技术中存在的瓶颈问题,即在缺少帧与帧时间序列信息的情况下,如何才能有效地去除多密度雨条纹同时保留图像背景的细节结构信息...
每个注意力头可以专注于不同的特征子空间,从而使得整个模型能够捕捉到更加丰富的模式。 - **自注意力机制的优点**:可以有效地处理长距离依赖问题,提高模型的泛化能力;同时,多头注意力机制能够捕获不同粒度的...
此外,模型可能还包括注意力机制,帮助聚焦于图像中的密集区域,从而提高估计精度。 4. **模型训练与验证** 在PaddlePaddle中,模型的训练通常涉及数据预处理、损失函数定义、优化器选择和训练循环。对于CrowdNet...
10. **优化与改进**:针对检测中的误检和漏检问题,可以采用后处理技术如非极大抑制(Non-Maximum Suppression)进行修正,或引入注意力机制提升模型性能。 这些论文可能会探索不同的方法和创新点,比如优化特征...
例如,可以尝试引入注意力机制来更好地聚焦于人头目标,或者采用更复杂的损失函数以减小密集区域的计数误差。此外,结合其他数据增强技术,如旋转、缩放和裁剪,可以进一步提升模型的泛化能力。 总的来说,...
Transformer模型是一种基于自注意力机制的深度学习模型,常用于自然语言处理和计算机视觉任务。该模型可以学习到输入序列之间的关系,从而预测未来时刻的运行特征。在本文中,作者使用Transformer模型来预测掺烧机组...
综上所述,这些试题涉及了质量、密度、天平使用、物质状态变化、浮力、密度与压强等多个物理概念,这些都是初中物理学习的重要内容。通过这些题目,我们可以更好地理解这些基本物理概念及其在实际问题中的应用。
该算法前端采用改进 VGG16 网络提取图像底层特征信息,后端主分支采用残差密集连接结构学习多尺度特征,侧分支采用注意力机制结构重构多尺度特征,最后使用 1×1 卷积和最近邻插值生成人群密度图,根据密度图回归...
人群密度估计对于人流监控与人群安全具有重要意义。针对现有算法主要通过不同...实验结果显示,基于通道域注意力机制的人群密度估计算法在MAE与MSE上均优于MCNN,证明了该方法在人群密度估计领域具有良好的应用价值。
本项目“信号处理-多分辨率单通道注意力脑电睡眠分类 完整代码”聚焦于利用脑电数据进行睡眠阶段分类,这涉及到深度学习、多分辨率分析以及注意力机制等多个知识点。 首先,脑电图(EEG)是记录大脑电活动的一种...
此外,可能会引入注意力机制或残差块来提高模型的表现。 6. **优化器与学习率策略**:在训练过程中,优化器如SGD、Adam等负责更新权重,学习率策略(如学习率衰减)则控制权重更新的速度,以达到更好的收敛效果。 ...
5. 高密度和无限性:内隐学习系统有巨大的信息处理和存储能力,不受注意力限制,处理量远超外显学习。 内隐学习与外显学习并非相互排斥,它们在实际学习过程中常常交织在一起。学习者可能同时运用两种方式来掌握新...
将自动编码器与聚类相结合,发展出了深度嵌入聚类(DEC)、同时进行深度学习与聚类(DCN)、深度连续聚类(DCC)、基于深度密度的图像聚类(DDC)和半监督深度嵌入聚类(SDEC)等多种方法。然而,网络深度过大会导致信息损失,...
实验目的是通过比重瓶法掌握物体密度的测定原理,熟悉物理天平的使用,学习正确读取和记录实验数据,以及不确定性估算和实验结果的表示。实验中需要用到的主要设备包括物理天平、比重瓶(100ml)、量杯、小玻璃珠、...
自然语言处理(NLP)中的注意力机制是一种在深度学习模型中增强表示能力的关键技术,尤其在序列到序列(Sequence to Sequence, Seq2Seq)模型中,它极大地提升了模型的性能和准确性。注意力机制的核心思想是,针对...