人的大脑是怎么储存东西的?为吃什么东西补大脑能够储存呢?

大脑能够储存多大的数据量?假如大脑是一台计算机,那么最高运算速度是多少?
求具体数据。
按投票排序
今年3月Nature有一篇文章,分析了小鼠大脑的13个神经元的结构,用了上TB的数据。想象一下我们总共有十亿个神经元……*补充:好像很多人理解错了我说上面的数值的意思。要想估算数据量这个问题,我们需要给出上限和下限。对于下限的数据量好说,比如有人背过圆周率多少位。那么我们把圆周率那么多位这个信息,按照Komogrov complexity求出其信息含量,比如说,是10k bits。那么我们就可以说,存在一个人,他的脑能储存的数据量,大于这10k bits但是显然靠背诵只能调动出很少的一部分脑功能。于是我们不妨考虑一下上限。比如@苏椰同学就提出了神经元个数这个指标。(感谢@苏椰修正,人是10^11,我之前说的那个数是恒河猴的统计。。。)。我之所以说13个神经元用掉上TB的数据,是想给大家一个主观感觉。每个神经元到底有多复杂——换句话说,并非我们用一两个比特,就能完全描述一个神经元的功能与特性。因为每个神经元的形态、突触位置都千奇百怪。(平均来说,每个神经元有上千个突触)。然而,这样复杂的结构并非不可精确刻画,如果我们的采样精度到了如上所说的精度,大家普遍认为,神经元的功能就可以完整刻画了。所以我给出这些数据,最主要的目的是以严谨的逻辑给出一个upper limit。换言之,这个数值,不是无穷大。====这贴争论很激烈,特在此澄清一下====我还真没有说我是phd我有理的意思。我之所以很崩溃,原因是@朱松清 所举的几乎所有例子都不足以支撑他的一个新理论,而我每次提出质疑的时候他又完全没有正面回答我的意思。我们不妨就从“无脑人”展开来说。我之所以反感“无脑人”这种说法,是因为该说法极具误导性。那些患者并非无脑,而是患有如下一种病:这种病使得脑内的空腔尺寸变得异常的大。(我们每个人脑内都有小的空腔,只不过正常人非常小)。空腔变大意味着白质产生病变。*关于灰质和白质,顺便copy paste一段:大脑是由上百亿个神经元组成的,而神经元又是由细胞体和神经纤维组成的,细胞体中有细胞核(颜色深),神经纤维中有细胞质(颜色浅)。在大脑中细胞体聚集在大脑表层,看起来颜色深,叫做脑灰质;而神经纤维聚集在大脑内部,看起来颜色浅,叫做脑白质。但是它对细胞体在大脑表层的计算能产生多大的影响,还是不得而知的事情。唯一可以确定的是,至今人类还没发现一例皮层受损后该区域功能未受损的案例。所以,我非常反对用“无脑人”这种说法。@朱松清所说的“全息理论”,很大程度上是根据二十世纪初叶神经生物学刚刚起步时候的一些观测来的。其核心观点是,神经元联合在一起协作,才能形成某种功能。她说的实验是切掉小鼠的一部分大脑,发现小鼠还活着。于是就推而广之了。这样的说法,在微观上我们能找到神经生物学上的类比物。因为神经网络本身就是不稳定的,有的时候细胞会凋亡。但是死去一个细胞,并不应该对局部微通路产生什么影响(这里我说的微通路是10^4左右个细胞组成的微小网络,记住我们总共有10^9数量级的神经元)这些观测(关键词:population coding)以及相关的计算模型(关键词:Hopfield network, Boltzmann machine)也已经提了将近有半个世纪了。而且我本人也搞过一阵这方面的编码。但是他过于发挥了这些概念,同时又没有拿出任何实质性的内容,以至于我认为这些内容远远超过了“科学探索”的限度。其中,我最不能同意的是,他的整个理论,完全不理会近一个世纪的神经生物学的探索与发现。神经系统的功能是复杂的。从整体上看,根本不存在他说的那种鲁棒性。比如有一个文章生动地解释了我的意思,强烈推荐你读一下:现在人们公认的理解是,大脑分了许多区,每个区所管辖的功能相对独立。比如你后脑勺那个区叫做“初始视觉皮层。这个区的神经元排布非常规律,每个子区域负责一小块儿视觉空间,而再微观地看,每个子区域又可以规律地进一步细分成对于不同方向、不同颜色、不同远近的物体特征进行分析的基本单元。这种特异性能强到什么程度呢,比如你可以参考我去年总结过的这篇文章:这里面大部分的特异性问题,都已经通过正统的神经生物学研究很好地解释了。所以,在有足够多的理由出现之前,我很难接受一个全新的,否定现有科学的理论出现。再形而上地说,科学分两部分,理论归纳与实验现象。实验是客观的。哪怕是最革命性的理论(如相对论),也都不会和实验相左。而当大量自洽的理论结合在一起的时候,它出错的可能性要远低于一个横空出世的新理论。这就是为什么我宁愿相信科学,也不愿意相信存在一个上帝,或者是一个没有任何实验基础,但却万能的“场理论”,来解释我知道的全部神经生物学现象。有很多关于Tesla的科幻想法(抱歉我实在无法认为这些想法是科学的),都说人脑实际上是连到了宇宙某处的中央处理单元,就像电脑终端连到服务器一样。我感觉@朱松清也抱有类似观点。那么,摆在任何人面前的选择就有三种。Hypothesis1. 意识像神经生物学描述的那样Hypothesis2. 意识就像终端机,连接到宇宙深处Null Hypothesis. 两个假设都不对在这其中,H1 能够自洽地解释大量已有的观测。这也是我相信它的原因。option 2 听起来很有意思很创新很具有革命性。但是我们至今没有发现任何物理形式能够达成网线之于终端机一样的功能,把人的神经元集群活动,远距离地传送到别的地方。况且,就算是解释了“终端”,那我们是不是还需要另外一个理论来解释“主机”呢?——如果说“主机”是作为“终端”连到另外一个“主机”,那就循环论证了。。。如果大家有任何疑问,欢迎进一步交流。
我不认为我直接回答了问题,因此不介意将我折叠。大脑可以储存的数据量,理解成记忆的容量比较合适。关于记忆,有一个认知心理学观点说的很有道理,有意义的记忆应该是可提取的记忆,就好比硬盘上的内容被误删,如果无法恢复,即使仍然存在硬盘上,也是无意义的。记忆的内容如果无法提取,也是没有意义的。人类的记忆大致分为长时记忆和短时记忆。长时记忆的容量,暂时无解。你可以用单词量的方式来衡量,但是问题在于,怎样就算存储了?是你把所有单词都能复述出来?还是你能认出多少单词?人的记忆量跟提取方式有关系;此外,单词会被遗忘的,也就是说人脑会根据重要性来降低某些不重要内容的权重,但如果有合适的线索,这个单词又会被回忆起来。记忆的复杂性和多维度,导致了在这个问题上无法像衡量计算机一样去简单的等价。短时记忆倒是有研究结果的,认知心理学有研究表明短时记忆的容量是7(如果没记错的话是7,任何一本认知心理学或实验心理学都有这个研究,就不上文献了)。至于运算速度,我都懒得去这么想。。。-------------------------------------其实我更想吐槽的是,为何要用计算机的实现方式去衡量大脑的参数指标,二者的工作原理不一样,实现架构不一样。我们何不反过来提个类似问题,已有的知识表明大脑的功能是分区侧重的,有的脑区负责运动信息处理,有的脑区负责颜色信息处理;那么我问“计算机cpu有多少个信息处理的功能分区,各个通路的等级是怎样的,分层是怎么实现的,功能柱结构是怎么组织的?”懂点计算机组成原理的人都会觉得这个问题很别扭吧。鉴于提问本身有问题,必然也不会引出太多有意义的,来自专业人士的讨论。分歧倒是会造成很多,但多来自于参与讨论者神经科学基础知识的不足,从这个角度上来说,我很同情 ,费半天口舌,还被人喷“只要phd,说什么都有理”。很多人不愿意读点书,只想来知乎耍嘴炮,认为自己有基本的思考能力(是不是真有还有疑问),就可以叫板专业人士;还有些其它领域的专业人士,也很愿意来掺合一下。大家都觉得物理数学领域民科多,而生物领域,心理学领域,医学领域,民科就相对少。殊不知,这是因为大家普遍觉得,我们都是生物,都有心理,能思考嘛,那我们就不是民科,就都可以blabla说一堆,就可以随意用“我感觉,我朋友,我亲戚”开头来知乎回答这些领域的专业问题了。。。对专业领域没有一点基本的尊重,还能不能愉快的聊天了嘛。。。吐槽完毕,有想了解神经科学主流观点的,尤其是从神经元,神经通路,神经网络,信息处理,意识实现之类的角度,可以去看看“the astonishing hypothesis”(惊人的假说)这本书,发现DNA双螺旋结构的沃森和克里克里的那个克里克写的。强烈建议想打嘴仗的,先读点书再来!不然专业人士们都懒的跟你讨论。。。
看了下回复,发现很多人都是用电脑来反推人脑,把计算机方面的概念和模型往人脑上套,本末倒置了吧。
大脑不能类比单个计算机,只能类比计算机网络,你能说因特网的运算速度有多快么?这个数据其实无意义,节点数和连接度才是反应网络规模的指标。对于网络,我们不能仅仅把各个节点的硬盘容量相加得到总数据量,因为还有大量数据处在网络间的流动之中。
人脑虽然有很多神经元,但是对神经元的使用是一种很浪费的方式,并不是一个突触连接就能表示一比特,通常都是一组神经元组成一个功能单元,处理一类信息。大脑完成简单逻辑运算就需要几千个神经元组成的功能单元,而计算机只需要几个晶体管。人脑的使用效率和具体的用法有很大关系,会用和不会用会有数量级的差别。每个人并不是天生就善于使用大脑,大部分用法都是后天学习训练出来的,这些学习大部分是无意识的,在七岁以前完成的,“三岁看小,七岁看老”是有科学依据的。人脑是一个自组织系统,有一套机制自己控制自己的运行,心理学上叫做“元认知”,人脑的能力是元认知系统决定的,每个人的元认知系统都是不同的,是先天功能结构和后天信号刺激共同决定的,而不是与生俱来的,即使同卵双胞胎也会有所不同。大脑中是不分数据和算法的,算法是连接,数据也是连接,算法可以变数据,数据也可以变算法,而计算机系统严格区分指令和数据,这是计算机系统不能具有智能的根本原因之一。
我们感受到的这个世界的一切信息,并不是我们的感官能够接收到的信息的总合,而是人脑能够处理的信息的总合,人脑处理能力来不及处理的信息就被简单丢弃掉了,因此计算一下人脑能够处理的信息量就能够大致估计出人脑的处理能力。我们获得的大部分信息来自视觉,有人以为视觉的信息量非常大,这其实是一种误解,人脑不象电脑,不需要处理像素,用象素数/帧数换算出来的信息量并非人脑需要处理的信息量,因为人的视觉只有在黄斑区域才是清晰的。我们能看清周围的一切是个假像,事实是我们只能看清黄斑正对区域的图像,其余的部分都很模糊,由于人脑下意识地指挥眼睛每秒钟转动十几次,把视场中需要注意的区域都扫描过一遍,因此我们感觉眼前的东西都是清晰的。我们看0.5米外600DPI的图片,就感觉相当清楚,没有失真,比600DPI更高的分辨率并不会让我们觉得图像质量更好,因此可以近似地认为600DPI是黄斑分辨率的极限。0.5 X 1000 X SIN5 X 600 / 25.4 =1029 约为1K,也就是说整个黄斑看到的象素数不到1M,人眼大约能分辨160K种颜色,那么像素所包含的最大信息量为接近160G,而事实上即使对黄斑区域的图像,人脑也不是全都有如此高的像素和颜色分辨率,只有黄斑中心点才能达到这个最高水平,因此实际接收的信息量可能仅是160G的十分之一,百分之一甚至更少。人脑每秒处理不大于30帧图像,超过30帧并不会对视频的流畅性有所改善,因此每秒处理的象素信息量即使按最大来算也不大于4.8T。可以看出,这并不是个非常大的数字,今天的计算机硬件已经接近这个水平了。人脑真正神奇的地方在于,达到这样的信息处理能力,仅仅用了相当于笔记本电脑的功耗。另外,处理4.8T并不等于存储4.8T,处理仅仅是看清楚,并分辨出其中的实体对象。大量的信息在视神经第二层细胞那里就被加工和丢弃了,传到枕叶的仅仅是从视场中识别出来的有限几个对象的图像。人脑是按照场景来处理和记忆的,通过把识别出来的对象组成场景模型,并一边对这个模型进行实时推演,一边把来自视觉的新的信息纳入到模型中去,从而实现视觉感知的,对于无法融合到模型中的信息常常不作处理直接丢弃,“人只看到自己想看到的东西”就是这个意思。
讨论人脑能存储多大数据量是没有价值的. 因为人脑会逐渐遗忘. 能存储1PB数据的硬盘, 现在看来是非常大的了. 如果这个硬盘上的数据每过一个月, 就把旧的数据随机抹掉30%(就好比人脑的健忘一样). 请问, 这样的硬盘你会把它派上正式的用途吗? 所谓好记性不如烂笔头. 大脑的存储能力非常的弱, 需要借助外界工具才能实现永久存储.个人认为人脑的计算能力是非常惊人的. 比现在的Interl I9 CPU还要牛. 但是, 人脑的缓存非常差劲, 这决定了人脑的强大计算能力根本发挥不出来. 举个例子, 让你算一位数的乘法, 很轻松搞定. 如果让你算三位数的乘法, 恐怕就很吃力了. 为什么或这样呢? 三位数的乘法也只是按照规则, 逐个位数地相乘, 然后把最终的结果交错地加起来而已啊. 原因就是人脑的缓存非常差劲, 你在计算高位数的乘积的时候, 你的大脑往往缓存不了前面低位数位数的乘积, 让你单纯计算某一位数的乘积都没有任何问题, 但是三个位数的乘积由于缓存不下来, 所以也没办法通过最后的加法来获取最终的结果. 大脑的缓存差劲归根结底还是因为人的大脑的存储能力太弱, 一个数据需要重复再重复才能持久化, 并且不存在所谓的永久持久化.
大脑的神经元数量级是10^11,其间的连接数量级是10^14,这点并没有错。 但是大脑是存在 主频的。该主频大约是40Hz. 又由于每次 运算事实上是把 一个神经元所有的 树突汇总 再散布到轴突上 所以还要再乘以一个10^3 所以考虑到大脑的等效运算量。 大约是 10^19数量级。 比目前的CPU大约强了 10^9 倍。 比最强的GPU 大约强了 10^7倍。 但是大脑是较强耦合的 GPU是极弱耦合的。 目前的难点还是在于数据的连接和传递的问题。 事实上。电脑已经开始接近人脑了。
好吧我算过,打一盘dota按照一个小时计算,人脑接受的信息量是9000G以上;但是用电脑存储的话,只要一个war3引擎加上一个replay文件,一共不到1G;所以人脑接收的数据是大量冗余的,而且遗忘的很快如果能把它压缩一下,一个大脑也就能记忆一个大脑那么大的信息吧(-_-。找抽)
没法直接比。大脑不是类似CPU的通用计算机,而比较类似FPGA。而且,显然大脑对一些任务远远强于现有的计算机与算法(比如图像识别、推理),但另一些任务又远远弱于(比如数值计算)。
到底是问存储量,还是问运算速度呢?根据下面的资料或许能推算出来(但我觉得这个试验的方向不太对):2005年,神经科学家亨利·玛克拉姆(Henry Markram)在瑞士的洛桑理工学院大脑和心智所(Brain Mind Institute of the Ecole Polytechnique)展开了一项野心勃勃的计划,该计划被称为蓝脑工程,它试图利用IBM的蓝色基因超级电脑对哺乳动物的大脑进行神经元到神经元的模拟。到目前为止,玛克拉姆的研究小组已经设法模拟出鼠脑的一个皮层单元,它包含10000个神经元。玛克拉姆表示,他希望能在十年之内将人脑完全模拟出来……来源:
这个提问有点问题,大脑存贮信息与计算机存储信息的方式是不同的,精度是不同的,读取方法是不同的,非要问大脑储存的信息量,那就是无限的。但是可提取的信息量还是有限的。大脑提取信息的方式是主动弹出的,而不是通过CPU操作提取的,大脑提取的信息不是按照比特计算的,是按照“件”来计算的。人能记住几十万个词,大概几万个事件,还在不断地记忆,不断地遗忘。用计算机模拟大脑,就会遇到很多问题,存在很多浪费。如果用1K来描述一件事,计算机能很方便地达到大脑的存储能力,但如果用1M字节描述一件事,可能在容量上就有点不足。大脑的运算是并行的,运算主频可能是200HZ,但是估计有千亿个并行运算点,目前的计算机还是望尘莫及。
我的一些感受和认同的观点。1、大脑能做的,电脑未必能做,电脑能做的,大脑做不了。个人感觉大脑在影像辨别方面,处理速度还是很惊人的,如果用计算机来处理类似的数据的话,大脑不一定能记住对面来的人的名字,但是看没看到过,很有可能有印象。感觉相对于记忆文字,大脑更善于记忆图像。如果把文字转换成图像,印象就会更加深刻。2、美国有种理论,一般大脑能够瞬间记住的新信息是7个单位。可以自己验证下哦。3、如果脑中出现的是文字,获取打字还能跟上速度,但是如果脑中出现的是图像,恐怕记录的速度就跟不上了,图像的信息量太大了。
根据《进化的大脑:赋予我们爱情、记忆和美梦》中的数据:大脑有1000亿个神经元,平均每个神经元5000个突触,神经元平均最高放电频率400次/秒。因此大脑能够存储的数据上限为1000亿×万亿=500T,计算能力为1000亿×400=4万亿次/秒。
只有关于大脑存取机制的想法,可能有点文不对题。分层存储技术:存储系统自动将数据从高速高成本存储向低速低成本存储复制数据,并且在需要时,又将数据从低成本存储向高成本存储复制数据的一种技术。不同存储设备的单位存储成本有高有低,这也是支持数据分层存储的重要原因。这里,我们把存储成本换做存储收益,存储收益越高的放置的存储优先级越高。类比于人脑,人脑的读写速度也是有延时的,比如遇见一个天天见到人与一个很久不见的人的时候,你脑中浮现出关于这个人的信息所用时间是不同的。个人看法,人脑也存在一个类似于电脑中Cache的机制,可否把现在的分层存储技术看做是又一次的仿生学的应用呢。
有大量的证据显示,脑部是使用全像式原理来进行操作。事实上,Pribram的理论得到了越来越多脑神经学家的支持。另外,科学有一个很特别的发现,一九六四年英国Shefield大学有一位大脑专家John Lober发现,大学数学系有一位学生,数学质数很高,头特别大,遂研究其大脑结构,不料竟发现这人的头里面竟没有脑袋,原来是水脑病。他的头里面百分之九十八都是脑水,只有一片脑细胞薄片,可说是无大脑的人。但很奇怪,没有脑袋,而IQ却是一百二十七,而且还是非常聪明的学生。 根据唯物论来说,思想一定是从脑来的,没脑就没有思想。后来研究类似个案也说明很多无脑袋的人智力十分正常,而且也生活正常,甚至不知道自己没有脑。(我修正了这段文字,多谢@Pirate Henry 在下面的评论中指正)所以,单纯的把电脑和人脑做简单的神经元级比较是不可行的。我在FSU Tallahassee 的主要工作是neuroscience。我的工作包括用特定的RNA,表现在初始细胞(human kidney Cell), 产生我们需要的所谓神经突触里接受介质而产生神经冲动的电位开关蛋白,并且用磷酸化改变开关蛋白的性质,用patch clamping 测量细胞膜在不同介质刺激下,用不同的电位开关蛋白的时电位变化, 我们发现没有以前所谓的记忆蛋白的形成,而记忆,和意识的产生可能和人脑运作可能跟神经电路回路有关. (前面说的”无脑人“只需要一点电流回路就可以产生全息图像)-----我在高中时曾写过一批论文,关于人脑的电路形成的回路在原理上可以产生一定的电磁场(我当时特别热心统一场论,和气功),这样的场可以和宇宙的统一场相通,或者说这是人类通灵的基础,可惜的是,我满腔热情的把我的文章给我们村里的另一个传奇人物,当时南开大学的数学教授,给他批得一无是处,也让我不再这方面发展。事实证明,这可能是人类灵魂的来源,人类和全息宇宙相通的途径。当年的我们都不知道Nikola Tesla 的 Wardenclyffe Tower 是制造电磁破和宇宙全息的信息相通。---他宣称,他之所以有这些知识,是因为他知道宇宙隐秘的信息所在,并可以随时支取这些信息,生活中,他可以预知很多现象-----难怪他被称为神一样的人物,在历史上和达芬奇同名.这个模型的要点是用电脑模型神经元的化学组成和行为,每个神经元就有需要有小型电脑才能储存的信息量和处理能力---从这点上@Filestorm 提出要上 TB 的 数据分析神经结构 和 @ Pirate Henry 提出的listman 的记忆蛋白都是有实验基础的,但是问题是我们借用IBM的计算能力把这些神经元以大脑的排列方式组合,运行之后,发现 大脑思维和意识的理论基础是神经电路模型,甚至和突触数目无关。
这个模型还可以回答我们很多哲学问题,比如----个人小宇宙,-----冥想Meditation,----宗教的基础, 我思故我在 . 但是,我们虽然有一个好的模型,只是根据大脑工作的很多假设的理论之一。当然,我们应该向@Pirate Henry 学习“这是近现代科学方法论的基础。 世上所有的理论都是假说,唯有被实践所证实的才称为科学,这是现在公认的定义。无论是假设自身(如分子运动论),还是建立在其之上的推论(如气体定律)都是必须经过实验的验证方得挂以科学之名。若一个假说暂不可被证实,子曰:“人不知而不愠,不亦君子乎”。 万丈之楼根于基。于想于象,若为证伪,虚怀取之,若难定论,亦容褒贬之辞。是唯己见,喜闻新奇之论,乐结善思之人,盼多新论可得实证而入科学之堂兼益世人。” .
楼上的没听说过分布式认知吗,信息不光存在大脑里
我也觉得@Filestone 的回答很有道理,不过答非所问。第一个问题,“大脑的储存量是多大”,不是“用多少数据量可以表示出大脑”,我理解题主所说的“储存量”就是“能记住多少东西”,单以突触数量和形态估算储存量是片面的。新突触形成和长期记忆紧密相关,但二者没有互为代表的关系。我认为在人类记忆力达到极限之前,这个答案都是未知的。第二个问题,“大脑的最高运算速度是多少”,我想说“不问有没有就问是多少,也是在耍流氓”,回答这个问题我们先要弄清楚“运算速度”的定义。对于我们常用的计算机(冯氏计算机),运算速度就是“每秒进行多少次运算”,更准确的说是CPU中的ALU(算术逻辑单元)每秒进行多少次运算。将人脑当做计算机来看,它是一台非冯计算机,当然就不能以冯氏计算机的特征来描述它,没有ALU,“运算速度”就没有意义。或许有的人要说可以用计算机模拟人脑,来估算人脑的运算速度,我想说这是没有意义的。让一台计算机去运行另一台结构完全不同的计算机的程序,必然要有很大的转换开销,这部分开销不论算不算在运算速度里都是不合理的。以上
大脑应该存的模拟量吧?计算机存的数字信号大小和模拟信号不是一个数量级的啊
给一张黄图,正常的男性一眼就能识别出来,正确率是100%,电脑就未必能这么快识别出来吧,所以人脑完爆电脑。
会不会我们的记忆都是存储在宇宙空间的,大脑只是内存和cpu的结合体。呵呵,我瞎掰的悬赏20爱心点
分享到微博
您还未登陆,请登录后操作!
人脑的记忆力储存量有多少?
人脑记忆体资讯极限:大约1020
解疑:经估算:人的脑部储存量在1020之多,而留在记忆中的却只有非常小的一部分。是不是能够透过训练和开发增加,目前还不得而知。
提示:试想一下,如果可以全部利用人脑这些潜力,我们将能够完成多么不可思议的事情。所以说,人脑的潜力是非常大的。
答: 病情分析:
你好,从你的描述来看如果缩短小于1cm是可有通过后天锻炼纠正的
指导意见:
建议平时加强功能锻炼,定期复查,病情有变化及时就诊
大家还关注比特客户端
您的位置:
详解大数据
详解大数据
详解大数据
详解大数据
存储:信息化时代下的“人脑”
  人体有很多器官,而人类的大脑,一直是一个神秘且复杂的地方。即使科技高速发展的今天,人类仍然未能完全了解这个器官,大脑仍有很多秘密等待我们去发现和解答。记忆是大脑一项非常重要的功能,一幅图,一段声音,一个场景……几乎所有的事情大脑都能够将这些信息转化为信号存储在大脑内。可以说,人类的大脑存储的数据容量非常可观。
  大脑的记忆存储容量有多大?
  人类大脑能够存储多少信息呢?至今这个问题也一直没有让大众比较认可的答案。由于大脑复杂的记忆、回忆、遗忘等特性,让目前的科学技术束手无策,我们只能去大体去估量一下大脑记忆的存储容量。
  人类的大脑是由大约140亿个细胞组成的,具有极大的贮存量,可以在每秒接受十来个信息。一个信息单位我们将它叫做比特,大约相当于一个单词。这样,人类的大脑的容量就相当1400万亿个比特。
  1400万亿个比特有多大呢?它相当于全世界所有图书馆的图书的内容,何况人类的记忆非常复杂,还有潜意识等。
  但1400万亿个比特只是估算出人类记忆的极限,人类的记忆实际应用只相当于大脑的十分之一,即使如爱因斯坦这样伟大的科学家,也只用了自己大脑三分之一的功能。所以人类的大脑更多的细胞是处于“待业”的状态,人类并没有将所有的细胞都充分的利用起来。这也是很多人认为人类的潜力依然巨大的主要依据。
  人类的大脑可以看成计算机,那么记忆就相当于计算机的硬盘,能够写入、存储和掌控大量信息,但显然,人脑如今的强大的存储功能并不是当前的硬盘所能够相比的,人脑的记忆功能要比计算机强大很多。那么如果把大脑的存储内容写入计算机的硬盘,需要多大的硬盘呢?
  机械硬盘的存储原理以及瓶颈
  如果把大脑的存储内容写入计算机的硬盘,需要多大的硬盘呢?首先我们来看一下硬盘的存储原理。
  要了解硬盘的存储空间,我们需要了解下硬盘的结构以及存储原理,从介绍中我们可以知道,硬盘大致由、读写的磁头,马达、电路板等几个部件组合而成。
  机械硬盘的结构
  硬盘盘片一般是在以铝为主要成分的片基表面涂上磁性介质所形成,在磁盘片的每一面上,以转动轴为轴心、以一定的磁密度为间隔的若干个同心圆就被划分成磁道(track),每个磁道又被划分为若干个扇区(sector),数据就按扇区存放在硬盘上。
  硬盘储存数据写入时,磁头线圈上会加电,同时在周围产生磁场,磁化其下的磁性材料;电流的方向不同,所以产生的磁场方向也不同,可以表示0和1的区别。读取时,磁头线圈切割磁场线产生感应电流,磁性材料的磁场方向不同,所以产生的感应电流方向也不同。
  不论是什么计算机文件,歌曲、视频、图片、文档等等都是以二进制的序列存在的,也就是很多个"11......"这样的东西,硬盘上的存储的文件实际上就是存储着这些0和1的序列。硬盘的磁头能够按照指令读取相应位置的信号,并且能够改变指定位置的磁场方向,这就是数据的读和写。
  硬盘的二进制方式与神经元之间的一个信息相似,根据上面我们估算的大脑存储的信息,即使放在6TB的硬盘,也需要200块左右的硬盘中。虽然这一估算结果可能会与真实的结果有偏差,但是我们也可以从中看出人类大脑所存储的数据是巨大的,这么大的数据对于目前的硬盘存储来说还是具有挑战的。
  数据存储可借鉴大脑的存储技术
  一个小小人脑所存储的信息,竟然需要200块6TB的硬盘来存储。可见,人脑的存储方式要比磁盘的存储方式高级很多。如今,我们正处在,数据呈几何状态爆发,数据存储的方式来面临着极大的挑战。当前的存储技术使得硬盘的最大空间很难再有显著提升,未来很可能无法满足存储我们的数据。
  人脑的存储方式无疑值得研发人员借鉴。让我们来看一下人类有可能借鉴大脑的哪些存储功能呢?
  未来数据中心
  选择性记忆存储
  人类大脑的选择性记忆方式无疑是硬盘需要学习的主要的方式。如今,硬盘只会一味的写入和读取信息,并不会根据需求进行智能的存储,这造成了很多的垃圾信息也存入到硬盘中,造成了数据量过大,浪费钱。
  自动分层的技术
  人类大脑会根据记录的信息,将所发生的事件记录下去,并且能够根据不同的信息分配到不同的地方去存储,大脑能够根据图片、视频、文字、数字等方式将数据分离开,硬盘也需要这种方式能够将不同的数据分开。
  自动遗忘技术
  不是很重要的记忆,人类大脑就会自动的逐渐遗忘,这种自动删除的方式有人认为并不是大脑的好处,但其实,能够根据信息的重要性与否来完成自动删除的过程,是一个极其高级的能力,这样不仅精简了数据,还扩大了大脑的存储空间。
  • 自动索引技术
  人类大脑能够根据自己的需求,从大脑中自动搜索需要的信息,在庞大的数据信息中快速的搜寻自己需要的信息,这是一个非常大的能力。当前的数据存储索引技术虽然已经出现,但是无论从精确度还是速度方面,都并不完美,借鉴大脑的索引能力,无疑是一个非常重要的技术。
  人类自身就有太多的迷惑,大脑是人体中一个最神秘的地方,拥有很多高科技都无法研究出现的特性。数据存储在来临之际,将需要新的技术变革,原本的存储技术很难在未来满足人们的存储需求,需要新的存储技术出现,研究人类大脑的存储方式无疑是一个值得深挖的课题,其很可能影响未来数据存储的发展趋势。
  D1Net评论:
  数据存储技术,可以借鉴人脑的存储,通过人脑存储记忆来解读硬盘存储功能,特别是对于普通用户而言科普的同时加深对于上的认识和了解,从容量、存储方式以及技术上介绍人脑与硬盘存储的可借鉴性,未来,存储技术将成为时代的“人脑”。
相关文章:
[ 责任编辑:杨瑗嘉 ]
据IDC预测,平板电脑行业将在…
甲骨文的云战略已经完成第一阶段…
软件信息化周刊
比特软件信息化周刊提供以数据库、操作系统和管理软件为重点的全面软件信息化产业热点、应用方案推荐、实用技巧分享等。以最新的软件资讯,最新的软件技巧,最新的软件与服务业内动态来为IT用户找到软捷径。
商务办公周刊
比特商务周刊是一个及行业资讯、深度分析、企业导购等为一体的综合性周刊。其中,与中国计量科学研究院合力打造的比特实验室可以为商业用户提供最权威的采购指南。是企业用户不可缺少的智选周刊!
比特网络周刊向企业网管员以及网络技术和产品使用者提供关于网络产业动态、技术热点、组网、建网、网络管理、网络运维等最新技术和实用技巧,帮助网管答疑解惑,成为网管好帮手。
服务器周刊
比特服务器周刊作为比特网的重点频道之一,主要关注x86服务器,RISC架构服务器以及高性能计算机行业的产品及发展动态。通过最独到的编辑观点和业界动态分析,让您第一时间了解服务器行业的趋势。
比特存储周刊长期以来,为读者提供企业存储领域高质量的原创内容,及时、全面的资讯、技术、方案以及案例文章,力求成为业界领先的存储媒体。比特存储周刊始终致力于用户的企业信息化建设、存储业务、数据保护与容灾构建以及数据管理部署等方面服务。
比特安全周刊通过专业的信息安全内容建设,为企业级用户打造最具商业价值的信息沟通平台,并为安全厂商提供多层面、多维度的媒体宣传手段。与其他同类网站信息安全内容相比,比特安全周刊运作模式更加独立,对信息安全界的动态新闻更新更快。
新闻中心热点推荐
新闻中心以独特视角精选一周内最具影响力的行业重大事件或圈内精彩故事,为企业级用户打造重点突出,可读性强,商业价值高的信息共享平台;同时为互联网、IT业界及通信厂商提供一条精准快捷,渗透力强,覆盖面广的媒体传播途径。
云计算周刊
比特云计算周刊关注云计算产业热点技术应用与趋势发展,全方位报道云计算领域最新动态。为用户与企业架设起沟通交流平台。包括IaaS、PaaS、SaaS各种不同的服务类型以及相关的安全与管理内容介绍。
CIO俱乐部周刊
比特CIO俱乐部周刊以大量高端CIO沙龙或专题研讨会以及对明星CIO的深入采访为依托,汇聚中国500强CIO的集体智慧。旨为中国杰出的CIO提供一个良好的互融互通 、促进交流的平台,并持续提供丰富的资讯和服务,探讨信息化建设,推动中国信息化发展引领CIO未来职业发展。
IT专家新闻邮件长期以来,以定向、分众、整合的商业模式,为企业IT专业人士以及IT系统采购决策者提供高质量的原创内容,包括IT新闻、评论、专家答疑、技巧和白皮书。此外,IT专家网还为读者提供包括咨询、社区、论坛、线下会议、读者沙龙等多种服务。
X周刊是一份IT人的技术娱乐周刊,给用户实时传递I最新T资讯、IT段子、技术技巧、畅销书籍,同时用户还能参与我们推荐的互动游戏,给广大的IT技术人士忙碌工作之余带来轻松休闲一刻。
微信扫一扫
关注Chinabyte

我要回帖

更多关于 吃什么东西补大脑 的文章

 

随机推荐