一句话的信息量能大到什么程度?

你女友:我们分手吧

你:……(思考怎么了)

十秒钟后……

你女友:对不起,发错了。

一句话的信息量能大到什么程度?

看说的人内心力量有大就有多大!

一句话的信息量能大到什么程度?

汉语是世界上最美的,也是最丰富的一种语言形式,不管是名著阅读、诗文欣赏,还是生活交流、谈情说爱,我们都要用心去思考去揣摩,读出它的言外之意,玄外之音来。例如,生活中我们经常说的一句话:“今天天气真好!”,这句话就包含许多信息,其中有它的表面信息,阳光明媚,风和日丽。同时恋人之间还能读出它的情感信息,天气好自然心情就好,对于下一步情感的交流乃至发展是大有好处的。当然有时候我们还可以从中悟出这句话包含的社会信息等等,我们的祖宗留给我们几千年积累下来的丰富而又宝贵的文化遗产,我们要把它发扬光大,继续传承下去,光靠阅读、理解是不行的,我们要学习、钻研,把它传播到世界的每一个角落!

一句话的信息量能大到什么程度?

一句话的信息量能大到什么程度?答案往往会超出我们的想象。有时,一句话的信息量是确定的,如:这是一朵红玫瑰;而有时,一句话的信息量是无法确定的,大到超出了我们的想象,可以说是无边无际的,如:星球大战爆发了。

要明白一句话的信息量能大到什么程度?就必须明白什么是信息量?如何衡量信息量? 信息就是使我们了解到的事物未知的性质,如果换成物理学家惯用的说法就是信息是对事件进行观测的结果。对于未知的事物,我们的观测存在着很多种可能的结果,而得到这些结果的可能性是不同的。换句话说,信息的作用就体现在使得某事件发生的概率从之前的某个概率变为1。信息量是指信息多少的量度。信息量是与概率有关的。1928年R.V.L.哈特莱首先提出信息定量化的初步设想,他将消息数的对数定义为信息量。若信源有m种消息,且每个消息是以相等可能产生的,则该信源的信息量可表示为I=logm。但对信息量作深入而系统研究,还是从1948年C.E.仙农的奠基性工作开始的。在信息论中,认为信源输出的消息是随机的。即在未收到消息之前,是不能肯定信源到底发送什么样的消息。而通信的目的也就是要使接收者在接收到消息后,尽可能多的解除接收者对信源所存在的疑义(不定度),因此这个被解除的不定度实际上就是在通信中所要传送的信息量。 到了信息时代,对信号的处理与分析又需要一个适当的对信息量的衡量标准,所以数学家们也被这一问题困扰着。直到1948年,这个问题被香农在论文《通信的数学理论》中首次解决,这才让数学家们松了一口气。 基于此,香农提出了他的第一条假设:信息量是关于事件发生概率的函数。同时为了方便起见,香农还规定这一函数连续。 除此之外,香农还提出其他 3 条假设,综合起来就是有名香农公理: 1.信息量是关于事件发生概率的连续函数; 2.如果两事件A与B,B是A的必要条件,那么获知事件A要发生所对应的信息所含的信息量要大于或等于获知事件B要发生所对应的信息所含的信息量; 3.获知独立事件将同时发生的信息量应为单独获知两事件发生的信息量之和; 4.任何信息的信息量都是有界的。 这就是信息量的数学定义,在使用中我们常取c=-log2e,则f(p)=-log2p,这就是著名的“比特”。 信息量的引入,使通信、信息以及相关学科得以建立在定量分析的基础上,为各有关理论的确立与发展提供了保证[2] 。

如何测出一句话中的信息量? 网络上,在遇到很有内涵的内容的时候,人们往往会说“这条微博信息量真大”。从古至今,人们一直在试图找到一种衡量消息中“信息浓度”的方法。例如,我们很容易得出结论,对于一名 NBA 球迷来说“总冠军是小牛队”所蕴含的信息量比“总冠军是一支西部球队”大,但是要比较“本文作者是男生”和“本文作者是单身”这两条信息所蕴含的内容多少可就有点强人所难。在大多数语言中,“信息”一词往往以不可数的形式出现,这也从另一方面印证了这一问题的困难程度。 信息多少的量度。1928年R.V.L.哈特莱首先提出信息定量化的初步设想,他将消息数的对数定义为信息量。若信源有m种消息,且每个消息是以相等可能产生的,则该信源的信息量可表示为I=logm。但对信息量作深入而系统研究,还是从1948年C.E.香农的奠基性工作开始的。 信息的统计特征描述是早在1948年香农把热力学中熵的概念与熵增原理引入信息理论的结果。先行考察熵增原理。热力学中的熵增原理是这样表述的:存在一个态函数-熵,只有不可逆过程才能使孤立系统的熵增加,而可逆过程不会改变孤立系统的熵。从中可以看出:一、熵及熵增是系统行为;二、这个系统是孤立系统;三、熵是统计性状态量,熵增是统计性过程量。讨论信息的熵表述时,应充分注意这些特征的存在。并且知道,给定系统中发生的信息传播,是不可逆过程。 在信息论中,认为信源输出的消息是随机的。即在未收到消息之前,是不能肯定信源到底发送什么样的消息。而通信的目的也就是要使接收者在接收到消息后,尽可能多的解除接收者对信源所存在的疑义(不定度),因此这个被解除的不定度实际上就是在通信中所要传送的信息量。因此,接收的信息量在无干扰时,在数值上就等于信源的信息熵,式中P(xi)为信源取第i个符号的概率。但在概念上,信息熵与信息量是有区别的。信息熵是描述信源本身统计特性的一个物理量。它是信源平均不定度,是信源统计特性的一个客观表征量。不管是否有接收者它总是客观存在的。信息量则往往是针对接收者而言的,所谓接收者获得了信息,是指接收者收到消息后解除了对信源的平均不定度,它具有相对性。对于信息量的说明须引入互信息的概念。

也有学者把信息熵的理论应用在语言学上,他们统计了不同语言中各字母的频率,英语的平均信息熵是 4.03 比特,法语的平均信息熵是 3.98,西班牙语是 4.01 比特,德语的是 4.10 比特,俄文的是 4.8 比特,都略低于相应字符集的最大信息熵。这也是很容易理解的,自然语言中存在许多词首词尾与固定搭配,不同字母的出现频率是不同的。但是信息学家们并不满意这个结果,因为在传输中更大的平均信息熵就意味着更高的效率,所以他们一直在试图追寻能使信息熵更高的压缩编码方式,像我们常用的WinRAR等软件就是他们工作的结果。当然,这样的“理想语言“在人类眼中看来是毫无文采、索然无趣的。我们使用的自然语言中正是由于那么一点多余的低效率,才造出了丰富多彩的效果。另外值得一提的是,中文的信息熵高达 9.65 比特,也许这也是汉语中各种文字游戏比较多的根源吧。有的家长会给孩子起个带生僻字的名字,其实也在无形中稍微提高了汉语的效率呢。

一句话的信息量能大到什么程度?

看看欧拉公式。

一句话的信息量能大到什么程度?

宇宙生万象。

内容仅供参考,如果您需解决具体问题(尤其法律、医学等领域),建议您详细咨询相关领域专业人士。

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请与我们联系,我们将及时删除。

相关推荐