小小新的回答:
资讯是物质、能量、资讯及其属性的标示。【逆维纳资讯定义】
资讯是确定性的增加。【逆夏农资讯定义】
资讯是事物现象及其属性标识的集合。【2023年】 资讯理论的鼻祖之一claude e. shannon把资讯(熵)定义为离散随机事件的出现概率。
所谓资讯熵,是一个数学上颇为抽象的概念,在这里不妨把资讯熵理解成某种特定资讯的出现概率。而资讯熵和热力学熵是紧密相关的。根据charles h.
ben***t对maxwell's demon的重新解释,对资讯的销燬是一个不可逆过程,所以销燬资讯是符合热力学第二定律的。而产生资讯,则是为系统引入负(热力学)熵的过程。所以资讯熵的符号与热力学熵应该是相反的。
一般而言,当一种资讯出现概率更高的时候,表明它被传播得更广泛,或者说,被引用的程度更高。我们可以认为,从资讯传播的角度来看,资讯熵可以表示资讯的价值。这样子我们就有一个衡量资讯价值高低的标準,可以做出关于知识流通问题的更多推论。
h(x) = e[i(xi)] = e[ log(2,1/p(xi)) ] = -∑p(xi)log(2,p(xi)) (i=1,2,..n)
其中,x表示随机变数,与之相对应的是所有可能输出的集合,定义为符号集,随机变数的输出用x表示。p(x)表示输出概率函式。变数的不确定性越大,熵也就越大,把它搞清楚所需要的资讯量也就越大.
资讯熵:资讯的基本作用就是消除人们对事物的不确定性。多数粒子组合之后,在它似像非像的形态上押上有价值的数码,具体地说,这就是一个在博弈对局中现象资讯的混乱。
夏农指出,它的準确资讯量应该是
-(p1*log(2,p1) + p2 * log(2,p2) + ... +p32 *log(2,p32)),
其中,p1,p2 , ...,p32 分别是这 32 个球队夺冠的概率。夏农把它称为「资讯熵」 (entropy),一般用符号 h 表示,单位是位元。
有兴趣的读者可以推算一下当 32 个球队夺冠概率相同时,对应的资讯熵等于五位元。有数学基础的读者还可以证明上面公式的值不可能大于五。对于任意一个随机变数 x(比如得冠军的球队),它的熵定义如下:
变数的不确定性越大,熵也就越大,把它搞清楚所需要的资讯量也就越大。
资讯熵是资讯理论中用于度量资讯量的一个概念。一个系统越是有序,资讯熵就越低;
反之,一个系统越是混乱,资讯熵就越高。所以,资讯熵也可以说是系统有序化程度的一个度量。
熵的概念源自热物理学。
假定有两种气体a、b,当两种气体完全混合时,可以达到热物理学中的稳定状态,此时熵最高。如果要实现反向过程,即将a、b完全分离,在封闭的系统中是没有可能的。只有外部干预(资讯),也即系统外部加入某种有序化的东西(能量),使得a、b分离。
这时,系统进入另一种稳定状态,此时,资讯熵最低。热物理学证明,在一个封闭的系统中,熵总是增大,直至最大。若使系统的熵减少(使系统更加有序化),必须有外部能量的干预。
资讯熵的计算是非常複杂的。而具有多重前置条件的资讯,更是几乎不能计算的。所以在现实世界中资讯的价值大多是不能被计算出来的。
但因为资讯熵和热力学熵的紧密相关性,所以资讯熵是可以在衰减的过程中被测定出来的。因此资讯的价值是通过资讯的传递体现出来的。在没有引入附加价值(负熵)的情况下,传播得越广、流传时间越长的资讯越有价值。
熵首先是物理学里的名词。
在传播中是指资讯的不确定性,一则高资讯度的资讯熵是很低的,低资讯度的熵则高。具体说来,凡是导致随机事件集合的肯定性,组织性,法则性或有序性等增加或减少的活动过程,都可以用资讯熵的改变数这个统一的标尺来度量。
️资讯熵的理解
热心网友的回答:
不矛盾。前一句和后一句都省略了前提,完整如下:
1、当系统的有序状态一致时,资料越集中的地方熵值越小,资料越分散的地方熵值越大。这是从资讯的完整性上进行的描述。
2、当资料量一致时,「系统越有序,熵值越低;系统越混乱或者分散,熵值越高。这是从资讯的有序性上进行的描述。
有序性和资料量二者并没有必然的联络,不能说资料量越大,有序性越差或越好,也不能说系统越有序,资料量越大或越小。这两者是两个不同的描述层面,所以是不矛盾的。
热心网友的回答:
在物理学上说,熵 entrophy 就是「混乱」 程度的量度,所以,」系统越有序,熵值越低;系统越混乱或者分散,熵值越高」。
在资讯理论上说,资讯就是负熵negtrophy。所以,「资讯资料」越集中的地方熵值越小, 「资讯资料」越分散的地方熵值越大。两者是没有矛盾的。
不过要注意,资讯量并不是物理量,资讯资料是用二进位制binary 量度的,与物理学的十进位制量度并不是相同的概念。
参考资料: 生命真相 刘量衡着 湖南科技出版社,2012。
热心网友的回答:
熵在物理学上指热能除以温度所得的商,标誌热量转化为功的程度。在资讯理论中,用熵来表示不确定性和无组织性的度量,夏农认为资讯就是不确定性的减少,也就是熵值更少,资讯增长是一个逆熵的过程(热力学中不可能)。这是后面一句话的解释,不知道前面一句出处是哪,要联络下上下文读一下才能理解
我觉得说的资料越集中可能也是指资讯的完整性更强,不确定更少..但是网路资料的资讯也和传统理解不同,像波兹曼认为资讯要带来行动,新闻是一种娱乐大于资讯
显然不是物理概念 资讯熵 资讯的基本作用就是消除人们对事物的不确定性。多数粒子组合之后,在它似像非像的形态上押上有价值的数码,具体地说,这就是一个在博弈对局中现象资讯的混乱。夏农指出,它的準确资讯量应该是 p1 log 2,p1 p2 log 2,p2 p32 log 2,p32 资讯熵其中,p1,...
资讯化是指培养 发展以计算机为主的智慧化工具为代表的新生产力,并使之造福于社会的历史过程。智慧化工具又称资讯化的生产工具。它一般必须具备资讯获取 资讯传递 资讯处理 资讯再生 资讯利用的功能。与智慧化工具相适应的生产力,称为资讯化生产力。资讯化是以现代通讯 网路 资料库技术为基础,对所研究物件各要素...
熵的概念是由德国物理学家克劳修斯于1865年所提出.克氏定义一个热力学系统中熵的增减 在一个可逆性程式里,被用在恆温的热的总数 q 玻尔兹曼定义s k ln 公式中的k是玻尔兹曼常数,则为该巨集观状态中所包含之微观状态数量.这个被称为玻尔兹曼原理的假定是统计力学的基础.作用 自发反应总是向体系与环境...