信息论基础...二元信源 信息熵 计算公式.不是联合熵。最好有图片形式的公式。写log时不必写底。
来源:学生作业帮助网 编辑:作业帮 时间:2024/06/29 00:36:37
![信息论基础...二元信源 信息熵 计算公式.不是联合熵。最好有图片形式的公式。写log时不必写底。](/uploads/image/z/7949836-28-6.jpg?t=%E4%BF%A1%E6%81%AF%E8%AE%BA%E5%9F%BA%E7%A1%80...%E4%BA%8C%E5%85%83%E4%BF%A1%E6%BA%90+%E4%BF%A1%E6%81%AF%E7%86%B5+%E8%AE%A1%E7%AE%97%E5%85%AC%E5%BC%8F.%E4%B8%8D%E6%98%AF%E8%81%94%E5%90%88%E7%86%B5%E3%80%82%E6%9C%80%E5%A5%BD%E6%9C%89%E5%9B%BE%E7%89%87%E5%BD%A2%E5%BC%8F%E7%9A%84%E5%85%AC%E5%BC%8F%E3%80%82%E5%86%99log%E6%97%B6%E4%B8%8D%E5%BF%85%E5%86%99%E5%BA%95%E3%80%82)
信息论基础...二元信源 信息熵 计算公式.不是联合熵。最好有图片形式的公式。写log时不必写底。
信息论基础...二元信源 信息熵 计算公式.
不是联合熵。最好有图片形式的公式。写log时不必写底。
信息论基础...二元信源 信息熵 计算公式.不是联合熵。最好有图片形式的公式。写log时不必写底。
已经调试过了
信息熵计算源代码
函数源程序 CalEntropy.m
Information Shannon Entropy calculation
jma@hebut.edu.cn, 22/08/2007
array : Discrete Probabilities Set
H : Output Shannon Entropy
function H = CalEntropy(array)
Vector number
num = length(array);
Check probabilities sum to 1:
if abs(sum(array) - 1) > .00001,
error('Probablities don''t sum to 1.')
end
Remove any zero probabilities %%
zeroProbs = find(array < eps);
if ~isempty(zeroProbs),
array(zeroProbs) = [];
disp('Removed zero or negative probabilities.')
End
Compute the entropy
H = -sum(array .* log2(array)); % 单位 bit/symbol
信源熵:
H(x)=E[I(xi)]=E[log2 1/p(xi)]=-ξp(xi)log2 p(xi)(i=1,2,..n)
二元信源,你是想说联合熵吗?
我不知道你想知道什么?