O conceito de entropia pode ser considerado como uma das grandes realizações das ciências.
A entropia constitui a essência da mecânica estatística e também exerce papel central na teoria da informação. A sua interpretação física beneficia outras áreas do conhecimento, como filosofia, economia e computação. A importante inovação de Shannon, proposta em 1948, tem o objetivo de mostrar que o conceito de entropia não se restringe apenas à termodinâmica, mas pode ser aplicado no contexto que envolva probabilidades. Assim, o conceito de entropia permeia diferentes áreas do conhecimento, tais como biologia, economia, sociologia, psicologia e, até mesmo, as artes.
Paulo Sérgio Almeida-Santos et al. Utilização da entropia informacional na seleção de indicadores financeiros mais relevantes para tomada de decisão no setor público: o caso dos estados brasileiros. In: Perspectivas em Ciência da Informação.
Belo Horizonte, v. 19, n.º 2, abr./jun./2014, p. 83-105 (com adaptações).
Hoje, há diversas outras definições de entropia, como a diferencial e a de Tsallis, bastante úteis para o estudo de processos aleatórios. Por exemplo, a distribuição exponencial, que surge naturalmente quando se modela o intervalo de tempo entre duas ocorrências consecutivas em um processo de Poisson homogêneo, também pode ser deduzida com base no conceito de entropia diferencial.
Considerando que o texto apresentado tem caráter unicamente motivador, redija um texto acerca de tecnologia da informação, atendendo ao que se pede a seguir.
1 Defina entropia de Shannon (S) e entropia diferencial (D) e explique o significado dos casos S = 0 e D = 0; [valor: 12,00 pontos]
2 Determine a entropia diferencial de uma distribuição exponencial; [valor: 9,50 pontos]
3 Demonstre que a distribuição exponencial é uma distribuição de máxima entropia. [valor: 7,00 pontos]
CONTEÚDO EXCLUSIVO
Confira nossos planos especiais de assinatura e desbloqueie agora!
Ops! Esta questão ainda não tem resolução em texto.
Ops! Esta questão ainda não tem resolução em vídeo.



