Definição de Entropia | Conceito e Significado de Entropia

Significados, definições, conceitos de uso diário

Entropia é um conceito que leva o nome de uma palavra grega que significa 'voltar' ou 'transformação' (usado no sentido figurativo). É um conceito usado em física, química, informática, matemática e lingüística, entre outras áreas.
Entropia pode ser a quantidade física termodinâmica que pode medir a parte inutilizável da energia contida em um sistema. Em outras palavras, esta parte da energia não pode ser usado para produzir um trabalho.
Significa, também, avaliação de entropia (ou medida) da desordem de um sistema. Entropia, neste sentido, é associada com um nível de homogeneidade.
A entropia da formação de um composto químico é a diferença de entropia no processo de formação dos elementos. Mais a entropia de formação é importante e mais formação é favorável.
Em teoria da informação, entropia é a medida de incerteza que existe para um conjunto de mensagens (que recebe apenas um). É uma medida da informação que é necessária para reduzir ou eliminar a incerteza.
Por outro lado, a entropia é a quantidade média de informações contidas em símbolos transmitidos. Palavras como «a» ou «quem» são os símbolos mais comuns em um texto. No entanto, são aqueles que fornecem menos informação. A mensagem tem entropia de informações relevantes e máximo desde que todos os símbolos são igualmente prováveis.
Lingüística, portanto, considera a entropia como o nível de informação do discurso ponderado pelo número de lexemas.
Publicado para fins educacionais

Conteúdos Recomendados