Código (comunicação) – Wikipédia, a enciclopédia livre

Código é uma representação simbólica de repertório próprio ou resultado de um processo de codificação, podendo ser entendido como o ponto de partida do qual é elaborada e decifrada uma mensagem. Situa-se como elemento da informação entre os níveis de semiótica, ou seja, do significado comum a todos os sistemas simbólicos e cuja interpretação menos depende do sistema no qual foi escrito; e da comunicação, sistema de receptores/emissores e fontes de informação. Nesse contexto geral, código também é a ferramenta criada para manter a máxima eficiência da transmissão de informação segundo determinadas propriedades matemáticas.[1]

Propriedades matemáticas do código[2][3][editar | editar código-fonte]

Pode-se associar qualquer conjunto finito de símbolos de forma biunívoca a equivalentes em códigos binários (0's e 1's) e assim tratar cada símbolo como uma sequência de escolhas do emissor e como uma quantidade que pode ser mensurada em bits. Para sinais analógicos, é necessário primeiro fazer sua discretização. Feito isso, o código detém as seguintes propriedades:

Seja um dicionário de uma fonte emissora com símbolos na qual cada símbolo possui uma probabilidade de ocorrência e seja uma mensagem qualquer contendo símbolos produzida por essa fonte.

Se a mensagem for convertida para código binário, como frequentemente requer o processamento digital de sinais e utilizando algum processo como código de Huffman ou de Shannon-Fano, obtemos um novo dicionário , associando cada símbolo original a uma sequência de números binários .

Quantidade de informação[editar | editar código-fonte]

Define-se a quantidade de informação de um símbolo por com a exceção particular de que se , então (nota-se que o mesmo ocorre se , ou seja, símbolos que sempre ou nunca ocorrem não carregam informação nova alguma). A escolha da base 2 para o logaritmo é devido à relação entre o dicionário e um conjunto de códigos binários e a unidade de medida é o bit.

Para a mensagem, tem-se que , considerando no somatório todas as repetições de símbolos.

Entropia[editar | editar código-fonte]

Ver artigo principal: Entropia da informação

Entropia é uma medida da informação média contida numa mensagem. Para , define-se entropia como a esperança da quantidade de informação de uma mensagem produzida por essa fonte, ou seja, , de unidade em bits. Vê-se que qualquer produzida por não interfere no valor de uma vez que os valores tenham sido determinados. Para uma mensagem, tem-se que .

Tamanho de mensagem codificada, tamanho médio e eficiência de codificação[editar | editar código-fonte]

Se passarmos a utilizar como dicionário para a mensagem, uma mensagem possui o tamanho , em que é simplesmente a quantidade de caracteres binários de . A partir disso, define-se tamanho médio da mensagem de , também uma esperança, por e a eficiência de codificação por , adimensional (apesar da unidade da entropia).

Referências

  1. Coelho Netto, J. Teixeira (1983). Semiótica, informação e comunicação. São Paulo: Perspectiva 
  2. Pierce, J. R (1980). An Introduction to Information Theory. New York: Dover Publications 
  3. «Information and Entropy». Massachussets Institute of Technology OpenCourseWare - MIT OCW. Consultado em 11 de fevereiro de 2017