terça-feira, 15 de novembro de 2005

Duas concepções de informação: Shannon e Weaver e Wiener




Para Shannon e Weaver (e nunca é mais lembrá-lo) a informação é medida da liberdade de escolha de um sinal ou de uma mensagem. Porém, eu penso que podemos não apenas utilizar o conceito de informação não apenas para a aplicarmos a uma situação em geral, como defende Weaver na citação feita imediatamente antes. O conceito também pode servir para falar do valor informativo de uma mensagem em particular, porque quanto maior for a liberdade de escolha da fonte maior será o valor informativo da mensagem ou do sinal. Quanto mais inesperado o sinal maior valor informativo ele tem. Porém, uma vez seleccionado um dos sinais ou mensagens numa situação improvável, o próximo sinal ou mensagem seleccionado terá um valor informativo menor. A redundância aumentará e a entropia diminuirá.
--
Se tomarmos a situação como um todo, como explicitamente exige Weaver, a informação está na razão directa da entropia. Se porém, tivermos em conta o valor informativo de cada mensagem, podemos concebê-la, como adiante veremos, como neg-entropia. O problema de saber se a informação está na razão directa ou inversa da entropia é abordado de uma forma subtil por Simondon no seu livro sobre os objectos técnicos onde explica bem o carácter ambíguo deste fenómeno: “O amplificador mais fiel é aquela que tem um rendimento mais “uniforme e independente das escalas das frequências; ele não favorece não impõe nenhuma ressonância, nenhum estereótipo, nenhuma regularidade pré-estabelecida à série aberta de sinais variados que deve transmissor.
--
Porém, a informação, noutro sentido, é aquilo que, para ser transmitido, deve estar aquém do nível de fenómeno de acaso puro, como o barulho da agitação térmica; a informação é o que possui uma regularidade, uma localização, um domínio definido, um estereótipo determinado pelo qual a informação se distingue do acaso puro. (Quando o nível do barulho de fundo é elevado, ainda é possível salvar o sinal de informação se ele possuir uma certa lei, isto é se ele oferecer uma certa previsibilidade no desenvolvimento da série temporal de estados sucessivos que a constituem (…) Há assim dois aspectos da informação que se distinguem tecnicamente pelas condições opostas que necessitam na transmissão. A informação é, num sentido, aquilo que importa uma série de estados imprevisíveis, novos, não fazendo parte de nenhuma série definível à partida; ela é portanto aquela que exige do canal de informação uma disponibilidade absoluta em relação aos aspectos da modulação que ela encaminha; o canal de informação não deve acrescentar por si mesmo, nenhuma forma determinada não ser selectivo. Um amplificador perfeitamente fiel deve poder transmitir todos as frequências e todas as amplitudes. (…) Porém, o barulho não têm significação enquanto a informação têm. No sentido oposto, a informação distingue-se do ruído porque é possível indicar-lhe um certo código, uma relativa uniformização (…) Quanto mais cresce a previsibilidade do sinal, mais o sinal parece poder distinguir-se do fenómeno aleatório que é o barulho de fundo. (…)
--
Esta posição representa uma antinomia técnica que coloca um problema filosófico: a informação não é um acontecimento do acaso porque se distingue dele. Uma estereotopia absoluta ao excluir toda a novidade, exclui toda a informação. Porém, para se distinguir informação de ruído, é necessária a redução dos limites da indeterminação” (Simondon, 1989: 134-136). Eco, em 1976, compreendeu o problema que aqui tenho vindo a abordar de uma forma mais esclarecida e que sintetiza este percurso: “O termo informação possui dois sentidos fundamentais: a) significa uma propriedade estatística da fonte, ou seja designa a quantidade de informação que pode ser transmitida; b) significa uma quantidade de informação seleccionada que foi de facto transmitida e recebida “ (1991: 33). Ora, uma teoria matemática da informação como uma teoria estrutural das propriedades estatísticas da fonte só pode ter interesse introdutório a uma semiótica.
--
Como comenta Eco, “a informação como propriedade estatística da fonte “é apenas a medida da probabilidade de um evento num sistema equiprovável . A probabilidade é a relação entre o número de casos que se concretizam e que se puderam concretizar. (…) Assim, dado um evento que pode realizar-se entre n diferentes casos e a quantidade de informação acumulada com a ocorrência daquele evento é fornecida por log n=x.” (Eco, 1991: 35). Assim, para identificar o evento são necessárias x escolhas binárias, como vimos na escolha que fizemos dos 16 quadrados. O valor da informação, diz Eco, “não pode ser identificado com o conteúdo do evento usado como artifício comunicativo. O importante é o número de alternativas necessárias para definir o evento sem ambiguidade” (Idem, Ibidem).A informação no sentido de medida da probabilidade “não é tanto aquilo que é dito como aquilo que pode ser dito. Representa a liberdade de escolha disponível para a possível selecção de um evento, constituindo, pois, uma propriedade estatística da fonte.
--
A informação é o valor da equiprobabilidade que se realiza entre muitas possibilidades combinatórias, valor que cresce com o número de escolhas possíveis. Um sistema em que estejam co-envoltos, não dois ou dezasseis mas milhões de eventos equiprováveis, é altamente informativo” (Idem Ibidem). Porém, quem houvesse determinado um evento numa fonte desse tipo teria recebido muitos bits de informação. “Obviamente, a informação recebida representaria uma redução daquela exaurível riqueza de escolhas possíveis existentes na fonte, antes de o evento ser determinado. Enquanto mede a equiprobabilidade de uma distribuição estatística uniforme na fonte, a informação, segundo os seus teóricos, é directamente proporcional à entropia do sistema (Shannon e Weaver, 1949), uma vez que a entropia é o estado de equiprobabilidade para o qual tendem os elementos do sistema. Porém, se a informação é às vezes definida como, ou como entropia, ou como neg-entropia (e destarte inversamente proporcional à entropia, como faz Wiener) isso depende de ela ser entendida como medida da liberdade da escolha da fonte ou como informação já seleccionada, transmitida e recebida” (Idem Ibidem).
--
O que me parece interessante introduzir é a consequência desta reflexão ao nível do estudo das relações entre informação e significado. Com efeito, se a informação for entendida como já seleccionada, transmitida e recebida, ela implica a imposição de uma ordem e de um significado: logo, a entropia será a medida negativa do significado de uma mensagem. Neste caso, a informação não será desligada do significado. A quantidade de informação, neste caso, segundo a proposta de Wiener, pela sua relação directa com a negação da entropia, passará a ser o inverso do logaritmo binário da probabilidade (Wiener, 1996: 64).
--
Informação cedida pelo Dr. João Carlos Ferreira Correia

Docente na área da Ciência da Comunicação

2 Comentários:

Anónimo disse...

Who knows where to download XRumer 5.0 Palladium?
Help, please. All recommend this program to effectively advertise on the Internet, this is the best program!

Anónimo disse...

Such a lovely post, I am in awe of your ambition! ha. I'm so impressed with you.Thank you for sharing :) This is amazingly cute...what a talent you have. Thanks for sharing.
FF14 Gil
Final Fantasy XIV A Realm Reborn Digital Collector's Edition

Arquivo

Categorias