terça-feira, 15 de novembro de 2005

Duas concepções de informação: Shannon e Weaver e Wiener




Para Shannon e Weaver (e nunca é mais lembrá-lo) a informação é medida da liberdade de escolha de um sinal ou de uma mensagem. Porém, eu penso que podemos não apenas utilizar o conceito de informação não apenas para a aplicarmos a uma situação em geral, como defende Weaver na citação feita imediatamente antes. O conceito também pode servir para falar do valor informativo de uma mensagem em particular, porque quanto maior for a liberdade de escolha da fonte maior será o valor informativo da mensagem ou do sinal. Quanto mais inesperado o sinal maior valor informativo ele tem. Porém, uma vez seleccionado um dos sinais ou mensagens numa situação improvável, o próximo sinal ou mensagem seleccionado terá um valor informativo menor. A redundância aumentará e a entropia diminuirá.
--
Se tomarmos a situação como um todo, como explicitamente exige Weaver, a informação está na razão directa da entropia. Se porém, tivermos em conta o valor informativo de cada mensagem, podemos concebê-la, como adiante veremos, como neg-entropia. O problema de saber se a informação está na razão directa ou inversa da entropia é abordado de uma forma subtil por Simondon no seu livro sobre os objectos técnicos onde explica bem o carácter ambíguo deste fenómeno: “O amplificador mais fiel é aquela que tem um rendimento mais “uniforme e independente das escalas das frequências; ele não favorece não impõe nenhuma ressonância, nenhum estereótipo, nenhuma regularidade pré-estabelecida à série aberta de sinais variados que deve transmissor.
--
Porém, a informação, noutro sentido, é aquilo que, para ser transmitido, deve estar aquém do nível de fenómeno de acaso puro, como o barulho da agitação térmica; a informação é o que possui uma regularidade, uma localização, um domínio definido, um estereótipo determinado pelo qual a informação se distingue do acaso puro. (Quando o nível do barulho de fundo é elevado, ainda é possível salvar o sinal de informação se ele possuir uma certa lei, isto é se ele oferecer uma certa previsibilidade no desenvolvimento da série temporal de estados sucessivos que a constituem (…) Há assim dois aspectos da informação que se distinguem tecnicamente pelas condições opostas que necessitam na transmissão. A informação é, num sentido, aquilo que importa uma série de estados imprevisíveis, novos, não fazendo parte de nenhuma série definível à partida; ela é portanto aquela que exige do canal de informação uma disponibilidade absoluta em relação aos aspectos da modulação que ela encaminha; o canal de informação não deve acrescentar por si mesmo, nenhuma forma determinada não ser selectivo. Um amplificador perfeitamente fiel deve poder transmitir todos as frequências e todas as amplitudes. (…) Porém, o barulho não têm significação enquanto a informação têm. No sentido oposto, a informação distingue-se do ruído porque é possível indicar-lhe um certo código, uma relativa uniformização (…) Quanto mais cresce a previsibilidade do sinal, mais o sinal parece poder distinguir-se do fenómeno aleatório que é o barulho de fundo. (…)
--
Esta posição representa uma antinomia técnica que coloca um problema filosófico: a informação não é um acontecimento do acaso porque se distingue dele. Uma estereotopia absoluta ao excluir toda a novidade, exclui toda a informação. Porém, para se distinguir informação de ruído, é necessária a redução dos limites da indeterminação” (Simondon, 1989: 134-136). Eco, em 1976, compreendeu o problema que aqui tenho vindo a abordar de uma forma mais esclarecida e que sintetiza este percurso: “O termo informação possui dois sentidos fundamentais: a) significa uma propriedade estatística da fonte, ou seja designa a quantidade de informação que pode ser transmitida; b) significa uma quantidade de informação seleccionada que foi de facto transmitida e recebida “ (1991: 33). Ora, uma teoria matemática da informação como uma teoria estrutural das propriedades estatísticas da fonte só pode ter interesse introdutório a uma semiótica.
--
Como comenta Eco, “a informação como propriedade estatística da fonte “é apenas a medida da probabilidade de um evento num sistema equiprovável . A probabilidade é a relação entre o número de casos que se concretizam e que se puderam concretizar. (…) Assim, dado um evento que pode realizar-se entre n diferentes casos e a quantidade de informação acumulada com a ocorrência daquele evento é fornecida por log n=x.” (Eco, 1991: 35). Assim, para identificar o evento são necessárias x escolhas binárias, como vimos na escolha que fizemos dos 16 quadrados. O valor da informação, diz Eco, “não pode ser identificado com o conteúdo do evento usado como artifício comunicativo. O importante é o número de alternativas necessárias para definir o evento sem ambiguidade” (Idem, Ibidem).A informação no sentido de medida da probabilidade “não é tanto aquilo que é dito como aquilo que pode ser dito. Representa a liberdade de escolha disponível para a possível selecção de um evento, constituindo, pois, uma propriedade estatística da fonte.
--
A informação é o valor da equiprobabilidade que se realiza entre muitas possibilidades combinatórias, valor que cresce com o número de escolhas possíveis. Um sistema em que estejam co-envoltos, não dois ou dezasseis mas milhões de eventos equiprováveis, é altamente informativo” (Idem Ibidem). Porém, quem houvesse determinado um evento numa fonte desse tipo teria recebido muitos bits de informação. “Obviamente, a informação recebida representaria uma redução daquela exaurível riqueza de escolhas possíveis existentes na fonte, antes de o evento ser determinado. Enquanto mede a equiprobabilidade de uma distribuição estatística uniforme na fonte, a informação, segundo os seus teóricos, é directamente proporcional à entropia do sistema (Shannon e Weaver, 1949), uma vez que a entropia é o estado de equiprobabilidade para o qual tendem os elementos do sistema. Porém, se a informação é às vezes definida como, ou como entropia, ou como neg-entropia (e destarte inversamente proporcional à entropia, como faz Wiener) isso depende de ela ser entendida como medida da liberdade da escolha da fonte ou como informação já seleccionada, transmitida e recebida” (Idem Ibidem).
--
O que me parece interessante introduzir é a consequência desta reflexão ao nível do estudo das relações entre informação e significado. Com efeito, se a informação for entendida como já seleccionada, transmitida e recebida, ela implica a imposição de uma ordem e de um significado: logo, a entropia será a medida negativa do significado de uma mensagem. Neste caso, a informação não será desligada do significado. A quantidade de informação, neste caso, segundo a proposta de Wiener, pela sua relação directa com a negação da entropia, passará a ser o inverso do logaritmo binário da probabilidade (Wiener, 1996: 64).
--
Informação cedida pelo Dr. João Carlos Ferreira Correia

Docente na área da Ciência da Comunicação

4 Comentários:

Anónimo disse...

Who knows where to download XRumer 5.0 Palladium?
Help, please. All recommend this program to effectively advertise on the Internet, this is the best program!

Consultora Educacional on 13 julho, 2010 disse...

Gosto muito dos artigos de seu Blog. Quando for possível dá uma passadinha para ver meu Curso de Informática online.Emily Nascimento

Anónimo disse...

Such a lovely post, I am in awe of your ambition! ha. I'm so impressed with you.Thank you for sharing :) This is amazingly cute...what a talent you have. Thanks for sharing.
FF14 Gil
Final Fantasy XIV A Realm Reborn Digital Collector's Edition

文章 on 26 julho, 2015 disse...

餐飲設備 製冰機 洗碗機 咖啡機 冷凍冷藏冰箱 蒸烤箱 關島婚禮 巴里島機票 彈簧床 床墊 獨立筒床墊 乳膠床墊 床墊工廠 產後護理之家 月子中心 坐月子中心 坐月子 月子餐 銀行貸款 信用貸款 個人信貸 房屋貸款 房屋轉增貸 房貸二胎 房屋二胎 銀行二胎 土地貸款 農地貸款 情趣用品 情趣用品 腳臭 水晶 長灘島 長灘島旅遊 長灘島景點 長灘島必買 婚禮顧問 婚禮顧問 花蓮民宿 花蓮民宿

Arquivo

Categorias