Dion (1997: 135) considera que a noção de entropia se revelaria imediatamente apta para estudar as línguas. A teoria da informação não estuda uma língua pelo número de símbolos alfabéticos que a compõem, mas também pela análise à redundância na língua (o inverso da entropia é a redundância, ou neguentropia, enquanto caminho para a ordem). Uma língua entrópica dispõe de um vocabulário rico, com palavras diferenciadas, que mostram o poder das combinatórias; uma língua pouco entrópica é pobre e repetitiva.
terça-feira, 12 de julho de 2005
Teoria da Informação
terça-feira, julho 12, 2005
Publicado por Paulo Barreiro de Sousa
Shannon, Weaver e Wiener, nas suas investigações, tinham um objectivo instrumental – conseguir a máxima economia de tempo, energia e dinheiro no desenho dos sinais e canais técnicos de transmissão (Abril, 1997: 16; ver Dion, 1997: 11). Isto quer dizer: 1) problemas técnicos da transmissão; 2) semânticos – que significados se transmitem; 3) influência – o que afecta a mensagem no receptor. Contudo, o destaque da teoria da informação foi para as questões técnicas, sendo a primeira teoria a separar nitidamente a informação da significação.
A teoria da informação (TI) situa-se dentro da cibernética – a teoria do controlo e da comunicação na máquina e no animal, em que a informação se mostra como medida probabilística. A teoria da informação interessa-se pelo funcionamento dos sinais, pelas transformações energéticas mediante a codificação da mensagem e sua descodificação – e não pelos signos (significado/significante). Opera com os seguintes conceitos: 1) ruído; 2) redundância; 3) entropia; 4) imprevisibilidade.
-
A informação é uma medida (estatística) da probabilidade de ocorrência = grau de novidade ou imprevisibilidade (Abril, 1997: 17). O bit (binary digit) é a unidade base de medida da informação entre duas alternativas igualmente prováveis. Exemplo: amanhã vai fazer sol/amanhã vai chover ↔ um bit de informação: sim/não.
Escreve Umberto Eco (A estrutura ausente, 1976: 10-11): "Quando, entre dois eventos, sabemos qual deles irá acontecer, temos uma informação. (...) Se jogo para o alto uma moeda (e aposto cara ou coroa) tenho uma probabilidade de 1/2 para cada lado da moeda. No caso do dado e suas seis faces, tenho para cada face uma probabilidade de 1/6. (no xadrez, há) 64 probabilidade de diferentes realizações (por exemplo: qual das casas do tabuleiro de xadrez será a escolhida?) (...) para identificar, por exemplo, o evento número 5, são necessárias três escolhas binárias (...) A teoria da informação chama unidade de informação ou bit (de «binary digit», isto é, «sinal binário») à unidade de disjunção binária que serve para individualizar uma alternativa. Dir-se-á então que, no caso da individualização de um entre oito elementos, recebi 3 bits de informação; no caso de sessenta e quatro elementos, eu recebera 6 bits".
Por seu lado, escreve Dion: "os acontecimentos e as mensagens surpreendentes são mais ricas de informação que os acontecimentos e as mensagens de rotina" (1997: 93). Ao mesmo tempo, Dion refere a informação como medida de redução da incerteza, como medida da complexidade, como integrada na problemática da ordem e da desordem (a partir da segunda lei da termodinâmica).
O título de um livrinho de Daniel Bougnoux (1995) é elucidativo: a comunicação contra a informação. Diz Bougnoux que a comunicação implica informação e que uma informação não comunicada vai desaparecer progressivamente. A comunicação contém um conteúdo cognitivo mais ou menos importante, a informação. A comunicação é um processo em que a informação é o conteúdo. Logo, uma não pode estar isolada da outra; o estudo de uma e de outra é o mesmo. Mas informação e comunicação recobrem duas culturas, duas lógicas e mesmo duas actividades profissionais distintas no campo mediático. Bougnoux explica melhor: a informação é um camaleão intelectual pois designa quer as notícias (news), os dados (data) e o conhecimento em geral (knowledge). O desejo de reconhecimento (comunicação) precede muito a vontade de conhecimento (informação).
-
Leituras:
Gonzalo Abril (1997). Teoría general de la información. Madrid: CatedraDaniel Bougnoux (1995).
La communication contre l’information. Baumes-les-Dames: Hachette
Emmanuel Dion (1997). Invitation à la théorie de l’information. Paris: SeuilUmberto Eco (1976). A estrutura ausente. S. Paulo: PerspectivaJohn Fiske (1993).
Introdução ao estudo da comunicação. Porto: Asa.
-
Informação cedida pelo Dr. Rogério Santos
Docente na Universidade Católica
Blog: Indústrias Culturais