informação - anthony wilden

96
INFORMAÇÃO 1. A REDESCOBERTA DA INFORMAÇÃO 1.1. DOIS TIPOS DE INFORMAÇÃO Além da sua significação fundamental, quotidiana - dar estrutura ou forma (do grego eidos ou morphé) à matéria, energia ou relação -, o conceito de informação alarga-se hoje a dois sentidos recentemente surgidos e relativamente específicos. O primeiro é o sentido estritamente técnico ou tecnológico: informação como quantidade mensurável em bit (binary digit) . É a informação métrica da teoria clássica da informação [Claude Shannon], a teoria combinatória e estatística da informação, baseada na lógica e na matemática da probabilidade. O segundo sentido pertence a uma abordagem diversa, abordagem esta que pode, porém, servir-se da primeira nos casos em que seja aplicável, como acontece, por exemplo, na logística da transmissão da informação mediante sistemas artificiais, como a comunicação via radar ou satélite. O segundo sentido é, porém, sempre qualitativo antes de ser quantitativo, como de fato deveria ser (apesar de tudo, a quantidade é um tipo de qualidade, ao passo que o inverso não se verifica). O segundo sentido conserva, muito mais do que o sentido métrico ou quantitativo, o significado quotidiano do termo 'informação'. Hoje, porém, aplicamos muito mais a ‘informação’ em contextos relativamente insólitos ou pouco familiares (por exemplo, para explicar as características do sistema corpóreo, ou o comportamento de uma membrana celular). A informação apresenta-se nos em estruturas, formas, modelos, figuras e configurações; em idéias, ideais e ídolos; em índices, imagens e ícones; no comércio e na mercadoria; em continuidade e descontinuidade; em sinais, signos, significantes e símbolos; em gestos, posições e conteúdos; em freqüências, entonações, ritmos e inflexões; em presenças e ausências; em palavras, em ações e em silêncios; em visões e em silogismos. É a organização da própria variedade. Fruto da guerra e da economia da eficiência, a abordagem métrica da teoria da informação quantitativo-estatística trata a informação do mesmo modo como o dinheiro trata hoje os bens. No passado, a mudança das relações sociais

Upload: oona-castro

Post on 04-Aug-2015

209 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Informação - Anthony Wilden

INFORMAÇÃO

1. A REDESCOBERTA DA INFORMAÇÃO

1.1. DOIS TIPOS DE INFORMAÇÃO

Além da sua significação fundamental, quotidiana - dar estrutura ou forma

(do grego eidos ou morphé) à matéria, energia ou relação -, o conceito de

informação alarga-se hoje a dois sentidos recentemente surgidos e relativamente

específicos.

O primeiro é o sentido estritamente técnico ou tecnológico: informação

como quantidade mensurável em bit (binary digit). É a informação métrica da

teoria clássica da informação [Claude Shannon], a teoria combinatória e

estatística da informação, baseada na lógica e na matemática da probabilidade.

O segundo sentido pertence a uma abordagem diversa, abordagem esta

que pode, porém, servir-se da primeira nos casos em que seja aplicável, como

acontece, por exemplo, na logística da transmissão da informação mediante

sistemas artificiais, como a comunicação via radar ou satélite. O segundo sentido

é, porém, sempre qualitativo antes de ser quantitativo, como de fato deveria ser

(apesar de tudo, a quantidade é um tipo de qualidade, ao passo que o inverso não

se verifica). O segundo sentido conserva, muito mais do que o sentido métrico ou

quantitativo, o significado quotidiano do termo 'informação'. Hoje, porém,

aplicamos muito mais a ‘informação’ em contextos relativamente insólitos ou

pouco familiares (por exemplo, para explicar as características do sistema

corpóreo, ou o comportamento de uma membrana celular).

A informação apresenta-se nos em estruturas, formas, modelos, figuras e

configurações; em idéias, ideais e ídolos; em índices, imagens e ícones; no

comércio e na mercadoria; em continuidade e descontinuidade; em sinais, signos,

significantes e símbolos; em gestos, posições e conteúdos; em freqüências,

entonações, ritmos e inflexões; em presenças e ausências; em palavras, em

ações e em silêncios; em visões e em silogismos. É a organização da própria

variedade.

Fruto da guerra e da economia da eficiência, a abordagem métrica da

teoria da informação quantitativo-estatística trata a informação do mesmo modo

como o dinheiro trata hoje os bens. No passado, a mudança das relações sociais

Page 2: Informação - Anthony Wilden

permitiu que determinado bem (por exemplo, o ouro) se tornasse o «equivalente

geral da troca» - unidade de medida de todos os outros bens. Os bens tornaram-

se mercadorias. Toda a miríade de valores de uso pluridimensionais e

quantitativos de várias entidades e relações pôde, consequentemente, ser

reduzida, como se tornava necessário, a um único critério unidimensional: o valor

de troca económico (ou monetário) (cf.o artigo «Comunicação», 2.6, nesta mesma

Enciclopédia). A teoria quantitativa da informação obedece ao mesmo tipo de

regras de transformação. Embora, por vezes, ela seja erradamente considerada

como parte de uma linguagem, a informação da teoria quantitativa carece da

pluridimensionalidade da linguagem (e de outros sistemas de comunicação). Mais

do que uma linguagem, pode falar-se de um tipo de moeda corrente.

As selecções e combinações dos bits digitais da teoria métrica constituem,

por exemplo, os recursos planeados de um computador digital - justamente como

os sistemas de valorização académicos e os testes de QI utilizam outras formas

de unidades monetárias para reduzir qualidades e incomensuráveis a quantidade

discretas, computáveis. Ao contrário dos sistemas de valorização e dos testes de

QI, não restam dúvidas sobre a extraordinária utilidade da teoria quantitativa da

informação enquanto tal. Bem pouco da moderna tecnologia electrónica, que

encontra aplicações em todas as ciências, seria hoje possível sem esta teoria. O

problema que muitas vezes se põe reside porém no fato de que alguns adeptos

da teoria tendem a confundir dólares e centésimos matemáticos com os quais

medem a informação com a própria informação. O erro equivale a confundir uma

palavra com o seu significado, por exemplo, ou a confundir a quantidade de

energia necessária para produzir estrutura (medida em quilocalorias) com essa

mesma estrutura.

A abordagem métrica ocupa-se, sobretudo, com uma única e limitada

forma de valor de troca na comunicação; vice-versa, a abordagem qualitativa da

informação interessa-se por vários níveis e tipos de valores de troca (monetário,

social, simbólico, etc.) e também pelo problema muito mais complexo dos valores

de uso na comunicação (informação para que fins e para quem?).

É uma perspectiva não fácil de definir em poucas palavras, uma

perspectiva que se interessa por questões filosóficas, éticas, históricas,

Page 3: Informação - Anthony Wilden

socioeconómicas e socioecológicas, e que abrange as versões qualitativas da

cibernética e da teoria da comunicação, bem como certos aspectos da economia

ambiental, da teoria dos sistemas, da teoria das hierarquias e da ecologia dos

sistemas. Neste artigo se examinará o tópico da informação sob este ângulo.

1.2. A PRIMEIRA GERAÇÃO E A SUA ESTIRPE

A teoria da informação enquanto tal é uma invençào do século XX. O

grosso das investigações nesta área específica só se desenvolveu nos últimos

três ou quatro decénios. As suas origens modernas nos anos 40 e 50 associam-

se essencilamente ao trabalho de Shannon sobre a teoria da informação

matemática ou métrica; de McCulloch e Pitts para a neurologia e a teoria das

redes nervosasl; à descrição da homeostase fisiológica (ou «estado

estacionário») por obra de Cannon nos anos 30; a Bateson para a psicoterapia e

a informação não verbal; a Wiener e Ashby para a cibernética; a Turing sobre a

teoria dos computadores, e a John von Neumann para os autómatos e a teoria

dos jogos. Estes investigadores, entre muitos outros, distinguem-se em particular

como membros da «primeira geração» dos teóricos da cibernética, da

comunicação e da informação - muitos deles conheceram-se pessoalmente e

influenciaram-se profundamente.

Um resultado do caráter imaturo da abordagem à informação - que, a partir

dos anos 50, invadiu gradualmente todos os outros setores de estudo e

investigação e está hoje a aparecer na narrativa popular - é que a teoria da

informação parece ter emergido da Segunda Guerra Mundial como Dionísio saiu

da coxa de Júpiter. Para muitas pessoas, a teoria da informação aparece como

um desenvolvimento intelectual e tecnológico praticamente destituído de bases

históricas.

No que se refere à história das origens da concepção moderna da

informação, limitamo-nos em geral a duas linhas principais de indagação, ambas

sujeitas às restrições algo estreitas da história e da filosofia das modernas

ciências e tecnologia.

A linha mais tecnológica concentra-se nas origens dos computadores

digitais, os quais calculam passo a passo, como os números inteiros da aritmética

Page 4: Informação - Anthony Wilden

(os dispositivos de cálculo analógico são naturalmente muito mais antigos,

remontando pelo menos às medições topográficas e às cartas geográficas

babilónicas de há 6000 anos, bem como às cartas náuticas de pauzinhos e

conchas usadas por várias populações do Pacífico para navegar no mar alto, isto

para não falar nas antigas calculadoras astronómicas como a de Stonehenge

cerca de 1750 anos a.C., e das «rotas da medicina» índias das grandes planícies

norte-americanas). Entre os instrumentos digitais contam-se o ábaco, com dois

mil e quinhentos anos; as «ossadas» de Napier [1617]; a máquina de somar com

engrenagem de Pascal [1962], construída dez anos depois da invenção de

Oughtred daquele tipo de calculadora logarítmica analógico-digital conhecida

como régua de cálculo; a «máquina para diferença» [1812] e a projectada

«máquina analítica» [1833] de Charles Babbage. Babbage e Hollerith utilizaram

ambos cartões perfurados para representar a informação, mas esta invenção

pode remontar a 1745 e à sua primeira realização no sistema automatizado de

cartões perfurados usado para controlar a produção de modelos do tear Jacquard

[1801]. O primeiro computador digital electromecânico, o Mark I, foi construído em

1944 por Aiken, da Universidade de Harvard; a primeira máquina completamente

eletrônica (ENIAC) - projectada para o cálculo das trajetórias balísticas - foi

completada na Universidade da Pensilvânia em 1946. A notação binária foi usada

pela primeira vez no EDVAC, e destinou-se ao exército dos Estados Unidos em

1945.

Uma linha mais filosófica conduz em geral a Leibniz - que inventou uma

multiplicadora digital em 1671 - e em particular à sua formalização da numeração

binária-digital (1,0) - já apresentada de outra forma mediante as linhas tracejadas

e contínuas do kua ou trigramas do chinês Livro das mutações (Yi King). Os

sistemas de numeração binária são muito antigos, mas implicam em geral uma

contagem aos pares, com emprego de valores correspondentes a um e dois, mais

do que ao sistema de posição binária de um a zero, tão útil na teoria clássica da

informação. Leibniz ficou a tal ponto estupefacto perante a simplicidade e a

elegância da sua numeração que viu nela a própria imagem da Criação.

Imaginava ele que a unidade representasse Deus e o zero o vazio; e acreditava

ter extraído todos os números do um e do zero exactamente como Deus havia

Page 5: Informação - Anthony Wilden

extraído todas as criaturas do vazio. Leibniz sustentava que um é suficiente para

derivar tadas as coisas a partir do nada (no que diz respeito à comunicação

analógica e digital, cf.ainda «Comunicação», 5.4). [Sobre os desenvolvimentos

associados à lógica simbólica, etc., cf. Gardner 1958, e sobre a representação da

álgebra de Boole mediante certos tipos de circuitos de distribuição, o importante

artigo de Shannon 1938.]

Com algumas excepções - por exemplo Rosenfield [1971] -, são

pouquíssimas as investigações históricas ou antropológicas que se concentraram

no background do moderno coceito de informação. A história do caminho da

ciência, por exempl, raras vezes vai além do século XIX e, em geral, limita-se à

invenção da ciência da termodinâmica, à versão clássica formulada pela primeira

vez com clareza por Rudolf Clausius em 1850 e ao início da forma estática mais

geral, atribuível essencialmente ao trabalho de Willard Gibbs por volta de 1870. A

conexão entre termodinâmica, informação e cibernética podiam também

encontrar-se na obra pioneira de Maxwell, cujo artigo sobre os reguladores de

bolha foi publicado em 1868 e cujo famoso raciocínio sobre a aparente violação

do segundo princípio da termodinâmica por efeito do chamado “demônio de

Maxwell” (ao qual se voltará neste artigo) foi publicado em 1871. Em 1894, as

investigações de Bolzmann no campo da mecânica estática (mecânica e teoria

das probabilidades) conduziram à famosa observação segundo a qual a relação

que o segundo princípio da termodinâmica define como entropia está ligada à

“informação que falta”. Este conceito basilar foi ampliado pelo trabalho de Szilard

de 1925 e, nos anos 30, pelo trabalho de Neumann sobre mecânica quântica.

1.3. O CONTEXTO DA ORDEM

“Variedade” é a definição mais abstrata e universal da “informação" em

todas as suas formas. Pode imaginar-se que a “variedade” constitua o

supraconjunto de tods as configurações possíveis de que quaquer tipo particular

de informação representará um subconjunto. Necessariamente, a variedade é

sustentada por, ou impressa sobre, uma base (ou indicador) energético-material;

por outras palavras, a variedade depende de suportes materiais e veículos de

Page 6: Informação - Anthony Wilden

energia e é, por isso, ora energia ora informação: qual dos dois aspectos será

eventualmente dominante dependerá do contexto.

Como uma das formas da variedade, a informação não se distingue

intrinsecamente do “ruído”. A informação não tem significação intrínseca, nem

significado, nem valor de uso, nem valor de troca intrínsecos. Todavia, “em ou

para, um dado sistema”, a informação representará uma variedade codificada ou

estruturada, e o ruído uma variedade não codificada. Convém insistir no fator

modificante “em ou para, um dado sistema” porque toda a variedade está

constrangida a um ou outro nível - por exemplo, aos conhecidos princípios da

termodinâmica, ou às inter-relações da variedade no sistema específico -

independentemente do reconhecimento prático dos veículos em si mesmos.

O “acaso” é afinal uma forma de ordem e manifesta uma forma de estrutrura. Por

exemplo, os números aleatórios dependem da estrutura do sistema numérico; as

disposições aleatórias no espaço dependem das inter-relações de matéria e de

energia e dos modos sob os quais estas últimas se possam manifestar, etc.).

A distinção entre a forma de variedade chamada ‘informação’ e a definida

como ‘ruído’ é, por consequência, sempre uma função da maneira como a

variedade global, disponível para um determinado sistema finalizado é subdividida

mediante vários processos de codificação e ordenamento. Como resultado da

subdivisão global, certos tipos de variedade serão adoptados, trocados e usados,

ao passo que outros serão rejeitados como “ruídos”, ou passarão de todo

inobservados pelo sistema e pelos subsistemas deste. A variedade existente na

órbita observada de Mercúrio é ruído para a mecânica newtoniana; para a

relatividade einsteiniana, não só é informação, mas sim informação de

importância crucial para a varificação experimental da própria teoria da

relatividade. Como regra geral, pode afirmar-se que quanto mais elevada à ordem

de complexidade de dado sistema finalizado mais elevado será o número de tipos

e níveis de variedade que o sistema é efetiva ou potencialmente capaz de

codificar e de utilizar como informação.

Levando a exposição um pouco mais longe, aceita-se geralmente que o

“significado” em qualquer das suas acepções constitui uma função do contexto,

que sem contexto não pdoe haver significado (aqueles que acreditavam no

Page 7: Informação - Anthony Wilden

“significado intrínseco” das palavras formaularam em todo o caso uma definição

contextual do significado, mesmo que se julgasse que o árbitro último do

significado fosse implícita ou explicitamente Deus - ou a lógica, ou a ciência, ou a

sociedade). Se bem que a informação como tal seja destituída de significado (o

significado surge a outro nível no sistema de comunicação, isto é, relativamente a

um outro nível do contexto), o conceito de informação faculta um instruento para

explicar porque razões é o contexto necessário no significado (e ao mesmo tempo

esclarece todos os problemas relativos à relação sistema/ambiente entre texto e

contexto, e entre níveis de contexto).

Se se convencionar que informação e ruído são intrinsecamente

permutáveis, torna-se óbvio que sem contexto não pode haver informação. Por

outras palavras, sem um contexto (ou nível de contexto) relativamente ao qual se

possam subdividir ou “classificar” tipos particulares tanto de variedade como de

informação, é impossível distinguir um tipo de variedade do outro. Sem contexto,

estamos perante a diferença para - um continuum de diferenças entre as quais a

distinção é impossível. Não se podem traçar limites; não se podem discernir

“figuras” do “fundo”; não se podem utilizar “disposições”; não estão disponíveis

códigos para usar como tipos particulares de vínculos sobre a variedade. A

variedade é tudo. Mas, variedade total = informação potencialmente infinita =

informação zero.

Uma ulterior implicação do pressuposto inicial sobre a variedade é que a

informação só pode nascer no âmbito do contexto de sistemas finalizados,

também contextualizados por ordem de complexidade. A informação biológica no

sistema nervoso, por exemplo, é o produto de certos objetivos (nutrição,

respiração, ect.), mas pertence a uma ordem de complexidade diversa

proveniente, por exemplo, da informação econômica; que é o produto de objetivos

de ordem superior, podendo, no entanto incluir objetivos econômicos de ordem

inferior (a subsistência, por exemplo).

Elaboramos brevemente os termos técnicos utilizados no parágrafo

precedente: uma ordem de complexidade, por exemplo, a ordem econlógica,

compreende níveis de complexidade. Dado que a ordem socioeconomica

depende da ordem ecológica e por esta é abrangida, pode afirmar-se que a

Page 8: Informação - Anthony Wilden

sociedade tem uma ordem de complexidade superior à natureza orgânica. Por

sistema finalizado, entende-se qualquer sistema - social, orgânico ou artificial -

que, pelo menos, seja capaz de eleborar informações para a correção de erros e

ou que esteja, pelo menos, organizado para a sua reprodução.

Em geral, nos sistemas biológicos e sociais, a finalização não implica um

objetivo no sentido usual do termo (intento consciente), mas por vezes na

literatura ‘finalista’ é usado como sinônimo de ‘comportamento teleonômico’ de

tais sistemas. Quase todo o comportamento humano, por exemplo, envolve

objetivos e comportametos não-conscientes. A maior parte do nosso

comportamento finalista normal (o nosso comportamento intencional) é o mais

das vezes inconsciente - no sentido freudiano de ser “um comportamnto ativado

por processos primários”.

(O inconsciente, o nível de informação dos processos primários, pertence a

um tipo lógico superior no sentido no que respeita ao processo secundário, ou

seja, ao processo de informação que inclui tanto a consciência como a memória

ordinária - “preconsciente” freudiano - [cf. Wilden 1972, pp. 31-62, 445-61]).

Convém observar que ‘ordem’ e ‘desordem’ põem em jogo uma interação

similar à que existe entre ‘informação’ e ‘ruído’. Em muitos contextos, ‘informação’

será, pois, sinônimo de ‘ordem’, e ruído’ de ‘desordem’. Para um dado sistema

biológico ou social, a subdivisão e o uso da relação ordem-desordem são

essenciais à conservação do sistema (conservação “metabólica” nos sistemas

biológicos; “subsistência” nos sistemas sociais). O emprego correto da relação é

decisivo para a forma de estabilidade fundamental ou corrente do sistema, para

as suas capacidade reprdutoras e para a sua capacidade de, como sucesso, se

adaptar quer a flutuações ambientais estocásticas quer a pertubações internas e

externas (ruído) produzidas pelas suas próprias atividades. Em determinado

sistema, o modo como as relações informação-ruído e ordem-desordem são

subsdivididas no tempo pode dizer-nos muito acerca da flexibilidade sistêmica, ou

seja, da capacidade do sistema de sobreviver no período longo - mediante

adaptações estruturais ao ‘ruído’ ou a ‘desordem’ (gerados quer externa uer

internamente ou das duas maneiras) que, a não ser assim, o submergiriam.

Citando livremente Bateson [1972]: tudo o que não é informação, nem

Page 9: Informação - Anthony Wilden

redundância, nem relação codificada, utilizada, é ruído; e este é a única fonte de

novas configurações.

1.4. VARIEDADE NECESSÁRIA

Retomar-se-á de seguida, mas a outro nível, a relação entre ordem e

desordem e entre informação e ruído. A noção fundamental expressa na última

parte do parágrafo precedente pode ser reenunciada em termos de “princípio da

variedade necessária”. Este princípio foi originalmente formulado, juntamente com

o conceito de variedade adotado aqui, por Ashby nos anos 50 [cf. Ashby 1965,

trad. It., pp. 257-66, 304-6]. Ashby propunha-se explicar a regulação cibernética e

encontrar, para tal fim, uma definição qualitativa da qual se pudesse derivar uma

medida quantitativa do grau de regulação necessária em circunstâncias

particulares. Na forma a que Ashby chama “pitoresca”, o princípio da variedade

necessária afirma que somente a variedade pode destruir a variedade.

Explicitando melhor o ponto de vista de Ashby, o princípio em causa

sustenta que, se a variedade (por exemplo, a flutuação) a que dado sistema está

sujeito for maior do que a variedade que o istema é capaz de tratar, este último

não possuirá a “variedade necesária” para reduzir, ou pelo menos encarar, a

variedade que o “ameaça”. Neste sentido, o conceito de variedade necessária

pode ser utilizado como simples instrumento para discutir a flexibilidade sistêmica

relativa.

Expresso de outra forma, o princípio diz que a capacidade de um sistema,

S, para regular outro sistema, E, não pode superar a capacidade de S como canal

de informação (um “canal” é simplesmente algo que seja usado ou projetado

como meio através do qual se propaga a variedade. Existem, por exemplo, canais

simples como os cabos telefônicos ou os espectros de rádio; canais relativamente

complexos como as várias concentrações de mensagens entre neurônios no

sistema nervoso central, abrangendo dendrites, axônios, sinapses e outros; e

canais altamente complexos tais como os diversos modos de relação entre as

pessoas na sociedade, ect.).

No caso normal, quantitativo, o princípio de Ashby pretende ser o

equivalente na teoria do controle do décimo teorema de Shannon [Shannon e

Page 10: Informação - Anthony Wilden

Weaver 1949]. Ocupa-se este teorema da situação que se verifica naquilo a que

Shannon (curiosamente) define como um canal “discreto” - isto é, um canal que

transmite sinais discretos, como pontos e traços - quando uma mensagem é

perturbada por ruídos. Convém complementar o canal principal como um “canal

de correção” capaz de reduzir os efeitos do ruído (capaz de corrigir os erros

induzidos). Shannon demonstrou o que hoje parece óbvio (como a “variedade” de

Ashby), mas que naquele tempo o não era: que a quantidade total de ruído

eliminável da mensagem graças ao canal de correção é estritamente limitada pela

quantidade total de informação (em bit por segundo) transferível através do canal

de correção - menos uma certa quantidade correspondente a tipos irredutíveis de

variedade (por exemplo, o movimento browniano, a difusão térmica) que, em

nenhuma circunstância, podem ser eliminados. (Este tipo de variedade manifesta-

se também na incerteza sobre as posições preciosas e a velocidade das

“partículas” subatômicas, incerteza que, na física, limita as observações

possíveis; não existem em todo o caso canais sem ruído.

O corolário do intuível enunciado de Ashby sobre o princípio da variedade

necessária é a tal ponto óbvio que não se compreende, à primeira vista, a razão

por que o não exprimiu ao mesmo tempo. Ashby, porém, tal como Wiener e

Shannon, pertence àquela primeira geração de técnicos do controle e da

comunicação que se viu obrigada pelo contexto historico e pelas suas próprias

inovações a preocupar-se com a redução dos devios nos sistemas de controle (a

conservação da “substância” mediante feed-back negativo) e com a supressão do

ruído nos sistemas de comunicação artificiais. O resultado, testemunhado nos

seus escritos, parece ter sido uma tendência comum para atitudes face ao

“desvio” ou à “desordem” ou à “desordem” iguais às de outros influentes

expoentes da mesma geração que se interessaram por análogos problemas e

teorias, e por eles foram influenciados. Podem citar-se Talcott Parsons na

sociologia; Lévi-Strauss na antropologia; Piaget na psicologia cognitiva

“construtivista”.

O corolário em causa é naturalmente o seguinte: só a variedade pode criar

variedade. Mas, nas primeiras investigações sobre a teoria do controlo e da

informação, de Ashby, de Shannon, de Weaver ou outros, todas as versões do

Page 11: Informação - Anthony Wilden

princípio da variedade necessária (a que Ashby chamou “lei”) são em última

instância equivalentes à expressão seguinte: “Só a informação pode destruir o

ruído” - e, neste contexto, ‘ruído’ tem o significado que lhe atribuem os técnicos.

De fato, só nos anos 60 se começaram a considerar seriamente as possibilidades

criativas do ruído ou da desordem (por exemplo, por obra de Mackay, Bateson e

Heinz von Foerter; cf. adiante). Analogamente, só neste período começou a

conquistar cosistência adequada a cibernética da amplificação do desvio (feed-

back positivo) [Maruyama 1963].

O princípio de Ashby da variedade necessária pode ser expresso em

termos de aplicação mais geral, que permitem tratar níveis de variedade e não

apenas níveis de meras quantidades. A capacidade de um sistema, S, de

representar a variedade de outros sistemas, E, não pode superar a capacidade de

S como rede de comunicações.

1.5. A UNIDADE MÉTRICA DA VARIEDADE

A base da teoria da informação métrica ou “clássica” - tanto combinatória

como estatística - depende da maneira particular de definir a “mensagem mais

simples possível”. Como a mensagem mais simples possível, fisicamente

definida, é a presença ou a ausência de um sinal, torna-se possível exprimir tais

mensagens mediante respostas a um só nível a problemas a um só nível. Se o

sinal estiver presente, pode escrever-se “1” (uma espécie de “sim”); se estiver

ausente, pode escrever “0” (uma espécie de “não”). Também é possível

representar a presença ou ausência do sinal - isto é, a presença ou ausência do

que se definiu previamente como sinal - utilizando um raio de luz ou um relé, ou

qualquer outro interruptor binário que possa ser “aceso” ou “apagado”. Como o

sistema binário de notação aritmética (1,0) não só é o mais simples, mas também

o que se coaduna com as características de “aceso” ou “apagado” do código

discreto (e com as características dos componentes do interruptor) usado nos

sistemas digitais, torna-se particularmente conveniente escolher o dígito binário

para “medida” da informação na teoria métrica.

Page 12: Informação - Anthony Wilden

Obtêm-se resultados mais vantajosos e mais simples recorrendo aos

logaritmos de base dois. Os logaritmos (seja qual for a sua base) permitem

exprimir aditivamente as relações de tipo multiplicativo. O produto obtém-se

somando os expoentes da base (por exemplo, 10 nos logaritmos naturais), e não

multiplicando os números reais a que correspondem os logaritmos. Dada a base

“aceso-apagado” à qual se pode comunicar a mais simples mensagem física, e

dadas às relações multiplicativas ou combinatórias que se possam instaurar entre

o que se definiu como “elementos discretos” de um repertório de possibilidades

(isto é, o “conteúdo” definido da fonte da mensagem), os logaritmos binários

facultam uma maneira intuitivamente agradável de adicionar ou subtrair decisões

e, ao mesmo tempo, multiplicar e dividir probabilidades.

Todavia, a base e a notação binárias representam apenas um dos múltiplos

sistemas de cálculo possíveis (como exemplo, mantém-se a base 60 no cálculo

do tempo). Ela não é essencial para o projeto dos computadores, por exemplo,

mas é eficiente em termos de custos. Na medida em que for possível limitar a

definição de informação a problemas de certeza e incerteza no que se refere a

alternativas que pertencem ao mesmo tipo (ou nível) lógico simples, como o que

se aplica na notação binária, esta última e a própria teoria matemática estão

obviamente destinadas uma à outra.

Pode acontecer que o leitor queira um dos numerosos manuais sobre a

teoria quantitativa para obter mais pormenores do que os necessários neste

contexto. Os aspectos fundamentais da teoria clássica ou métrica que aqui

interessam podem elaborar-se começando pelo exemplo comum do telégrafo.

Um aparelho Morse tem a possibilidade de enviar um grande número de

mensagens diversas além das expressas no sistema ponto/linha/espaço do

código Morse. A menos que o aparelho seja acionado de modo inteiramente como

as Morse: por exemplo, mensagens inerentes à urgência, stress, incerteza,

interesse, segurança, etc. o teórico da informação deve, pois, reduzir a

informação potencial (a variedade disponível) de toda a mensagem Morse aos

seus elementos mais simples - pontos, linhas, espaços. Com efeito, ao descurar

os espaços entre letras e palavras, o sistema do código Morse é muitas vezes

utilizado como exemplo de simples sistema binário ponto/traço. No entanto, quer

Page 13: Informação - Anthony Wilden

se ignorem ou não as funções dos espaços na mensagem a puro título

exemplificativo, na mensagem Morse normal há sempre muitas outras

informações que devem ser descuradas, não para fins ilustrativos, mas no próprio

interesse da teoria.

A fim de que a teoria seja coerente, o matemático teórico deve optar por

ignorar, por exemplo, os ritmos da mensagem Morse; por exemplo, os ritmos que

a subdividem num nível de comunicação diverso do da sequência ponto-traço-

espaço. Estes ritmos envolvem as combinações de cadências e frequências

espaciais e temporais tais que produzem uma “impressão rádio” dos telegrafistas

individuais, um “estilo de aparelho” tão identificável de modo equívoco como a

caligrafia. É importante insistir neste ponto, já que o teórico clássico - por motivos

lógicos e matemáticos - se vê teoricamente na necessidade de ter de considerar

irrelevante a informação altamente específica codificada pelo transmissor humano

(sistema aberto) em todas as mensagens Morse não mecânicas. Esta informação

deve ser tratada como se fosse idêntica a todos os outros tipos de variedade, já

definidos - no sistema fechado de informação adoptado - como “ruído”.

O fato é que não é possível, legitimamente, servir-se do exemplo

simplificado do código Morse para ilustrar a teoria sem anotar ao mesmo tempo,

que até a nível relativamente simples, a teoria matemática manifesta uma das

suas propriedades frequentemente inobservada, mas intrínsecamente: a

capacidade de usar a variedade para destruir a variedade ou, nourtros termos, a

capacidade de homogeneizar a diversidade.

Admita-se que o sistema Morse é um sistema binário ponto/traço; admita-

se também, como é essencial para a estrutura lógica (combinatória) da teoria, que

traços e pontos sejam igualmente prováveis. Por outras palavras, os pontos e os

traços enviados através de canais fixados são supostos logicamente

independentes entre eles e não são considerados como vinculados ao código do

alfabeto, nem às palavras para a representação das quais são na prática usados,

nem à sua relação recíproca. Pontos e traços são simplesmente considerados

como se fossem equivalentes às duas faces de uma moeda atirada ao ar. O

número de possibilidade equiprováveis no repertório deste sistema Morse é 2.

Bastará, porém, uma pergunta para identificar unicocamente um ponto e um traço

Page 14: Informação - Anthony Wilden

- e log22=1. Pode, pois, dizer-se que qualquer sinal positivo do aparelho (ponto ou

traço) representa a resposta à pergunta presença/ausência. Pode definir-se esta

relação como sendo a mais simples mensagem fiísica e, recorrendo aos

logaritimos de base 2, é possível quantificá-la como “cifra binária”, ou como bit de

informação fiísicamente medida. (É irrelevante, tanto para a teoria como para a

medição, o fato de que o sinal possua significação, ou se foi efetivamente

expedido”).

1.6. O REPERTÓRIO CLÁSSICO

A teoria métrica define assim a informação como produto de uma redução

da incerteza (a um nível específico) perante várias outras alternativas ou

possibilidades. Sem alternativas, diria a teórico clássico, não pode haver

informação.

O exemplo do aparelho Morse ilustra a forma combinatória da teoria da

informação. A par da forma estatística, este aspecto da teoria baseia-se na longa

lógica analítica de combinações de eventos “ou/não”, mas a versão combinatória

examina as possibilidades puramente lógicas do aparecimento de eventos

equiprováveis (logicamente independentes), prescindindo de saber se estes se

verificam ou não (prática ou potencialmente) num sistema particular. Na sua

forma estatística, a teoria métrica baseia-se nas probabilidades conhecidas e ou

calculadas, associadas a eventos reais e particulares que se manifestem no seio

de longas sequências doutros eventos. (Em linguagem técnica, referimo-nos

usualmente a tais sequências como a processos “ergódicos”, processos estes

dotados de “homogeneidade estatística” no sentido de que a sequência razoável

exibirá as propriedades estatísticas do repertório de que é extraída).

A título de exemplo, a versão combinatória poderia envolver todas as

combinações logicamente possíveis de duas letras do alfabeto latino, ao passo

que a teoria estatística poderia ocupar-se das probabilidades associadas às

efetivas combinações de duas letras presentes em dada amostra real escrita, que

faça uso daquele alfabeto. A probabilidade estatística será naturalmente função

da frequência de determinadas combinações biliares. [Para um perfil mais

particularizado da distinção entre teoria da informação combinatória e estatística

Page 15: Informação - Anthony Wilden

da obra do matemático soviético Kolmogorov, publicada em 1941, cf. Krippendorff

1975.] Certos artigos deste tratado são representativos do paradigma

epistemológico que é associado à versão curtos-lucros, de orientação tecnológica

e fundamento psicológico, da teoria da informação, e podem ser recomendados

aos leitores desejosos de aprofundar esta abordagem.

Voltando por um instante ao aparelho Morse, que quantidade ou tipo de

informação enviaria se emitisse um único tom contínuo? Dentro dos limites do

sistema fechado da metodologia métrica, não há alternativas: o aparelho não

reduz a incerteza relativamente ao fato de que sinal seja um ponto ou uma linha,

nem consente que se tome uma decisão sobre pontos e traços. Por

consequência, no âmbito de tais limites, o tom contínuo equivale a ruído e não lhe

é atribuído um conteúdo de informação. Dentro dos limites da metodologia

definida, um tom contínuo oferece uma só possibilidade: e log21= 0 (zero bit). Na

vida real, como é natural, o tom contínuo poderia ser um novo e alarmante

elemento, de informação, uma mensagem de finalidade; poderia talvez constituir,

para o receptor, uma indicação da descoberta e da morte de um telegrafista

clandestino às mãos do inimigo - tal como uma variação na impressão rádio do

telegrafista indicava aos serviços secretos de ambas as partes na Segunda

Guerra Mundial que se detectara uma rede de comunicações.

Um aparelho Morse isolado que possa expedir uma ou a outras de duas

mensagens equiprováveis (ponto ou traço) possui um repertório ou “stock” binário,

cuja medição de informação é log22, isto é, 1 bit. Equivale isto à pergunta”ou/ou” a

que é necessário responder para especificar se um sinal particular é um ponto ou

um traço - supondo que já se saiba de antemão o que perguntar ao repertório. Se

pontos e traços se podem associar aos pares - equivalentes à 00, 01,10 e 11 o

stock das mensagens aumenta para log24. Esta quantidade monta a 2 bit físicos,

isto é, ao equivalente às duas perguntas que são minimamente necessárias para

especificar as duas partes do par - desde que se saiba antecipadamente que as

mensagens são formadas por pares, e não de qualquer outra maneira. (Primeira

pergunta: “O primeiro carater é um ponto?” Segunda pergunta: “O segundo

caráter é um ponto?”) Se as mensagens Morse consistem em sequências de 3

caracteres binários - equivalendo a 000,001,010,011,100, 101,110,111 -, o

Page 16: Informação - Anthony Wilden

número total das mensagens possíveis chega a 8, log28 = 3bit, equivalendo a uma

escolha entre oito alternativas. Por outras palavras, em situações equiprováveis, a

“quantidade de informação” transmitida por cada carater de um repertório com

duas unidades é 1 bit; de um repertório com quatro unidades é 2 bit; de um

repertório com oito unidades é 3 bit, e assim sucessivamente.

Em geral, n bit corresponde, portanto, a uma escolha entre 2n alternativas,

supondo que as alternativas sejam consideradas correctamente. Se, por exemplo,

o jogo das “vinte perguntas” não for jogado obedecendo a escolhas binárias

estabelecidas entre classes de alternativas, apenas se podem escolher vinte

eventos ou sujeitos. Corretamente jogado, com emprego adequado de cada um

dos 20 bit, o jogo é, em teoria, suficiente para efetuar uma seleção entre 220

objetos (aproximadamente 1.048.500).

Alargue-se agora esta medição física da informação do alfabeto latino,

usando apenas letras maiúsculas e ignorando qualquer pontuação à exceção do

espaço entre as palavras. (Os intervalos entre letras não equivalem a espaços

mas antes às descontinuidades especiais associadas a repertórios discretos ou

digitais). Se cada um dos vinte e sete caracteres for considerado equiprovável (o

que, obviamente, não corresponde à realidade), a “quantidade” de informação

contida no repertório do alfabeto é um simples problema de cálculo. Dado que

log227 = 4,7555, pode afirmar-se que cada letra transmite potencialmente cerca e

4,76 bit físicos ou informação ou, vice-versa, admitindo sempre a

equiprobabilidade, que cada um dos caracteres exigiria para efeitos de

transmissão cerca de 4,76 unidades binárias (por exemplo, uns e zeros) de

informação física. De acordo com o que se sabe sobre o modo como funciona o

alfabeto, pode-se pôr à prova a medição recorrendo a perguntas. O número

mínimo de perguntas necessárias para especificar um dos caracteres

(logicamente independete dos outros) varia “entre” quatro a cinco (27/2 = 13,5;

13,5/2 = 6,75; 6,75/2 = 3,375; 3,375/2 = 1,6875; 1,6875/2 = 0,84375), ou seja,

quatro a cinco perguntas para cada caso particular.

Note-se, porém, que para todas as operações deste tipo de repertório eve

satisfazer as seguintes condições:

a) O repertório deve estar fechado (a novas informações);

Page 17: Informação - Anthony Wilden

b) O repertório deve inicialmente constituir em elementos discretos

(digitais), ou

c) Deve ser transformado em elementos discretos após a introdução da

descontinuidade (digitalização);

d) Os princípios ordenadores fundamentais do repertório devem ser

conhecidos antecipamente;

e) O repertório deve ser unidimensional, ou então os seus elementos

devem ser tratados como se o fossem; não pode haver distinções de

nível no repertório;

f) O repertório não pode ser substituído de modo a introduzir níveis de

relação, nem de modo a introduzir considerações contextuais diversas

das já implícitas nas outras condições citadas.

Na notação decimal, com os seus dez algarismos de zero a nove, aplicam-

se as considerações feitas para o alfabeto. Log210= 3,322: cada número decimal

requer em média cerca de 3,32 números binários para ser representado ou

transmitido noutra notação; e cada número decimal transporta uma informação

física mais do que três vezes superior à um número binário. Vice-versa, a notação

binária necessita de um número de caracteres mais do que triplo para exprimir um

dado número do sistema decimal (log10n x 3,322 = log2

n). Tal como relativamente

ao alfabeto, pode verificar-se a equivalência recorrendo a perguntas

oportunamente formuladas. Supondo que se conhece já a ordem dos números

decimais, três ou quatro perguntas servirão para determinar univocamente

qualquer algarismo em qualquer número décima.

1.7. SUBDIVISÕES DO REPERTÓRIO

Se bem que a teoria clássica não levante o problema explicitamente, o

conhecimento do ordenamento da fonte da mensagem (isto é, a subdivisão

“interna” de que se serve) é essencial na teoria métrica, como já se sublinhou.

Segundo a teoria, quanto mais ordenado estiver o repertório, tanto menor é o seu

conteúdo potencial de informação física. Pode-se ilustrar outro aspecto da

necessidade de conhecer a priori a subdivisão introduzindo o problema da

tradução, da representação ou do valor da mensagem.

Page 18: Informação - Anthony Wilden

Examine-se a sequência real de uns e zeros usada no precedente exemplo

do código Morse com oito mensagens de três bit, omitindo, porém as vírgulas.

Admite-se que se trata de uma sequência em notação binária, simbolizando uma

sequência de números decimais. (no sistema decimal, tudo o que se coloque à

esquerda vale dez vezes o precedente; no sistema binário, é o dobro do

precedente, por exemplo... 32,16,8,4,2,1) A sequência usada no exemplo Morse

era 000001010011100101110111. Se o repertório desta mensagem for

subdividido de modo a que cada caracter singular represente uma mensagem

singular, a sequência em notação binária exprime exatamente a mesma

sequência de números em anotação decimal (visto que o decimal 1 é

representado pelo binário 1 à sua direita e, analogamente, o decimal 0 pelo

binário 0). Todavia, se o repertório se servir de pares (00,00,01,01...), a mesma

sequência corresponde aos seguintes doze números decimais:

0,0,1,1,0,3,2,1,1,3,1,3. Se a subdivisão for por termos, os equivalentes decimais

desta sequência binária sào os oito números seguintes: 0,1,2,3,4,5,6,7. Por outro

lado, se toda a sequência representa uma única mensagem, a sequência de vinte

e quatro postos em notação binária representa um único número decimal de 6

algarismos: 342 391.

Este exemplo é o mais simples do modo como a codificação dos caracteres

particulares usados - uma codificação de nível diverso das mensagens que

contém os caracteres - medeia sempre os valores da mensagem em cada

sistema de comunicação (cf. ainda “Comunicação”, SS 5.3,5.5). (Obsrve-se como

a subdivisão deste texto - compreendendo os parêntesis que fecham esta nota -

opera a nível diverso do próprio texto).

Todavia, na teoria métrica, a codificação não implica níveis de modo

explícito. Pode dar-se o caso de as codificações em que a teoria está interessada

serem preexistentes - poder-se-ia, por exemplo conhecer antecipadamente a

existência de uma mensagem numa certa linguagem ou num código artificial

(incluindo os sistemas de comunicação em código Morse e as linguagem dos

computadores como a Fortan) ou ainda numa notação matemática, etc.; ou,

então, a codificação poderia ser constituída por qualquer outro tipo de código

construído como, por exemplo, um sistema no qual a unidade da mensagem

Page 19: Informação - Anthony Wilden

fosse representativa da totalidade do texto da Bíblia, ou numa outra unidade fosse

o texto do Corão.

Além de tudo isto, na medida em que as expressões ‘codificador’ e

‘descodificador’ forem usadas nas explicações e nos diagramas representando

redes fixas de comunicação - diagramas muitas vezes assumidos ilegitimamente

como isomorfos a representações de redes de comunicação humanas e sociais -,

o “codificador” é um puro instrumento de modificação do código, um dispositivo

que substitui um tipo de codificação por outro, recorrendo a um conjunto

preexistente e mensagens codificadas, por exemplo um aparelho Morse, uma

máquina de calcular, ou outros dispositivos que transformem sons ou letras em

frequências ou impulsos eletrônicos, e vice-versa, como os sistemas correntes de

tefefones ou teletipos.

A teoria métrica é, pois, em sentido estrito, exclusivamente uma teoria de

mensagens e sistemas de mensagens, geralmente considerados apenas nos

seus aspectos mecânicos, eletrónicos ou físicos em geral. A teoria quantitativa

clássica não inclui uma teoria explícita da codificação - como deveria fazer

qualquer teoria da comunicação, ainda que remotamente adequada. O fato de a

teoria clássica não considerar estes níveis é naturalmente necessário às suas

funções métricas e técnicas, e assegura a sua unidimensionalidade lógica. Por

sua vez, estes fatores contribuem para reforçar a inadequação do culgarísmo

modelo a “duas-ou-mais pessoas” ou “duas-ou-mais mentes” dos processos

sistémicos da comunicação humana na sociedade. É este um modelo

reducionista que psicologiza (e, portanto, racionaliza as reais hierarquias das

relações que formam o processo socioeconômico da comunicação (cf.

“Comunicação”, 2.1). Semelhante abordagem, ao enquadrar a comunicação

essencialmente num simples modelo linguístico ou eletrônico, tende também a

ignorar os sistemas de informação fisiológicos e ecológicos dos quais, em última

análise, depende o sistema de informação social (para já não falar do nível

econômico da comunicação).

Resumindo, enquanto a teoria métrica estiver limitada aos setores em que

se aplica correta ou adequadamente, representa uma inovação tecnológica

extremamente útil; quando, porém, é aplicada ilegítima ou inconscientemente

Page 20: Informação - Anthony Wilden

para atravessar as fronteiras estabelecidas, pela sua própria auto-clausura (ao

nível físico da informação binarizada ou digitalizada), a aplicação da teoria

quantitativa sofre do mais comum de todos os defeitos metodológicos: o cientismo

reducionista inerente à travessia de fronteiras entre diferentes ordens e níveis de

complexidade, sem uma correspondente realização (cf. “Comunicação”, 4.4).

1.8. SISTEMAS DE INFORMAÇÃO FECHADOS

A informação no sentido qualitativo - que inclui como caso particular o

sentido quantitativo - depende da codificação e subdivisão de diferentes formas e

níveis de variedade em sistemas abertos, finalizados. Um sistema aberto difere de

um sistema fechado, ou isolado do ambiente, na medida em que é distinto do

ambiente graças a fronteiras mais do que a barreiras. Os sistemas abertos são

portanto, sistemas limitados, mas que mantêm uma troca contínua de matéria,

energia e informação através das suas fronteiras. Estas não agem simplesmente

como filtros, as mais precisamente, como trasdutores. As fronteiras do sistema -

lugares reais de troca de informação com o ambiente - traduzem e transformam a

variedade disponível de tal modo que o sistema aberto, finalizado, a possa usar

como informação (ordem).

De um ponto de vista fisiológico, por exemplo, na comunicação orgânica, a

fronteira gene-protéica implica a tradução do código ADN-RNA com quatro

unidades para o código com vinte unidades aminoácidas das proteínas. As

cadeias proteicas sofrem depois outras transformações que mudam a sua ordem

linear originária para uma outra com três dimensões, por exemplo, mediante o

“envolvimento” da cadeia de aminoácidos. O processo de enovelamento depende

da colocação ou do ordenamento sintático de “locais ativos” específicos na cadeia

de aminoácidos e pode, por isso, ser visualizado como qualquer outro nível de

repetidos processos de codificação, descodificação, tradução e transformação

que ocorrem nas fronteiras entre o programa genético, o seu microambiente, os

seus produtos, e o ambiente criado pelo programa e seus produtos.

À nível da totalidade do organismo, confinado pelo sistema de

transformação “permeável” a que se chama a membrana cutânea, o sistema de

informações basilar usado a nível fisiológico (de conservação) não é constituído

Page 21: Informação - Anthony Wilden

pelas cadeias proteicas ordenadas e enoveladas, mas mais usualmente pelo

“alfabeto” de vinte unidades aminoácidas que formam as proteínas. A informação

codificada nas “frases” proteicas que o organismo ingere é submetida a muitos

processos de decifração, um dos quais envolvem a ação específica de outras

proteínas, chamadas enzimas. As enzimas movem-se ao longo da “frase”

tridimensional dos aminoácidos expressa por uma proteína que fragmentam em

vários pontos e reconstituem noutros - subdividindo novamente a sequência e

favorecendo o reordenamento do envolvimento - de modo a que uma “frase”

proteica em “língua estrangeira” e vinda do exterior se torne uma nova expressão

na “língua nativa”, vigente no organismo em causa [Mazia 1974; Koshland 1973;

Pattee 1973, pp. 29-47; cf. também o S 3.2 sobre a relação da “ordem pela

ordem”].

Deste exemplo, resulta desde logo claro que todo e qualquer organismo

está constantemente aberto a nova informação (aberto a nova variedade que

pode, mais ou menos, ser subdividida como informação) e que a informação não

tem caráter unidimensional da “cifra binária” da teoria clássica da informação. A

informação biológica, tal como a informação social, é caracterizada

invariavelmente por distinções qualitativas, de níveis e tipos de variedade e

ordem. As unidades aminoácidas agora em causa não se assemelham, pois à

moeda corrente da teoria métrica (cf. S 1.1). Parecem-se muito mais com um

alfabeto, com um sistema de sinais (semiótico), embora não equivalendo a uma

linguagem ou a um discurso.

As principais diferenças entre os sistemas linguísticos e os numerosos

outros sistemas de comunicação são que os primeiros se servem de tempos (ou

indicadores do tempo, como chinês) e usam o “não” de maneira que vão muito

para além da mera “ausência de sinal”, que a teoria digital a um só nível

(acesso/apagado) confunde frequentemente com o “não” linguístico. [Para uma

ulterior discussão das dificuldades de interpretação da função do “não” e dos

correspondentes paradoxos, cf. Wilden 1972, pp. 178-90, 122-24.]

A abertura à variedade e as capacidades de a subdividir em vários níveis

são os fatores que tornam os organismos individuais (fenótipos) abertos às

adaptações funcionais (adaptações “fisiológicas”) e, analogamente, populações

Page 22: Informação - Anthony Wilden

inteiras de organismos abertos às adaptações estruturais (adaptações

“morfológicas”) no tempo ao nível do genótipo (o “pool génico”). Uma comum

adaptação funcional a uma nova variedade envolve o sistema imunitário corpóreo.

As estruturas estranhas (antigenes) que penetram no sistema aparecem, por

exemplo, no fluxo sanguíneo. Pode tratar-se de formas de variedade (ruído)

nunca encontradas no corpo; todavia, o sistema imunitário reconhece a nova

variedade como estranha e procura construir as suas próprias estruturas

informativas de defesa (anticorpos), as quais podem ser diferentes de quaisquer

outras precedentemente produzidas. A informação dos anticorpos contrapõe-se

ao “ruído” dos antigenes de modo a neutralizar o perigo que o corpo correria se

nele fossem incorporados antigenes como informação. A nova variedade é

reconhecida, enfrentada e destruída - mas a sua presença não se desvanece de

todo. No caso das doenças relativamente às quais se adquiriu imunidade (por

exemplo a varíola, o sarampo), o sistema dos anticorpos conserva

indefinitivamente a memória da variedade outrora nova. Os anticorpos continuam

a existir como vestígios da memória da infecção ou invasão originária (cf.

“Comunicação”, S 1.3). As adaptaçòes estruturais implicam princípios análogos,

porém a nível diverso de tratamento da informação no sistema.

Ao contrário dos sistemas de informação abertos formados por organismos

vivos, as populações de uma dada espécie, comunidade de espécies e sistemas

sociais (todos constituindo ecossistemas de grau e ordem de complexidade

variável), os sistemas de informação da cibernética clássica (mecanicista) e da

teoria clássica (quantitativa) da informação são sistemas fechados. Esta

peculiaridade ajuda a explicar algumas das enganadoras interpretações das

relaçòes informacionais que se encontram frequentemente na cibernética e na

teoria da informação usual.

Como Ashby salienta, a condição do sistema, aberto ou fechado à (nova)

energia, não é muitas vezes pertinente para o seu modelo de máquina

cibernética. Mas, desde o momento em que para a elaboração da informação a

energia é necessária, os sistemas cibernéticos dependem usualmente de

qualquer fonte de energia externa (por exemplo, da eletricidade no caso do vulgar

termostato doméstico). Seja como for, é essencial que sistemas de controlo

Page 23: Informação - Anthony Wilden

definidos pela cibernética mecaniscista sejam fechados à (nova) informação e

controlo. Devem ser estanques à informação, como afirma Ashby [1956, trad. It

pp. 10-11]; caso contrário o “controlo” no sentido do técnico cibernético torna-se

impossível. Como foi sublinhado, a maior parte dos sistemas cibernéticos naturais

ou sociais não é fechada deste modo, embora as suas fronteiras lhe permitam

impor uma clausura relativamente ao que usualmente eles aceitam ou não como

informação.

Outra característica do sistema cibernético artificial é que, embora as suas

capacidades reguladoras dependam dos registros de diferenças (informação),

estas são definidas pela teoria como unidades discretas (isto é no sistema de

Ashby correspondem ao que se tem chamado aqui “distinções”). “Formularemos,

portanto, para todos os casos, a hipótese de que as mudanças ocorrem com

variações finitas no tempo e de que toda a diferença tem um valor finito.

Admitiremos que as mudanças ocorrem por saltos descontínuos, precisamente

como a moeda nas contas bancárias, que não podem variar menos de um

escudo”. [ibid., p.17].

Os sistemas reguladores considerados por Ashby são assim definidos

como utilizando o mesmo tipo de “canais discreto” (canais que transmitem

elementos digitais) da teoria da informação de Shannon.

Recapitulando, as principais características que estão na base teoria

métrica clássica são:

a) quer na forma combinatória quer na probabilista, a teoria métrica

clássica mede possibilidades físicas numa lógica ou/ou;

b) os seus repertórios são conhecidos ou calculáveis (ou, então, são-no as

suas relações de ordem) e são constituídos por, ou reduzidos a,

seleções e combinações de elementos discretos;

c) de um ponto de vista lógico, o repertório, a fonte, o conteúdo, os canais,

etc. são unidimensionais ou tratados como se o fossem;

d) uma mensagem pode ser mais ou menos provável do que outra, mas

ambas pertencem à mesma tipologia lógica.

e) as mensagens de teoria quantitativa estão, para todos os efeitos,

privadas de contexto;

Page 24: Informação - Anthony Wilden

f) a teoria é essencialmente uma teoria de sintaxe (ordenamento

sintáctico) e não pode aplicar-se adequadamente à semântica (os dois

níveis: significado e significação) nem à pragmática (o nível do valor);

g) a informação, na teoria, é, sobretudo atomista e homogénea (tornada

simétrica).

(Para mais pormenores, cf. “Comunicação, SS 4.2, 1.6; 5.4; 5.3, 5.5; 5.6;

6).

O objetivo principal da medição quantitativa consiste em valorizar as

probabilidades numéricas que são associáveis à certeza relativa de que uma

particular mensagem tenha sido, ou possa ser, transmitida. A teoria métrica mede,

pois, essencialmente, a liberdade relativa de escolha de cada qual na seleção de

elementos de um dado repertório. Quanto mais provável for a escolha do

elemento (ou menor a liberdade relativa de o escolher) tanto menor será a

“surpresa” (menor a informação no sentido quantitativo) que se presume ter sido

provocada pelo elemento (a letra e em inglês, por ser o elemento mais provável

numa mensagem escrita, causa pouquíssima “surpresa” ou “notícia” e, portanto,

relativamente pouca “informação”).

Por consequência, tanto mais se estiver vinculado à informação estatística

do repertório, menor seré o seu conteúdo global de informação. Resulta daqui que

qualquer modificação na conformação (estatística) do repertório altera o seu

conteúdo de informação física, medida (W, por exemplo, contém uma quantidade

de «surpresa» muito mais elevada na língua escrita francesa do que na inglesa).

[Note-se, não obstante, a implícita, ainda que nem sempre reconhecida aqui,

assumida relaçào de níveis pela teoria métrica. Um vínculo pertence

necessariamente a um tipo lógico superior relativamente ao que está vinculado

(cf. «Comunicação», §§ 4.2, 4.5). Como na abordagem qualitatica, os vínculos

definem os limites, não tanto do que um sistema pode fazer como do que não

pode fazer.]

Por último, relembrando os pressupostos da teoria métrica, voltemos às

suas características de sistema fechado: características estas - convém recordá-

lo - completamente distintas das clausuras que os sistemas abertos determinam

utilizando relações de fronteiras. Assume-se que a informação no sistema (fonte-

Page 25: Informação - Anthony Wilden

canal-receptor) não seja somente conhecida, mas sim claramente distinta da

variedade definida como ruido.

Já que não existem canais sem ruído, nos sistemas de informação

fechados da teoria métrica, a informação (definida) deve inevitavelmente

«degradar-se» por efeito do ruído à medida que percorre os seus «canais».

Por consequência, e precisamente porque o sistema é fechado (e, na

verdade, basicamente mecânico ou eletrônico), os teóricos da cibernética e da

informação têm a possibilidade de ver analogias entre as suas atividades e da

informação tem a possibilidade de ver analogias entre as suas atividadese a

entropia positiva do segundo princípio da termodinâmica. Num dos enunciados

mais comuns, este princípio afirma que num sistema fechado (isolado) a

desordem (incerteza) tende a aumentar. A analogia, porém, não é problemática

apenas por causa da maneira como é fixada e definida (este ponto será

aprofundado adiante), mas sobretudo - e é o que mais conta para os atuais

objetivos deste artigo - pelo fato de que representa um produto não já das

relações informacionais nos sistemas do mundo real, mas sim da

unidimensionalidade fechada da própria teoria métrica.

Porque nào inclui uma teoria adequada dos níveis, e em particular uma

teoria satisfatória dos níveis semânticos e pragmáticos associados à informação,

a perspectiva do tipo sistema fechado da teoria métrica está sujeita a uma

consistente confusão de níveis (cf. «Comunicação», §1.6). No que diz respeito à

analogia com a entropia física, a teoria métrica confunde a informação com a

energia que lhe serve de suporte.

Trata-se obviamente de um erro epistemológico comum e elementar (ou

mesmo provocado por motivos puramente epistemológicos). Como há muito

lembroum Wittgenstein num trecho em que examinava a relação entre a

«palavra» e a chamada «coisa», o conceito de significação (Bedeutung) é usado

ilegitimamente «se... disignar [bezeichnet] o objetivo que ‘corresponde’ [entspricht]

à palavra... Quer isto dizer trocar o signfiado de um nome pelo portador do nome»

[1941-49, trad. it. p. 32]

2. INFORMAÇÃO E NÍVEIS DE ORDEM

Page 26: Informação - Anthony Wilden

2.1. ENERGIA E INFORMAÇÃO

A distinção entre energia (matéria-energia) e informação constitui um dos

aspectos centrais da abordagem informacional da realidade viva e social.

Todavia, a epistemologia da energia-entidade tende a descurar tanto a distinção

entre energia e informaçào como a significação desta distinção. A lógica digital

usada por esta epistemologia (uma forma de lógica digital que deriva da

acetuação moderna do sujeito versus o objeto e que, consequentemente, tende a

unidimensionar as relações) sugere que a distinção deveria dizer se uma

particular relação envolve energia ou informação. Na realidade, porém, a relação

implicará necessariamente ambas, mas a níveis diferentes. A lógica usual deixa

também implicitamente entender que a distinçào deveria dizer, por um lado, «o

que é a matéria-energia», e por outro lado, «o que é a informação». (É de notar a

simetria implícita da terminologia). O ênfase dado à essência das chamadas

«coisa» (mais do que à comunicação da informação nas relações) é naturalmente

o que deve ser criticado na «orientação de tipo entidade» da epistemologia

dominante e da relativa lógica (Usa-se ‘entidade’ para designar qualquer «coisa»

que esteja, explícita ou implicitamente, adstrita a fronteiras impermeáveis e ou a

uma existência autônoma.)

Na realidade, tanto matéria-energia como informação representam relações

(e níveis de relação) em sistemas particulares no contexto de ambientes

particulares, e não «coisas» coisas separadas ou isoladas dos seus contextos.

Além disso, matéria-energia e informação estão elas mesmas correlacionadas e

são interdependentes a vários níveis em todo o sistema vivo ou social. O que

pode ser utilizado como matéria-energia num dado tipo, ou a um dado nível, de

relações sistêmicas, pode sê-lo como informação em, ou a, outro nível (e vice-

versa). Assim, tal como informação e ruído (que também implicam níveis de

relação), energia e informação estão intimamente relacionadas uma com a outra

não são as suas características «intrínsecas», mas antes a maneira como são

usadas. Porque a informaçào de [como o significado (cf. § 2.2)] entregue somente

no contexto de sistemas finalizados, e (como o conhecimento a outro nível) é

invariavelmente instrumental, a afinidade entre energia e informação nunca pode

ser uma relação neutra.

Page 27: Informação - Anthony Wilden

A informação (como variedade codificada) dependente sempre, para

efeitos de transmissão e recepção, de «indicadores» ou «veículos» de matéria-

energia. Nos sistemas orgânicos e sociais, porém, a particular organização da

matéria e a particular orientação dos fluxos de energia (a todos os níveis de

relações superiores aos analisados pelas ciências físicas) dependem, por sua

vez, dos fluxos e das trocas de informação no sistema e entre o sistema e o

ambiente. Para as ordens de complexidade biológicas e sociais de tais sistemas,

a informação (em última análise vinculada ao que se define como as «leis»

reconhecidas da física e da química) é o fator organizante que «dispara» inputs e

outputs particulares de energia de maneiras particulares e em momentos

particulares, a fim de instaurar combinações particulares de matéria-energia a

níveis e em locais particulares no sistema global. Além disto, a informação a um

nível ou num local também disparará imputs ou outputs informacionais a outros

níveis e noutros locais.

Considere-se, por exemplo, a evolução de um ecossistema natural. As

rochas de uma montanha ou as partículas de uma planície lamacenta são o que

são e estão onde estão como resultado de processos exclusivamente físicos (do

nível subatómico ao nível geológico): mas árvores, plantas e microorganismos

transformarão a vertente montanhosa num ecossistema florestal, e a planície

numa pradaria, e finalmente ambas se tornarão o habitat de milhares de espécies

diversas. As relações matéria-energia, quer da montanha quer da planície,

embora dependentes ainda de processos puramente físicos, sofrerão portanto

uma reorganização por obra dos fluxos e das trocas de informação no interior de

e entre organismos vivos de muitos e diversos níveis de complexidade. As ervas e

os microorganismos por exemplo criarão um novo solo e farão parar o processo

de erosão geológica. A estrutura e a respiração do sistema florestal modificarão o

clima local. Os produtos químicos serão retidos nos numerosos ciclos

reprodutivos orgânicos no interior do ecossistema. Um novo processo físico-

químico (o fogo derivado da combustão da matéria orgânica) apenas aparecerá

para ser integrado por adaptação nos ciclos vitais e nas sucessões ecológicas da

floresta e da pradaria. Se se continuar a examinar os tipos de relações intra-

específicas e inter-específicas do ecossistema - por exemplo, territoridade,

Page 28: Informação - Anthony Wilden

competição, pseudocompetição, simbiose, parasitismo, comensalismo, relações

predador/presa, etc. - ou os múltiplos experidentes que entram em jogo no

controlo intra e inter-específico da população -, torar-se-ão obviamente ainda mais

evidentes a estruturação e a organização das relações matéria-energia do

ecossistema efetuadas por parte das relações informacionais.

Numa abordagem diversa ao mesmo problema, considere-se a inter-

relação entre matéria-energia e informação representada por uma vulgar chave

de automóvel. Os recortes da chave fornecem um exemplo simples de uma

configuração de variedade aposta a um pedaço de matéria de modo a torná-lo

uma personagem. Os recortes, porém, só sem condições específicas e para usos

específicos representam uma metragem. Quem, por exemplo, se servir da chave

para abrir uma lata de cerca para automóveis, mostra ignorar o aspecto

informacional e usa o metal como uma máquina simples, uma alavanca; se, vice-

versa, a utilizar para abrir a porta do automóvel, está a aproveitá-la sobretudo

como informação. (A configuração dos recortes feitos na chave liberta

automaticamente os obstáculos existentes na fechadura.). Usa-se, portanto, a

chave como matéria, como alavanca que faz rodar o mecanismo de bloqueio.

Mas, sem uma configuração de ajustamento (neste caso, uma fechadura

específica capaz de reconhecer, receber e agir graças à informação contida nos

recortes da chave), a chave torna-se imprestável como mensagem. Se não for

possível estabelecer a conexão entre as duas configurações de variedade

estrutruada, a chave é útil apenas como peso de metal, e a informação nela

codificada, embora sempre visível, reduziu-se ao estatuto de variedade não

codificada, ou ruído.

É evidente que, para poder ser corretamente definível como informação,

uma configuração de variedade não deve simplesmente fazer parte de um

sistema de codificação com adequados canais de transmissão. (No caso da

chave, os canais são as caracteristicas de codificação e recepção de um sistema

particular de fechaduras) Para ser usada como informação, a configuração deve

também ser parte integrante de uma relação emissor-receptor organizada em

torno de um objetivo. No caso das chaves e fechaduras, produtos e um projeto e

de um intento, pode-se legitimamente argumentar em favor da sua relação

Page 29: Informação - Anthony Wilden

informacional, mesmo que, por um acaso fortuito, nunca sejam utilizadas. No caso

geral, porém, as configurações de matéria-energia só se traduzem em informação

quando utilizadas como tais no contexto de um sistema povoado de subsistemas

finalizados. No âmbito deste contexto, a informação pode pois, ser dotada de

significação, valor de uso e ou valor de troca, consoante as situações (cf. § 3.2). É

ainda de observar que, mesmo neste exemplo simples, o nível lógico da

mensagem (os recortes fetis na chave) pertence a um tipo diverso (um tipo lógico

inferior) do código que torna a mensagem possível (o código do sistema de

recortes na chave projetado na oficina). Além disso, o código particular realmente

usado nos recortes é em si próprio um subcódigo de outro sistema de codificação,

um subcódigo do tipo específico de variedade infinita constituída pelo conjunto de

todos os possíveis indicadores de informação chamados recortes (cf.

«Comunicação», §§ 4.2, 5.3,5.4 e 5.5).

Considere-se ainda outro ponto. Além de ilustrar um sistema muito simples

de códigos e mensagens, o exemplo da chave constitui em si mesmo um caso de

nível de informação. Servimo-nos da chave como exemplo (e não como chave)

útil à transmissão de uma mensagem, não sobre as chaves, mas sobre a

informação em geral).

A maior parte das relações informacionais implica um transmissor-receptor

(ou um conjunto de transmissores-receptores) em fase de transmissão, e um

outro transmissor-receptor (ou um conjunto de transmissores-receptores) em fase

de recepção: todos esses empregam, partilham e são mediados por um dado

canal ou conjunto de canais e por um determinado código ou conjunto de códigos.

Todavia, a única condição necessária para que uma determinada configuração de

matéria-energia (variedade) seja entendida e usada como configuração particular

de informação é um único transmissor-receptor (como se verifica, por exemplo,

quando uma pessoa contempla a beleza de uma paisagem montanhosa: de fato,

a percepção é uma outra forma de comunicação). À primeira vista, esta definição

pode parecer uma configuração do solipsismo (‘o próprio, somente’) do cogito

cartesiano. [O cogito representa a concepção cartesiana da «coisa que pensa»

(res cogitans): ou seja, a «mente» cartesiana que pensa especificamente : Cogito,

ergo sum «Penso, logo existo».] Mas, podendo ser a condição necessária para a

Page 30: Informação - Anthony Wilden

comunicação da informação, o transmissor-receptor isolado não é, enquanto tal,

uma condição suficiente. A condição necessária e suficiente é dada pela

impossibilidade prática de existência de um transmissor-receptor que não seja um

participante integral, lugar de relações integrais num sistema de comunicações.

Por outras palavras, a condição necessária e suficiente para expedir e receber

informações é a mediação. O contexto da mediação é um sistema finalizado,

adaptativo, num ambiente geral do qual depende. O sistema finalizado (tal como o

seu ambiente) compreenderá um número impreciso de subsistemas finalizados.

(Esta relação manifestava-se de fato também no solipsístico cogito cartesiano.

Para a res cogitans cartesiana, o mediador de todas as comunicações com os

outros era a «divindade benéfica» - garante da verdade e lugar de resolução das

mais radicais formas de dúvida: o Deus do Discurso do Método.

Analisemos as passagens seguintes, escritas no século XIX, onde não só

encontramos a distinção entre matéria-energia e informação mas também somos

levados a examinar a produção e a troca de mercadorias como sistema de

informação de um modo cientificamente aceitável: «[É] o valor [de troca] que

transforma todos os produtos do trabalho num hieroglífo social [...] visto que a

determinação dos objetos e uso como valores é um produto social como o é a

linguagem» [Marx 1867, trad. it. p. 90]. Uma mercadoria é um «depositário de

valor [...] Mal entra em comunicação com outra mercadoria [...] revela os seus

pensamentos na única linguagem que lhe é acessível, a linguagem das

mercadorias» [ibid, pp. 63-64].

É claro que os termos ‘linguagem’ e ‘pensamento’ se devem interpretar em

sentido semiótico e não em sentido linguístico - e as metáforas semióticas são

particularmente abundantes no texto de Marx. As passagens que citamos indicam

que se deveria distinguir entre o aspecto matéria-energia de uma mercadoria e a

informação que esta contém, seja como valor de uso («objetos de uso») seja

como valor de troca. Esclarecem, além disso, que os valores de uso e os valores

de troca constituem dois níveis distintos de relação no sistema de produção. O

código ou «estrutura profunda» da «linguagem das mercadorias» de que Marx se

ocupa na passagem (isto é, a comunicação da informação codificada em valores

de troca) é a estrutura semiótica profunda representada por qualquer «equivalente

Page 31: Informação - Anthony Wilden

geral de troca» capaz de mediar as relações digitais de troca entre mercadorias.

Como Marx frequentemente faz notar, também noutros pontos, os valores de

troca são discretos, ao passo que os valores de uso não o são (cf.

«Comunicação», §§ 6.1,6.2 e 6.3).

2.2. INFORMAÇÃO, SIGNIFICAÇÃO E SIGNIFICADO

A informação está de tal modo onipresente na manutenção e na

reprodução da vida e da sociedade que nenhuma pessoa ou organismo

conseguiria talvez estar plenamente ciente de todas as suas múltiplas formas, a

todo o momento. Aspectos existem da variedade que não percebemos nem

usamos, ou que não podemos perceber ou usar, nem como roganismo nem como

seres sociais. Há também aspectos da variedade que podemos perceber ou usar,

mas que tratamos habitualmente como «ruídos de fundo». Certos aspectos da

variedade serão, além disso, percebidos e usados como informação fornecida por

um dado sistema num certo contexto, mas não noutro. (O ruído de fundo

perturbador, produzido pela máquina, está a difundir-se rapidamente nos recantos

mais remotos, em particular nos ambientes urbanos. Grandes prédios de

apartamentos, restaurantes, fábricas, grandes armazéns e similares adquirem

hoje em dia uma forma especialmente projetada de ruído, geralmente conhecida

pelo nome comercial de Muzak, que se difunde por todo o edifício a fim de abafar

as outras formas de ruído endérmicas na estrutura.)

Mas, mesmo descurando toda a variedade a que não prestamos ou não

podemos prestar a atenção, a informação útil a que reagimos continua a ser uma

quantidade enorme - pelo menos enquanto medida em bit unidimensionais.

Medindo em bit, as estimativas da quantidade de informação que um ser humano

elabora ou é capaz de elaborar rapidamente ou às quais reage ou é capaz de

reagir atingem valores inimagináveis. Calculou-se, por exemplo que o input ao

cérebro vindo da retina de um olho pode atingir uma velocidade de 50 milhões de

bit físicos por segundo (ligeiramente mais do que a capacidade dos golfinhos, por

exemplo, para receber sinais pelos ouvidos, ao passo que a capacidade auditiva

humana está provavelmente limitada a cerca de 2 milhões de bit por segundo).

Além disso, se admitirmos que existem 1012 ligações sinápticas entre os

Page 32: Informação - Anthony Wilden

neurónios cerebrais, e aceitarmos, para simplificar, que a informação é

transmitida apenas por essas ligações e apenas por meios digitais (nenhuma das

duas hipóteses é correta), o número das possíveis combinações ou estados

aceso/apagado das conexões sinápticas do cérebro será pelo menos igual a 2

multiplicado por si mesmo 1012 vezes (21012) - um número tão grande que perde o

significado.

Não elaboramos, naturalmente, as informações (nem mesmo informações

exatamente do mesmo tipo) em sequências ou pacotes de bit. Ao nível mais

fundamental, parece que a informação é tratada com base em equivalentes

biofisiológicos de uma lógica de classes e subclasses (ou de conjuntos,

subconjuntos). O tratamento das informações deve provavelmente fazer-se de

acordo com algo equivalente ao que a teoria dos computadores chama «rotina» e

«subrotina» [MacKay 1969, pp. 95-113]. Não interessa, para este efeito, saber

quais poderão ser na prática estes processos de informação - e também é caso

para observar que os neuro-fisiologistas ainda não encontraram uma descriçào e

uma explicação satisfatórias do comportamento de um neurónio isolado (para já

nào falar dos mistérios em torno da função das células glitais do cérebro). O único

ponto que queremos sublinhar é que os organismos (e, naturalmente, as

sociedades) chegam a tratar informações do mesmo tipo com base numa

hierarquia de níveis (cf. o artigo «Erro» nesta mesma Enciclopédia). (Algumas

destas hierarquias, as «rotinas nodais» ou «pontos altos» mudam de lugar e de

função ao longo do tempo.) Sem estes sistemas de tratamento hierárquico, é

razoável supor que morreríamos num momento de sobrecarga de informação (cf.

«Comunicação», § 3.5).

Níveis. Uma hierarquia de níveis está já implícita na distinção entre

«informação» e «ruído» (uma relação que implicará também heterarquias). Como

salientámos, ambas são formas de variedade, mas não são equivalentes do ponto

de vista lógico. Como a variedade pertence a um tipo lógico superior à informação

e ao ruído, assim também o ruído é de um tipo lógico superior à informação. A

relação entre informação e ruído, por outras palavras, não é bilateral, não constitui

uma oposição (cf. fig.1)

Page 33: Informação - Anthony Wilden

A figura 1 representa a hierarquia dos níveis «encaixados» da tipologia

lógica que vimos a discutir. A representação esquemática é um tanto inadequada,

mas serve para esclarecer a forma como, neste exemplo, os níveis «superiores»

sujeitam e incluem os «inferiores» (um pouco como uma série completa de caixas

chinesas) e permite também visualizar a hierarquia sistêmica em causa como

sendo uma hierarquia de veículos. Cada nível superiro vincula as possibilidades

(a liberdade semiótica relativa) disponíveis para cada um dos níveis inferiores.

Traduzido na terminologia dos sistemas, a «variedade» representa no diagrama o

«ambiente» do sistema constituído por informação e ruído (cf. «Comunicação»,

§§ 4.2 e 4.3 e 4.5, 7.1, 7.2, 7.4).

Variedade

Ruído

Informação

Figura 1.

Tipologia lógica de informação e ruído num sistema particular.

Na terminologia filosófica tradicional, poderia dizer-se que a variedade é o

fundo (Grund) tanto da informação como do ruído e que, se começarem a fazer

distinções entre ruído e informação, o domínio definido como «ruído» inclui todos

os tipos de «informação» preescolhida, somada a todos os tipos de informação

que não foram (ainda) escolhidos ou que não podem ser escolhidos. Em termos

ecológicos, é possível exprimir o mesmo conceito afirmando que, nestas

condições, o «ruído» é o ambiente do sistema chamado informação (seja este

sistema o que na realidade for) - e um ambiente no sentido ecológico pertence

necessariamente a um tipo superior ao dos sistemas que compreende.

Semântica. Todos nós sabemos, por intuição, qual é o objeto do

significado, mas comprendemos também alguns aspectos da extraordinária

complexidade do mundo em que vivemos e sabemos que, pelo que nos diz

respeito, o significado de certas formas está na base de tal complexidade.

Page 34: Informação - Anthony Wilden

Todavia, e não obstante a complexidade do problema da semântica à

pragmática (o domínio do valor) no tempo, é possível utilizar os conceitos

semióticos de diferença e de distinção, juntamente com a realidade lógica e

existencial das hierarquias de relação, para esclarecer, pelo menos sob certos

aspectos, as conexões entre informação, significado e significação.

Em primeiro lugar, pode estabelecer-se uma distinção entre dois setores a

diferentes níveis no âmbito do domínio geral do que é usual etiquetar como

semântica. Pode distinguir-se entre a informação diferencial e analógica que

constitui o campo de ação do significado, a um nível, e a informação discreta ou

digital envolvida na significação, a outro nível. Esta distinção entre níveis (que não

é do meso tipo que as distinções entre elementos discretos no interior do nível

digital como tal) faz-nos refletir sobre aquilo a que Ogden e Richards, entre muitos

outros, descuraram, ou seja, distinguir as condições do significado (semânica e

metassemântica) do puro léxico do significado, que preocuparam Ogden e

Richards, entre outros positivistas lógicos. Os positivistas lógicos interessaram-se

sobretudo pela perfeição do significado na linguagem ou no desenvolviemento de

linguagens ou sistemas de notações artificialmente não ambíguos (por exemplo, a

chamada lógica simbólica). Assim, concentraram-se sobretudo no problema

lexical de como dar um sentido àquilo que dizemos, mas não parece que tenham

alguma vez considerado seriamente a verdadeira questão semântica do como é

que o que dizemos tem um sentido.

Trata-se exatamente, como é óbvio, do tipo de questão semântica (ou

metassemântica) à qual se não podem dar respostas fáceis, e certamente

nenhuma se a semântica for considerada (e, de fato, é o, explícita ou

implicitamente por parte de muitos autores contemporâneos) como um domínio

separado (e ou subjetivo) da semiótica da troca de informação [Watzlawic e

outros 1967]. Seria, porém, injusto, dado o caráter da tentativa levada a cabo por

Ogden e Richards, entre outros (tentativa no sentido de tornar o significado o mais

«objetivo» possível, ou seja, adequadamente «coletivo», não reconhecer a

coragem das suas convições. Não fugiram ao problema do significado recorrendo

à subjetividade que forma a imagem especular da objetividade, ou seja,

recorrendo à subjetividade do relativismo.

Page 35: Informação - Anthony Wilden

Continuidade e descontinuidade. A variedade foi definida como sendo o

«fundo» tanto da informação como do ruído. Voltemos à aplicação dos critérios

citados (critérios a que se pode recorrer para exprimir a diferença entre tipos

diversos de dirença), ou seja, ao emprego das categorias diferença, distinção,

níveis de tipologia lógica, etc). É evidente que se poderiam escolher outras

etiquetas para os critérios, mas como todas as formas de informação podem ser

descritas como potenciais ou atuais «notícias de uma diferença» (diferenças

porém de muitos tipos diversos, compreendendo as distinções, as oposições e as

contradições, por exemplo), a termonologia usada revela-se geralmente

apropriada.

A seguir, será considerado um ambiente da cariedade em termos de uma

série «descendente» de níveis distintos. Como na representação usada na figura

1, a classificação procede dos níveis superiores, mais inclusivos e abstratos, aos

níveis inferiores, menos inclusivos e mais específicos. Dado que estes níveis, por

sua vez, se subdividem noutros níveis (reais e ou construídos), seria oportuno

defini-los como «ordens», ainda que esta terminologia conduza, por vezes, a

certas dificuldades de expressão. Estas ordens, bem como os níveis nelas

incluídos, podem em certos contextos ser mais bem compreendidas do ponto de

vista da teoria dos conjuntos (conjuntos, subconjuntos, superconjuntos); noutros

contextos, são mais utilmente visualizadas como níveis e ordens de vínculo, no

sentido em que a ordem superior ou o nível superior vinculam (mas não

determinam nem controlam) a ordem ou o nível inferior; ainda noutros contextos,

pode ser mais oportuno interpretar os vários níveis recorrendo ao modelo das

relações código/mensagem; ou como relações de comunicação e

metacomunicações; ou ainda, por analogia, com figura e fundo; e assim por

diante. O princípio fundamental sobre o qual se baseia esta representação da

hierarquia entre variedade, informação, significado e significação é o seguinte: os

níveis ou ordens inferiores dependem, para a sua existência, dos níveis ou ordens

superiores, ao passo que estes últimos dependem dos primeiros para a sua

significação, ou um equivalente desta.

O ambiente geral da variedade permite aos emissores-receptores (ou

comunicadores) finalizados, mediante várias relações codificadas, reagir a

Page 36: Informação - Anthony Wilden

aspectos diversos desta mesma variedade, a nível celular, organísmico, social,

etc. A forma basilar de informação, da qual, em última análise, dependem todas

as outras, é o tipo variável com continuidade de variedade que se definiu como

«diferença». A informação diferencial (que pode ser ou não ser digitalizada a

outros níveis no sistema global) é equivalente à que, noutra ocasião, se chamou

informação «analógica» (também tem sido chamada informação «de codificação

contínua», mas hoje parece mais apropriado chamar-lhe «variável com

continuidade»). Este nível do sistema é considerado um continuum de diferenças:

entre as diferenças não existem saltos ou fronteiras.

O conceito analógico da estruturação contínua está disponível para a

digitalização a outro nível, o da informação descontínua. Seleções e combinações

de «elementos discretos» são aqui permitidas pelos saltos entre as unidades de

informação. Tais saltos (sintáticos) fornecem um tipo de informação em que os

limites criados pelos saltos entre as unidades discretas (por exemplo, alfabetos,

números inteiros) são parte essencial do código. Na sua forma mais simples, este

tipo de informação não implica diferenças variáveis com continuidade, mas antes

seleções e combinações de descontinuidades a que é possível chamar

«distinções». É o domínio de informação digital, onde podem também nascer

tipos particulares de distinções, em especial oposições, contradições e paradoxos

(cf. também «Comunicação», §§ 5.4,7.2,7.4,7.7).

Note-se que já não interessa saber se certos aspectos de um domínio

particular da variedade são subdivididos ou percebidos (ou mal percebidos) como

ruídos por sistemas finalizados individuais ou coletivos. O motivo do coráter

supérfluo de semelhante distinção é que qualquer tipo de informação, a cada um

dos níveis discutidos, é sempre intrinsecamente indistinguível do ruído. Embora

utilizemos aqui a mesma espécie de representação e explicação hierárquicas que

empregamos antes (cf. fig.1), as representações não são diretamente traduzíveis

uma pela outra. Os termos usados para os três níveis da primeira explicação

(variedade, ruído e informação) não são sinônimos diretos dos três termos da

segunda (variedade, diferença e distinção). O que é traduzível é a estrutura da

representação e da relação e não a sua terminologia particular.

Page 37: Informação - Anthony Wilden

Significado e significação. Do desvio entre diferença e distinção (ou seja,

da diversidade «vertical» na tipologia lógica dos dois campos) resulta, quer numa

linha lógica quer numa linha intuitiva, que o contexto analógico da configuração

continua a ser cosiderado equivalente ao domínio do significado. Os significados

são definitiva e essencialmente diferenciais, dado que os «valores de sentido»

não têm limites discretos (a menos que sejam digitalizados ou ordenados). Os

valores de sentido fluem de um para o outro, e qualquer posição no sistema tem

um significado somente em virtude da sua diferença relativamente a todo o resto.

Por outro lado, os significados representam os valores de uso da comunicação e

da linguagem. Valores de uso sociais, simbólicos e econômicos, todos participam

no continuum diferencial do aspecto analógico da comunicação. Se, porém, se

digitalizarem os valores de uso, introduzem-se distinções no sistema. Tais

distinções digitais codificam alguns aspectos dos valores de uso como valores de

troca. Se, analogamente, se efetuarem distinções lexicais entre os significados,

chega-se a uma digitalização do significado que faz emergir a significação (isto é,

aquilo a que ordinariamente se chama «significado»). Além disso, a par dos

valores de troca, as signifcaçòes são diacríticas, ou seja, são definidas não

somente pela diferença, mas também pela distinção relativamente a todo o resto,

pela distinção relativamente a todas as outras significações no sistema.

Em suma, assim como é possível afirmar que as significações digitais

emergem através da distinção entre o fundo diferencial e analógico do significado,

assim também se pode sustentar que os valores de troca (que são

necessariamente digitais) emergem do continuum dos valores de uso mediante a

digitalização da diferença.

Por exemplo, o conceito freudiano de significado (Bedeutung), por

exemplo, implica um processo mediante o qual a continuidade (analógica) do

processo primário (o inconsciente) é fixada (poderia dizer-se digitalizada) pelas

capacidades (analógico-digitais) do processo secundário - a consciência e o

preconsciente, o domínio da memória vulgar. Na realidade, parece que a própria

memória está disposta em configurações analógicas, ao passo que a ação da

recordação envolve claramente a digitalização ou fixação (Bindung, Besetzung)

Page 38: Informação - Anthony Wilden

de uma configuração particular de modo a fazê-la emergir como pensamento

consciente [Wilden 1972, pp. 141-47,271-73,445-56).

Informação analógica, digital e icônica. O domínio analógico está em

relação direta com o grego nous (‘mente’, ‘significado’, ‘sentido’) no seu sentido

neoplatónico de uma emanação contínua de Deus. Como modo primário de

sensação humana, o analógico partilha o significado do alemão Sinn e do francês

sens, por exemplo. Além disso, como sublinha Takao Hagiwara (comunicação

pessoal), os taoístas chineses comentam repetidamente a relação analógico-

digital, particularmente no quando da disputa com os expositores da lógica

analítica (por exemplo, com os Lógicos). A seguinte parábola taoísta do filósofo

Chang Chou (IV século a.C.) narra melhor do que poderíamos fazer a história do

espaço digital: «O senhor do mar meridional tinha o nome de Shu (Conciso). O

senhor do mar setentrional chamava-se Hu (Improviso). O senhor da zona central

tinha o nome de Hum Tun (Aquele que está para além da ordem e da desordem).

Shu e Hu encontravam-se frequentemente no território de Tun; tendo sido sempre

tratados por este com gentileza, decidiram retribuir. Disseram: Todos os homens

tem sete aberturas - para ver, ouvir, comer e respirar. Só Hun Tun não tem

nenhuma. Vamos tratar disso. E, assim, em cada dia, abriram um furo: mas no

sétimo dia Hun Tun morreu.»

Hun Tun é usualmente identificado com o Caos, mas a concepção taoísta

do Caos vai para além do conceito comum de Caos como desordem, e Hun Tun

significa também, em chinês, ambiguidade e continuidade. Num certo sentido,

representa o estado do cosmos da «divisão» entre o céu e a terra; noutro sentido,

exprime o princípio primordial que permeia o cosmos sempre que e em toda a

parte: é outro nome para o Tao, o instrumento da natureza.

Variedade em geral

Diferenças analógicas

Significado e valor de uso

Page 39: Informação - Anthony Wilden

Distinções digitais

Significação e valor de troca

Figura2.

Significado e significação

A figura 2 é uma representação das relações sincrônicas (atemporais)

entre a esfera analógica do significado e do valor de uso e a esfera digital da

significação e do valor de troca - ambas dependentes da variedade em geral.

Valor de uso e valor de troca são ambos aspectos essenciais do valor nos

sistemas humanos, exatamente como informação analógica e digital constituem

ambos aspectos essenciais em todos os sistemas de comunicação.

Analogiacamente, o significado e a significação são indispensáveis aos sistemas

semióticos, os quais, por sua vez, envolvem invariavelmente inter-relações entre

diferença e distinção. Dadas certas circunstâncias sócio-históricas, a tipologia

lógica destas interações pode ser invertida (no período curto), de tal modo que a

comunicação digital se mostrará dominante relativamente à comunicação

analógica, e do mesmo modo o valor de troca perecerá prevalecer sobre o valor

de uso (cf. «Comunicação», § 7.5). Produção e troca podem perder o seu valor

social e econômico «cimentador», e assumirem as características fetichistas ou

imaginárias da produção e da troca alienadas - produção e troca alienadas de

valores de uso humanos, sociais e ecológicos.]

Da interação entre a esfera da informação analógica e a da informação

digital nasce a terceiras forma mais comum de organização da informação: a

informação icónica de imagens, quadros, diagramas e outros signos icónicos

codificados aos ordenamentos ou confins circunstantes (que, naturalmente,

podem ser pluridimensionais e não necessariamente estáticos ou fixos) e

distinguem-se do domínio digital ou descontínuo na medida em que não são

meras seleçòes e combinações de caracteres relativamente arbitrários (por

exemplo, letras). Antes constituem representações reais ou analógicas com uma

Page 40: Informação - Anthony Wilden

determinada realidade (muitas vezes relativa a uma informação infinita), ou são

representaçòes daquelas representações. Os ícones, portanto, pertencem quer

ao domínio do significado quer ao da significação, dependendo a relação que

temos de certa pessoa pode ser considerada uma informação icónica,

parcialmente codificada por convenção, mas, o mais das vezes, não codificada e .

«destituída de significado». Uma fotografia dessa mesma pessoa é uma

representação visual do ícone da pessoa. Uma pintura seria uma ulterior

interpretação da representação. Por fim, as figurinhas estilizadas à entrada de um

aeroporto ou nos sinais do trânsito são um exemplo da representação icónica

usada como significação num sistema codificado de signos icónicos: a figura

significa «homens» ou «senhoras», ou «via livre» ou «parar», etc. [Krippendorff

1975.] Este último tipo de ícone representa a reprodução da complexidade da

variedade disponível ao nível simplicíssimo de um indicador ou «sinal-índice».

Oposição e contradição. Considerando o seu aspecto diacrônico, os

conceitos fundamentais aqui usados para discriminar tipos diversos de relações

informacionais formam uma sequência evolutiva ou histórica. É possível discernir

uma sequência genética de grande geralidade, uma sequência que põe em jogo a

reestruturação repetida da organização. Além da diferença e da distinção, podem

gerar-se as relações informais de oposição, contradição e paradoxo.

Veja-se, por exemplo, o desenvolvimento ontogenético e social das

crianças. No útero, o embrião cresce vigorosamente numa associação diferencial

sistema-ambiente com a mãe, uma associação na qual é mínima a distinção que

subsiste entre os dois organismos. A comunicação analógica de hormonas e

outras secreções na corrente sanguínea é particularmente significativa na sua

relação; e a comunicação digital é o mais íntima possível. Finalmente, com o

tempo e designadamente após o corte do cordão umbilical e a consequente

entrada da criança no mundo, certas distinções específicas e novas vêm a

assumir um significado mais pregnamente para a criança. A criança tem de

aprender, por exemplo, a distinção entre ‘um’e ‘dois’, que, por sua vez, será a

base da distinção entre ‘ela própria’ e o ‘outro’. Em certas circunstâncias, esta

distinção (entre outras) pode levar a uma oposição bilateral entre ‘ela própria’ e o

“outro’, uma oposição que implica a identificação com (e contra) o «outro». [Sobre

Page 41: Informação - Anthony Wilden

as oposições e identidades do «estádio do espelho» na infância, cf. Lacan 1966,

pp. 87-94, 178-187, e passim). As oposições binárias (nas quais cada oporto é

tratado como se pertencesse ao tipo lógico do outro, prescindindo da situação

real) podem também potencialmente transformar-se em conflitos hierárquicos ou

contradições entre o dominante e o subordinado (estas contradições dominante-

subordinado podem também ser tratadas inconscientemente como oposições a

um só nível). As contradições fornecem a possibilidade de relações paradoxais

(contradições indetermináveis), tais como as que operam nos double binds (cf.

«Comunicação», §§ 7.2, 7.4).

Diferença e distinção encontram-se em todas as relações informacionais;

oposições, contradições e relações paradoxais, no entanto, podem ou não

resultar das distinções que as tornam possíveis. Se e como estas relações se

desenvolvem dependerá de circunstâncias socioeconômicas, ecológicas e

históricas.

O conceito desta sequência diacrónica sempre potencial - diferença,

distinção, oposição, contradição, paradoxo - foi na sua origem extraído da análise

da informação e da comunicação, sem referência a alguma disciplina ou grupo de

disciplinas em particular. Todavia, à exceção do papel especial do paradoxo na

sequência, tanto os aspectos diacrônicos como os sincrônicos revelam-se

praticamente idênticos à base conceptual que serviu a Marx para analisar a

emergência da dominação do valor de troca sobre o valor de uso nas sociedades

capitalistas. Nos Grundrisse [1857-58] encontra-se o seguinte trecho crítico. Marx

comenta o fato de uma mercadoria ter uma dupla existência: 1) «Como produto

determinado que contém idealmente (de forma latente) o seu valor de troca na

sua forma de existência natual»; 2) «Como valr de troca tornado manifesto

(dinheiro), o qual se despojou por sua vez de toda a conexão com a forma de

existência natural do produto». E prossegue afirmando: «Esta existência dúplice

e diversa deve levar à diferença, e a diferença à contradição» [trad. it. p. 76].

2.3. SELEÇÃO, COMBINAÇÃO E CONSTRANGIMENTO

As mensagens construídas com base em «estruturas profundas» ou

códigos digitais ou digitalizados depende de duas «coordenadas» inter-

Page 42: Informação - Anthony Wilden

relacionadas e intercomunicantes: o aspecto da escolha do código e o eixo da

comunicação na linguagem. Estas idéias derivam em parte da obra do linguista

suíço Ferdinand de Saussure. Saussure é o linguísta mais responsável pela

transformação da filosofia histórica do século XIX no que viria a ser o fundamento

da moderna ciência da linguística. Saussure foi provavelmente o mais influente

entre os que insistiram na necessidade de estudar quer a linguagem quer o

discurso como sistemas de comunicação. Considerando a linguagem na sua

globalidade, Saussure identificou o estudo do sistema sincrônico da linguagem na

sua realidade instantânea, sem se referir à sua história, e distinguiu-o do estudo

das modificações diacrônicas no sistema de linguagem, ou discurso no tempo.

Saussure identificou, assim, dois tipos de coordenadas para todas as

características da atividade: o eixo sincrônico das «simultaneidades» e o eixo

diacrônico das «sucessões» [1906-11, trad. it. p.100]. As noções que estão na

base das concepções das duas coordenadas de estruturação linguística foram

desenvolvidas e modificadas pelo estudioso da filologia russo-americano Romam

Jakobson no seu estudo clássico sobre linguagem e afasia [Jakobson e Halle

1956].

O eixo da simultaneidade pode ser visto como eixo vertical da relação de

codificação (eixo paradigmático); o eixo da sucessão pode ser visualizado como

eixo horizontal das relações manifestadas na mensagem (eixo sintagmático). Nos

sistemas de informação digitais ou digitalizados, a construção das mensagens

implica uma interação singular, repetida e complexa entre os eixos paradigmático

e sintagmático. As seleções paradigmáticas num dado código (existente

sincronicamente) constrangem as possibilidades de combinações sintagmáticas

na mensagem (expressas diacronicamente) e as consequentes combinações

constragem por sua vez as escolhas futuras no código, até que a mensagem

particular atinja a sua meta.

Na linguagem, por exemplo, a seleção «Eu» constrange usualmente a

escolha subsequente a uma locução verbal na primeira pessoa, e a combinação

da locução com o correspondente sujeito linguístico constrange depois a escolha

de vários predicados. Estas escolhas e combinações não somente operam pois

em conjunto mas também intervêm ao mesmo tempo a diversos níveis

Page 43: Informação - Anthony Wilden

semióticos: a nível dos sons (as particularidades distinções acústicas permitidas

na linguagem); a nível da sintaxe (as relações ordenadoras de certa linguagem);

a nível da intenção subjetiva (aquilo que uma pessoa deseja dizer); e a nível da

semântica previamente definida (os valores do que efetivamente se exprime).

Estas operações e muitos níveis estão, por sua vez, constrangidas pela

pragmática do contexto em que se verificam, quer ao nível do discurso dominante

quer ao nível do sistema sócio-econômico global.

[A linguagem é tão analógica como digital na forma e na função, mas a

linguística trata-a habitualmente como sistema digital, relegando os seus aspectos

analógicos e icónicos para o domínio da paralinguística. Na realidade, é

precisamente o denominador comum (o digitalismo) que em larga medida explica

a permanente confusão relativa à conexão entre linguagem e comunicação e

entre linguística e semiótica.]

No sentido mais simples, os códigos que mediam as relações entre

comunicantes envolvem constrangimentos e possibilidades. Os códigos digitais

são por norma descritos como conjuntos de possibilidades (geralmente

consideradas elementos discretos) associados a várias hierarquias de regras

relativas à tolerância das possibilidades de escolha e combinação. As regras,

porquanto, representam subconjuntos de vínculos no âmbito global, que é de per

si um vínculo sobre todas as mensagens possíveis e suscepítveis de serem

construídas no sistema. Neste sentido, a escolha (vinculada por regras) pertence

sobretudo ao repertório de possilibdades - o código de elementos digitais ou

digitalizações - aplicado no sistema. A combinação, por sua vez (constrangida à

escolha disponível de possibilidades), pertence sobretudo às regras graças às

quais as possibilidades estão organizadas em mensagens. Em determinado

sistema, o código e os seus subcódigos são, naturalmente, de um tipo lógico

superior ao das mensagens efetivas que consentem. É duvidoso que as

«possibilidades» aos diversos níveis de repertório da linguagem sejam

verdadeiramente elementos discretos. Segundo o técnico de comunicações

MacKay, Jakobson [Jakobson e Halle 1956] chama-lhes simples como são o do

alfabeto ou o dos números inteiros, tais elementos construídos obviamente,

embora sem fazerem parte de um elenco. Torna-se, porém, possível argumentar

Page 44: Informação - Anthony Wilden

que um sistema digital complexo não requer mais do que um conjunto de

variedades e um conjunto de regras, entre as quais uma ou mais relativas ao

modo de criar elementos discretos. Os elementos discretos ou digitais manifestar-

se-iam, portanto, na estrutura superficial do sistema (o nível das mensagens) sem

existirem necessariamente como tais a nível da sua estrutura produnda. É

certaemnte evidente que, quanto mais se visualizar um código simplesmente

como se fosse um dicionário de palavras, uma coleção de sons ou um alfabeto de

letras, (como na teoria da informação e em certos setores da linguística), tanto

menos probabilidades se terá de compreender as reais implicações e

complexidades da relação código/mensagem, da qual, em última análise,

dependem todas as formas de comunicação.

O código acústico. Como é natural, a linguagem tem sido estudada muito

mais profundamente do que a informação: é este um dos motivos pelo qual os

modelos linguísticos tendem ainda, expícita ou implicitamente, a dominar o estudo

da simótica e da comunicação. Do ponto de vista da teoria quantitatica da

informação, a linguagem pode, não obstante, introduzir relações informacionais

sem assumir necessariamente o estatuto de um modelo basilar de todas as

relações deste tipo.

Acompanhando, sob certos aspectos, o modelo fonológico da estrutura

sonora do discurso, desenvolvido pela escola de linguística de Praga, em especial

por Trubeckoy e Jakobson, pode utilizar-se uma versão deste modelo para ilustrar

algumas das inter-relações de contextos, níveis e constrangimentos, envolvidas

em todos os sistemas de informação relativamente complexos (note-se que não

estamos agora preocupados com as várias disputas e diferenças terminológicas

entre as diversas escolas de linguística, mas apenas com os esquemas

linguísticos gerais).

As inter-relações de contextos, níveis e vínculos envolvem numerosos

problemas que, na prática, ocorrem simultaneamente. Além disso, nunca se

chegou a demonstrar de modo conclusivo que um nível ou traço particular da

linguagem esteja na prática separado dos outros. Som, sentido, estrutura e

transformação interactuam continuamente. A dissecção de certos aspectos do

processo global, que devemos praticar para os podermos discutir, não deve ser

Page 45: Informação - Anthony Wilden

confundida com o processo em si mesmo. Pela mesma razão, a abordagem

seqüencial que a linguagem impõe à explicação das relações informacionais na

linguagem (sequências com conexões implícitas de «antes» e «depois») não

deveria confundir-se com o que na realidade acontece quando nos servimos da

linguagem para falar da linguagem.

A título explicativo, pode supor-se, acompanhando os citados especialistas

da fonologia, que a estrutura sonora fundamental de todas as linguagens faladas

consiste numa «estrutura profunda» com um número relativamente exíguo de

traços distintivos (por vezes impropiramente definidos como «oposições

binárias»). Estas distinções são selecionadas no continuum das diferenças

perceptíveis como «intervalos» permitem aos traços distintivos (existem talvez

uma doze a dezesseis «pares») associar-se em combinações a vários níveis para

formar o nível sucessivo da estrutura fonêmica de determinada linguagem.

Um fonema é uma combinação designada ou reconhecível de traços

distintivos, como por exemplo, o som /b/, que permite distinguir entre enunciados

ou parter de enunciados. É assim que, em inglês, a distinção entre /b/ e /p/

permite discernir bit de pit. A realização fonética do fonema /b/ num enunciado

oral diversifica-se da de /p/ por três traços distintos, pelo menos todos

concomitantes. O fonema /b/ é, pelo menos em parte, sonoro, ao passo que /p/

não requer a vibração das cordas vocais; /p/ é acompanhado de um sopro de ar

distinguível (aspiração), ao passo que a expulsão de ar necessária pra /b/ não

atinge o nível de traço reconhecível; /b/ é «relaxado», ao passo que /p/ é

«temso», isto é /b/ é pronunciado com menos tensão muscular do que /p/. Os

traços distintivos aqui em jogo incluem pois, tanto o que é apercebido como

presença ou ausência de um traço particular (por exemplo, sonoro/surdo) como o

que se descreve melhor em termos de diferenciações «mais ou menos» (por

exemplo, relaxamento-tensão), que se distinguem após terem ultrapassado

determinado limiar.

Em qualquer linguagem, o número de componentes sonoros informacionais

ditos fonemas é pequeno, e varia de dialeto para dialeto, de lugar para lugar e de

época para época. Demonstrou-se, por exemplo, que o espanhol castelhano se

serve de vinte e quatro fonemas, ao passo que o espanhol americano só emprega

Page 46: Informação - Anthony Wilden

normalmente vinte e dois. Analogamente, os franceses mais velhos podem

empregar até trinta e quatro fonemas, ao passo que os franceses nascidos após

1940 só empregam trinta e um [Martinet 1960, trad. it. p. 28].

A designação de uma combinação particular de traços distintivos como

fonema bem definido é arbitrária e descura boa parte da produção acústica real

de qualquer falador. Além disso, nem os limites entre traços distintivos, nem os

limites entre fonemas se revelam necessariamente a quem observe um

audiograma, ou seja, um registro visual do discurso. (Por outro lado, os

«silêncios», num enunciado, referem-se corretamente a limites do nível sonoro

global, mais do que a ausências reais do som). O ponto crucial é em todo o caso

que o conjunto de fonemas reconhecíveis ou designados de determinada

linguagem forma um sistema sincronicamente fechado no que se refere à

estrutura acústica; é fora do sistema fechado de sons que, em última análise, se

gera na linguagem o sistema aberto da significação a um nível distinto do da

estrutura sonora como tal.

De quanto procede se nota imediatamente que, também ao nível

relativamente simples da estrutura acústica da informação na linguagem, existe

uma relação de código e mensagem - ou e estrutura produnda e estrutura

superficial. Podem considerar-se os fonemas como mensagens derivadas por

escolha e combinação (a vários níveis) dos traços distintivos. (Os traços

distintivos disponíveis empregados por uma determinada linguagem constituem

um subconjunto de todos os acessíveis na prática. O chinês, por exemplo, recorre

a tons para distinguir entre enunciados; outras linguagens recorrem a sons secos,

e a coisas parecidadas.) Sendo assim, os fonemas são mais numerosos do que

os seus (supostos) constituintes e pertencem a um tipo lógico inferior. Vice-versa,

um fonema é uma «unidade» mais complexa do que um traço distintivo (cf.

«Comunicação», §§ 4.4, 4.5). Também a este nível, o mais simples enuciado

requer níveis de «texto» e «contexto». A escolha dos traços distintivos no código

acústico das possibilidades informacionais e a sua combinação na mensagem

dependem de, pelo menos, dois códigos ou na estrutura profunda constrange as

mensagens possíveis no sistema acústico. Ao mesmo tempo, o contexto

horizontal ou sintagmático da combinação na mensagem acústica torna possível a

Page 47: Informação - Anthony Wilden

manifestação dos traços distintivos na estrutura superficial dos sons e constrange

simultaneamente a continuação do processo seletivo.

Os fonemas disponíveis podem a este ponto ser considerados constitutivos

do código ou estrutura profunda para o nível sucessivo de complexidade de

organização do sistema: o nível mais complexo dos habitualmente conhecidos

como morfemas. Os morfemas representam as menores unidades significativas -

por exemplo, raízes simples; prefixos e sufixos; indicadores de clinativos e

conjugacionais, etc. - que possam ser escolhidos e combinados para criar

palavras e frases (as quais cosntituem um nível ainda mais complexo). A este

nível, portanto, os morfemas chegam a representar o código em palavras

pertence uma vez mais a um tipo lógico diverso (mais baixo) que o código de

morfemas que o torna possível, exprimindo um maior nível de complexidade.

Vínculos sincrônicos e diacrônicos. Deste modo, qualquer escolha e

combinação de distinções dadas ou construídas a um nível particular da

linguagem gera e ao mesmo tempo depende do contexto vertical ou sincrônico do

código e do contexto «horizontal» ou diacrônico da mensagem. No processo

global, encontra-se uma hierarquia de vínculos. Começando pelo exame dos

vínculos sincrônicos, encontram-se ao nível «máximo» (e ao mesmo tempo mais

abstrato e simples) da tipologia lógica do sistema os traços distintivos. Na

qualidade de falantes de uma determinada linguagem, a nossa liberdade

semiótica de escolher entre os vários traços é aqui para todos os efeitos nula.

(Nota-se ainda que os traços quase nunca se manifestam isoladamente mas, na

prática, sempre a níveis de combinação, mesmo anteriores à constituição de um

fonema.) Esta escolha vinculada não significa que todos os falantes de uma

determinada língua pronuciem ou usem os traços de modo idêntico, mas

simplemente que todos nós utilizamos os limites informacionais flexíveis e

mutáveis que existem entre os traços de modo a que as diferenças envolvidas

ultrapassem determinado limiar, limiar este que os outros reconhecem como a

emergência de uma distinção informacional de uso comum.

A nível fonético, também a nossa liberdade semiótica de elaborar

mensagens acústicas está fortemente vinculada. É, porém, possível construir

novas palavras e novas combinações sonoras a partir do stock disponível (como

Page 48: Informação - Anthony Wilden

nos poemas nonsense do tipo justamente famoso do Fabberwocky de Lewis

Carroll). Os vínculos sincrônicos que incidem sobre o emprego dos morfemas

são, porém, notavelmente menos comprometedores, já que a este nível estamos

a aproximar-nos da liberdade semiótica extensiva e de vários níveis da

construção de frases. Para lá deste nível, ou seja, ao nível da mensagem

linguística global, os vínculos sincrônicos afastam-se até ao ponto em que o nível

mais significativo do vínculo linguístico é o do particular do discurso usado. A nível

de discurso, os vínculos dos valores epistemológico e ideológico, os quais, por

sua vez, se devem considerar vcinculados à pragmática geral do valor inscrito no

sistema sócio-econômico em que o discurso se desenvolveu. A este nível do

global, a estrutura profunda do sistema sócio-econômico pode, definir-se como

representando o conjunto de todos os códigos que vinculam o nosso

comportamento como comunicadores sociais, e como mensagens individuais no

sistema.

Em todo o processo que temos vindo a delinear, os vínculos sincrônicos do

contexto do código são completados pelos vínculos diacrônicos do contexto

envolvente ou de desenvolvimento da mensagem. Prosseguindo com o exemplo

linguístico, toda a escolha e combinação num enunciado, a qualquer nível, está

em última análise sujeita aos vínculos diacrônicos da sintaxe e da semântica e,

em particular, aos vínculos sintáticos da clausula em relação à unidade da

mensagem. Tipos diversos de clausula diacrônica operam a níveis das palavras,

das expressões e das proposições da frase, de tal maneira que os vínculos

convergem ao ponto de a fazer terminar com um período. A frase que se segue,

sujeita à mesma hierarquia de vínculos sincrônicos, repete o processo

convergente das escolhas e combinações até que chegue ao fim.

Os parágrafos reabrem o assunto a outro nível. Fora dos vínculos

representados pelos conhecidos axiomas da física e pelos vínculos do contexto

ecológico geral, por exemplo, poucos vínculos à liberdade semiótica,

representados por códigos ou estruturas profundas, estão, necessária ou

definitivamente fixados. Como é óbvio, no caso da linguagem, e em particular no

das estruturas sócio-econômicas, o desenvolvimento e a evolução do sistema de

mensagens a nível de estrutura superficial pode contribuir para alterações nos

Page 49: Informação - Anthony Wilden

códigos prevalecentes, ou para uma reestruturação morfogenética dos vínculos

dominantes do sistema. É o que se verifica, por exemplo, sempre que se produz

uma evolução significativa da estrutura profunda de um sistema social, e em

especial quando tal estrutura profunda sofre uma revolução (cf. § 3.3).

Confunsão de níveis. Convém observar, por outro lado, considerando

também as relações relacitvamente simples respeitantes à estruturação acústica

da informação na linguagem, que a análise evidencia as distinções de tipologia

dos vários níveis. Por outros termos, também aos simples níveis dos sons, dos

fonemas e dos morfemas, os vários níveis não são legitimamente redutíveis uns

aos outros. Cada nível distinto deve ser analisado tanto quanto possível nos seus

próprios termos, bem como na sua conexão com os outros níveis. Além disso, os

vínculos informacionais que operam a um dado nível não são, necessariamente,

traduzíveis noutros níveis.

Nos discursos sociais e científicos prevalecentes, a redução dos diversos

níveis de complexidade a um único nível, e outros tipos de confusão entre níveis e

ordens de complexidade são em todo o caso bastante comuns. (a última versão

desta confução lógica, e ideológica, parece ser a pseudociência chamada

«sociologia»). Tais confusões subentendem uma redução persistente dos níveis e

tipos de variedade efetivamente evidentes para explicar as relações sociais e

outras por analogia com a estrutura sonora da linguagem (por exemplo, por parte

do estruturalismo francês). Em sentido lato, se se aplicasse à precedente análise

do discurso o tipo de reducionismo epistemológico (e ideológico) comum nas

ciências biológicas e sociais, os níveis mais complexos reduzir-se-iam aos menos

complexos. Considerando que a relativa liberdade semiótica, que o falante

singular tem, de escolher entre traços distintivos, está completamente vinculada, a

lógica dd reducionismo concluiria que o discurso deve ser um sistema totalmente

«determinado», e que as mensagens singulares seriam menos «epifenómenos»

(cf. «Comunicação», § 5.1). No caso do discurso, a redução revela-se totalmente

absurda: mas nos discursos sociais e científicos este tipo de violação do princípio

de variedae necessária constitui ainda mais a regra do que a excepção.

Metáfora e metonímia. Para o teórico da informação, a análise da estrutura

da transformação lingüística ajuda a esclarecer muitos dos problemas inerentes

Page 50: Informação - Anthony Wilden

ao exame de níveis, vínculos, contextos e tipos e níveis de vínculo e contexto, e

revela-se igualmente útil para demonstrar que os níveis do discurso disponíveis

nos sistemas linguísticos são potencialmente infinitos. Considerada como sistema

digita de comunicação, a linguagem evidencia as capacidades de tais sistemas de

informação para utilizarem a meta-informação com fins introspectivos. Esta é por

exemplo, uma frase.

Numa terminologia mais tradicional, como argumentam Jakobson e outros,

o eixo vertical ou paradignático da escolha corresponde estreitamente ao que é

usualmente chamado metáfora: a substitutição de uma imagem verbal por outra.

O eixo horizontal ou sintagmático da combinação corresponde rigidamente à

sinédoque ou à metonímia: o uso de uma parte contígua para representar um

todo. (Como observa Jakobson, estes dois eixos também correspondem

significativamente ao que Freud chamou «condensação» e «deslocação» nos

gracejos, lapsos e sonhos - ideia esta retomada e desenvolvida mais tarde pelo

psicanalista francês Jacques Lacan.)

Parece, portanto, oportuno terminar este parágrafo com um exemplo de

possibilidade de unir escolha e combinação linguística a vários níveis, explorando

os recursos da metáfora e da metonímia de modo a chegar a uma

metacomunicação.

Os seguintes e citadíssimos versos do Essay on Criticism [1711], de

Alexander Pope, utilizam os recursos de todos os níveis disponíveis na língua

inglesa -desde o nível dos traços distintivos até ao nível da signficação - com o

intuito de metacamunicar sobre a inter-relação entre som e sentido na arte da

poesia segundo as concepções do século XVIII. Estes versos indicam também

como a função criativa, na qual todos participamos, depende do emprego dos

vínculos disponíveis, quer sincrónica quer diacronicamente. Pope conforma-se

com o código organizacional relativamente rigoroso do hoje caído em desuso

decassílabo inglês chamado heróico. [Trata-se de uma métrica usualmente

formada por dois pentâmetros jâmbicos rimados, construídos com sílabas

alternadas átonas e acentuadas (/~ / ~ /...), colocadas nas várias tonalidades,

ritmos e qualidades das vogais de certas palavras e locuções.]

Page 51: Informação - Anthony Wilden

Conformando-se com este estilo poético (e ao mesmo tempo desenvolveu-

o), Pope assinala que os vínculos informacionais não devem ser encarados como

limitações ou restrições (como acontece frequentemente), mas antes como

instrumentos na construção criativa de novas configurações. Profundo

conhecedor da cadência da linguagem, Pope sabia tirar vantagem dos vínculos

impostos pela métrica, como também dos impostos pela língua inglesa e o

discurso no seu tempo. Conseguiu explorar os vínculos disponíveis de modo a

demonstrar como eles tornavam possível este género de mensagem.

Pope começa por parodiar os versificadores demasiado desenvoltos do seu

tempo; cada linha exemplifica, no som e no sentido, uma determinada deficiência:

These equal syllables alone require,

Though oft the ear the open vowels tire;

While expletives their feeble aid do join,

And tem low words oft creep in one dull line

(vv. 344-47)

Pope procede pois de forma a quebrar o ritmo inglês introduzindo nele o

«ruído» de um alexandrino dodecassílabo, métrica mais adaptável a outras

linguagens (por exemplo a francesa):

Then, at the last and only couplet fraught

With some unmeaning thing they call a thought,

A needless Alexandrine ends the song,

That, like a wounded snake, drags its slow length along

(vv. 354-57).

Não basta, continua o poeta, que nenhuma aspereza traga ofensa, pois

que o som deve lembrar um eco ao ouvido;

Soft is the strain when zephyr gently blows,

And the smooth stream is smootehr numbers flows;

Bust when loud surges lash the sounding shore,

The hoarse, rough verse should like the torret roar:

When Ajax strives some rock’s vast weight to throw,

The line too labors and the words move slow:

Not so when swift Camilla scours the plain,

Flies o’er th’unbending corn and skims along the main

(vv.364-73).

Page 52: Informação - Anthony Wilden

Por mais que estes versos possam ser banais (e, de fato, são praticamente

uma autoparódia), Pope lança mão de todas as escolhas metafóricas e de

combinação metonímica oferecidas pela língua inglesa e, passando livremente

dos jambos (u-) aos sáctilos (-uu), anapestos (uu-), troqueus (-u) e espondeus (--),

mostra como se podem casar os vínculos do som aos do sentido. Serve-se, para

este fim, dos recursos digitais de palavra, métrica e significação para evocar a

emergência dos fluxos, ritmos e valores diferenciais do domínio analógico do

significado. Dito isto, a maior parte dos leitores de língua inglesa preferirá em todo

o caso o modo como Lewis Carroll trata o som como se fosse sentido em

Through the Looking Glass [1871]:

Twas brilling ans the slithy toves

Did gyre and gimble in the wabe;

All mimsy were the borogroves,

And the mome raths outgrabe.

2.4. A MENSAGEM DA REDUNDÂNCIA

No parágrafo 1.6 são usados vinte e sete caracteres do alfabeto romano

como exemplo de possível cálculo do «conteúdo» de informação quantitativa de

um sistema digital na matemática da cifra binária. O pressuposto da

equiprobabilidade (igual frequência, independência lógica) levava a uma medida

de cerca de 4,76 bit por letra (ou 4,70 bit por letra se se contarem somente as

vinte e seis letras do alfabeto.

Se, porém, se consultar uma tabela das frequências das vinte e seis letras

usadas no inglês escrito, verifica-se que a «quantidade de informação» por letra

varia entre certa de 2,98bit para a letra mais frequente, e (com uma frequência

relativa de cerca de 12,7 por cento) e cerca de 10,71 bit para a menos frequente,

z (com uma frequência relativa de cerca de 0,06 por cento).

À exceção do u, em inglês as vogais são mais frequentes do que qualquer

das consoantes, salvo t. o cálculo para o u dá um valor de 5,16 bit. No inglês

escrito, porém, se o u aparecer depois do q, como em quick, geralmente não

transmite nenhuma informação, porque o q nunca aparece no inglês moderno

sem o u, exceto nas transliterações de outras línguas (por ex. Qabbala), ou nas

abreviaturas.

Page 53: Informação - Anthony Wilden

(Pensemos nas formas obsoletas do inglês qhat em vez de what e qhwom

em vez de whom, ou na antiquda palavra q, significando ‘um oitavo de um

penny’. Aqui a ausência do u transmite grande quantidade de informação

permitindo além disso que o texto escrito inclua excepções à regra geral sobre o

uso de qu nas palavras inglesas.)

O exemplo do u indica que, mesmo que esteja fixado o contexto das

frequências do uso das letras inglesas basta acrescentar-lhe um outro aspecto

contextual, por mais simplificado que seja, para alterar a significação da medida

de tais frequências. Por outras palavras, a medida em bit do chamado «conteúdo

de informação» das letras singulares do alfabeto escrito é, na realidade, uma

medida da sua frequência ou probabilidade e escolha efetuada no código do

alfabeto. As medidas estatísticas mudam quando se começam a incluir os

aspectos lineares mais simples do contexto da combinação de letras na

mensagem. O chamado «conteúdo de decisão» das vinte e seis letras é igual a

4,70 bit, como acima se calculou. Se se tiverem presentes as frequências, a

medida desce para uma média de cerca de 4,25 bit por letra; se se incluírem as

combinações de letras em sequências binárias (as correlações entre letras

imediatamente adjacentes), o conteúdo médio de informação desce para cerca de

3,57 bit por letra; se se tomarem em consideração combinações de oito letras

adjacentes (sempre ao nível mais simples), a quantidade média desce para 2,35

bit por letra, ou seja, para um valor inferior ao conteúdo médio calculado para

e(2,98 bit) [cf., entre outros, Hassenstein 1971].

Por outras palavras, mesmo a este nível muito simples, quanto mais se

tornarem em consideração os aspectos específicos do contexto, mais reduzido se

torna o «conteúdo de informação» de qualquer letra particular. A relação é uma

consequência lógica do que ficou dito sobre os vínculos sincrônicos e diacrônicos

no parágrafo precedente. Consideradas lógica e estrategicamente independentes,

todas as letras contêm a mesma «quantidade de informação»; todavia,

consideradas como parte da configuração da organização a que de fato

pertencem, as sequências de letras começam a evidenciar uma das

características mais importantes dos sistemas de informação: a redundância.

Page 54: Informação - Anthony Wilden

No inglês escrito, a redundância é a propriedade que torna possíveis as

vulgares palavras cruzadas; e é precisamente a redundância (a um certo número

de níveis) que reduz o valor do conteúdo de informação das letras do alfabeto. Se

as letras forem consideradas independentes umas das outras, a redundância de

qualquer sequência de letras é necessariamente zero. Nestas circunstâncias, toda

a alteração em qualquer letra numa dada mensagem transformaria a própria

mensagem noutra completamente diversa. Na realidade, o inglês escrito é

redundante relativamente a mais de 50 por cento do emprego do alfabeto. Alguns

testes indicam uma redundância de 80 por cento, o que sugere um conteúdo

médio de informação por letra de cerca de um bit.

A percentagem exata depende do método de medida, o qual consiste

habitualmente em pedir a interlocutores nativos que reconstruam uma mensagem

na qual muitas das letras foram apagadas por formas várias de ruído como no

exemplo:

*H* S*X M*S* FR*QU*** **GL* SH L****RS *R* M*SS**G FR*M*H*S

M*SS*G*.

O exemplo precedente mostra uma forma sintática de redundância

estatística; no que se segue, aparece uma forma diversa, um tipo de redundância

estrutural:

MUCH OF WHAT WE PERCEIVE DEPENDS ON WHAT WE SUPPLI TO THE

PERCEPTION FROM THE CONTEXT WE ARE IN.

Tal como os dados citados sobre o número dos bit por letra em sequências,

todo e qualquer cálculo estatístico depende da dimensão da amostra examinada,

da complexidade da passagem, das expectativas do leitor do material e ou dos

seus conhecimentos, dos tipos de erros ou omissões no texto.

A redundância é, portanto, uma forma evoluída de «desperdício» aparente

nos sitemas de mensagens, que protege contra os erros da transmissão e

recepção. Sendo um atributo da configuração, a redundância é um constituinte

contextual essencial quer da maior parte da comunicação quer da troca. (Constitui

uma excepção o sistema árabe de numeração escrita, onde a redundância

existente se exprime nas linhas e nas curvas que constituem os caracteres, mais

do que nas sequências de caracteres). Neste sentido, a redundância não traz

Page 55: Informação - Anthony Wilden

porém informação se a mensagem enviada for recebida sem erros, mas somente

quando aparecem erros. Por conseguinte, a redundância pode ser definida como

«informação potencial». A redundância é a variedade pronta a ser usada como

informação no momento oportuno.

A redundância é particularmente predominante nos ecossistemas naturais,

bem como no código genético: é, além disso, uma relação muitomais complexa

do que indica a teoria estatística da informação. Esta complexidade é fruto da

relação entre a mensagem, os seus canais e o seu contexto. Na comunicação

linguística, por exemplo, quanto maior for o contexto incluso, menos fácil será

definir a redundância das mensagens. As medições estatísticas ocupam-se

essencialmente da redundância sintática. Mas na conversação habitual aparecem

outras formas de redundância. A redundância semântica de mensagens do tipo

«Como está?» e «Que esplêndido tempo!» aproxima-se corretamente dos 100 por

cento, ao passo que a correspondente redundância pragmática é muito baixa.

Tais mensagens quase não contém «surpresa», nem uma redução significativa de

«incerteza» entre duas alternativas (é esta a definição de informação na teoria

estatística) - com a única excepção do silêncio. Um verdadeiro silêncio no

contexto de mensagens do tipo «Como está?» estaria carregado de informação e

seria bem pouco redundante em todos os sentidos; além disso, um silêncio

prolongado em resposta a outra saudação convencional do mesmo gênero não

represetaria um exemplo de redundância repetitiva (cf. mais adiante), mas

conteria uma informação ainda superior à primeira réplica silenciosa. Por outras

palavras, a redundância é uma relação entre texto e contexto, e entre níveis de

complexidade, exatamente do mesmo gênero de todos os outros termos que

foram definidos. Redundâncias complexas de muitos tipos e níveis diversos são

essenciais à conservação e à existência das relações humanas e de outras

relações.

Mas, se a redundância for encarada na visão linear e unidimensional que a

teoria da informação clássica favorece, os teóricos da informação podem então

afirmar que a transmissão de uma mensagem de A para B implica uma «difusão

da redundância». Este tipo de enunciado é epistemologicamente similar ao que é

válido na mecânica das partículas, segundo a qual, se dois elétrons trocam de

Page 56: Informação - Anthony Wilden

posição num sistema subatômico, não se verifica qualquer evento - de fato, todos

os electrons são idênticos e iguais. Mas, nos sistemas vivos e sociais, uma

variação de locus envolve pelo menos uma informação posicional - que

representa um tipo de informação criticamente importante tanto em embriologia (é

uma das bases da difereciação celular) como na regeneração de membros

perdidos nas espécies que de tal são capazes) [Bryyant e outros 1977].

No exemplo usualmente citado do envio de uma mensagem de A para B, a

redundância só se «difunde» se forem satisfeitas as condições seguintes: 1) a

mensagem tem uma significação única, não ambígua; 2) A e B representam

lugares iguais em contextos idênticos ao mesmo nível no sistema; 3) supõe-se

que o tempo e a sincronização sejam irrelevantes (como se verificaria no caso

dos electrons); 4) o sistema é fechado em torno de A e de B. Em todas as

comunicações humanas e biológicas, um tal conjunto de condições seria tão raro

que, na prática, não existe. A idéia de que a comunicação implica, na realidade,

uma «difusão» de redundância (mais do que a produção de uma nova

configuração numa posição diversa) é, na verdade, um produto enganador da

subdivisão da perspectiva teórica. O modo como a noção se traduz numa

formulação pertinente é rigorosamente limitado, mas a limitação envolve e impõe

um tipo de descontextualização do sistema comunicativo igual ao que já foi aqui

criticado. É comum a incapacidade de reconhecer que, quando a informação

muda de contexto, o contexto por sua vez modifica a informação.

Tipos de redundância. Embora nenhuma categorização dos vários tipos e

aspectos da redundância possa esperar ser exaustiva, é possível apontar as

seguintes categorias (sobrepostas):

1) Redundância de repetição. É a forma mais óbvia, exemplificadas pelas

longuíssimas sequências repetidas dos «codons» no ADN, como pela própria

«dupla hélice»;

2) Redundância de escolha e combinação. Esta forma de redundância refere-se

à predisposição da relação código/mensagem (como no exemplo do alfabeto).

Não é possível distinguir prontamente a redundância da codificação da

mensagem, pois que todos os códigos são exemplificados pelas suas

mensagens, e a produção de mensagens em forma digital subentende sempre

Page 57: Informação - Anthony Wilden

os dois eixos da escolha paradigmática e da combinação sintagmática. Esta

forma de redundância comporta também os diferentes níveis e tipos de

redundância comporta também os diferentes níveis e tipos de redundância que

se caracterizam como sintático, semântico e pragmático.

Na transmissão eletrônica das mensagens, uma simples forma deste tipo de

redundância é exemplificada pelos códigos capazes de corrigir os erros,

inventados graças à aplicação da teoria de Shannon. Na mensagem incluem-se

mais números binários, de modo a assinalar qual deverá ser o resto da seqüência

quando é recebida [cf., por exemplo, Singh 1966];

3) Redundância de estrutura. Enquanto configuração, uma estrutura está, por

definição, protegida por um certo nível mínimo de redundância. Na manufatura,

um exemplo muito simples desta forma encontra-se nos mecanismos de

reserva ou de segurança inseridos nos computadores. Na natureza, este tipo é

ilustrado pela enorme redundância de percursos para os fluxos e as trocas de

matéria-energia e informação, mesmo em ecossistemas naturais e

relativamente simples, para já não falar na redundância mostrada por

ecossistemas altamente complexos e mutáveis como as florestas pluviais

tropicais.

Vice-versa, a monocultura mecanizada (concentrações de uma única

cultura), praticada pela moderna indústria agrícola, reduz a proteção da

redundância estrutural até ao ponto de ser necessário proteger as colheitas contra

o «ruído» do seu ambiente mediante subsídios energéticos e informacionais

relativamente grandiosos. Os subsídios tomam a forma de cultivo mecanizado,

pesticidas, herbicidas, etc. – na sua maior parte dependentes de um único recurso

natural, ou seja, dos combustíveis fósseis e seus derivados petroquímicos. A

pertinência deste exemplo torna-se mais significativa se se pensar como

parecem, à superfície, enormemente redundantes as extensões de hectares de

trigo que se observam nas grandes planícies norte-americanas. No entanto, sem

um apoio artificial ao ambiente geral, bastaria uma única peste agrícola,

específica da espécie, para destruir toda a seara, propagando-se a peste de umas

carreiras para as outras ao longo dos milhares de percursos praticamente

Page 58: Informação - Anthony Wilden

idênticos criados pela tecnologia agrícola. Isto não constitui um problema para a

organização pluridimensional da diversidade típica da floresta pluvial tropical: é

um dos motivos por que os agricultores que praticam a técnica do «abater e

queimar» neste tipo de ambiente tendem a moldar as plantações pelo esquema

da floresta [Rappaport 1968];

4) Redundância de canais. Analogamente a 3), este tipo de redundância

exemplifica-se com o fato de que, em caso de lesão de um hemisfério do

cérebro humano, o outro hemisfério assumirá as suas funções, passado que

seja um lapso de tempo conveniente; ou com o fato de, em experiências com

os polvos, por exemplo, ter sido possível retirar 90 por cento dos principais

neurônios envolvidos na aprendizagem sem afetar fundamentalmente a

capacidade de aprender;

5) Redundância de cálculo. Utilizando um modelo digital, Neumann [1948; 1958]

calculou que teoricamente as células cerebrais poderiam ser 10 mil milhões

de vezes mais eficientes do que de fato são no emprego de energia. Tanto

quanto se sabe, os neurônios do sistema nervoso central não empregam um

«sistema binário ou decimal» (um sistema posicional) do tipo que permite

exprimir um milhão de distinções com apenas 7 dígitos decimais ou cerca de

20 dígitos binários. Ao que parece, os neurônios limitam-se a «contar», ou

ativar-se um milhão de vezes. Como é óbvio, para o neurônio, este alto nível

de redundância significa que a probabilidade de erro é reduzida em diversas

ordens de grandeza, em comparação com o habitual cálculo posicional

humano ou com o utilizado pelo típico computador «engole números». A

redundância no tratamento da informação por parte do sistema nervoso

central é aprofundada no § 2.6;

6) Redundância de comando e controle (potencial). Esta forma de redundância

refere-se às características reveladas pelas categorias 3 e 4, para as quais a

mesma mensagem será enviada ou o mesmo resultado atingido a partir de

locais diversos no seio de uma rede danificada ou sobrecarregada.

Assemelha-se ao conceito de «equifinalidade» Do gestaltismo, graças ao qual

se obtém o mesmo resultado final seguindo percursos diversos. Warren

McCulloch distingue entre «comando» e «controlo», pondo em relevo a

Page 59: Informação - Anthony Wilden

dominância aparentemente unilateral ou unidimensional inerente às ordens de

comando (por exemplo, «Em frente marche!»; na realidade, porém, não

existem na comunicação processos unidirecionais. Este tipo de redundância

poderia também ser definido como redundância da variedade necessária (cf. §

1.4);

7) Redundância de vínculo. Incluímos esta categoria porque os vínculos –

positivos ou negativos – não são controlos nem ordens. Na lingüística, este

tipo de redundância é exemplificado pela ampla liberdade consentida à

realização fonética prática (pronúncia) dos traços distintivos por parte dos

falantes singulares (cf. § 2.3), mesmo ao nível em que a nossa liberdade

semiótica relativa esteja vinculada ao máximo. A nível dos vínculos fonêmicos,

a redundância dos vários limiares de reconhecibilidade (as distinções

fonéticas) é notavelmente maior;

8) Redundância de relações. Esta categoria é inserida para acentuar o fato de

que todas as categorias precedentes implicam relações sistema-ambiente e

de que estas relações envolvem muitas conexões substituíveis ou detectáveis.

Todos os sistemas finalizados, adaptativos, quer sejam organismos, quer

populações, comunidades, ecossistemas naturais ou sistemas sociais, recorrem a

diversas formas e níveis de redundância. A mensagem da redundância

representa, pois, uma «ineficiência» essencial na produção, na reprodução e na

troca (conservação), de modo especial na natureza. As tentativas para lhe fugir

podem levar a uma desestabilização desastrosa e a uma ameaça à sobrevivência

a longo prazo do sistema em causa. No campo arquitetônico, por exemplo, se se

procura um monumento duradouro, a redundância maciça e estrutural de uma

pirâmide é nitidamente preferível à eficiência rigidamente fixada de um marco

geodésico.

Tudo quanto já foi dito, incluindo a enumeração das categorias (se assim

se lhes pode chamar, pode assumir um objetivo classificatório geral, mas pouco

nos diz sobre a significação da sobreabundância da redundância necessária que

nos rodeia. Quer na sociedade quer no discurso, na música, na natureza ou em

Page 60: Informação - Anthony Wilden

outras formas de comunicação, incluindo as percepções, é a redundância que

coloca à nossa disposição a configuração, e esta é a essência da variedade).

Redundância e flexibilidade – A redundância protege tanto o código como a

mensagem, tornando-os relativamente resistentes aos efeitos da variedade não

codificada ou ruído, e portanto relativamente refratários a alterações; ao mesmo

tempo, a redundância, como informação potencial que é, favorece a conservação

de um reservatório de potencial intacto para trocas futuras no sistema global. É

uma reserva de flexibilidade a que, na ocorrência, se pode recorrer.

O potencial inutilizado permite a certos tipos de mudança requeridos pelas

circunstâncias manterem-se ao nível das adaptações funcionais. Adaptações

deste gênero permanecem no contexto do código, ou dos códigos predominantes,

protegendo assim o sistema – dentro de certos limites – contra as adaptações

estruturais, ou mudanças de codificação, que as circunstâncias poderiam requerer

se fosse pouca ou nenhuma a redundância do sistema. É de crer que as

adaptações funcionais se verifiquem ao nível da estrutura do sistema específico,

sem influenciarem a sua estrutura profunda. Estas adaptações constituem a

morfostase, ou seja, a conservação da estrutura. Vice-versa, as adaptações

estruturais no sentido aqui empregado representam adaptações da estrutura

profunda: a reestruturação descrita pela morfogênese.

A redundância é característica das mensagens codificadas na molécula de

ADN, e é provável que, a nível das «mensagens reguladoras», seja muito maior

do que a nível das «mensagens de produção». É esta a relação que seria

logicamente de esperar, visto que um erro na combinação ou na sub-divisão a

nível dos genes produtores terá um efeito relativamente leve, podendo mesmo

acontecer que não se manifeste fenotipicamente; vice-versa, um erro análogo a

nível dos genes reguladores poderá ter efeitos notavelmente ampliados, no

sentido em que, em dadas circunstâncias, poderia traduzir-se na substituição de

um grupo de instruções reguladoras por um outro. A este nível é concebível que

um erro significativo possa alterar a organização, a expressão seqüencial, ou

output de toda uma «bateria» de genes produtores [Atlan 1972, pp. 75-97, 231-

45].

Page 61: Informação - Anthony Wilden

Redundância e eficiência. A mensagem da redundância está, portanto, em

contradição com a particular ética da eficiência à qual fomos apresentados e

habituados pelo moderno sistema socioeconômico. A «eficiência» é naturalmente

uma relação sistema-ambiente, mas os modos correntes de medir e avaliar as

eficiências na nossa sociedade (por exemplo, os rendimentos nas transformações

energéticas, os rendimentos de caráter «prático», a eficiência econômica, lucro,

etc.) exprimiram-se tradicionalmente em função de uma abordagem simplificada e

de um sistema fechado que raramente tomou na devida conta as reais conexões

ambientais em jogo. Por exemplo, a banal afirmação sobre a eficiência agrícola

nos Estados Unidos, segundo a qual um agricultor norte-americano alimenta

quarenta a cinqüenta pessoas [Samuelson 1948], deriva de se fingir que se

ignoram os subsídios de energia e de informação realmente recebidos pelo

agricultor e a colheita. Tais subsídios incluem o esgotamento a longo prazo do

solo e outras análogas «circunstâncias de produção externas» (por exemplo, o

aumento da salinidade do solo à irrigação, o inquinamento das águas

subterrâneas por efeito de vários produtos químicos), e incluem ainda os

fertilizantes, herbicidas e outros produtos petroquímicos, os combustíveis fósseis,

para além dos subsídios humanos e outros de energia/informação recebidos

pelas indústrias de apoio à agricultura: fabricação, transporte em autocarros,

transporte ferroviário, transformação dos produtos alimentares, etc.

Se aplicarmos um modelo adequadamente contextual, compreenderemos o

que é a eficiência em termos de valor de uso, e não simplesmente em termos de

valor de troca. De fato, ali onde os valores econômicos de troca são definidos

pelas fronteiras do sistema econômico como tal, os valores de uso definem e

mantêm a relação a longo prazo entre o sistema e o seu ambiente, incluindo o

seu próprio futuro.

O modelo contextual fornece muitos dados sobre a «eficiência» pouco

científica e artificial de uma boa parte daquilo que verdadeiramente acontece no

nosso sistema socioeconômico em relação com os seus ambientes. A mensagem

da redundância, porém, leva-nos ainda mais longe. A teoria da informação, a

ecologia dos sistemas e a economia ambiental mostram claramente que a

aparente «ineficiência» da redundância é essencial à estabilidade a longo prazo

Page 62: Informação - Anthony Wilden

de sistemas finalizados, adaptativos. Também os estudos antropológicos

demonstram como têm sido mantidos os níveis de redundância óptimos ou quase-

óptimos a fim de garantir a segurança a longo prazo de sociedades diversas da

nossa [Margalef 1968, pp. 1-25; Vayda 1969; Pimentel e outros 1973].

Em linhas gerais, pode-se afirmar que, dentro de certos limites, a

probabilidade de um sistema se manter estável no tempo é diretamente

proporcional à redundância das relações do sistema, incluindo as suas relações

com os seus vários ambientes. Opostamnete, quanto mais uma sociedade tenta

substituir a redundância (e, portanto, a diversidade da variedade) pela relação em

sistema fechado, conhecida na nossa sociedade como «eficiência», tanto mais o

sistema (sociedade-na-natureza) será sensível a perturbações relativamente

pouco importantes, perturbações que a um nível ótimo de redundância poderiam

ser neutralizadas com sucesso. Em geral, quanto mais o sistema procurar tornar-

se «eficiente» (no sentido tecnocrático moderno), menos capaz será de utilizar a

variedade da diversidade ma sua estrutura fundamental, de modo a conservar a

estabilidade presente e futura.

O motivo não precisa de ser procurado muito longe. Distinguindo-se da

eficiência ecológica que se observa na natureza e noutras sociedades (uma

eficiência organizada com base numa adequada redundância da diversidade), a

eficiência tecnocrática do sistema socioeconômico moderno funda-se na

homogeneização da variedade disponível através da sempre crescente

prevalência no sistema socioeconômico mundial de um único tipo de valor de

troca econômico. As relações entre os poderes inscritos nesta dominância tomam

em consideração a redução ao valor de troca econômica de todas as formas de

valor, isto é, o fato de todas as formas da variedade estarem sujeitas a uma única

forma. A conseqüente difusão do trabalho assalariado e dos gêneros alimentares

para venda leva à destruição dos sistemas socioecológicos organizados de

maneira diversa do nosso, reduzindo-lhes a diversidade até ao limiar da

fragilidade. Além disso, a dominância deste tipo de valor de troca é uma relação

estática, visto que está imersa na «eficiência» fundamental de que, em definitivo,

dependem, a curto prazo os sistemas capitalistas de Estado: a sempre crescente

Page 63: Informação - Anthony Wilden

acumulação de valores de troca numa parte do ecossistema mundial, a expensas

das outras partes.

2.5. ENTROPIA DA MENSAGEM

a tendência para a entropia positiva dos sistemas físicos isolados (a

tendência da energia «livre» para «fixar-se» em formas inutilizáveis, a tendência

para o aumento da casualidade ou «confusão» em sentido estatístico) é a

expressão de uma relação ordem-desordem (cf. o artigo «Entropia» nesta mesma

Enciclopédia). A entropia mede-se habitualmente dividindo a quantidade de calor

(em calorias) necessária a uma determinada mudança de estado pela

temperatura absoluta de alimentação do calor, e somando depois as diversas

quantidades discretas assim obtidas. (A entropia de qualquer sistema no zero

absoluto, ou oK, é zero). Do ponto de vista estatístico, a tendência para uma

entropia positiva (desordem crescente) em sistemas isolados é uma equação de

probabilidade, um enunciado respeitante à ordem e à desordem relativas.

Também os enunciados relativos à informação nos sistemas informativos

fechados e quantitativos de Shannon são equações de probabilidade. O terreno

comum da probabilidade justifica a semelhança entre uma das formulações da

equação da entropia na termodinâmica estatística e a fórmula de Shannon

respeitante à informação média de um sistema [Shannon e Weaver 1949]. A

teoria da informação estatística e a termodinâmica estatística são, com efeito, tão

afins que é duvidoso saber qual delas se subordina à outra. Parece provável que

ambas sejam, na realidade, expressões particulares de uma teoria mais

generalizada.

A abordagem de Shannon interessa-se pela ordem e pela desordem

relativas (supõe-se que a ordem seja mais improvável, mais surpreendente que a

desordem) e, em teoria, 'informação' significa ordem. A fórmula de Shannon para

a quantidade de informação H de uma dada fonte pode ser interpretada como o

negativo da equação relativa à quantidade de entropia na mecânica estatística da

termodinâmica (cf. porém § 3.2).

Na teoria quantitativa da informação, a medida estatística da liberdade que

cada qual tem de escolher objetos num dado repertório pode pois ser definida

Page 64: Informação - Anthony Wilden

como entropia do repertório. Se o repertório for altamente organizado (isto é,

altamente vinculado), a liberdade pessoal de escolha será também fortemente

vinculada. Quanto mais vinculadas forem as escolhas menor será a informação

representada por cada uma delas. (Segundo a definição teórica, uma total

«causalidade» de escolha corresponderia a uma informação infinita). A relação

entre máximo teórico na liberdade potencial de escolha e liberdade atual de

escolha consentida pelos vínculos pode ser definida como «entropia relativa» da

fonte (ou repertório). Se à entropia relativa (liberdade de escolha) – nos termos de

Shannon – de certa fonte for atribuída a probabilidade 0,8, quer dizer,

aproximadamente, que a liberdade de escolha (a entropia relativa) da fonte é

cerca de 80 por cento da que poderia ter, recorrendo às mesmas unidades

discretas para efetuar a escolha. Prosseguindo o exame da definição requerida

pela teoria de Shannon, segue-se que 1 menos a entropia relativa define a

redundância estatístico-sintática da fonte.

Por outras palavras, na teoria clássica da informação, a expressão

'entropia' equivale à informação medida, em bit, do repertório ou conjunto de

mensagens. No caso do conjunto de mensagens do alfabeto equiprovável, a

máxima «entropia da mensagem» é o conteúdo de decisão definido por log2n

(onde n representa o número de mensagens equiprováveis). A máxima entropia

da mensagem de 27 caracteres (equivale ao «conteúdo de informação» médio)

corresponde aos 4,76 bit já calculados. A entropia relativa do alfabeto usado na

prática é a relação entre 4,76 e os vários números obtidos analisando a

redundância. Se se aceitar o número mais baixo, correspondente a cerca de 1 bit

por caracter, a relação 1:4,76 fornece um valor próximo de 0,21 para a entropia

relativa. Ora, 1 –0,21 dá uma redundância aproximada de 0.79, ou seja, de cerca

de 79 por cento.

2.6. INFORMAÇÃO, RUÍDO E REDUNDÂNCIA NOS SISTEMAS

NERVOSO

um exemplo particularmente explicativo da aplicação da redundância é

representado pelo «código protegido» do sistema nervoso central. Existem duas

Page 65: Informação - Anthony Wilden

formas principais de transmissão da informação entre células nos organismos

mais complexos, como por exemplo o dos animais¨o sistema endócrino, ou

hormonal, e o sistema nervoso. No primeiro, células especiais segregam

substâncias químicas (hormonas) para o fluxo sanguíneo. O sangue transporta

estas mensagens químicas, e analógicas, para células longínquas, sensíveis a

tipos particulares de secreções químicas. No sistema nervoso associam-se dois

processos gerais. Dentro do neurônio ou célula nervosa, um sistema

eletroquímico de «impulso» leva a informação à sinapse ou intervalo entre uma e

outra célula. Quando o sinal enviado pelo neurônio atinge a sinapse, a atividade

da membrana celular é alterada de modo que a primeira célula liberta moléculas

mensageiras (neurotransmissoras). Estas mensagens atravessam o intervalo,

«fixam-se» em locais da membrana «receptora» e alteram a atividade da

membrana da célula sucessiva mediante processos complexos que asseguram a

recepção do sinal. Consoante o tipo de mensagem e de célula receptora, o sinal

originário será depois tratado de vários modos: pode ser replicado e deixado

prosseguir; examinado e depois inibido; alterado e a seguir transmitido; pode dar

início a qualquer outro tipo de ação (por exemplo, uma contração muscular); pode

ser traduzido para o código de uma secreção endócrina, etc.

Ambos os sistemas envolvem maneiras extremamente complexas de

utilizar a informação analógica (variável com continuidade) e a informação digital

(presença/ausência). O neurônio, por exemplo, embora tendo sido considerado

durante décadas como um instrumento essencialmente digital, começa por atuar

de maneira muito semelhante a um computador analógico, integrando as muitas

centenas de mensagens inibidoras e excitadoras que, a todo o instante, atingem a

sua membrana superficial antes de decidir o eventual envio de um sinal (sobre a

eventual «ascensão») e a velocidade de expedição. No interior do neurônio e dos

seus axônios de ligação, o sinal atua como se fosse digital, produzido por

aumentos e diminuiçÕes de diferenças de potencial elétrico ao longo da

membrana do eixo que conduz a outra célula. O sinal é limitado e discreto

enquanto a membrana se opõe a modificações de permeabilidade imediatamente

após a propagação de determinado sinal. Visto num tubo de raios catódicos, o

sinal, ou «potencial de ação», assemelha-se a uma série de spikes (potencial

Page 66: Informação - Anthony Wilden

nervoso de ponta). O sinal no axônio não se propaga, portanto, por condução,

como num sistema eletrônico que se serve de fios, mas sim por replicação,

transmitindo-se ao longo da fibra nervosa graças à repetida criação de duplicados

do sike originário.

Para além do limiar da carga elétrica (o «potencial de repouso»), que

distingue o spike como tal no axônio, a amplitude, ou «altura», do spike não é

significativa. Dentro de certos limites, todos os spikes têm aproximadamente a

mesma amplitude. O que importas é a freqüência, por unidade de tempo, de

replicação dos spikes. Quanto maior for a freqüência mais intenso é o estímulo

original representado. O sistema nervoso recorre, pois, a uma espécie de

modulação de freqüências (FM), e não a uma modulação de amplitude (AM) para

representar variações na amplitude, de um input originário. Tais representações

de FM comportam uma informação digital em diversos sentidos, o menos

importante dos quais não é o fato de os sinais na fibra nervosa não terem

qualquer semelhança com o input (ou output) sensorial ou de outro tipo de que

estão a fornecer informações. [Sobre este complexo assunto, aqui simplificado, cf.

Hassenstein 1971, pp. 92-107, e Wilden 1972, pp. 157-60, 174-78 e passim; para

os novos desenvolvimentos e a posterior confirmação das relações analógico-

digitais envolvidas, cf. Nathanson e Greengard 1977. Este artigo ocupa-se

também do sistema de comunicação endócrina nos organismos. As dificuldades

cruciais inerentes também à compreensão do pouco que se sabe acerca destes

processos no organismo derivam de exigência de integrar diversos modelos

relativamente distintos, reunindo-os todos ao mesmo tempo. Entre eles figuram o

modelo químico, o modelo elétrico, o modelo molecular, o modelo dos

computadores, o modelo da informação e o modelo «lógico» ou antes

«ecológico».]

Informação qualitativa. No Âmbito da estrutura dos percursos nervosos, as

mensagens analógico-digitais fornecem informações relativas à estimulação do

correspondente órgão sensorial ou de uma outra célula. Os sinais propagados

indicam se houve ou não um estímulo, a sua força e a sua variação. A variação

do estímulo é representada na célula nervosa pela variação de freqüência dos

Page 67: Informação - Anthony Wilden

spikes por unidade de tempo. A este nível, a informação transmitida é pois

quantificada e digitalizada.

Por conseqüência, a informação qualitativa sobre o tipo de estímulo ou

input originário não é representada no interior da célula nervosa. É, porém,

transmitida e recebida a outro nível: o da própria rede das células nervosas. Por

outras palavras, a informação qualitativa necessária à sobrevivência do

organismo já se encontra codificada na estrutura complexa dos percursos da

rede. A distinção qualitativa entre os vários tipos de informação é tida em conta

pelo fato de que determinado conjunto de percursos, envolvendo, por exemplo, a

visão, é emissor e receptor, ao contrário de outros, entre os quais, por exemplo, o

taco. As representações quantitativas relativas à intensidade da informação

qualitativa são, pois, propriedade das relações «internas» de canais singulares,

propagadas através de alterações nas condições limitadas das membranas que

distinguem os vários canais (axônios, dendrites) dos seus ambientes; vice-versa,

a informação que implica diferenças ou distinções qualitativas é um atributo da

rede inteira.

Tipos de modulações da mensagem. Como sublinha Hassenstein [1971,

pp. 92-102], na evolução do sistema nervoso central (SNC), um certo número de

processos eletroquímicos diferentemente organizados poderia, em teoria, ter

emergido como sistema preferido para a propagação dos sinais no interior dos

canais utilizados. São quatro os possíveis modos esquemáticos de representar a

curva analógica de uma dada intensidade de input. Um deles, a modulação de

amplitude linear, fornece obviamente a informação mais completa sobre o input. A

amplitude é continuamente variável, representando assim uma correspondência

direta da intensidade do input e da variação. Outro tipo, a modulação da

amplitude dos «impulsos» ou sinais discretos, é claramente o segundo método

por ordem de eficiência, particularmente se os sinais discretos são transmitidos

com intervalos mínimos. Ele forma uma correspondência indireta ou uma

simulação do input primitivo.

A possibilidade de sinais de amplitude constante modulados pela

freqüência, que constitui o método praticamente aplicado pelo SNC, é apenas a

terceira no que se refere à completude e à eficiência. Para ajuizar da intensidade

Page 68: Informação - Anthony Wilden

do input originário, o receptor deve esperar, pelo menos, por dois sinais. Se a

intensidade do input for baixa, o intervalo entre os sinais será comparativamente

longo; a capacidade dos canais neste sistema é por isso, muito mais baixa que a

da segunda possibilidade, e a sua informação é notavelmente menos «completa»

que a da criva analógica de intensidade que representa. A possibilidade da

modulação da duração do impulso é ainda menos eficiente.

O principal motivo a favor do uso dos sinais com freqüência modulada por

parte do SNC torna-se claro se se examinar a proteção das mensagens contra o

ruído. A primeira possibilidade, o sistema FM usado na prática, sendo embora a

terceira por ordem de eficiência, é a única que recorre a um código protegido. O

código é «protegido» porque os seus sinais estão estandardizados no que se

refere ao valor e à duração. Além disso, dado que os sinais não são conduzidos,

mas replicados (existem por exemplo cerca de 800 réplicas entre uma mensagem

recebida por uma célula sensorial na ponta de um dedo e a sua recepção por

parte do cérebro), um erro ou uma interferência num sinal (ruído) não influenciam

o valor da mensagem seguinte. Tudo quanto é necessário para que a variação

nas condições de descontinuidade da membrana do axônio de uma célula

conduza a uma replicação de um dado sinal é a prévia presença do sinal, e não

as suas características específicas. O «período refratário» da membrana impede

que os sinais se «acavalem» após um aumento de freqüência (com relativa

redução a ruído). Este período é mantido pelo espaçamento dos locais

permeáveis (locais ativos, ou nós de Ranvier) ao longo da membrana que «isola»

o interior da fibra nervosa do exterior – ou, então, o espaçamento dos lugares ao

longo da membrana que mantém a distinção de limite entre os canais das células

nervosas e os respectivos ambientes. A fibra envia os sinais graças,

precisamente, às mudanças na interação eletroquímica entre o interior e o exterior

do canal nervoso. [Para uma descrição pormenorizada e ainda bastante

atualizada, cf. Katz 1961.]

Ruído. Servindo-se da replicação baseada exclusivamente na presença de

um sinal precedente, os percursos do SNC isolam-se eficazmente do ruído. Se,

por exemplo, a altura de um spike dependesse da do spike precedente, e a

Page 69: Informação - Anthony Wilden

amplitude tivesse valor de mensagem, cada erro ou perturbação individuais (fosse

qual fosse a sua origem) transmitir-se-iam de um sinal para outro. A fiabilidade do

sistema ver-se-ia drasticamente deteriorada. Se, na mensagem da ponta de um

dedo ao cérebro, se verificasse um minúsculo erro de 1 por cento na reprodução

em correspondência com cada «nó de Ranvier» (com cada erro no sentido do

aumento da amplitude), quando o oitocentésimo sinal alcançasse o cérebro, a sua

amplitude seria três mil vezes superior à do sinal originário [Hassenstein 1971, p.

100].

A possibilidade da amplificação exponencial dos erros, ou ruído, até ao

ponto de destruir (ou, vice-versa, a possibilidade de perder completamnete o sinal

em conseqüência de erros noutra direção) explica a razão pela qual o SNC não

teria podido evoluir para um sistema de modulação de amplitude a este nível de

tratamento das informações. A modulação de amplitude – quer de impulsos

discretos quer de freqüências contínuas -, uma vez enviada, fornece um

instrumento de correção do erro. A este nível, o processo AM é sensível a muitas

características do tipo da variedade utilizada, e não está apto a discernir a

diferença entre um tipo particular desta variedade e qualquer outro tipo.

Opostamente, a modulação impulsionada FM, utilizada na prática pelos

axônios do SNC, não deve decidir entre tipos de variedade. O sistema FM usa e

reconhece somente um tipo de variedade: a presença ou ausência de um spike e

a respectiva freqüência. Por conseqüência, a este nível, o SNC nunca deve

decidir se deve considerar um outro tipo de variedade, ou seja, aceitar outro tipo

ou aspecto da variedade como «informação», ou recusá-lo como «ruído». O

sistema impulsionado FM também não deve tomar decisões sobre os vários tipos

de variedade (redundante) que, na prática, as fibras nervosas empregam para

criar e replicar o «potencial de ação» ou spike. (A variedade usada a este nível

implica imissões e emissões, através da membrana, de concentrações de iões

metálicos e orgânicos de diferentes dimensões e cargas). O único gênero de

ruído que, normalmente, pode perturbar a transmissão ao longo da fibra nervosa

é uma ausência, uma avaria total, ou qualquer interrupção da transmissão.

(Várias formas químicas de ruído, entre as quais a nicotina e os alucinógenos,

Page 70: Informação - Anthony Wilden

podem no entanto penetrar no sistema com relativa facilidade, sob a forma de

informação, nas sinapses e noutros pontos quimicamente susceptíveis.)

O sistema FM usada pelos neurônios está, por conseqüência, protegido

contra o ruído por várias formas de redundância. Uma das peculiaridades

significativas do «código protegido» é que a amplitude dos spikes particulares

pode variar e varia em medida considerável sem influenciar a mensagem. Além

disso, em correspondência com o intervalo sináptico entre duas células, entra em

jogo um tipo diverso de redundância.

As mensagens moleculares são libertadas ns sinapse em número superior

ao que seria estritamente necessário para transferir a mensagem; na membrana

da célula receptora está disponível um número excessivo de locais especiais que

os mensageiros influenciarão.

O SNC não utiliza, pois, a mais completa, a mais apurada ou a mais

eficiente forma de representação e transmissão das mensagens, mas recorre a

uma forma que é adequada às suas necessidades e também é suficientemente

ineficiente para assegurar uma oportuna proteção contra o ruído. Não significa

isto que. No decurso da evolução, não tenhas emergido ou não pudesse emergir

um sistema AM. O fato é que, em ambos os casos, o sistema AM não teria

conseguido sobreviver. Os organismos que o utilizavam a este nível de

transmissão das mensagens rapidamente se teriam extinguido, devido à

incapacidade que este tipo de sistema tem de impedir que as suas mensagens

sejam completamente distorcidas pelo ruído – produzido quer por interferências

externas do sistema de comunicação como tal quer por atividades intrínsecas do

sistema, ou ainda por uma combinação dos dois fatores.

3. ORDEM E DESORDEM

3.1. O LOGOS

O nosso trissecular sistema socioeconômico, em conjunto com a

epistemiologia e a ideologia que o acompanham, manifesta ainda hoje uma

particular obtusidade à aplicação e à compreensão das relações informacionais,

uma atitude refratária ao seu uso no interesse da sobrevivência a longo prazo.

Hoje, porém, assiste-se a uma revalorização bastante rápida deste tipo de

Page 71: Informação - Anthony Wilden

relação, de tal modo que se anuncia o reconhecimento de uma antiga concepção

de «verdade», a realidade do que chamamos agora a validade ecológica.

A já tradicional incapacidade de reconhecer as relações informacionais

parece ser uma característica peculiar da sociedade moderna, ao contrário do que

acontece em todas as outras sociedades de que se tem conhecimento. Muitos

antropólogos e filósofos afrontaram o problema, mas sem o resolver ou

esclarecer. Limitaram-se a sublinhar a acentuada significatividade, nas

cosmologias de várias sociedades em épocas e lugares diversos, de vários

termos que a nossa epistemiologia obrigou tradicionalmente a traduzir por

'palavra' (por exemplo, o hebraico dãbhãr ou o aramaico m mrãẽ do Antigo

Testamento [Boman 1952]).

Em particular, o influente filósofo neo-kantiano das formas simbólicas, Ernst

Cassirer, nos seus volumosos escritos, refere-se repetidamente a concepções

egípcias e de outras civilizações relativas ao que é obrigado a definir como

'palavra' – mantendo desse modo o moderno pressuposto ideológico da

dominância da linguagem relativamente à comunicação (ponto de vista

especificamente sustentado também por Lévi-Strauss [1947]). Cassirer cita como

exemplo, que aprova, um texto dos índios Uitoto, assim traduzido: «No princípio...

a palavra deu origem ao pai» [1925, trad. it. p. 76]. Analogamnete, nas usuais

traduções e interpretações do babilônico Poema da Ciração (En ma elishữ , cerca

de 1500 a. C.), o cosmos é descrito, «no princípio», como um período

antecedente a qualquer indício do «céu por cima», ou da «superfície sólida por

baixo». Dada a epistemiologia organicista deste e outros mitossimilares,

interessa-nos, não o antropomoformismo dos vários deuses criadores, mas a

idéia global da comunicação orgânica e holista que estão na base dos mitos.

Como no primeiro livro do Gênesis (apesar de ter sido deliberadamente

expurgado, pelos editores clericais, de todas as óbvias semelhanças com as

fontes babilônicas e de outro tipo), o cosmos babilônico «anterior ao princípio»

encontra-se num estado sistêmico que não pode ser «expresso», mas que

dificilmente é equivalente, seja em que sentido for, à desordem ou caos em que

insistem muitas interpretações (compare-se também com a parábola taoista

citada no § 2.2). o mito da criação não comporta a introdução da ordem na

Page 72: Informação - Anthony Wilden

desordem, mas, pelo contrário, a introdução quer da ordem quer da desordem no

cosmos (na realidade, uma não se manifesta sem a outra) (cf. §§ 2.4, 2.5). Pode,

sem dúvida, ser precisamente a expressão traduzida por 'Palavra' (ou 'espírito da

Palavra') que é considerada responsável pela distinção original que, no organismo

cósmico, põe em evidência a relação ordem-desordem. A 'Palavra' pode, de fato,

representar as atividades míticas de um criador que se comporta como um

demônio de Maxwell, introduzindo no cosmos um gênero particular do processo

seletivo. No entanto, se bem que a nomenclatura exija necessariamente certas

distinções (como, por exemplo, no sistema de parentesco), estas não requerem

necessariamente uma nomenclatura – tal como a não requer o código genético. O

que é indispensável às distinções entre diferenças é somente uma forma do tipo

de ordem que se define como informação.

A palavra do mundo. Desenvolver este tema em pormenor levar-nos-ia

muito longe, mas ele está implícito em toda a discussão aqui empreendida acerca

da informação. Um exemplo representativo do papel do logos numa cosmologia

africana deveria bastar para ilustrar a interpretação geral. Os Dogons, que hoje

vivem nos arredores do Mali e do Alto Volta, possuem uma complexa cosmologia

semiótica de comunicações dentro e entre organismos, pessoas, sociedade e

natureza. Distingue,, por exemplo, vinte e dois aspectos relacionais diversos da

personalidade masculina (na qual os dois pés, bastante surpreendentemente,

contam, como se fosse um só aspecto), e 48 tipos diferentes de «discurso», nem

todos requerendo palavras.

A expressão dogon so não só cobre a categoria da linguagem, como a

distinção de Sausurre entre langue e parole, mas todo o domínio da comunicação:

natural, social, organísmica. É possível que influências árabes e outros influxos se

tenham feito sentir na cosmologia dos Dogon, mas os testemunhos (incluindo

talvez os dos gnósticos, neoplatónicos e cabalísticos) apenas serviriam para

reforçar a explicação geral. O so dos Dogons é, além disso, bastante semelhante

à doutrina dos signos e das correspondências, comum no Renascimento europeu.

O conceito dos Dogons de «co-resposta» nos cosmos evoca imediatamente a

concepção alquímica e hermética das correspondências (convenientiae),

Page 73: Informação - Anthony Wilden

analogias, emulações e similitudes que ligam entre si as múltiplas relações entre

o microcosmos (humano) e o macrocosmos (universal).

A cosmologia dos Dogons é extremamente complexa. Dada a ausência de

uma epistemiologia informacional, a maior parte das interpretações antropológicas

do material etnográfico (uma exceção importante é a de Victor Turner) flutuam

sem coerência entre uma explicação baseada na energia-entidade (ou

«bioenergética») e uma descrição metafísica (cf. o artigo «Erro» nesta mesma

Enciclopédia, no que se refere à incompatibilidade codificada em «idealismo» e

«materialismo»). Infelizmente, a incapacidade de compreender adequadamente

uma visão global diferentemente codificada é justamente o que seria de esperar.

Mas a influência do estruturalismo e da semiologia franceses sobre o estudo, hoje

clássico, de Calame-Griaule [1965], além das suas hábeis e sensíveis

investigações no terreno, torna possível algumas oportunas traduções entre

epistemiologias.

Os Dogon exemplificam a relação sistemática e orgânica entre si e com o

ambiente «antropomorfizando» a natureza e «naturalizando» o ser humano.

Pensam que o cosmos haja sido criado pela «palavra» de um deus-criador e que

necessita de contínuas organização e reorganização. Neste mundo, todas as

relações são signos: não existem relações casuais. Os Dogon procuram a

«reflexão em todos os espelhos de um universo antromórfico no qual uma erva,

uma minúscula borboleta são portadores de uma 'palavra'» (ibid. pp. 27, 505-43).

Os Dogon chamam a essa palavra ádunc sò, ou seja, em francês, la parole du

monde.

Para os Dogon (bem como para os nossos progenitores culturais), o

cosmos é, pois, um livro a decifrar, um conjunto de mensagens a decodificar, um

mundo cujos signos exigem um contínuo esforço interpretativo. Todas as coisas e

relações estão ligadas pela «palavra do mundo», a que Calame-Griaule chama «o

símbolo». [Cf. também Turner 1974, pp. 156-65. para outras conexões

epistemiológicas entre perspectivas organicistas, não atomistas e não

newtonianas, quer orientais quer ocidentais, cf. Needham 1956, pp. 232-345.]

Os Dogon explicam, pois, a organização do mundo recorrendo ao modelo

do microcosmos humano, o qual, por outro lado, consideram solidário com o

Page 74: Informação - Anthony Wilden

macrocosmos. Calame-Griaule faz questão de sublinhar (na sua terminologia) que

no mundo vital dos Dogon não há separação entre sujeito e objeto entre mente e

corpo, entre organismo e ambiente, entre ecossistemas naturais e sociais. O so

dos Dogon percorre o cosmos como um princípio criativo e fertilizante, mas a

linguagem e o discurso são simplesmente uma das muitas manifestações do so.

Bats confrontar esta visão semiótica global com a que, quase inadvertidamente,

Maurice Leenhardt [1947] descreve relativamente a duas sociedades melanésias

(ou então comparar o mesmo tipo de expressões problemáticas, uma vez mais

traduzidas por parole), para compreender quês estas cosmologias informacional-

semióticas são fiéis meta-afirmações sobre a validade ecológica – o valor co-

evoluído da sobrevivência a longo prazo – dos sistemas sócio-econômicos em

que nasceram (cf. «Comunicação», §§ 1.4, 2.4). Além disso, o so, longe de ser

uma representação lingüística ou racionalística, exprime obviamente a semióticas

da variedade no cosmos.

Marcel Griaule [1948] - como Leenhardt na Melanésia – confrontou o so

dos Dogon com o bíblico Verbum ou Logos [cf. ainda Turner 1966]. Mas, uma vez

abandonadas as confusões metafísicas, socioeconômicas e psicológicas

usualmente associadas a este tipo de interpretação (Leenhardt é um exemplo

primário), percebe-se que a visão global dos Dogon oferece outras proposições

teóricas de notável significatividade para a ateoria e a práxis da informação e da

comunicação. É assim que Marcel Griaule, por exemplo, sintetiza o ponto de vista

dos Dogon: «No que diz respeito à própria parole (so, trata-se de um espírito de

ordenamento, um espírito de organização e reorganização universal, que tudo

abrange, mesmo a desordem» [1948, p. 243].

3.2. ORDEM PELA ORDEM

Adaptando o uso que Shannon faz do conceito de «entropia da

mensagem» (cf. § 2.5), evidenciam-se algumas controvérsias tendenciosas sobre

a relação entre entropia termodinâmica e a particular definição de entropia

adaptada pelo próprio Shannon. As polêmicas sobre informação e entropia

Page 75: Informação - Anthony Wilden

parecem ter tido causas epistemiológicas similares às que contribuíram para as

controvérsias sobre a causalidade que se seguiram à original descrição e à

análise de Norbert Wiener dos sistemas cibernéticos finalizados – disputas que

entretanto se aplacaram. Naquela época, numerosos autores definiram a

cibernética como «teleológica» (o que é, naturalmente, errado) e continuaram a

opor-se estrenuamente a todas as formas de explicação causal que não

estivessem em sintonia com os limites da causalidade newtoniana (linear,

determinista, eficiente) ou com os da «causalidade» estatística (probabilidade).

Em ambos os casos – entropia e cibernética -, as polêmicas parecem ter

nascido de subdivisões contrastantes da mesma realidade (diferentes mapas do

mesmo território ou níveis de território; cf. o artigo «Erro» nesta mesma

Enciclopédia) – quer no sentido paradigmático quer sintagmático (cf. § 2.2.), com

conseqüente confusão da tipologia lógica dos problemas. Num caso, pode-se por

exemplo verificar que os mapas epistemiológicos, e ideológicos, contrastantes,

que estão na base da controvérsia, são mapas de territórios completamente

diferentes; noutro caso, que as fronteiras traçadas nos territórios pelos vários

mapas não coincidem; noutro caso, ainda, que um conjunto de mapas válidos

representa configurações a um nível do território, ao passo que outro conjunto

(também válido) representa configurações a um nível diverso. Por vezes, os

mapas estão completamente errados, e entre outras coisas, naturalmente, os

territórios que é suposto representarem simplesmente não existem.

Neguentropia. Para eliminar rapidamente uma das principais fontes de

confusão relativamente a entropia e informação, basta somente recordar que,

antes de Shannon ter publicado a sua particular definição de entropia (em termos

quantitativos e probabilistas), o físico Erwin Schrödinger tinha já apresentado um

«mapa» geral da relação entre entropia (negativa) e informação. A definição não

sofreu qualquer modificação resultante do sucessivo emprego do termo 'entropia'

na teoria clássica da informação. No sexto capítulo de ums eu famoso livro [1945],

Schrödinger sublinhou que o input ou a assimilação de qualquer um dos tipos de

ordem através das fronteiras de um determinado sistema implica um processo

negativamente entrópico, e que, no caso dos sistemas vivos, é precisamente este

Page 76: Informação - Anthony Wilden

o processo que os mantém. Para usar as suas palavras: a vida nutre-se de

entropia negativa.

É estranho ao problema geral das relações entrópicas o fato de que a nova

ordem que se instaura no sistema particular (aberto) se imponha, sobretudo como

energia ou como informação. O input de energia e informação no sistema

contrabalançará todas as tendências entrópicas positivas, seja no interior do

sistema como tal seja nas suas relações com o ambiente. A entropia negativa

(neguentropia) conserva ou aumenta portanto o grau de organização do sistema a

que for aplicada.

Pode-se representar a informação mediante gradientes de energia (por

exemplo, recorrendo a diferenças na energia potencial entre duas partes do

sistema) ou mediante configurações informacionais. Ao nível fisiológico, por

exemplo, os organismos recebem do ambiente quer energia (por exemplo, os

hidratos de carbono) quer informação (por exemplo, os aminoácidos). Os

organismos restituem energia ao seu ambiente sobretudo sob a forma de energia

«comprometida», ou seja, como desordem de energia indisponível para efetuar

trabalho em sentido físico (por exemplo, como «calor de dissipação»), e

informação numa outra e distinta forma de desordem (por exemplo, por

defecação), ou ainda como desordem molecular. Esta desordem, uma vez

estruturada, pode, no entanto, servir como ordem (energia e informação) para

outro sistema (por exemplo, para os microorganismos decompositores). Ao

mesmo tempo, o uso da neguentropia pelo sistema traduzir-se-á num incremento

de entropia positiva em certos pontos do ambiente dos sistema. Um exemplo

óbvio é constituído pelos processos neguentrópicos da fotossíntese. Estes

processos metastáveis só são possíveis enquanto o Sol irradiar energia, o que, só

é possível enquanto as relações energéticas ordem-desordem ao nível

subatômico forem suficientemente neguentrópicas para produzirem a energia

solar. Durante o processo, necessariamente, a entropia positiva do Sol cresce.

Desta maneira, a teoria de Schrödinger da ordem pela ordem – a tradução

da ordem disponível no ambiente numa nova ordem graças ao sistema e no

interior do sistema – descreve o princípio fundamental do qual dependem o

metabolismo orgânico, a subsistência econômica e a conservação da organização

Page 77: Informação - Anthony Wilden

social. Esta maneira de usar a neguentropia não viola o segundo axioma da

termodinâmica – o princípio segundo o qual, no interior de um sistema isolado

(definido como tal, a desordem tende a aumentar) mais do que as atividades

seletivas do célebre demônio de Maxwell (ver adiante).

Se se descurar a quantidade de energia relativamente pequena necessária

a um input informacional num sistema aberto (já que tal quantidade não é

significativa como energia para o sistema), pode-se afirmar que a informação é o

fator mais importante para manter ou aumentar a organização nos sistemas

abertos, tais como organismos e sociedade – até que, bem entendido, a

variedade que entra no sistema seja de fato utilizável como informação.

(«Sobrecarga» de informação porém, por exemplo, reduzir a informação a ruído;

além disso, certos tipos de variedade que são na realidade ruído para o sistema –

por exemplo, as toxinas nervosas – podem ser tomadas por informação. Ainda

que não ignorando os necessários inputs de energia, o nosso interesse pelo

princípio da ordem pela desordem (cf. § 3.3) limita-se ao papel da informação no

processo.

É possível identificar, com relativa facilidade, alguns problemas específicos

contidos no conceito de informação como formas de neguentropia. Deve-se a

intuição de Boltsmann uma pista a qual a entropia positiva representa

«informação que falta». Esta formulação, no caso geral, significa que, quanto

mais um sistema se torna desordenado (seja qual for a definição), tanto menos

específica é a informação que se possui sobre os seus microstados (sempre de

acordo com qualquer definição). Se, por exemplo, se definir como casualmente

ordenado um sistema (isolado), poderá afirmar-se que não está apto a receber

informações sobre os seus microstados. Em tal caso, toda a informação está, por

assim dizer, «em falta». De um ponto de vista estatístico, a informação que se

possui sobre os microstados do sistema é zero. A entropia do sistema é, assim,

definível como máxima entropia positiva (máxima desordem), para esse

determinado sistema, naquele momento, com base na definição, e naquelas

relações perceptíveis.

Como para os sistemas informativos fechados (não abertos a nova

informação) de Shannon, os pressupostos para definir a entropia com base nesta

Page 78: Informação - Anthony Wilden

perspectiva bolzmanniana encontra-se na relação entre um sistema considerado

como um conjunto de mensagens e um observador considerado como receptor

de mensagens. O modelo fundamental é o formado pelo observador e pelo

observado, ligados pelas já tradicionais implicações sujeito/objeto. Esta relação é,

além disso, e principalmente, embora não completamente, unidirecional. O

sistema é definido como fechado para todas as relações, exceto para a

observação. Ao contrário de uma relação organismo-ambiente, nem o sistema

observado nem o ato da observação têm, como norma, influência significativa

sobre o observador; vice-versa, a observação não tem por norma efeitos sobre o

conjunto das mensagens (o sistema observado) e, se tem (como na física

subatômica), pode apelar-se para o «princípio de indeterminação» de Heisenberg

a fim de tratar matematicamente a perturbação do sistema atuante no ato da

observação. O princípio de Heisenberg não se aplica naturalmente fora da física,

nem sequer por analogia, pois que se refere a relações energéticas relativamente

simples entre entidades inanimadas. Por outras palavras, em qualquer

perspectiva analogicamente estatística e em sistemas fechados (quer na

termodinâmica quer na teoria da informação), a única significação da relação de

entropia para o observador é dada pelas suas características medidas,

estatísticas. Com significado mais denso para deslindar as confusões relativas à

informação e à entropia é, porém, o modo como se define o lócus da relação de

entropia. Nesta concepção, o lócus da medida da entropia fica entre o observador

e o observado (a fonte da mensagem).

Em aberto contraste com os sistemas estatisticamente definidos, acima

referidos, as relações de primária importância para os sistemas biológicos e

sociais não são do mesmo tipo, nem se situam, na mesma «posição. Obviamente,

para os sistemas vinculados mas abertos da realidade biossocial, a medida não

constitui uma relação primária, ao passo que a configuração o é – e, em

particular, a configuração que vai para além da que é simplesmente estatística. A

verdadeira diferença, porém, a que é decisiva, é que estes sistemas adaptativos

finalizados abertos devem ocupar-se das suas próprias relações. Pouco interesse

dedicam à importância – geralmente inobservada, mas notável por motivos

epistemiológicos (e ideológicos) – da abordagem à relação ordem-desordem

Page 79: Informação - Anthony Wilden

descrita no parágrafo precedente (uma abordagem por vezes rotulada de

sistemático-operacional). A importância da abordagem não reside tanto na

compreensão e elucidação das relações globais do mundo real, mas antes na

relação relativamente microscósmica entre ciência e o que já aqui foi designado

por «objetos da ciência».

Deveria tornar-se evidente que este particular artefato das ciências físicas

– a relação observador/observado – só é aplicável corretamente a relações

sujeito-objeto, isto é, às que são válidas na física. Não é, claramente, um modelo

legítimo para examinar o recíproco input/output de ordem e desordem nas

relações biológicas e socioeconômicas – como acontece, por exemplo, quando

um organismo come ou respira, ou quando uma sociedade produz e reproduz. O

motivo pelo qual, na análise e explicação dos sistemas biológicos e sociais, é

necessário um tipo diverso de subdivisão relacional é o fato de que, nestes

sistemas, as relações de entropia não comportam principalmente ou

significativamente um observador e um observado. Nos ecossistemas, o lócus

primário da relação de entropia é a descontinuidade entre sistema e ambiente.

Se bem que, em certos casos, as relações observador/observado e

sistema-ambiente possam ser quase equivalentes, trata-se de uma exceção. a

relação entre sistema e observador (na física, por exemplo) raramente, ou nunca,

se identifica à existente entre sistema e ambiente. Aquilo que, geralmente, o

observador define como «sistema» é uma entidade sujeita à sua manipulação (já

que o observador está isolado do ambiente geral). No caso contrário (como, por

exemplo, na antropologia), aquilo que o observador define como «sistema» é, na

realidade, o seu ambiente, ou um aspecto significativo deste. É, ao contrário do

caso usual da entidade manipulável – a entidade observada sujeita ao método

experimental – o ambiente do observador não somente inclui o observador, mas

também é de um tipo lógico superior ao do observador.

A incapacidade de reconhecer as distinções (observador/observado,

sistema-ambiente), onde e quando seja necessário, é a causa comum de

numerosas subdivisões incorretas, confusões e erros. Pode-se, por exemplo,

ouvir afirmar que, não sendo mensurável a entropia termodinâmica de um sistema

(quer estatisticamente quer em calorias de input energético em grau absoluto), se

Page 80: Informação - Anthony Wilden

o sistema não estiver excluído (isolado) do seu ambiente, a neguentropia é

«privado de significado», já quem como relação entre sistemas abertos, não é

mensurável. (A combustão de uma chama é um exemplo físico de sistema não

calculável.) A medição, porém, não constitui obviamente o teste de uma relação

significativa, a não ser no âmbito da epistemiologia de um sistema de medição

fechado.

Além disso, a definição antropomórfica snannoniana de informação como

«surpresa» tende a confirmar o lócus provável dos tipos de subdivisão incorreta

que conduziram às argumentações tendenciosas de teóricos da informação e

outros estudiosos no contexto geral da ciência normativa. A «surpresa» é uma

relação qualitativa, e é somente na teoria clássica (e nas disciplinas com ela

relacionadas) que esta qualidade é sumariamente reduzida a uma quantidade

estatística. A teoria clássica atribui à surpresa o significado daquilo que a teoria

considera inesperado – ou seja, de «informação»; vice-versa, nas relações

sistema-ambiente de células, organismos, ecossistemas naturais e sociais, a

informação provinda do ambiente (como também no interior do sistema) não é

improvável nem surpreendente. A informação não é apenas significativamente

redundante no sentido próprio do termo, mas também é previsível e prevista. Em

suma, a teoria clássica ocupa-se da relação global, de variedade sistema-

ambiente, num sentido limitado, fechado a um só nível, o que corresponde

exatamente aos seus objetivos iniciais. Muitas confusões a que se fez referência

nasceram de extrapolações indevidas da teoria clássica da informação. Em casos

como estes, a fonte primária das explicações procuradas não deveria ser a teoria

de Shannon como tal, mas antes a perspectiva informacional da ecologia dos

sistemas biológicos e sociais.

A visão ecológica, pelo menos, permite que o contexto em que o observado

se encontra seja adequadamente relacionado com aquele em que o observador

se situa (uma avis rara realmente na ciência normativa), e permite também que o

contexto geral que inclui ambos – no tempo e no espaço – encontre a sua justa

colocação na explicação e representação gerais.

Todavia, a relação que parece ser, em última análise, a mais importante na

discussão sobre neguentropia e organização é o estatuto peculiaríssimo da

Page 81: Informação - Anthony Wilden

entropia e do segundo princípio da termodinâmica entre os axiomas de todas as

ciências. O segundo axioma pertence a um tipo lógico diferente de todos os

outros (incluindo o primeiro axioma, o da conservação da energia), e permanece

cheio de mistérios facilmente esquecidos por aqueles que nele vêem usualmente

mais uma fórmula matemática a adaptar a todo o resto. (A taxa de crescimento da

entropia em sistemas isolados continua a ser, por exemplo, um problema

relativamente inexplorado e pouco conhecido.)

Significativo é o fato de que todas as relações ordem-desordem sejam,

antes de mais, relações quantitativas. Ordem e desordem – informação e ruído –

não são adequadamente definíveis em bases puramente quantitativas. E tão-

pouco o é a entropia. Aquilo que, para um organismo ou uma espécie, é

desordem, pode ser ordem para outro, o que o nosso sistema socioeconômico

considera ordem pode ser desordem para o seu sistema natural, e assim por

diante. Como sublinhou Arthur Eddington, em The Nautre of the Physical World

[1928], a entropia não fala somente a linguagem da física, isto é, da matemática,

mas faz também um discurso completamente diverso. Ao contrário da maior parte

dos outros termos físicos, a entropia não comunica somente através de números

mas também graças à informação de configurações. A entropia, afinal, é uma

questão de disposições; e a matemática, incluindo os mais recentes

desenvolvimentos da topologia, não pode especificar disposições ou

organizações que impliquem dimensões não matemáticas, como é, por exemplo,

a dimensão da ambigüidade a vários níveis e a dos valores de uso. Ediington

continuou a perguntar como é possível esperar classificar os termos seguintes em

duas categorias: distância, massa, força elétrica, entropia, beleza e melodia

[Shannon e Weaver 1949]. A conclusão é naturalmente que a entropia, mais do

que aos termos físicos quantitativos, refere-se corretamente às relações ordem-

desordem da melodia e beleza. Foi certamente a conclusão a que há muito tempo

chegaram, entre outros, os Dogon e os taoistas.

O demônio de Maxwell. O demônio de Maxwell em freqüentemente,

utilizado para ilustrar a distinção entre energia e informação, e a relação entre

entropia e organização. Também serve para explicar o princípio da ordem pela

ordem.

Page 82: Informação - Anthony Wilden

A experiência hipotética de Maxwell em 1871 e as suas sucessivas

interpretações podem ser assim sintetizadas: um gás, a uma temperatura superior

ao ponto de liquefação, é metido num contentor isolado do ambiente. (Constitui-

se, pois, um sistema termodinamicamente fechado.) O contentor é dividido por um

septo em duas partes iguais. O septo é potencialmente permeável num ponto as

moléculas de gás. Neste ponto, é colocado um ser mítico e microscópico, o

demônio, que pode alterar a permeabilidade (note-se a semelhança com a

membrana celular). O gás tem uma temperatura uniforme, isto é, existe um

gradiente energético entre o gás e o ambiente do qual o gás está isolado.

A temperatura de um gás, de acordo com a teoria cinética do calor, pode

ser definida como o produto do movimento molecular. Quanto mais velozes são

as moléculas mais elevada é a temperatura. (Ao zero absoluto supõe-se que não

existe nenhum movimento molecular). A temperatura do gás é, na realidade, o

produto da média estatística do movimento de todas as suas moléculas. Para

cada temperatura, algumas moléculas movem-se mais depressa do que a média,

e outras mais devagar. O gás encontra-se, por isso, num estado de ordem.

Todavia, do ponto de vista da teoria cinética, a distribuição das moléculas

mais veloz e mais lentas – e das colisões das moléculas entre si e com as

paredes do cotentor – é considerada casual. A causalidade é, pois, definida como

um estado de desordem. Mas, visto que o gás apresenta uma temperatura

superior ao zero absoluto (na qual, a ausência de movimento determinaria um

sistema completamente ordenado, cujo macrostado se identificaria com todos os

macrostados, e cuja entropia, por conseqüência, seria zero), o gás está de fato,

ordenado em relação ao seu ambiente e revela também uma forma de ordem

interna (por mais caótico que possa parecer).

A ação do mítico demônio consiste em modificar a permeabilidade do septo

entre as duas partes do contentor fechado. O demônio consente que todas as

moléculas mais velozes atravessem o septo numa direção e que as mais lentas

passem na direção oposta. O resultado é que, sem aplicação de entropia negativa

energética ao gás, a seleção das moléculas faz crescer a organização relativa do

gás. Um dos lados do septo torna-se mais quente que o outro; entre os dois,

estabelece-se um gradiente de energia. Se, então se colocasse um trasductor de

Page 83: Informação - Anthony Wilden

energia no ponto de permeabilidade, o fluxo de energia cinética da parte mais

quente para a mais fria do septo – com base no segundo postulado da

termodinâmica – permitiria ao gás produzir trabalho neste ponto. Obter-se-ia

trabalho até que o gás tornasse ao seu estado originário, deduzida a energia

perdida por fricção e outros fatores. (o gás acabaria, assim, por chegar a uma

temperatura global inferior e a uma entropia positiva maior do que a inicial.)

À primeira vista, portanto, parece que – esquecendo a energia necessária

para que o demônio modifique a permeabilidade no ponto de troca entre as duas

metades do contentor – o demônio criou entre as duas metades um gradiente de

entrofia negativa, sem introduzir nova energia no sistema. O demônio, portanto,

parece ter desafiado o princípio da entropia, segundo o qual a energia, uma vez

«aprisionada», não pode voltar a ser «liberta» sem um gasto de energia em

quantidade igual à daquela que foi «aprisionada».

Na realidade, porém, o demônio não desafiou o princípio da entropia,

limitando-se a assumir uma forma original de ordem – o movimento diferencial

das moléculas – e a criar uma nova ordem recorrendo à informação. A informação

usada é a relativa às moléculas que se movem mais velozmente que as outras. A

atividade de escolha ou organização produziu uma relação entrópica negativa.

São numerosas as explicações sobre aquilo que o mítico demônio

efetivamente necessitaria de fazer para conseguir organizar, numa nova ordem, a

ordem relativa ao gás original. Uma interpretação põe em evidência que o

demônio não pode ver as moléculas no contentor fechado e, por isso, carece de

uma minúscula lâmpada de magnésio para as selecionar. Assim sendo, o

processo de classificação não poderia demorar muito. O demônio é tão pequeno

que, sempre que se acendesse a lâmpada de magnésio, os forões emitidos

obrigá-lo-iam a recuar (ação e reação sã iguais e opostas), de tal modo que o

demônio depressa ficaria tão aturdido que nada poderia decidir.

Os cientistas brincaram com o demônio de Maxwell durante cerca de meio

século, antes de se convencerem inteiramente de que o princípio da entropia não

é violado nessa célebre experiência hipotética. A resposta está em parte no fato

de que o demônio – sendo um controlo de uma fronteira sobre outra fronteira –

não pertence ao sistema fechado formado pelo gás. Todo o aumento de

Page 84: Informação - Anthony Wilden

organização que se verifique como conseqüência das decisões informadas do

demônio sobre as moléculas presentes no sistema será necessariamente

igualado, ou antes superado, por uma diminuição da organização em qualquer

outro ponto do cosmos a que pertencem tanto o demônio como o contentor

fechado.

O demônio cria uma nova ordem a partir de uma ordem diversamente

organizada servindo-se de informações sobre a organização, o ponto essencial é

que o segundo princípio nunca é violado (tanto quanto se sabe), mas que apesar

disso se pode recorrer à informação para manter ou aumentar a organização –

num sistema aberto. É o demônio quem abre o sistema fechado dos dois

contentores de gás ao input de um ambiente que não pertence nem às duas

concentrações gasosas nem aos seus contentores. Deste modo, o demônio

produz ordem a partir da ordem – como todo o organismo vivo – mas a expensas

de um aumento da desordem noutro lugar.

3.3. ORDEM A PARTIR DA DESORDEM

Não surpreende – dadas as combinações historicamente única de

confusão e crise manifestadas pelo atual sistema global socioeconômico – que a

'entropia' se haja tornado recentemente um tema da moda entre os intelectuais.

Até o demônio de Maxwell teve a honra de ser publicitado nos dias que correm

(vide, por exemplo, The Crying of Lot 49 de Thomas Pynchon).

Em geral, porém, a relação representada pela entropia é interpretada e

aplicada erroneamente de duas maneiras caracterizadas por uma excessiva

simplificação. A entropia é usada como terno genérico para qualquer tipo de

relações que o autor considere uma indesejável desordem (disso temos um

exemplo no seu emprego por Lévi Strauss como sinônimo de 'desordem social'),

ou então pressupõe um ressurgimento das preocupações de Clausius, no século

XIX, relativamente a chamada «morte térmica» do universo (redução a uma

configuração «casual» na qual não pode fluir energia orientada). No primeiro

caso, a analogia não oferece qualquer suporte científico à ordem e à desordem na

realidade social; no segundo, o futuro entrópico do cosmos é simplesmente alheio

Page 85: Informação - Anthony Wilden

aos interesses humanos – é extremamente improvável que as espécies cheguem

a poder experimentá-lo.

Vice-versa, as relações locais da ordem-desordem (relações entrópicas

locais) representam uma preocupação quotidiana e futura da nossa sociedade.

Estas relações entrópicas locais vão desde concentrações nocivas (em áreas

específicas) de formas particulares de desordem fabricada (ruído) que a natureza

não pode reciclar nem neutralizar (por exemplo, sais de metais pesados, anidrido

sulfuroso, difenis policloruratos, escórias nucleares, etc.) até ao problema geral

das relações entrópicas em todo o planeta. A injeção de desordem irreciclável na

natureza por parte da sociedade pode, eventualmente, revelar-se ainda mais

significativa do que o outro aspecto da equação da entropia: a questão dos

recursos. O sistema econômico global está atualmente a retirar do ambiente uma

quantidade de ordem metastável (por exemplo, combustíveis fósseis, fertilidade

do solo) em quantidades maiores do que aquelas que, previsivelmente, poderão

restaurar através de novas descobertas ou novas tecnologias. Justamente porque

muitas das novas tecnologias (combustão do carvão, gaseificação do carvão,

reatores velozes autofertilizantes, etc.) produzem enormes quantidades de

desordem (por exemplo, calor de dissipação, água e contaminação atmosférica),

é provável que as tecnologias projetadas para superar os problemas do

esgotamento dos recursos (por exemplo energéticos) se traduzam na destruição

de aspectos importantes do último recurso da vida: a bniosfera. Ao fim de muitos

milhões de anos caracterizados por um estado de entropia neutra alimentada pelo

sol, o planeta parece estar agora a percorrer com velocidade crescente o caminho

que leva a uma entropia planetária positiva. Além disso, o processo não resulta de

algo que se possa chamar leis naturais, mas, pelo contrário, é fruto da constante

acumulação de capacidade produtiva por parte de um sistema econômico que se

julga não estar sujeito aos vínculos naturais de ordem e desordem.

Este difuso problema socioeconômico é, por si só, suficiente para explicar a

atual popularidade de afirmações relativas ao curso «inevitável» da entropia

(positiva) e à chegada «inevitável», graças a «leis naturais», da desordem final

(ruído). De há muito que é característico da ideologia dominante na nossa

sociedade o recurso a explicações psicológicas, biológicas e físicas das

Page 86: Informação - Anthony Wilden

dificuldades socioeconômicas: veja-se o recente aumento dos estudos

«genéticos» visando demonstrar a inferioridade de certas raças, após a inevitável

falência das inadequadas políticas governamentais e de outros esforços para

modificar a situação (por exemplo, a guerra à pobreza). O ponto crucial é que,

não obstante o recente começo de uma ciência dos sistemas socioeconômicos –

uma ciência que recorre aos modelos informacionais, sistêmicos e hierárquicos

referidos neste artigo (e não à psicologia, à bioantropologia, à fisioeconomia, etc.)

-, esta perspectiva não é geralmente compreendida nem aplicada.

Conseqüentemente, as analogias psicobiológicas, biofísicas e outras analogias

reducionistas, correntemente mascaradas de científicas nos discursos científicos

e sociais correntes, ainda podem ser produzidas e reproduzidas nas ciências

sociais e na vida, sem as refutações críticas indispensáveis para prosseguir o

desenvolvimento de uma concepção, na ciência e na sociedade, que seja

realmente pertinente para os nosso potenciais futuros – dada a atual estrutura e

os atuais objetivos do nosso sistema socioeconômico.

Existe, claro está, um sentido de fiabilidade do futuro para a resolução de

todos estes problemas. Se a estrutura e os objetivos do sistema são

diacronicamente contra-adaptativos, como não é improvável, também o serão as

suas representações ideológicas e epistemológicas. Ora, como o sistema

socioeconômico é obrigado por vínculos naturais sistêmicos à modificar-se, as

suas representações também terão de mudar. O problema é que tais

modificações podem ser inesperadas e desagradáveis.

É neste ponto que se pode inserir outro princípio: o princípio da ordem a

partir da desordem (ou «informação pelo ruído»). É este o princípio fundamental

da evolução natural aplicável também – a menos que os nossos níveis de

complexidade se confundam – à mudança socioeconômica.

A relação ordem-pela-desordem pode ser tão simples como é o «sistema

auto-organizante» mecânico-magnético descrito por Heinz von Foerster [1960, pp.

31-50]. O modelo de Foerster esclarece como um determinado sistema pode

converter em estrutura a variedade não codificada. Em suma, o modelo ocupa-se

das estruturas mutáveis que se podem obter com um certo número de pequenos

imãs metidos numa caixa e agitados. O processo basilar é fundamentalmente

Page 87: Informação - Anthony Wilden

idêntico ao de um relógio de corda automática. (Na realidade, o relógio não se

carrega a si próprio mais do que qualquer outro sistema – incluindo os imãs de

Foerster – se organiza a si próprio. 'Auto-organização' é um termo enganador

quando referido a um particular tipo de relações sistema-ambiente.) para um

relógio normal, os movimentos dos nossos pulsos são variedades casuais; vice-

versa, num relógio de corda automática, o mecanismo contém um trasdutor de

energia (o peso rotativo ou «chave de corda»). Graças a este sistema mecânico,

a energia casual dos movimentos do pulso pode ser transformada na variedade

ordenada da energia potencial acumulada na mola principal em espiral do relógio.

Talvez com surpresa apenas relativa, descobre-se que a relação ordem-

pela-desordem, associada à ordem-pela-ordem do demônio de Maxwell está na

base da descrição platônica da criação no Timeu [52d-53b]. aqui a imagem

dominante é a metáfora do processo de peneirar durante o tempo das ceifas: uma

imagem que sabemos ser mecânica, mas que o não era na cosmologia

organicista dos gregos.

Evolução e revolução. As antigas civilizações que não souberam reagir às

mudanças radicais das suas relações ecológico-econômicas, restruturando-se de

modo a conservar a flexibilidade tanto em relação ao presente como em relação

ao futuro, sofreram simplesmente um colapso e desapareceram. As civilizações

que conseguiram reestruturar-se e sobreviver exploraram em geral

adequadamente a relação ordem-pela-desordem, aceitando a desordem ou o

ruído que as ameaçavam (de origem que interna quer externa ou ambas) e

transformando-os numa nova ordem. Converteram o ruído em informação.

Estamos aptos a compreender como age na evolução natural a relação

ordem-pela-desordem. Assim, por exemplo, uma variação ou uma errada

subdivisão na mensagem genérica em geral reduzem a ruídos importantes fatores

da mensagem, de tal modo que o organismo em questão não consegue

reproduzir-se. todavia, num numero infinitesimal de casos, a desordem da

mensagem genética poderia dar um lugar a uma mutação apta a sobreviver.

Neste caso, o ruído ou a desordem originários passam a estar inscritos na

mensagem genética da progênie sob a forma de informação ou de nova ordem.

Page 88: Informação - Anthony Wilden

O mesmo se passa com as sociedades. A introdução no ambiente do

sistema – ou de qualquer lócus logicamente ou realmente externo a este – daquilo

que, para o sistema, é ruído pode traduzir-se em modificações da estrutura

superficial do próprio sistema. Se for suficientemente significativo e extenso, o

ruído pode destruir a sociedade. No entanto, também é possível que a sociedade

possua a variedade necessária (a flexibilidade) para aceitar o ruído como

informação e proceder a uma reestruturação morfogenética das suas relações

fundamentais. São exemplos óbvios certas invenções significantes como, por

exemplo, a agricultura. As sociedades que por algum motivo incorporaram esta

invenção (que por exemplo é ruído para os povos dedicados à pastorícia)

evoluíram para uma nova estrutura. O ruído (desordem) do «exterior» foi

incorporado no sistema como informação (nova ordem), e o sistema sobreviveu

(como sistema diverso).

A própria relação ordem-pela-desordem é válida para situações nas quais o

ruído ou desordem (no sistema socioeconômico como tal ou no seu ambiente) é

produzido para atividades internas ao sistema. Mas uma vez, o resultado pode ser

constituído por simples modificações superficiais. Por exemplo, o «ruído» da

revolução sexual e outras ditas revoluções produzidas pela chamada

«contracultura» na América do Norte (e noutros países) facilmente foi incorporado

como informação (cooptado e também explorado) pela atual estrutura do

capitalismo ocidental Não obstante, algumas formas de desordem geradas pelas

atividades de um sistema econômico podem contribuir para a sua destruição (por

exemplo, os efeitos combinados do aumento da salinidade e da transformação do

solo em lama determinados pelos sistemas irrigativos da Mesopotâmia desde há

alguns milhares de anos).

O resultado mais usual do ruído não é, porém, a destruição, mas sim a

emergência de um sistema ou sistemas sociais com nova estruturação. Roma,

por exemplo, nunca «caiu» no sentido sistêmico do termo. A versão romana do

imperialismo não conseguiu conservar a flexibilidade, devido sobretudo à sua

estrutura, e foi substituída por sistemas mais flexíveis: os bárbaros. Desta

particular relação ordem-desordem acabou por emergir um certo número de

novos sistemas socioecnômicos: por exemplo, os despotismos orientais na Ásia,

Page 89: Informação - Anthony Wilden

Eurásia e outros lugares; o sistema feudal em boa parte da Europa, e outros

ainda [Wilden 1972, pp. 371-77, 390-94, 395-412; 1974, pp. 77-111].

O contexto deste artigo não permite aprofundar mais a concepção

informacional e sistêmica da mudança histórica, em particular no que se refere à

teoria marxiana da contradição. Mas a relação ordem-pela-desordem torna claro

que, enquanto o ruído relativamente casual do «exterior» em qualquer sistema

finalizado pode levar a uma evolução (natural ou social), diversa é a situação

quando o ruído ou a desordem são gerados «internamente». Quando um sistema

econômico vive em competição com os seus ambientes – natural, humano,

espacial e temporal -, e quando começa a aproximar-se dos limites dos vínculos a

diversos níveis inscritos nos seus ambientes, é provável que a desordem que se

tenta exportar para os ambientes acabe por regressar ao sistema sob as formas

inutilizáveis e talvez perigosas. Para além de certo limite, a desordem biológica,

física, humana, social e econômica (cada qual no seu próprio nível e à sua própria

maneira) devem ser neutralizadas ou convertidas em novas ordens se se quiser

que o sistema em questão conserve a variedade de flexibilidade necessária para

sobreviver a longo prazo. A conversão de desordem ou ruído produzidos

internamente em informação a estes níveis não envolve a evolução, mas sim a

morfogênese das estruturas profundas conhecida como revolução

(socioeconômica). [A.W.].

Ashby, W. R.

1956 Na Introduction to Cybernetics, Chapman and Hall, Londres (trad. It.

Einaudi, Torino 1971)

Atlan, H.

1972 L'organisation biologique et la theórie de l'information, Hermann, Paris.

Bateson, G.

1972 Steps to an Ecology of Mind, Chandler, Nova Iorque (trad. It. Adeolphi,

Milão 1977).

Boman, Th.

Page 90: Informação - Anthony Wilden

1952 Das hebraische Denken in Vergleick mit dem griechischem,

Vandenhoeck und Ruprecht, Gottingen, 19685.

Bryant

1977 Biological regeneration and pattern formation, in «Scientific American»,

ccxxxvii, no 1, pp. 66-81 (trad. It. In «Le Scienze», XVII (1977), no III, pp.

44-58).

Calame-Griaule, G.

1965 Ethnologie et language. La parole chez les Dogoms, Gallimard, Paris.

Cassirer, E.

1925 Spache und Mythos, ein Beirag zum Prolem der Gotternamem,

Teubner, Leipzig e Berlim (trad. It. Il Saggiatore, Milão 1968).

Foerster, H. Von

1960 On Self-Organizing Systems and their Enviromments, in M. C. Yovits e

S. Cameron (org.), Self-Organizing Systems, Pergamon Press, Nova

Iorque.

Gardner, M.

1957 Logic Machines and Diagrams, McGraw-Hill, Nova Iorque.

Griaule, M.

1948 L'Alliance catharique, in «África», XVIII, no 4, pp. 242-58.

Hassenstein, B.

1971 Information and Control in the Living Organism: An Elementary

introduction, Chappman and Hall, Londres.

Jakobson, R, e Halle, M.

Page 91: Informação - Anthony Wilden

1956 Fundamentals of Language, Mouton, The Hague (trad. It parcial in R.

Jakobson, Saggi di linguistica generale. Feltrinelli, Milão 1966).

Kats, B.

1961 How cells communicate,in «Scientific American», ccv, no 2, pp. 209-20.

Koshland, D. E. Jr

1972 Protein shape and biological control, in «Scientific American», CCXXIX,

no 4, pp. 52-54 (trad. It. In «Lê Scienze», XIV (1974), no 65, pp. 28-41).

Krippendorff, K.

1975 Information Theory, in G. J. Hanneman e W. J. McEwen (org.),

Communication and Behavior, Addison-Wesley, Reading Mass., pp.

351-89.

Lacan, J.

1966 Escrits, Seuil, Paris (trad. It. Einaudi, Turi, 1974).

Leenhardt, M.

1947 Do kamo. La personne et le mythe dans le monde mélanésen,

Gallimard, Paris.

Lévi-Strauss, C.

1947 les Structures élementaires de la parenté, Presses Universitaires de

France, Paris (trad. It. Feltrinelli, Milão 1969).

MacKay, D. M.

1969 Information, Mechanism and Meaning, Mit Press, Cambridge, Mass.

Margelef, R.

1967 Perspectives in Ecological Theory, University of Chicago Press,

Chicago.

Page 92: Informação - Anthony Wilden

Martinet, A.

1960 Eléments de linguistique générale, Colin, Paris, 19692 (trad. It. Laterza,

Bari 1971).

Maruyama, M.

[1963] Second Cybernetics «Deviation-Amplifying Mutual Causal Processes», in

W. F. Buckley (org.), Modern Sustems Research for the Behavioral

Scientist, Aldine, Chicago 1968, pp. 304-13.

Marx, K.

[1857-58] Grundrisse der Kritk der politsschen Okonomie (Rohenwurf), Dietz,

Berlim 1953 (trad. It. Einaudi, Turim 1976).

1867 das Kapital, libro I, Meisnner, Hamburg (trad. It. Einaudi, Turim 1975).

Mazia, D.

1973 The cell cycle, in «Scientific American», CCXXX, no I, pp. 55-64 (trad. It.

In «Le Scienze», XIV (1974), no 68, pp. 50-60).

Nathanson, J. A., e Greengard, P.

1976 «Second messengers» in the brain, in «Scientific American»,

CCXXXVII, no 2, pp. 108-119 (trad. It in «Lê Scienze», XVIII (1978), no

113, pp. 98-109).

Needham J.

1956 Science and Civilization in China, vol. II, Cambridge University Press,

Londres.

Neumann, J. Von

[1948] The general and Logical Theory of Automata, in L. A. Jeffress (org.),

Cerebral Mechanisms in Behaviour; The Hixon Simposium, Wiley, Nova

Page 93: Informação - Anthony Wilden

Iorque 1951, pp. 15-31 (trad. It. In V. Somenzi (org.), La filosofia degli

automi, Boringhieri, Turim 1965, pp. 222-45).

1958 The Computer and the Brain, Yale University Press, New Haven Conn.

(trad. It. Ibid., pp. 157-221).

Pattee, H.H.

1974 (org.) Hierarchy Teory. The Challenge of Complex Systems, Braziller,

Nova Iorque.

Pimentel, D., e altri

1973 Food production and the energy crisis, in «Science»,`CLXXXII, pp. 443-

49.

Rappaport, R. A.

1968 Pigs for the Ancestors. Ritual in the Ecology of the New Guinea people,

Yale University Press New Haven Conn.

Rosenfield, L. W.

1971 Aristotle and Information Theory: A Comparison of the Influence of

Causal Assumption on Two Theories of Communications, Humanities

Press, Nova Iorque.

Samuelson, P. A.

1948 Economics: an introductory Analysis, McGraw-Hill, Nova Iorque; ed. Riv.

19646 (trad. It. Utet, Turim 1969).

Saussure, F. de

[1906-11] Cours de linguistique générale, Payot, Lausanne-Paris 1916 (trad. It.

Laterza, Bari 19702).

Schrödinger, E.

Page 94: Informação - Anthony Wilden

1945 What is Life? The Physical Aspect of the Living Cell, Cambridge

University Press, Londres (trad. It. Sansoni, Florença 1970).

Shannon, C. E.

1938 A symbolic analysis of relay and swiching circuits, in «Transactions of

the American Institute of Electrical Engineers», LVII, pp. 713-23.

Shannon, C. E. e Weaver, W.

1949 The Mathematical Theory of Communication, University of Illinois Press,

Urbana III, (trad. It. Etas Kompass, Milão 1971).

Singh, J.

1966 Great Ideas in information Theory, language and Cybernetics, Dover,

Nova Iorque (trad. It. Mondadori, Milão 1969).

Turner, V. W.

1966 Colour Classification in Ndembu Ritual, in M. banton (org.),

Anthropological Aporaches to the Study of Religion, Tavistock, Londres,

pp. 47-84.

Turner, V. W.

1974 Dramas, Fields and Metaphors, Cornel University Press, Ithaca N. Y.

Vayda, A. P.

1969 (org.) Enviromment and Behaviour, Natural History Press, gardem City

N. Y.

Watzlawitch, P.; Beavin, J.; e Jackson, D. D.

1967 The Pragmatics of Human Communication. A study of Interactional

Patterns, Pathologies and paradoxes, Norton, Nova Iorque (trad. It.

Astrolabio, Roma 1971).

Page 95: Informação - Anthony Wilden

Wilden, A.

1972 System and Structure: Essays in Comunication and Exchange, Barnes

and Noble, Nova Iorque.

1974 La scritura e il rumore nella morfogenesi del sistema aperto, in E. Morin

(org.), Teorie dell'evento, Bompiani, Milão 1974, pp. 77-111.

Wittgenstein, L.

[1941-49] Philosophiche Untersuchungen, Blackwell, oxford 1953 (trad. It.

Einaudi, Turim 1974).

ٱ Na teoria clássica (cf. combinatória, indução estatística, representação

estatística), a informação quantitativa representa um equivalente para as diversas

entidades da comunicação, mensurável pela probabilidade de aparecimento de

um símbolo de um dado alfabeto. A este aspecto associa-se o qualitativo (cf.

medida, qualidade/quantidade) relativo ao valor de troca e ao valor de uso

também na comunicação de sistemas com um elevado grau de complexidade (cf.

sistema, simples/complexo).

No seu aspecto de organização, a informação age sobre a conservação e a

reprodução dos sistemas biológicos e sociais (para este aspecto, cf. organismo,

vida, sociedade), está presente em estruturas e modelos (cf. estrutura, modelo),

transmite-se por meio de diversos tipos de signos (cf. signo, símbolo), influi sobre

os gestos (cf. gesto) e, em geral, sobre o comportamento e condicionamento.

A distinção entre informação e ruído faz luz sobre as relações

ordem/desordem, caos/cosmos, sentido/significado e sobre a sua dependência

em relação ao contexto (cf. também cosmologias). O estudo de redundância e

das suas funções na comunicação explica os fenômenos de desperdício aparente

que protegem contra os erros (cf. erro) de transmissão e de recepção e que, nos

sistemas complexos como por exemplo o sistema nervoso central (cf. cérebro),

permitem a sobrevivência a longo prazo.

Page 96: Informação - Anthony Wilden

Para a realização física da informação quantitativa convém o código

binário: a diferencial e analógica constitui o campo de ação do significado. A

discreta e digital refere-se à relação código/mensagem (cf. analógico/digital,

contínuo/discreto, mas também gene, enquanto portador de um código).

Uma das importantes formas qualitativas da informação é dada pel,a

linguagem, a qual evidencia a possibilidade para fins introspectivos dos sistemas

informativos (cf. também discurso, língua/palavra, competência/execução, a

propósito desta distinção).

Finalmente, as ligações da entropia dos sistemas informativos com o

segundo princípio da termodinâmica, as trocas contínuas entre energia, e

informação nos sistemas adaptativos, esclarecem as relações entre o organismo

e o ambiente (cf. também matéria, sujeira/objeto, adaptação).