terça-feira, 31 de dezembro de 2013

O GÊNIO DE FISHER E O EXPERIMENTO ALEATÓRIO



  A postagem anterior trouxe uma parte do livro Cause and correlation in biology, de Bill Shipley. Julgo que as observações levantadas são extremamente pertinentes dentro da Ecologia. Afinal, o que buscamos são "explicações" (causas) para os fenômenos ecológicos que estudamos. Por exemplo, para modelar as alterações na distribuição da diversidade beta de alguma metacomunidade relacionadas (causadas), por exemplo, ao uso da terra, ou às variações climáticas, um pesquisador deve, necessariamente, encontrar relações causais entre essas variáveis. Porém, a inferência causal em nível de metacomunidades, em geral,deve ser realizada em amplas escalas espaciais, o que limita a utilização de experimentos aleatorizados. O texto de Shipley procura inverter um pouco a lógica inferencial. Ao invés de esperar uma causa pela aplicação aleatória de um tratamento, define-se, a priori, a estrutura causal que se pensa estar atuando no sistema a partir de correlação diretas e indiretas entre as variáveis e, depois, estabelece-se uma ligação com a inferência estatística. Abaixo, mais uma parte do texto de Shipley.

  Pelo fato desse livro (Cause and correlation in biology) lidar com inferências causais de dados observacionais, deve-se olhar primeiro mais atentamente em como biólogos inferem causas de dados experimentais. Do que se tratam esses métodos experimentais que permitem aos cientistas falar confortavelmente sobre causas? Do que se trata inferir causalidade de dados não-experimentais que os deixa nervosos? Pode-se distinguir entre dois tipos básicos de experimentos: controlados e aleatórios. Apesar do experimento controlado ter precedente histórico, o experimento aleatório tem precedência na força de suas inferências causais.
  Fisher descreveu os princípios do experimento aleatório no seu clássico O desenho de experimentos (Fisher 1926). Desde que ele desenvolveu muitos dos métodos estatísticos no contexto da agronomia, vamos considerar um experimento aleatório típico desenhado para determinar se a adição de um fertilizante nitrogenado pode causar um aumento no rendimento da colheita de uma variedade particular de trigo. Um campo é dividido em 30 parcelas de solo (50 cm x 50 cm) e semeado. A variável tratamento consiste no uso de fertilizante, o qual é aplicado em 0 kg ou 20 kg por hectare. Para cada parcela, colocamos um pequeno pedaço de papel em um chapéu. Metade dos pedaços tem um “0” e a outra metade tem um “20” escrito. Após misturar completamente os pedaços de papel, seleciona-se, aleatoriamente, um para cada parcela para determinar o nível de tratamento que cada parcela irá receber. Após aplicar o nível apropriado de fertilizante independentemente para cada parcela, não se faz qualquer outra manipulação até o dia da colheita, no qual se pesam as sementes que foram colhidas em cada parcela.
  O peso de sementes por parcela é distribuído normalmente dentro de cada grupo de tratamento. Aquelas parcelas que receberam “0” fertilizante produziram 55 g de sementes com um erro padrão de 6. As parcelas que receberam 20 kg de fertilizante por hectare produziram 80 g de sementes com um erro padrão de 6. Excluindo-se a possibilidade de que um evento aleatório muito raro tenha ocorrido (com uma probabilidade de aproximadamente 5 x 10-8), tem-se uma muito boa evidência de uma associação positiva entre adição de fertilizante e o aumento do rendimento da colheita de trigo. Aqui, vemos a primeira vantagem da aleatorização. Pelo fato de aleatorizar a posição do tratamento, gera-se uma distribuição amostral que permite calcular a probabilidade de observar um dado resultado por acaso se, na realidade, não há efeito do tratamento. Isso ajuda a distinguir entre associações por acaso daquelas sistemáticas. Desde que um erro que o pesquisador pode cometer é confundir uma diferença real com uma diferença devido a flutuações da amostragem, a distribuição amostral permite calcular a probabilidade de cometer esse erro. Mas Fisher e muitos outros estatísticos de lá para cá declararam adicionalmente que o processo de aleatorização permite diferenciar entre associações devidas a efeitos causais do tratamento e associações devidas a alguma variável que é uma causa comum tanto do tratamento quanto das variáveis respostas. O que permite ser tão confiante nessa conclusão sobre uma associação (uma “correlação”) entre a adição de fertilizante e o aumento de rendimento da colheita para declarar que a adição de fertilizante realmente causa o aumento da colheita?
  Dado que duas variáveis (X e Y) são associadas, só pode haver três explicações causais elementares, mas não mutuamente exclusivas: X causa Y, Y causa X, ou há outras causas que são comuns a X e Y. Aqui, não se faz distinção entre causas diretas e indiretas. Lembrando que a transitividade é uma propriedade das causas, ou seja, X causa Y não exclui a possibilidade que variáveis intervenham na cadeia de causas (X→Z1→ Z2→... → Y) entre elas. Pode-se, com total confiança, excluir a possibilidade de que as sementes produzidas causaram a quantidade de fertilizante que foi adicionada.  Primeiro, já se sabe a única coisa que pode ter causado a quantidade de fertilizante que foi adicionado para cada parcela: o número que o pesquisador viu escrito no pedaço de papel atribuído a cada parcela. Segundo, o fertilizante foi adicionado antes das plantas começarem a produzir sementes. O que permite excluir a possibilidade de que a associação observada entre a adição de fertilizante e o rendimento foi devida a alguma causa comum aos dois que não foi observada? Esse foi o gênio de Fisher. Os tratamentos foram designados aleatoriamente para as unidades amostrais (i.e., as parcelas com suas plantas associadas). Por definição, tal processo aleatório assegura que a ordem na qual os pedaços de papel são escolhidos (e, portanto, a ordem na qual as parcelas recebem o tratamento) tem uma causa independente de qualquer atributo da parcela, seu solo, ou da planta no momento da aleatorização.
  Retomando os passos lógicos. Começou-se pela assertiva de que, se houvesse uma relação causal entre a adição de fertilizante e a colheita, então também haveria uma relação sistemática entre essas duas variáveis nos dados: causa implica correlação. Quando se observa uma relação sistemática que não pode racionalmente ser atribuída a flutuações amostrais, conclui-se que há algum mecanismo que causa essa associação. Correlação não implica necessariamente uma associação causal da adição de fertilizante e o rendimento da colheita, mas implica alguma relação causal que é responsável pela associação. Há apenas três tais relações causais elementares e o processo de aleatorização excluiu duas delas. O que restou foi a extraordinária probabilidade de que a adição de fertilizante causou o aumento de colheita. Não se pode excluir categoricamente as duas outras alternativas causais, pois sempre é possível que se tenha "azar" no experimento. Talvez as alocações aleatórias resultem, por acaso, que aquelas parcelas que receberam 20 kg de fertilizante por hectare tivessem solo com uma alta capacidade de retenção de umidade ou outro atributo que, realente, causasse o aumento da colheita? Em qualquer investigação empírica, experimental ou observacional, só se pode apresentar um argumento que está acima de uma dúvida razoável, não uma certeza lógica.
  O papel chave do processo de aleatorização parece ser assegurar, até uma probabilidade que pode ser calculada da distribuição amostral produzida por aleatorização, que nenhuma causa comum sem controle tanto para o tratamento, quanto para a variável resposta poderia produzir uma associação espúria. Fisher foi mais longe quando disse que a aleatorização “alivia o experimentador da ansiedade de considerar e estimar a magnitude das inúmeras causas pelas quais os dados podem ser perturbados”. Isso é estritamente verdadeiro? Considere-se novamente a possibilidade de que a umidade do solo afeta a colheita. Por designar aleatoriamente o fertilizante às parcelas pode-se assegurar, em média, que as parcelas de tratamento e controle têm solos com os mesmos conteúdos de umidade, portanto removendo qualquer correlação por acaso entre o tratamento recebido pela parcela e seu conteúdo de umidade. Mas o número de atributos das unidades experimentais (i.e. as parcelas com seus solos e plantas) é limitado somente pela nossa imaginação. Vamos imaginar que haja 20 atributos diferentes das unidades experimentais que poderiam causar a diferença na colheita. Qual a probabilidade de que, pelo menos uma dessas, fosse suficientemente concentrada, por acaso, nas parcelas do tratamento para produzir uma diferença significativa nas colheitas mesmo se o fertilizante não tenha efeito causal? Se essa probabilidade não parece ser muito grande, pode-se facilmente listar 50 ou 100 atributos que poderiam causar a diferença nas colheitas. Desde que há um grande número de causas potenciais, então a probabilidade de que pelo menos uma delas fosse concentrada, por acaso, nas parcelas de tratamento não é negligenciável, mesmo se tivessem sido usadas muito mais do que 30 parcelas.
  A aleatorização serve, então, para dois propósitos na inferência causal. Primeiro, ela assegura que não há efeito causal vindo das unidades experimentais para a variável tratamento ou de uma causa comum a ambas. Segundo, ela ajuda a reduzir a probabilidade na amostra de uma correlação por acaso entre a variável tratamento e alguma outra causa do tratamento, mas não remove isso completamente. Citando Howson e Urbach (1989):

Qualquer que seja o tamanho da amostra, dois grupos de tratamentos diferirão com absoluta certeza em algum respeito, certamente, em infinitos aspectos, qualquer um dos quais deve, de forma desconhecida para nós, estar causalmente implicado no resultado da tentativa. Então a aleatorização não pode garantir que os grupos sejam livres de viés por fatores de ruídos desconhecidos (i.e. variáveis correlacionadas com o tratamento). E, desde que não se podem saber quais desses fatores desconhecidos estão atuando, não se está em posição de calcular a probabilidade do desenvolvimento desse viés também.

  Isso não deve ser interpretado como uma fraqueza severa do experimento de aleatorização em qualquer sentido prático, mas enfatiza que mesmo experimentos aleatórios não proveem qualquer segurança automática de inferência causal, livre de pressupostos subjetivos.
  Igualmente importante é o que não é requerido pelo experimento aleatório. A lógica de experimentação até o tempo de Fisher era a do experimento controlado, no qual era crucial que todas outras variáveis fossem experimentalmente fixadas em valores constantes. R. A. Fisher (1970) explicitamente rejeitou esse como um método inferior, destacando que é logicamente impossível saber se “todas as outras variáveis” foram englobadas. Isso não significa que Fisher não advogava controlar fisicamente outras causas em adição à aleatorização. De fato, ele recomendou explicitamente que o pesquisador fizesse isso sempre que possível. Por exemplo, na discussão da comparação entre colheitas de diferentes variedades, ele sugeriu que elas fossem plantadas em solo que “parecesse uniforme”. No contexto de experimentos em potes, ele recomendou que o solo fosse totalmente misturado antes de colocá-lo nos potes, que a água fosse equalizada, que eles recebessem a mesma quantidade de luz, etc. A força do experimento aleatório está no fato de que não temos controle físico – ou até nem somos conscientes de – outras variáveis causalmente relevantes de modo a reduzir (mas não excluir logicamente) a possibilidade de que a associação observada é devida a alguma causa comum não medida na amostra.
  Mesmo assim, força não é a mesma coisa que onipotência. Pode-se perceber que a lógica do experimento aleatório tem, escondida, uma fraqueza ainda não discutida que restringe severamente sua utilidade para os biólogos; uma fraqueza que não é removida mesmo com um tamanho amostral infinito. Para funcionar deve-se ser capaz de designar aleatoriamente valores da causa hipotética para as unidades experimentais independentemente de quaisquer atributos dessas unidades. Essa designação deve ser direta e não mediada por outros atributos das unidades experimentais. Ainda assim, uma grande proporção de estudos biológicos envolve relações entre atributos diferentes dessas unidades experimentais.
  No experimento descrito acima, as unidades experimentais são as parcelas de solo com suas plantas de trigo. Os atributos dessas unidades incluem aqueles do solo, do meio ambiente do entorno e das plantas. Imagine que um pesquisador queira testar o seguinte cenário causal: o fertilizante adicionado aumenta a quantidade de nitrogênio absorvido pela planta. Isso aumenta a quantidade de enzimas fotossintéticas que utilizam o nitrogênio nas folhas e, portanto, a taxa fotossintética líquida. A fixação maior de carbono devido à fotossíntese causa o aumento da colheita (Figura 1.1).


 Figura 1.1 – Um cenário hipotético causal que não é passível para um experimento aleatório.

  A primeira parte desse cenário é perfeitamente abordada pelo experimento aleatório, pois a absorção de nitrogênio é um atributo da planta (a unidade experimental), enquanto a quantidade de fertilizante adicionada é controlada completamente pelo pesquisador independentemente de qualquer atributo da parcela ou das plantas. O resto da hipótese é proibitivo para o experimento aleatório. Por exemplo, tanto a taxa de absorção de nitrogênio e a concentração de enzimas fotossintéticas são atributos da planta (a unidade experimental). É impossível designar aleatoriamente os níveis de absorção de nitrogênio para cada planta independentemente de qualquer um dos seus outros atributos. Mesmo assim, esse é o passo crucial no experimento aleatório que permite distinguir correlação de causa. É verdade que o pesquisador pode induzir uma mudança tanto na taxa de absorção de nitrogênio pela planta, quanto na concentração de enzimas fotossintéticas nas suas folhas, mas em qualquer caso, essas mudanças são devidas à adição do fertilizante. Após observar uma associação entre o aumento da absorção de nitrogênio e concentração de enzimas a aleatorização na adição de fertilizante não exclui diferentes cenários causais, apenas alguns dos quais são mostrados na Figura 1.2.


Figura 1.2 – Três cenários causais diferentes que poderiam gerar uma associação entre o aumento da absorção de nitrogênio e o aumento da concentração de enzimas na planta após a adição de fertilizante em um experimento aleatório.
    
  Quando se lê livros sobre desenho experimental, os olhos geralmente passam pelas palavras “unidade experimental” sem parar para considerar o que essas palavras significam. A unidade experimental é a “coisa” na qual os níveis de tratamentos serão designados aleatoriamente. A unidade experimental também é uma unidade experimental. As relações causais, se existem, são entre a variável tratamento externa e cada um dos atributos da unidade experimental que mostram uma resposta. Em biologia, as unidades experimentais (por exemplo plantas, folhas ou células) são todos integrados, os quais não podem ser desmembrados sem afetar as outras partes. Não é geralmente possível designar aleatoriamente valores de um atributo de uma unidade experimental independente do comportamento de seus outros atributos. Quando essas designações aleatórias não podem ser feitas, então não se pode inferir causa de um experimento aleatório. Um momento de reflexão mostrará que esse problema é muito comum em biologia. Biologia do organismo, celular e molecular estão cheios dele. Fisiologia é um emaranhado sem esperança. Evolução e ecologia, dependentes que são da fisiologia e morfologia, estão geralmente além de seu alcance. Se aceita-se que não se podem estudar relações causais sem experimentos aleatórios, então uma proporção grande de pesquisa biológica terá perdido qualquer conteúdo causal demonstrável.
  A utilidade do experimento aleatório também é severamente reduzida por restrições práticas. Deve-se lembrar de que a inferência é da alocação aleatória do tratamento para as unidades experimentais. A unidade experimental deve ser aquela que seja relevante para a hipótese científica de interesse. Se a hipótese se refere a unidades de grandes proporções espaciais (populações, ecossistemas, paisagens), então a unidade experimental deve consistir nessas unidades. Alguém querendo saber se o aumento nas concentrações de dióxido de carbono irá alterar a estrutura da comunidade de florestas terá que usar florestas inteiras como unidades experimentais. Tais experimentos nunca são feitos e não há nada na lógica inferencial dos experimentos aleatórios que permita a alguém aumentar a escala a partir de unidades experimentais diferentes em pequena escala. Até mesmo quando uma aleatorização apropriada pode ser feita em princípio, elas não podem ser feitas na prática, devido a restrições financeiras ou éticas.
  O biólogo que deseja estudar relações causais usando experimentos aleatórios é, portanto, severamente limitado nas questões que podem ser feitas. Os cientistas com inclinações filosóficas que insistem que uma resposta positiva de um experimento aleatório é uma definição operacional de uma relação causal teriam que concluir que a causalidade é irrelevante para a maior parte da ciência.

segunda-feira, 23 de dezembro de 2013

A CAUSA DA SOMBRA*



O Wayang Kulit é uma arte teatral ancestral praticada na Malásia e em boa parte do Oriente. As histórias são, geralmente, sobre batalhas entre o bem e o mal, como aquelas nos grandes épicos Hindus. O que a audiência realmente vê não são atores, nem mesmo bonecos, mas as sombras dos bonecos projetadas em uma tela de lona. Atrás da tela há uma luz. O manipulador dos bonecos cria a ação pela manipulação dos bonecos e adereços de tal modo que eles interceptam a luz e lançam as sombras. Na medida em que essas sombras dançam na tela, a audiência deve deduzir a história a partir dessas projeções bidimensionais dos objetos tridimensionais escondidos. As sombras, entretanto, podem ser ambíguas. Para inferir a ação tridimensional, as sombras devem ser detalhadas, com contornos finos e devem ser postas no contexto adequado.

Biólogos são participantes inconscientes na peça de sombras da natureza. Essas sombras são lançadas quando os processos causais na natureza são interceptados pelas nossas medidas. Como a audiência no teatro de sombras, o biólogo não pode, simplesmente, espiar atrás da tela e observar diretamente os processos causais reais. Tudo que pode ser diretamente observado são as consequências dos processos na forma de padrões complicados de associação e independência nos dados. Assim como as sombras, esses padrões de correlação são projeções incompletas – e potencialmente ambíguas – dos processos causais originais. Assim como as sombras, pode-se inferir muito sobre os processos causais subjacentes aprendendo a estudar seus detalhes, afinar seus contornos e, especialmente, contextualizá-los.

Infelizmente, diferente do manipulador de bonecos no teatro de sombras, o qual se encarrega de projetar sombras informativas, a natureza é indiferente às sombras correlacionais que projeta. Essa é a razão principal de pesquisadores fazerem um esforço enorme para aleatorizar as alocações de tratamentos e controlar as variáveis. Esses métodos, quando podem ser feitos de forma apropriada, simplificam as sombras correlacionais em padrões manejáveis que podem ser mais facilmente mapeados até os processos causais adjacentes.

É desconfortavelmente verdade, apesar de raramente admitido em textos estatísticos, que muitas áreas importantes da ciência são teimosamente impermeáveis a desenhos experimentais baseados na aleatorização dos tratamentos das unidades amostrais. Historicamente, a resposta a esse problema embaraçoso tem sido ignorá-lo, ou abolir a noção de causalidade da linguagem e afirmar que as sombras dançando na tela são tudo que existe. Ignorar um problema não faz com que ele desapareça e definir que um problema não existe também não. Deve-se saber o que se pode inferir com segurança sobre as causas a partir das suas sombras observacionais, o que não se pode inferir e o grau de ambigüidade que sobra.

A visão da maior parte dos estatísticos e biólogos é resumida no mantra que qualquer estudante que estudou um curso básico de estatística aprende: correlação não implica causa. Na verdade, com poucas exceções, correlação implica causa. Se observamos uma relação sistemática entre duas variáveis e conseguimos retirar a probabilidade de que essa relação é simplesmente devido a uma coincidência aleatória, então alguma coisa deve estar causando essa relação. Quando a audiência do teatro de sombras vê uma sombra de uma roda sólida na tela, ela sabe que algum objeto tridimensional a projetou, apesar de não poder dizer se o objeto é uma bola ou uma tigela redonda. Uma informação mais acurada nos cursos de estatística seria que uma correlação simples implica em uma estrutura causal não-resolvida, pois não podemos saber qual é a causa, qual é o efeito, ou até se os dois são efeitos comuns de uma terceira variável, não medida.

Apesar de uma correlação implicar numa estrutura causal não resolvida, o reverso não é verdade: uma causa implica uma estrutura de correlação completamente resolvida. Isso quer dizer que a partir do momento em que uma estrutura causal seja proposta, o padrão completo de correlação e correlação parcial é fixado sem ambigüidade. Isso é importante: as relações causais entre objetos ou variáveis determinam as relações correlacionais entre eles. Assim como a forma de um objeto fixa a forma de sua sombra, os padrões de causa direta e indireta fixam as sombras correlacionais que se observam nos dados. Os processos causais gerando os dados observados impõem restrições nos padrões de correlação que tais dados mostram.

O termo “correlação” evoca a noção de uma associação probabilística entre variáveis aleatórias. Uma razão para que estatísticos raramente falem em causa, exceto para se distanciarem do termo, é que não existia, até muito recentemente, qualquer tradução rigorosa entre a linguagem da causalidade e a linguagem da distribuição de probabilidades. É, portanto, necessário ligar causa às distribuições de probabilidades de maneira bem precisa. Essas ligações rigorosas estão, agora, sendo forjadas. É possível, agora, dar provas matemáticas que especificam o padrão correlacional que deve existir dada uma estrutura causal. Essas provas também permitem especificar a classe de estruturas causais que devem incluir a estrutura causal que gera um padrão de correlação dado.

Outra razão pela qual se prefere falar em associações ao invés de causas é, talvez, pelo fato de que causas são vistas como uma noção metafísica que é deixada para os filósofos. De fato, mesmo filósofos da ciência não concordam no que constitui uma “causa”. Provavelmente, cada um tenha seu próprio entendimento intuitivo do termo “causa”. Ao invés de definir causalidade, uma abordagem é de axiomizar causalidade. Em outras palavras, começa-se por determinar os atributos que cientistas veem como necessários para uma relação ser considerada causal e, então, se desenvolve uma linguagem matemática formal baseada nesses atributos. As relações devem ser, então:

1. Transitivas: se A causa B e B causa C, então também deve ser verdade que A causa C.
2. Locais: o termo técnico para isso é que as relações devem obedecer condições Markovianas, das quais há versões locais e globais. Pode ser entendido como significando que os eventos são causados somente por suas causas próximas. Então, se o evento A causa o evento C somente pelo seu efeito através do evento intermediário B (A→B→C), então a influência causal de A em C é bloqueada se o evento B não responder mais a A.
3. Irreflexivas: um evento não pode causar a si mesmo. Isso não quer dizer que todo evento deve ser explicado por uma causa; isso levaria diretamente ao paradoxo da regressão infinita. Cada explicação causal na ciência inclui eventos que são aceitos (medidos, observados, ...) sem ser derivados de eventos prévios.
4. Assimétricas: se A causa B, então B não pode simultaneamente ser a causa de A.

É necessário uma nova linguagem matemática capaz de expressar e manipular essas relações causais. Essa linguagem é a de gráficos direcionados. Desde que, no final, se deseja inferir relações causais de dados correlacionados, precisa-se um caminho lógico rigoroso para traduzir entre as relações causais codificadas em gráficos de direcionamento e as relações correlacionais codificadas na teoria das probabilidades.


*(Versado livremente do livro em inglês Cause and correlation in biology, de Bill Shipley)
Link: http://books.google.com.br/books/about/Cause_and_Correlation_in_Biology.html?id=_X-dAFoEsM8C&redir_esc=y


sexta-feira, 13 de dezembro de 2013

Estocasticidade - exercícios sobre sistemas I



Estocasticidade diz respeito a um padrão que emerge a partir de eventos aleatórios, não-determinísticos. Devido à imprevisibilidade dos resultados dos eventos não se pode “determinar” de antemão qual trajetória o sistema irá tomar e todos eventos tem iguais probabilidades (chances) de acontecer.

Entretanto, a imprevisibilidade (estocasticidade) não pressupõe que os padrões resultantes de uma série de eventos aleatórios sejam aleatórios. Por exemplo: qualquer face de um dado tem a mesma probabilidade de estar em qualquer uma das posições espaciais após o lançamento do mesmo (para baixo, para o lado esquerdo, para o lado direito, para cima, etc.). Espera-se que, lançando o dado um número grande de vezes, a distribuição das posições de cada face terá um padrão 1/6 ( 360 eventos = 60 vezes a face 1 para baixo). Porém, uma sequência não-aleatória pode surgir a partir de uma série de eventos aleatórios. Por exemplo, 120 vezes a face 1 para baixo. Todavia, esse resultado de uma série de eventos é improvável desde que todas as outras forças que poderiam influenciar esse resultado atuassem da mesma forma no resultado de cada evento individual.

Quando “procuramos” padrões, a aleatoriedade é testada. Ou seja, até que ponto o desvio no número de vezes que um determinado evento ocorre é “determinado” ou aleatório ?

Eventualmente, um padrão não-aleatório emerge (120 vezes a face 1), simplesmente porque todos resultados a partir da combinação dos eventos disponíveis são possíveis, inclusive aqueles que “parecem” determinísticos. Mas a probabilidade de uma cadeia gerada a partir de eventos aleatórios ser determinística é muito menor do que a probabilidade de geração de uma cadeia aleatória.

Nesse contexto, o que seria uma comunidade estocástica?

Uma comunidade “montada” a partir de eventos aleatórios, imprevisíveis. Sejam quais forem os eventos que concorrem para a montagem das comunidades, para uma comunidade estocástica eles deverão ser eventos aleatórios. Porém, como frisado, os eventos aleatórios tem as mesmas probabilidades para cada resultado individual.

O que determina a montagem da comunidade, em um primeiro momento em que não há interações interespecíficas, é o estado inicial do sistema regional de espécies, em outras palavras, é o pool regional de espécies. Aquelas espécies que tem probabilidade de colonizar a nova comunidade. Mas será que, por terem as espécies abundâncias diferentes, elas apresentam diferentes probabilidades de colonização?

Ou seja, esse pensamento de estado inicial do pool de espécies tornaria a comunidade não-estocástica, pois a sensibilidade às condições iniciais de um sistema não é uma característica de um sistema imprevisível, mas de um sistema caótico, o qual é conceitualmente determinista, apesar de apresentar propriedades que o tornam não previsível a longo prazo.

terça-feira, 26 de fevereiro de 2013

ECOSSISTEMAS INTOCADOS ou A IDEALIZAÇÃO DA NATUREZA


David B. Clark, em 1996, publicou um artigo com o título sugestivo de “Abolishing virginity” (Abolindo a virgindade), no qual procura iniciar a padronização de conceitos ligados à ecologia da floresta tropical. Destaca-se, no texto, a afirmação de que “em termos práticos, determinar se uma floresta está sendo ou foi, em qualquer momento, afetada por atividades humanas é problemático”. Escreve ele que a presença humana, histórica e atual, nos trópicos faz com que o termo “virgem” seja inadequado de modo geral. Apesar de já idosa em termos científicos, essa afirmação pode chocar alguns pesquisadores (aqui, usarei o termo no masculino com abrangência para as pesquisadoras). Ainda é comum encontrar pesquisadores que idealizam os habitats nos quais trabalham, entendendo que áreas mais ou menos isoladas e quase inacessíveis traduzam o “ideal” da diversidade de determinado ecossistema. Isso é muito natural, tendo em vista que o Brasil ainda possui muitas áreas nessas condições. Porém, considerando-se a maioria dos sistemas ecológicos, a regra, hoje ou no passado, foi o impacto em algum grau e o que se vê, atualmente, é o resultado dos processos de recuperação da vegetação e da fauna. Clark sugere o termo “old-growth” (idoso, traduzido livremente) para caracterizar florestas que não foram impactadas por um longo período, o que seria o extremo de um contínuo que passa por pastagens abandonadas e áreas agrícolas. Dessa forma, o foco é retirado da questão relacionada à idealização do que seja “original” e, consequentemente, cria condições para estabelecer comparações deterministas entre diferentes estágios florestais. Essa proposta é bem adequada e pode ser estendida para diferentes ecossistemas brasileiros. A classificação será baseada em aspectos estruturais e funcionais, não mais em uma abstração do que seria “intocada” (50 anos, 100 anos, 1000 anos). A idealização da natureza intocada, no Brasil, é um fato corriqueiro, inclusive com divulgação midiática. Isso não é ruim. Afinal, realmente, devemos ter áreas muito parecidas com... O que mesmo? Em tempos de mudanças climáticas, nem a mais remota floresta tropical está totalmente livre de impactos... Essa abordagem do “intocado” pode ser justificada pela questão ética relacionada com a conservação da biodiversidade. Afinal, devemos preservar para que várias funções dos ecossistemas possam ser mantidas. Porém, por outro lado, essa visão cria uma barreira importante. Atualmente, a maior parte dos ecossistemas está sob influencia das sociedades humanas. O foco, na maior parte dessas áreas, deve ser o estudo de descritores locais, da paisagem e regionais que possam influenciar nos padrões de diversidade e nos serviços ecossistêmicos. Dessa forma, nós, pesquisadores, poderemos ter um panorama das influencias que são mais importantes para possíveis diferenças na distribuição da diversidade vegetal e animal e até que ponto essas influencias podem ser atribuídas às atividades de uso e conversão de habitats pela sociedade humana. Áreas relativamente “intactas”, baseadas em uma classificação estrutural e funcional, podem funcionar como controles para os estudos. Mas, no meu entendimento, em áreas com forte pressão antrópica, o foco deve ser na análise dos principais direcionadores de possíveis mudanças espaciais e temporais na biodiversidade. Só assim, nessas áreas, teremos embasamento técnico-científico para sugerir ações de manejo que sejam adequadas para a manutenção da biodiversidade nos diferentes biomas brasileiros.