quinta-feira, 1 de março de 2018

CORRELACIONANDO COMPOSIÇÃO DE ESPÉCIES E MEIO AMBIENTE – para leigos

A diversidade de espécies pode ser dividida basicamente em três componentes: diversidade alfa, diversidade beta e diversidade gama (Whittaker,1972). Tomemos o exemplo de duas comunidades fictícias:

Quadro 1 - Distribuição de cinco espécies em duas áreas (comunidades).

A definição de diversidade alfa é o número de espécies em uma comunidade local. Portanto, a diversidade alfa da comunidade da Área 1 = 4 e da Área 2 = 3. A definição de diversidade gama é o conjunto de espécies de todas comunidades locais, portanto a diversidade gama é a união da diversidade da Área 1 com a diversidade da Área 2 = 5. A diversidade gama é o conjunto de todas espécies; porém, há espécies que ocorrem somente na comunidade da Área 1 e uma espécie que ocorre somente na comunidade da Área 2. Então, outro componente da diversidade é a diversidade beta, que nada mais é do que a diferença nas composições de espécies de cada comunidade. Vamos inserir uma nova matriz, caracterizando uma variável ambiental qualquer:

Quadro 2 – Distribuição de cinco espécies em duas áreas (comunidades) e valores de uma variável ambiental fictícia.

Tomando-se a definição de nicho ecológico como o espaço ocupado por uma espécie determinado pela sua amplitude de tolerância à uma variável ambiental, podemos pensar que a diferença na variável ambiental (20 – 2 = 18) caracteriza um gradiente ambiental, de tal forma que, baseado na matriz acima, teríamos algo como:



A distribuição das Espécies 1 e 2 ocorre por todo gradiente. Já a Espécie 4 ocorre somente na parte inferior do gradiente, enquanto as Espécies 3 e 5 ocorrem somente na parte superior do gradiente. A média da variável ambiental Var Amb média = 2 + 20 / 2 = 11 marca o ponto em que há ocorrência das Espécies 1 e 2, enquanto os extremos caracterizam as ocorrências das outras espécies. Uma tentativa de visualizar espacialmente essa distribuição pode ser a seguinte:


Esse diagrama caracteriza a distribuição das composições de espécies das duas comunidades em relação à variação da variável ambiental. A diferença nas composições, ou diversidade beta, é determinada pelas distribuições das Espécies 3, 4 e 5.
Essa é a lógica por trás das análises de composição de espécies em um conjunto de comunidades. Aqui, utilizamos somente duas comunidades, com cinco espécies no total e apenas uma variável ambiental. Abaixo, vemos um exemplo fictício com nove comunidades, nove espécies e três variáveis ambientais:



As Áreas 1 e 2 estão representadas por A1 e A2, respectivamente. Os outros círculos representam outras comunidades. A mesma lógica utilizada para interpretar a diferença na composição das duas comunidades originais pode ser usada para interpretar esse novo arranjo. Ou seja, a Espécie 7 está correlacionada com a Var Amb 2 e caracteriza duas comunidades. A Espécie 6 está correlacionada com a Var Amb 3 e caracteriza uma comunidade.
Veja que podemos dizer que ordenamos as Áreas (comunidades) no espaço a partir das composições de suas espécies e da correlação dessas espécies com as variáveis ambientais que ocorrem nas áreas. Esse tipo de análise, em ecologia, se chama ORDENAÇÃO. Há dois tipos básicos de ordenações utilizadas para analisar diferenças nas composições de espécies: a análise de gradiente indireta e a análise de gradiente direta. A primeira se utiliza somente da matriz de espécies por áreas (Quadro 1), sem menção direta às variáveis ambientais. A segunda se utiliza da matriz de espécies por áreas e, adicionalmente, da matriz de variáveis ambientais por áreas (Quadro 2). Portanto, correlaciona diretamente a distribuição das espécies com as variáveis ambientais.

quinta-feira, 1 de fevereiro de 2018

Abordagem funcional da diversidade: um olhar para o papel das espécies no ecossistema

A biodiversidade engloba a diversidade de todas as formas de vida encontradas e ainda por encontrar no planeta. Quando falamos de diversidade de formas de vida, em geral visualizamos um determinado indivíduo de uma espécie qualquer. Tendemos a pensar que os indivíduos dentro de espécies são praticamente iguais, afinal de contas, fazem parte do mesmo grupo. Porém, dentro da mesma espécie, os indivíduos podem apresentar variações fenotípicas que se traduziriam em formas diferentes de atuação no ecossistema. Isso pode ser particularmente verdade se os indivíduos apresentam plasticidade fenotípica ligada a alterações ambientais. Por outro lado, nem sempre as variações que se traduzem na divisão entre diferentes espécies são suficientemente marcantes para que essas espécies sejam completamente diferentes quanto às suas funções no ecossistema.
Exemplos da diversidade de tamanhos e formas de folhas de pteridófitas. Extraído de https://www.researchgate.net/figure/Examples-of-the-diversity-of-size-and-shape-in-fern-leaves-A-Pteris-aspercaulis_256502328_fig3)

Nesse sentido, a diversidade funcional geralmente envolve o entendimento de comunidades e ecossistemas a partir do que os organismos fazem, ao invés da sua história evolutiva, a qual se traduz na separação dos organismos a partir dos eventos de especiação dentro dos grandes grupos biológicos. Uma definição mais específica poderia ser "o valor e amplitude dos atributos de espécies e organismos que influenciam no funcionamento do ecossistema." Dessa forma, medir a diversidade funcional teria a ver com medir a diversidade de atributos funcionais. Atributos funcionais são componentes de um fenótipo de um organismo que influencia em processos ecossistêmicos.
Para estudar a diversidade funcional, é necessário que sejam realizadas medidas nos atributos de cada indivíduo, de forma que se possa caracterizar a variação fenotípica da população. Na verdade, pode-se trabalhar tanto com os atributos em nível de indivíduos (individual-based) ou em nível de espécies (species-based). No nível de espécies, os atributos individuais são levados em consideração em conjunto, por exemplo, utilizando-se a média das características individuais.
Em essência, abordar aspectos funcionais dos organismos e sua relação com o ecossistema tem a ver com a utilização de recursos pelos mesmos e em como os organismos respondem a variações ambientais, tanto abióticas, quanto bióticas.
Duas perguntas podem ser feitas a partir da abordagem de diversidade funcional:
1. Como as espécies influenciam o funcionamento dos ecossistemas?
2. Como as espécies respondem às alterações ambientais?
Um importante aspecto da diversidade funcional é que a "função", nesse caso, pode ser considerada como uma "adaptação" do organismo às pressões seletivas. Nesse sentido, a história evolutiva do organismo moldou seus atributos de forma que ele pudesse estar capacitado a sobreviver e se reproduzir em um determinado ambiente. Como resultado, as características fenotípicas das espécies influenciam suas abundâncias e distribuições nos ecossistemas. Como as espécies vivem e compartilham dos ecossistemas com outras espécies, pode-se inferir que essas interações determinem, em menor ou maior grau, a montagem das comunidades locais.
Outro aspecto importante da composição de atributos é a redundância funcional, que representa a similaridade entre as espécies em termos funcionais. Espera-se que espécies funcionalmente redundantes tenham papéis semelhantes nos processos ecossistêmicos. Assim, a redundância funcional seria um seguro para a manutenção de processos ecossistêmicos no caso de perturbações que causassem a extinção de algumas espécies, pois haveria a compensação por outras espécies funcionalmente similares.
O uso dos atributos funcionais tem aplicação direta para o estudo da teoria de montagem das comunidades biológicas. Em princípio, essa teoria propõe que os organismos sejam distribuídos ao longo de gradientes ambientais porque seus atributos funcionais (propriedades fisiológicas e morfológicas) influenciam sua aptidão e desempenho (performance). Por consequência, espécies com atributos funcionais similares provavelmente irão ser encontradas em ambientes parecidos, levando à convergência de atributos dentro das comunidades. Mas, há um importante processo em jogo: a competição. Em oposição à força seletiva do ambiente, a competição por recursos restritos tende a limitar a similaridade funcional de espécies que co-ocorrem na comunidade, o que levaria à redução da competição interespecífica, promovendo, então, a coexistência. A consequência dessa limitação à similaridade é a divergência dos atributos dentro das comunidades, apesar de que a competição pode, às vezes, levar à exclusão de espécies funcionalmente distintas também.

Montagem de comunidades de bactérias pela ordenação baseada em filtros ambientais. Formas de blocos iguais são genes com a mesma função e cores diferentes são táxons diferentes. Extraído de https://www.frontiersin.org/articles/10.3389/fmicb.2016.01254/full.

Várias questões importantes se levantam a partir da abordagem funcional da diversidade biológica. Por exemplo, como as alterações climáticas afetam a resposta funcional da diversidade? Como as predições de alterações futuras podem afetar essa resposta? Como a diversidade funcional responde às alterações no uso e cobertura do solo? Essas alterações podem afetar o papel que as espécies desempenham nos ecossistemas? Se sim, até que ponto há perda da diversidade funcional e, portanto, perda de funções importantes nos ecossistemas?

Referências

Pillar, V.D., Blanco, C.C., Müller, S.C., et al., 2013. Functional redundancy and stability in plant communities. J. Veg. Sci. 24(5), 963–974.
Laureto, L.M.O., Cianciaruso, M.V., Samia, D.S.M. 2015. Functional diversity: an overview of its history and applicability. Brazilian Journal of Nature Conservation 13:112-116.
Laughlin, D.C., Joshi, C., van Bodegom, P.M., Bastow, Z.A., Fulé, P.Z. 2012. A predictive model of community assembly that incorporates intraspecific trait variation. Ecology Letters 15:1291-1299.
Petchey, O.L., Gaston, K.J. 2006. Functional diversity: back to basics and looking forward. Ecology Letters 9:741-758.
Cadotte, M.W., Arnillas, C.A., Livingstone, S.W., Yasui, S.-L.E. 2015. Predicting communities from functional traits. TREE 9:510-511

terça-feira, 7 de março de 2017

INFORMAÇÃO E APRENDIZADO

O POWER POINT DEIXA OS ESTUDANTES ESTÚPIDOS E O PROFESSOR CHATO?

Você realmente acha que assistir uma aula com centenas de apresentações está deixando você mais inteligente?
Um artigo argumentou que as universidade deveriam banir o Power Point, pois deixaria os estudantes estúpidos e os professores chatos.
Eu concordo que essa ferramenta esteja supervalorizada. Entretanto, a maioria das universidades talvez ignorem o aviso. Quando medem o sucesso de um curso, as universidades, em geral, se preocupam com a satisfação do estudante, ao invés de focalizar em quanto o estudante aprende.

O QUE HÁ DE ERRADO NO POWER POINT?

Confiar demais nas apresentações tem contribuído para a crença absurda de que pedir que os estudantes leiam livros, assistam as aulas, tomem notas e façam dever de casa é incoerente.
Componentes curriculares baseados somente em apresentações propagam o mito de que estudantes podem desenvolver habilidades e conhecimento sem ler vários livros e artigos, e sem resolver muitos problemas.
Uma revisão sobre o uso e o processo de ensino com Power Point mostrou que, enquanto estudantes gostam do Power Point mais do que as antigas transparências (que são praticamente a mesma coisa!), o Power Point não aumenta o aprendizado ou habilidades. Gostar de alguma coisa não a torna efetiva e não há nada que sugira que apresentações/transparências são uma ferramenta de aprendizagem efetiva.
Uma pesquisa comparando o ensino baseado em apresentações contra outros métodos, tais como o aprendizado baseado em problema – onde estudantes desenvolvem conhecimentos e habilidades pelo confronto com problemas realistas e desafiadores – mostra que esses outros métodos são mais efetivos em geral.

Há três razões pelas quais o Power Point é tóxico para a educação:
1. Apresentações desencorajam o pensamento elaborado. Apresentações encorajam instrutores a apresentar tópicos complexos usando marcadores, chamadas, figuras abstratas e tabelas superssimplificadas com evidência mínima. Desencorajam uma análise profunda de situações complexas e ambíguas, pois é quase impossível apresentar uma situação dessas em uma apresentação. Isso dá aos estudantes a ilusão de clareza e entendimento.

2. Já estou convencido que a maior parte dos componentes baseados pesadamente em apresentações fazem os estudantes pensarem que o componente é um conjunto de apresentações. Bons professores que apresentam complexidade e ambiguidade realistas são criticados por serem pouco claros. Professores que evitam colocar pontos de tópicos resumidos em apresentações são criticados por não oferecer as devidas anotações. Esse último motivo não faz o mínimo sentido, pois é a inversão total de valores no processo de ensino-aprendizagem. Quem deve ter o compromisso de ler e fazer anotações é o estudante! Aristóteles disse que “o verdadeiro discípulo é aquele que supera o mestre.” Então, o professor se motiva com os questionamentos dos estudantes sobre o assunto, pois estimula seu intelecto. Só com o encontro intelectual o discípulo pode se igualar e superar o professor, criando um caminho evolutivo ascendente.

3. As apresentações desencorajam expectativas lógicas. Quando eu uso exclusivamente o Power Point, os estudantes esperam que as apresentações contenham todo detalhe necessário para projetos, testes e avaliações. Por que alguém iria perder tempo lendo um livro ou indo a uma aula quando pode conseguir aprovação ficando em casa de pijamas e lendo apresentações?

AVALIANDO AS COISAS ERRADAS

Se as apresentações são tão ruins, por que são tão populares?
Há universidades que medem a satisfação dos estudantes, mas não o aprendizado. Pelo fato das instituições focalizarem no que medem e dos estudantes gostarem de apresentações, elas permanecem, sem importar a efetividade educativa.
Hospitais medem a morbidade e a mortalidade. Corporações medem a receita e o lucro. Governos medem o desemprego e o PIB. Mesmo páginas de internet medem índices de leitura de cada artigo e autor. Mas universidades não medem o aprendizado.
Provas, resenhas e trabalhos em grupo medem ostensivamente o conhecimento ou habilidade. Aprendizado é a mudança no conhecimento e habilidades. Portanto, deve ser medido o tempo todo.
Quando somos chamados a medir o aprendizado, os resultados não são bonitos. Pesquisadores estadunidenses mostraram que um terço dos estudantes de graduação não melhoraram seu conhecimento ao longo de seus quatro anos de cursos.
Eles testaram estudantes no início, meio e final de seus cursos usando a ferramenta Collegiate Learning Assessment, que testa habilidades que qualquer curso deveria melhorar – argumentação analítica, pensamento crítico, solução de problemas e escrita.
Qualquer universidade pode empregar testes similares para medir o aprendizado dos estudantes. Isso facilitaria as avaliações rigorosas de diferentes métodos de ensino. Seríamos capazes de quantificar a relação entre o uso do Power Point e o aprendizado. Seríamos capazes de investigar dezenas de covariáveis do aprendizado e, eventualmente, estabelecer o que funciona e o que não funciona.
Infelizmente, muitos direcionadores chaves do aprendizado parecem reduzir a satisfação dos estudante e vice-versa. Enquanto continuarmos a medir a satisfação no lugar do aprendizado do estudante, continuaremos na espiral descendente de poucas expectativas, pouco trabalho árduo e pouco aprendizado.

sexta-feira, 6 de janeiro de 2017

VALORES DE P SÃO APENAS A PONTA DO ICEBERG

            Segundo Jeffrey  T. Leek e Roger D. Peng, não há uma estatística mais maligna do que o valor de P. Centenas de artigos e publicações em blogs têm sido escritos sobre o que alguns estatísticos escarnecem como “teste de significância da hipótese nula” (TSHN), que considera se os resultados de uma análise de dados são importantes com base no fato de se o teste P (ou outro método) cruzou um determinado limite. Se você é um pesquisador da área da Psicologia que monta sua matriz de dados, coloca num pacote estatístico, escolhe uma determinada rotina, clica <Enter> e olha o valor de P, saiba que o Basic and Applied Social Phychology, há algum tempo, baniu métodos baseados em TSHN. 
            Mas, segundo Jeffrey e Roger, isso terá de fato efeito escasso na qualidade da ciência publicada. Segundo eles, há vários estágios durante o desenho e a análise de um estudo bem sucedido, começando com o desenho experimental, passando pela coleta de dados, montagem das matrizes, preparação de dados, escolha dos dados adequados, análise exploratória, escolha de modelos estatísticos potenciais, modelagem estatística, estatística descritiva, inferência e teste (valor de P). Somente o último desses passos é o cálculo de uma estatística inferência tal como o valor de P e a aplicação de uma “regra de decisão” para isso (por exemplo, P < 0,05). Porém, decisões que são tomadas anteriormente na análise de dados tem um impacto muito maior nos resultados – desde o desenho experimental a efeitos perturbadores, falta de ajuste para os fatores de confusão, ou simplesmente erros de medições. Níveis arbitrários de significância estatística podem ser adquiridos pela alteração na maneira em que os dados são tratados, sumarizados e modelados.
            Dizem os autores que valores de P são um alvo fácil: por serem largamente utilizados, são largamente abusados. Mas, na prática, a desregulamentação da significância estatística abre a porta para ainda mais maneiras de brincar com a estatística – intencionalmente ou não – para obter um resultado. Substituir os valores de P por fatores bayesianos ou outra estatística é, em última instância, escolher um custo-benefício diferente para os positivos verdadeiros e os falsos positivos. Discutir sobre o valor de P é como focalizar em um erro ortográfico ao invés de numa lógica falsa de uma sentença.
            Os autores afirmam que, assim como qualquer pessoa que faça um sequenciamento de DNA ou um sensoriamento remoto deve ser treinada para usar uma máquina, também qualquer um que analise dados deve ser treinado nos conceitos e programas relevantes. Até mesmo investigadores que supervisionam a análise de dados devem ser exigidos por suas agências de fomento e instituições a completar treinamento no entendimento dos resultados e problemas potenciais com as análises.
            Mas, eles advertem, a educação não é o suficiente. A análise de dados é ensinada através de um modelo de aprendizagem e disciplinas diferentes desenvolvem suas próprias subculturas de análises. Decisões são baseadas em convenções culturais em comunidades específicas ao invés de evidência empírica. Por exemplo, economistas e médicos denominam um conjunto de dados medidos ao longo do tempo de formas diferentes e se utilizam de diferentes formas estatísticas para analisá-lo.
            A pesquisa em estatística se focaliza, em grande parte, na matemática estatística, com exceção do comportamento e processos envolvidos na análise de dados. Para resolver esse grande problema, devemos estudar como as pessoas analisam os dados no mundo real. O que os faz ter sucesso ou fracasso? Experimentos controlados têm sido feitos na visualização e interpretação de riscos para avaliar como humanos percebem e interagem com os dados e a estatística. Mais recentemente, os autores e outros colaboradores têm estudado o fluxo completo da análise. Eles encontraram, por exemplo, que analistas de dados recém-treinados não sabem como inferir valores de P de conjuntos de dados, mas podem aprender a fazer isso na prática.

            Por fim, os autores sugerem que o objetivo final a análise de dados baseada na evidência, o que seria análogo à medicina baseada na evidência, na qual os médicos são encorajados a usar somente tratamentos para os quais a eficácia foi provada em testes controlados. Os estatísticos, as pessoas que eles treinam e com as quais colaboram precisam parar de discutir sobre os valores de P de forma a impedir que o resto do iceberg afunde a ciência.

Link para o artigo completo: http://www.nature.com/news/statistics-p-values-are-just-the-tip-of-the-iceberg-1.17412.

quarta-feira, 4 de janeiro de 2017

A CIÊNCIA EM VÁRIOS NÍVEIS

    O processo da ciência atua em múltiplos níveis – da menor escala (e.g., a comparação de genes de espécies aparentadas de borboletas) até a maior escala (e.g., a série de investigações em meio século da ideia de que o isolamento geográfico de uma população pode provocar a especiação). O processo científico atua de uma forma parecida com a de um cientista individual abordando um problema, questão ou hipótese específica ao longo de meses ou anos, ou de uma comunidade de cientistas que concordam com algumas ideias através de décadas e milhares de experimentos e estudos individuais. Similarmente, as explicações científicas vêm em diferentes escalas.

Hipóteses

    Hipóteses são explicações propostas para um conjunto relativamente estreito de fenômenos. Essas explicações lógicas não são palpites. Quando cientistas formulam novas hipóteses, elas são usualmente baseadas em experiências prévias, conhecimento científico básico, observações preliminares e lógica. Por exemplo, cientistas observaram que borboletas dos Alpes exibem características intermediárias entre duas espécies que vivem em baixas altitudes. Baseados nessas observações e no seu entendimento da especiação, os cientistas hipotetizaram que essa espécie de borboleta dos Alpes evoluiu como resultado da hibridização entre as outras duas espécies vivendo em baixas altitudes.



Teorias

    Teorias, por outro lado, são explicações abrangentes para uma grande amplitude de fenômenos. Elas são concisas (i.e., geralmente não tem uma longa lista de exceções e regras especiais), coerentes, sistemáticas, preditivas e amplamente aplicáveis. De fato, teorias em geral integram e generalizam muitas hipóteses. Por exemplo, a teoria da seleção natural se aplica amplamente para todas populações com alguma forma de hereditariedade, variação e sucesso reprodutivo diferencial – seja a população composta de borboletas dos Alpes, moscas de frutas tropicais em uma ilha, uma nova forma de vida descoberta em Marte ou até os bits na memória de um computador. Essa teoria ajuda a entender uma amplitude de observações (do aumento da resistência de bactérias aos antibióticos à similaridade física entre polinizadores e suas flores preferidas), faz predições sobre novas situações (e.g., que tratando pacientes com AIDS com um coquetel de medicações deve diminuir a evolução do vírus) e se provou incontáveis vezes em milhares de experimentos e estudos observacionais.


Apenas uma teoria?

    Ocasionalmente, ideias científicas (tais como a evolução biológica) são escritas com um adendo “é só uma teoria”. Essa difamação é enganosa e confunde dois significados separados da palavra teoria: no uso comum, a palavra teoria significa simplesmente um palpite, mas, na ciência, uma teoria é uma explicação poderosa para um conjunto amplo de observações. Para ser aceita pela comunidade científica, uma teoria (no sentido científico da palavra) deve ser fortemente suportada por muitas linhas de evidência diferentes. Então, a evolução biológica é uma teoria (uma explicação bem suportada, amplamente aceita e poderosa para a diversidade de vida na Terra), mas não é “só uma teoria”.
    Palavras com ambos significados (técnico e comum) geralmente causam confusão. Até cientistas às vezes usam a palavra teoria quando eles na verdade querem dizer hipótese ou mesmo um palpite. Muitos campos técnicos têm problemas similares de vocabulário – por exemplo, tanto o termo trabalho em física, quanto ego em psicologia possuem significados específicos nos seus campos técnicos que diferem de seus usos comuns. Entretanto, entender o contexto e um pouco de conhecimento básico em geral são suficientes para distinguir qual significado é proposto.

Teorias globais

    Algumas teorias, que podemos chamar de teorias globais, são particularmente importantes e refletem entendimentos amplos de uma parte particular do mundo natural. A teoria evolutiva, a teoria atômica, a gravidade, a teoria quântica, e a tectônica de placas são exemplos desse tipo de teorias. Essas teorias têm sido amplamente suportadas por múltiplas linhas de evidência e ajudam a estruturar nosso entendimento do mundo ao nosso redor.
    Tais teorias englobam muitas teorias e hipóteses subordinadas e, consequentemente, mudanças nesses teorias e hipóteses menores refletem um refinamento (não uma queda) da teoria global. Por exemplo, quando o equilíbrio pontuado foi proposto como um modelo de mudança evolutiva e evidência foi encontrada suportando a ideia em algumas situações, isso representou um reforço elaborado da teoria evolutiva, não uma refutação dela. Teorias globais são muito importantes, pois ajudam os cientistas a escolher seus métodos de estudo e modo de raciocínio, conectam fenômenos importantes de formas novas e abrem novas áreas de estudo. Por exemplo, a teoria evolutiva realçou um conjunto novo de questões para exploração: Como a característica de uma espécie ou grupo de espécies evoluiu? Como essas espécies são relacionadas umas com as outras? Como a vida mudou através do tempo?



Explicação de um modelo


    Hipóteses e teorias podem ser complexas. Por exemplo, uma hipótese particular sobre interações meteorológicas ou reações nucleares podem ser tão complexas que são melhor descritas na forma de um programa de computador ou uma equação matemática. Nesses casos, a hipótese ou teoria pode ser chamada de modelo.

Texto e figuras adaptados de http://undsci.berkeley.edu/article/howscienceworks_19

quarta-feira, 25 de novembro de 2015

ANÁLISE DE DADOS ECOLÓGICOS Parte I

O embasamento de uma metodologia geral para analisar dados ecológicos pode ser encontrado nas relações que existem entre as condições que cercam as observações ecológicas e seus resultados. Nas ciências físicas, por exemplo, há sempre relações de causa e efeito entre as condições naturais ou experimentais e os resultados das observações ou experimentos. Isso quer dizer que, dadas certas condições, o resultado pode ser exatamente predito. Porém, essas relações determinísticas são raras na ecologia.

Geralmente, na ecologia, um número diferente de resultados pode ser encontrado a partir de um conjunto de condições por causa do grande número de variáveis atuando no sistema, das quais muitas não são disponíveis para o observador. Por outro lado, se as observações são repetidas muitas vezes sob certas condições similares, as frequências relativas de resultados possíveis tendem a estabilizar em certos valores, chamados probabilidades dos resultados.

Genericamente, é possível afirmar que sempre que dizemos que a probabilidade de um evento com respeito a um experimento (ou observação) é igual a P, o significado concreto dessa assertiva é simplesmente que em uma longa série de repetições do experimento (ou observação), é praticamente certo que a frequência (relativa) do evento será aproximadamente igual a P. Isso corresponde à teoria de probabilidade de frequências. Dessa forma, se o P de uma análise é igual a 0,03, isso significa, segundo a definição acima, que, se a mesma coleta e análise de dados for realizada 100 vezes, espera-se que o resultado encontrado ocorra com uma frequência de 3%, ou três vezes em 100. Como esse é um evento extremamente raro considerando distribuições aleatórias, supõe-se que deve haver algum efeito que esteja atuando sobre o sistema. Portanto, nesse caso o pesquisador pode assumir que há evidência (valor de P) suficiente para afirmar que há um efeito agindo sobre o resultado.

Quando cada um de muitos resultados ocorre com certa probabilidade característica, o conjunto dessas probabilidades é chamado distribuição de probabilidade (Figura 1).


Figura 1 – Dois tipos de repetição de observações


Os métodos de análise numérica são determinados pelos quatro tipos de relações que podem ser encontrados entre as condições do meio ambiente e o resultado de observações (Tabela 1). A ecologia e a maior parte das ciências biológicas lidam com métodos de análise de variáveis resposta aleatórias.


Tabela 1 – Análise numérica de dados ecológicos.

 A qualidade da análise e interpretação subsequente de dados biológicos depende, particularmente, da compatibilidade entre os dados e os métodos numéricos (a estatística). É importante levar em consideração os requisitos das técnicas quando se planeja um programa de amostragem, pois é obviamente inútil coletar dados quantitativos que são inapropriados para as análises numéricas pretendidas. A experiência mostra que, muito frequentemente, coleções mal planejadas de dados ecológicos, somente para objetivo de levantamentos, geram grandes quantidades de dados inúteis. A Figura 2 mostra as relações entre as várias fases de uma pesquisa ecológica.


Figura 2 – Relações entre as várias fases de uma pesquisa ecológica.

Isso quer dizer que a pesquisa deve ser cuidadosamente planejada, desde o embasamento teórico, passando pelos objetivos, os métodos para coletar os dados adequados e as análises estatísticas que atingirão os objetivos propostos. Uma pergunta bem formulada vale muito mais, em se tratando de métodos de coleta e análise, do que a coleta indiscriminada de múltiplas variáveis em campo. Não se pode esperar que a estatística resolva desenhos mal pensados. Em geral, ela não o faz!


Nas ciências biológicas, a análise numérica dos dados não é um objetivo em si. Ou seja, é preciso abandonar a visão de que a estatística tudo pode e tudo resolve. Em geral, perguntas simples levam a desenhos bem realizados e análises diretas que resultam em dados facilmente interpretáveis à luz dos objetivos. Entretanto, um estudo baseado em informação quantitativa deve levar o processamento de dados em conta em todas fases do trabalho, desde a concepção até a conclusão, incluindo o planejamento e a execução da amostragem, a análise apropriada dos dados e a interpretação dos resultados. A amostragem, incluindo as análises laboratoriais, geralmente é a parte mais cara e tediosa de uma pesquisa e, portanto, é importante que ela seja otimizada para reduzir ao mínimo a coleção de informação inútil. Assumindo que procedimentos adequados de amostragem e de laboratório tenham sido empregados, as conclusões dependerão dos resultados da análise de dados. É, portanto, importante se certificar antecipadamente que a amostragem e as técnicas numéricas são compatíveis. Toda amostragem começa com a determinação da unidade experimental e das variáveis que serão medidas nessas unidades experimentais. Uma vez determinado isso, segue-se que a análise dos dados é relativamente simples. Então, o processamento numérico está no cerne da pesquisa biológica e a qualidade dos resultados não pode exceder a qualidade das análises numéricas conduzidas nos dados.


Objetivos específicos claros e bem determinados levam à formulação de hipóteses também claras e objetivas. Para cada variável resposta coletada, há uma hipótese científica associada, a qual, em geral, corresponde à hipótese estatística alternativa. Quanto maior o número de variáveis coletadas, mais hipóteses podem ser formuladas. Isso pode ser um problema caso o(a) pesquisador(a) não tenha muito bem claro quais são seus objetivos e as hipóteses associadas. Por exemplo, para uma variável resposta sujeita a dois efeitos, há três hipóteses estatísticas: a interação significativa entre os dois efeitos, a significância de um efeito e a significância do outro efeito. Ou seja, nesse caso, pode haver algum tipo de interação entre os efeitos, o que leva a uma interpretação totalmente diferente da análise comparada com a análise de apenas um efeito sobre a variável resposta. Por isso, é imprescindível que as perguntas sejam claramente definidas.

Claro que a qualidade de uma pesquisa biológica não é apenas uma função da competência com que o trabalho quantitativo é conduzido. Depende também largamente na criatividade, que se traduz na imaginação e intuição de formular hipóteses e teorias. É vantajoso, entretanto, que as habilidades criativas do pesquisador estejam embasadas em trabalhos empíricos sólidos (i.e. trabalho envolvendo dados de campo), pois pouco progresso pode resultar de continuamente montar hipóteses não testadas. Isso quer dizer que os pesquisadores devem se apropriar do conhecimento teórico do seu campo de pesquisa.


A Figura 2 mostra que uma interpretação correta das análises requer que a fase de amostragem seja planejada para responder uma (ou mais) questão específica. Programas de amostragem são desenhados de forma a capturar a variação ocorrendo ao longo de eixos de interesse: espaço (habitats), tempo, ou outras variáveis biológicas indicativas. O objetivo é descrever a variação ocorrendo ao longo de um ou mais eixos e interpretá-la ou modelá-la.

Texto adaptado (com recortes e alterações) de Legendre & Legendre, 2012. Numerical Ecology. p. 1-8.

sábado, 1 de agosto de 2015

O que é diversidade beta?

O que é diversidade beta? Em resumo, pode ser definida como diferenças na composição das espécies entre dois lugares ou tempos. Uma propriedade importante da biodiversidade é que ela não é distribuída de forma equilibrada no globo. Isso quer dizer que diferentes áreas geralmente contêm diferentes comunidades biológicas. Medir a diferença entre as comunidades biológicas é um passo importante para se entender como e por que a biodiversidade se distribui.

Quem introduziu o termo diversidade beta foi R.H. Whittaker em 1960, que o definiu como "a extensão de mudança na composição da comunidade, ou grau de diferenciação da comunidade, em relação a um gradiente ambiental complexo, ou um padrão de ambientes". Ele propôs várias maneiras de medir a diversidade beta. Em sua forma mais simples, a diversidade beta é definida como a razão entre a diversidade gama (regional) e a diversidade alfa (local). A diversidade regional é o conjunto total de espécies de um conjunto de locais. Bom frisar que a diversidade regional NÃO é a soma das diversidades locais, pois uma mesma espécie pode fazer parte de mais de uma comunidade local. A diversidade local, stricto sensu, é o número de espécies presentes em apenas uma área. Porém, no cálculo da diversidade beta de Whittaker, a diversidade local é definida como a média de todas diversidades locais do conjunto de comunidades sendo analisado. Então, a diversidade beta é o número efetivo de unidades composicionais diferentes em uma região. Essencialmente, a diversidade beta quantifica o número de comunidades diferentes em uma região. Então, fica claro que a diversidade beta, além de levar em conta a relação entre a diversidade local e a regional, também informa sobre o grau de diferenciação entre as comunidades biológicas. Isso porque as diversidades gama e alfa serão diferentes se (e somente se) as comunidades biológicas em uma região forem diferentes.

É fácil demonstrar como a diversidade beta varia da mínima à máxima diferenciação das assembleias locais em uma região. Utilizando a riqueza de espécies (número de espécies) como exemplo, pode-se perceber que, quando as assembleias locais são idênticas (diferenciação mínima), a diversidade local iguala a diversidade gama e a diversidade beta é igual a 1. A figura abaixo ilustra a composição de espécies de três comunidades locais. Como as cinco espécies ocorrem igualmente em cada comunidade, a diversidade gama é 5, a diversidade alfa média é 5 (5+5+5/3). A razão entre as duas é 1.


Nesse caso, nessa região, só há uma unidade composicional distinta, ou seja, apenas uma "comunidade".

Quando as comunidades locais são completamente diferentes, ou seja, apresentam diferenciação máxima, a diversidade gama é igual à multiplicação da diversidade alfa pelo número de áreas (N). Então, a diversidade beta é igual a N. Isso significa que há N unidades composicionais distintas, ou N "comunidades" diferentes (figura abaixo).


Como a diversidade beta é influenciada pelo número de áreas na região (N) na medida acima, ela não é independente da quantidade de áreas. Então, é necessário padronizar a diversidade beta. Há variantes da fórmula padrão que padronizam a diversidade beta. Um exemplo é o índice de Sorensen, que é simplesmente (diversidade beta - 1 / N - 1). É necessário cuidado na hora de escolher um método de medida de diversidade beta. Geralmente, se fala em índices de dissimilaridade, ou seja, de distância entre comunidades. Nem todos índices são apropriados para se medir diferenças entre as comunidades biológicas (veja Legendre & De Cáceres, 2013).

Porém, a diferença entre comunidades biológicas pode ter mais de um significado, que revertem a diferentes processos biológicos. Como escrito acima, a diversidade beta é o grau de diferenciação na composição entre comunidades locais e isso nos remete a pensar em substituição de espécies (turnover). As três áreas da figura abaixo ilustram esse padrão. A diversidade beta das três áreas é = 2, pois gama = 8 e alfa média = 4.


Porém, pode haver um padrão de perda aninhada de espécies do local mais rico para o menos rico, como mostra a figura abaixo. Isso causa uma diferenciação na diversidade alfa e gama. O padrão é diferente, mas o valor de diversidade beta é o mesmo que no exemplo anterior (2).


Ainda pode haver uma mistura dos dois padrões, como ilustrado na figura abaixo. A diversidade beta continua a mesma (2).


Então, nos três exemplos, a diversidade alfa e gama são idênticas, então a diversidade beta de Whittaker e o índice de Sorensen também têm os mesmos valores.

Felizmente, há uma forma de separar os valores de diversidade beta produzidos por esses dois padrões. O índice de dissimilaridade de Simpson remove os efeitos da riqueza (número de espécies) sobre a diferença entre comunidades. Esse índice considera que assembleias aninhadas são perfeitamente similares e provê o componente de substituição da diversidade beta. Se não há diferença de riqueza, os índices de Simpson e Sorensen apresentam o mesmo valor, o que significa que qualquer diferença entre os dois valores será por causa do componente aninhado da dissimilaridade. Dessa forma, a dissimilaridade total (Sorensen) pode ser particionada aditivamente nos componentes de substituição e aninhamento. A mesma abordagem pode ser utilizada para separar os componentes de dissimilaridade baseados na abundância, na dissimilaridade funcional e na dissimilaridade filogenética.

Esse texto é uma adaptação da publicação do Dr. Andrés Baselga "What is Beta Diversity?", lançada no blog sobre Métodos em Ecologia e Evolução. As figuras também são adaptações das figuras originais.
Link para o texto original: (https://methodsblog.wordpress.com/2015/05/27/beta_diversity/).

Algumas referências para leituras adicionais:


Baselga, A. (2010) Partitioning the turnover and nestedness components of beta diversityGlobal Ecology and Biogeography19, 134-143.
Baselga, A. (2012) The relationship between species replacement, dissimilarity derived from nestedness, and nestednessGlobal Ecology and Biogeography21, 1223-1232.
Baselga, A. & Leprieur, F. (2015) Comparing methods to separate components of beta diversityMethods in Ecology and Evolutionin press.
Baselga, A. & Orme, C. D. L. (2012) betapart: an R package for the study of beta diversityMethods in Ecology and Evolution3, 808-812.
Carvalho, J. C., Cardoso, P. & Gomes, P. (2012) Determining the relative roles of species replacement and species richness differences in generating beta-diversity patternsGlobal Ecology and Biogeography21, 760–771.
Chao, A., Chiu, C.-H. & Hsieh, T. C. (2012) Proposing a resolution to debates on diversity partitioningEcology39, 2037-2051.
Legendre, P. (2014) Interpreting the replacement and richness difference components of beta diversityGlobal Ecology and Biogeography23, 1324–1334.
Leprieur, F., Albouy, C., De Bortoli, J., Cowman, P. F., Belwood, D. R. & Mouillot, D. (2012) Quantifying phylogenetic beta diversity: distinguishing between ‘true’ turnover of lineages and phylogenetic diversity gradientsPLoS One7, e42760.
Simpson, G. G. (1943) Mammals and the Nature of ContinentsAmerican Journal of Science241, 1-31.
Simpson, G. G. (1960) Notes on the measurement of faunal resemblanceAmerican Journal of Science258, 300-311.
Villeger, S., Grenouillet, G. & Brosse, S. (2013) Decomposing functional β-diversity reveals that low functional β-diversity is driven by low functional turnover in European fish assemblagesGlobal Ecology and Biogeography22, 671–681.
Whittaker, R. H. (1960) Vegetation of the Siskiyou Mountains, Oregon and California.Ecological Monographs30, 280-338.