Lives de Ciência

Veja calendário das lives de ciência.

quarta-feira, 29 de agosto de 2012

Especulando: Conceptoma Funcional

Nos últimos 10 anos - ou um pouco mais - parece ter explodido a área de análise de redes (o número de artigos publicados anualmente praticamente triplicou na primeira década do milênio) - embora a análise de redes sociais tenha mais de 80 anos (sim, existem antes mesmo das chamadas mídias sociais: como orkut, facebook, twitter, instragram, flickr, youtube, etc. - as redes sociais são redes de interação entre pessoas independente dos meios em que se dá tal interação: pode ser no trabalho, na escola, por email, por nome, ou simplesmente por conhecidos de conhecidos - o que gerou a hipótese do mundo pequeno).

A análise de redes vai além de como pessoas estão conectadas. Pode usar as mesmas ferramentas teóricas para estudar as relações entre países (comerciais, políticas, militares, esportivas, etc.), cidades, objetos (como redes de computadores) e até entidades abstratas como palavras e conceitos.

Na sociologia das ciências, um estudo frequente é a análise de redes formadas por coautorias. Com isso é possível, p.e., investigarem-se as relações entre as diferentes áreas (Figura 1). Ou a colaboração entre centros de pesquisa de diferentes partes do mundo (Figura 2).

Figura 1. Redes de coautorias por área em trabalhos científicos. Fonte: Newman 2004.


Figura 2. Mapa de colaborações internacionais em trabalhos científicos. Fonte: Beaucheusne 2011.

Há, ainda, estudos de coocorrência de termos nos artigos científicos.

Mas, pelo menos enquanto a web semântica não se torna uma realidade, um tipo de investigação deve permanecer bastante restrita: o mapeamento amplo das relações de hipóteses científicas - não como simples coocorrência, e, sim, como relação de dependência conceitual. Por exemplo, o conceito de "estratégia evolutivamente estável" depende de conceitos como "estratégia evolutiva", "evolução", "estabilidade evolutiva", "teoria dos jogos" - mesmo que esses termos não sejam utilizados diretamente no mesmo artigo.

Seria não simplesmente um mapa conceitual com indicação da implicação de um conceito sobre o outro. Tal mapeamento permitiria descobrirem-se premissas ocultas nos testes de certas hipóteses. Isso porque nenhuma hipótese é testada isoladamente. E, valendo-se de análises como a bayesiana, poderíamos testar a robustez das hipóteses considerando-se todo o conjunto de dados disponíveis na literatura (ou pelo menos na literatura analisada), mesmo de modo indireto. Isso pelo fato de um teste de hipótese típico depender da assunção apriorística da validade das premissas de apoio - ocultas ou declaradas (como da própria validade da ferramenta estatística utilizada): então, na verdade, quando se diz que há apenas 5% de chance de os resultados obtidos deverem-se unicamente dao acaso, está a se dizer que há apenas 5% de chance de os os resultados obtidos deverem-se unicamente  dao acaso *se* as hipóteses assumidas (como os aparelhos estarem devidamente calibrados, ou as leis da mecânica serem aproximações boas o suficiente) estiverem corretas.

Assim poderíamos analisar a probabilidade de correção da hipótese frente a todos os dados disponíveis - provavelmente bem menor do que a probabilidade que seria atribuída por qualquer estudo isolado - e verificar qual o ponto fraco que precisaria ser mais bem estudado.

Entre as dificuldades que devem surgir, além do levantamento do material primário, pode estar o processo de análise estatística: o mapa deve ter um aspecto reticulado, com alguns conceitos sendo influenciados pelos conceitos sobre os quais exercem influência (ou seja, em muitos casos, a análise deve cair em um loop - se houver convergência não há problemas, mas, do contrário, o tratamento dos dados pode ser bem problemático, se não impossível); um problema enfrentado por grafos abertos similares às árvores filogenéticas é a explosão de topologias alternativas conforme mais terminais são acrescidos, algo similar, ou até idêntico, pode ocorrer.

Porém, o resultado seria nada menos do que o desenho - ainda que grosseiro - do edifício teórico de todos os ramos científicos incluídos. Que aspecto teria? Um elegante ou um labirinto quase incompreensível? Um robusto e sólido ou um frágil? O esquema física->química->biologia->psicologia estaria ali ou seria desmistificado?

sexta-feira, 10 de agosto de 2012

Jogo dos erros 6

Não sei se podemos chamar de "virada de tempo", mas há uma certa coincidência temporal em que a Folha de São Paulo tenha intensificado o espaço para os negacionistas climáticos e demitido o jornalista Claudio Angelo (melhor para o Scienceblogs, que agora conta com o texto acurado, apurado e afiado do brasiliense). O que esses fatos significam só os tempos (cronológico e meteorológico) poderão dizer.

De todo modo, Molion emplacou mais um texto no jornal paulista (reproduzido no Quiprona, de Roberto Berlinck). Torno a dizer que respeito a produção científica do pesquisador no que se refere à meteorologia, mas discordo de muitas coisas que ele diz, sobretudo em seu posicionamento de negação do aquecimento global.

Um resfriamento global, com mais invernos rigorosos e má distribuição de chuvas, é esperado nos próximos 20 anos, em vez do aquecimento global antropogênico (AGA) alardeado pelo Painel Intergovernamental de Mudanças Climáticas (IPCC).
Uma coisa boa aqui: Molion faz uma previsão testável. Uma coisa não tão boa: ele vem dizendo a mesma coisa desde pelo menos 2005: "O clima global poderá experimentar um resfriamento paulatino nos próximos 25 anos se a ODP comprovadamente permanecerem sua nova fase fria." Já são pelo menos sete anos dessa previsão de resfriamento que não se concretiza. Há um fator complicador: Molion poderia até mesmo acertar com um período de resfriamento por duas décadas, sem que isso representassem um resfriamento global - duas décadas são uma janela curta em relação à tendência maior do aquecimento. O pesquisador até cita período anterior de queda de temperatura global média - essa queda entre o pós-guerra e a década de 1970 não anulou o tendência maior (vide a parte 1 da série sobre o Aquecimento Global).

O AGA é uma hipótese sem base científica sólida. As suas projeções do clima, feitas com modelos matemáticos, são meros exercícios acadêmicos, inúteis quanto ao planejamento do desenvolvimento global.
Molion volta a errar a mão na sua crítica. A base científica da hipótese do AGA é bastante sólida. São milhares de artigos nas últimas décadas publicados em revistas indexadas com processo de revisão por pares que trazem dados que sustentam a hipótese. Até as previsões realizadas sobre tendências de temperatura vem sendo confirmadas - mostrando a robustez dos modelos usados. Por outro lado, com base em quê Molion projeta um período de resfriamento? Oras com base em modelos matemáticos que dão certo peso a fenômenos como a Oscilação Decadal do Pacífico e atividade solar. Mas enquanto o modelo adotado pelo IPCC vem sendo confirmado nos últimos 20 anos, o modelo de Molion vem errando nos últimos 7 anos.

Porém, o efeito estufa jamais foi comprovado, nem sequer é mencionado nos textos de física. Ao contrário, há mais de cem anos o físico Robert W. Wood demonstrou que seu conceito é falso.
O que Robert W. Wood mostrou é que em uma estufa verdadeira - daquelas casas transparentes em que se cultivam plantas tropicais - o efeito do aquecimento se dá pelo impedimento do movimento de convecção do ar aquecido. Mas não é isso o que se entende atualmente pelo nome de 'efeito estufa'. (O termo é, sim, terrível e bastante enganoso - assim como ocorre com vários outros termos de amplo uso nas ciências: Eva mitocondrial, p.e, não se refere nem à única mulher que existiu em um período remoto, nem à única mulher que contribuiu geneticamente com os humanos atuais.)

Na parte 1 da série sobre o Aquecimento Global Antropogênico, apresentei a definição de efeito estufa: "aumento da temperatura média de uma porção de ar (podemos considerar toda a atmosfera, p.e.) pela presença de determinados gases em certas concentrações."

O efeito estufa assim definido é amplamente comprovado: desde estudos em laboratório e demonstrações didáticas, até observações interplanetárias. E é mencionado em livros-textos de física: e.g. Giordano, 2012, College Physics vol. 1 (p. 471 – Cengage Learning, 608 pp). Mas vamos supor que não fosse mencionado, há vários fenômenos que não são mencionados em livros-texto de física já que o espaço é limitado - mesmo um livro eletrônico deve ter um tamanho razoável que possa ser coberto em dois semestre de introdução à Física. Além disso, o efeito estufa é um fenômeno que se casa mais bem em um livro sobre física atmosférica - e lá encontramos menções em abundância. De modo geral, há pouca menção sobre dinâmica de atmosférica em livros básicos de física introdutória de graduação.


As temperaturas já estiveram mais altas com concentrações de CO2 inferiores às atuais. Por exemplo, entre 1925 e 1946 o Ártico, em particular, registrou aumento de 4 °C com CO2 inferior a 300 ppmv (partes por milhão em volume). Hoje, a concentração é de 390 ppmv.//Após a Segunda Guerra, quando as emissões aumentaram significativamente, a temperatura global diminuiu até a metade dos anos 1970.//Ou seja, é obvio que o CO2 não controla o clima global.
Aqui o Molion dá a entender que entre 1925 e 1946 as temperaturas globais médias foram mais altas. Não é o que os dados mostram. Vide, por exemplo, as Figs. 1 e 2 da parte 1 da série sobre o AGA para as médias globais e para as médias locais, veja a Figura 1 abaixo.
Figura 1. Variação da temperatura superficial em Godthab Nuuk, Groenlândia. Fonte: Giss/Nasa.

Há a variação mencionada por Molion, mas a tendência geral é de aumento da temperatura*. E mesmo com outros fatores a atuar, há correlação entre a temperatura local e a concentração atmosférica de CO2 (Figura 2). Poderia não haver, já que temperaturas locais sofrem influência de outros fatores - como padrão de massas de ar.

Figura 2. Covariação entre temperatura local em Godthab Nuuk e concentração atmosférica global de CO2. Fonte (concentração de CO2): Giss/Nasa.

**Deve-se notar também que entre o fim da Segunda Guerra e a década de 1970, houve um grande aumento de emissão de particulados na atmosfera. A Hipótese do Escurecimento Global leva isso em conta.Com a introdução de medidas de controle de emissão de particulados e fuligem - necessárias por conta de problemas à saúde - houve um clareamento da atmosfera a partir da década de 1970, o que deve ter levado aos níveis de incidência solar de volta aos valores pré-guerra, anulando o efeito de resfriamento observado no período.

Após a Segunda Guerra, quando as emissões aumentaram significativamente, a temperatura global diminuiu até a metade dos anos 1970 // Ou seja, é obvio que o CO2 não controla o clima global..
Não é verdade. Houve diminuição, mas até meados dos anos 1950. Depois disso, a tendência de aumento voltou a ocorrer (vide as Figuras 1 e 2 da parte 1 da série). Mas até poderia ter ocorrido tal redução. A hipótese do AGA não diz que a temperatura sempre sobe a todo instante, e sim que há uma *tendência* de aumento da temperatura média global na superfície ao longo do tempo - pode haver reduções momentâneas de temperatura (por exemplo, quando ocorre uma grande erupção vulcânica, cujas cinzas bloqueiam parcialmente a incidência solar).

A ideia não é que o CO2 *controle* o clima, mas sim que sua concentração aumentada influencie no aumento da temperatura média global.

[R]eduzir emissões significa reduzir a geração de energia e condenar países subdesenvolvidos à pobreza eterna, aumentando as desigualdades sociais no planeta.
Nope. É possível de se reduzir as emissões por meio da redução do consumo por aumento da eficiência energética, por exemplo: algo em torno de 30% podem ser economizados. E, principalmente, pode-se reduzir as emissões pela substituição gradual da matriz energética por fontes renováveis como biomassa, eólica e solar e até algumas não renováveis como energia nuclear.

A trama do AGA não é novidade e seguiu a mesma receita da suposta destruição da camada de ozônio (O3) pelos clorofluorcarbonos (CFC) nos anos 1970 e 1980.
Suposta? A redução é medida. Vide Figura 3 da primeira parte da análise sobre as alegações de Felício.

Criaram a hipótese que moléculas de CFC, cinco a sete vezes mais pesadas que o ar, subiam a mais de 40 km de altitude, onde ocorre a formação de O3.
Sim, essa hipótese foi aventada. Mas Molion parece ignorar que essa previsão foi testada e... sim, *há* de fato moléculas de CFC a 40 km de altitude. Balões meteorológicos com armadilhas que fecham e capturam amostras de ar permitem que se analise a composição química da mistura gasosa a diferentes altitudes. E moléculas de CFC, a despeito de sua densidade massa molecular, são encontradas a altitudes de 30, 40 km.


Figura 3. Perfil vertical de concentração atmosférica de CFC-11 sobre Fort Sumner, Novo México, EUA, 1996. Fonte: NOAA. (A tropopausa fica a uma altitude entre 9 km - nos polos - e 17 km - no equador; a altitude de 50 km tem em torno de 110 mb. Nota: O link original encontra-se quebrado, uma cópia pode ser lida aqui.

Em 1995, os autores das equações químicas que alegadamente destruíam o  O3  receberam o Nobel de Química. Porém, em 2007 cientistas do Jet Propulsion Laboratory da NASA demonstraram que as suas equações não ocorrem nas condições da estratosfera antártica e que não são a causa da destruição do ozônio.
Por algum motivo, Molion não cita que desde 2009 a discrepância dos resultados está resolvida. A técnica usada pela equipe de Pope (pesquisador do JPL) necessitava de amostras de alta pureza do gás CFC testado para se medir o efeito catalisador. A suspeita desde o início era de que as amostras analisadas estivessem contaminadas. Usando uma técnica que não depende do grau de pureza da amostra de gás, a equipe taiuanesa de Hsueh-Ying Chen obteve uma atividade compatível com o mecanismo proposto pelos nobelistas Molina, Crutzen e Rowland***.

*Updieite(11/ago/2012): A média da variação das temperaturas médias anuais registradas nas estações da Groenlândia é similar ao padrão de Godthab Nuuk (Figuras 4 e 5****).
Figura 4. Variação das temperaturas anuais médias nas estações de Groenlândia. Fonte: GISS.

**Upideite(11/ago/2012): adido a esta data.
***Upideite(11/ago/2012): corrigido a esta data.

****Upideite(13/ago/2012):
Figura 5. Correlação entre as anomalias das temperaturas médias anuais da Groenlândia e as anomalias das temperaturas médias anuais em Godthab Nuuk. (Base: média entre 1881-2011.) Fonte: GISS.

LinkWithin

Related Posts with Thumbnails