terça-feira, 30 de dezembro de 2014

Aeon

Rio flui, tempo passa,
Mais um ano já passou.
Ser eterno é desgraça,
se esquecermos quem nós amou.


domingo, 8 de junho de 2014

The beginning...

From the darkness to the light,
like the stars were born from nothing,
everyone, who was the soul in abyss,
is turned into bones and flesh.

Bellerophon



sexta-feira, 21 de junho de 2013

Plasticidade Sináptica

LTP/LTD, Metaplasticidade e Modelo BCM


Abstract
Os mecanismos de maior importância para a aprendizagem de sequências causa-efeito e memorização é a plasticidade sináptica, um conceito segundo o qual a aprendizagem está associada ao fortalecimento de sinapses, e a plasticidade da própria plasticidade sináptica, a metaplasticidade.
A eficácia sináptica é regulada pelo LTP e LTD, sendo que o primeiro é responsável pelo reforço das sinapses e o segundo pelo enfraquecimento das mesmas. No entanto são ambos igualmente importantes para o desenvolvimento cognitivo.

Introdução
A plasticidade sináptica, postulada inicialmente por Donald Hebb, constitui uma base celular para aprendizagem e memorização. Pode ser descrita como a alteração de eficácia sináptica8,21 – estima da contribuição sináptica para o potencial pós-sináptico excitatório (PEPS), que determina o momento e a frequência do potencial de acção do neurónio pós-sináptico, depois de ultrapassado o threshold excitatório. O peso da sinapse depende de factores pré-sinápticos e pós-sinápticos.
Desta forma, com alteração de eficiência sináptica podemos modificar a atividade neuronal. A plasticidade sináptica manifesta-se sob a forma de reforço de sinapses entre neurónios activados simultaneamente (Regra de Hebb)25 e/ou supressão na ausência desta encadeação (Regra de Oja), podendo ser de longa ou curta duração27.

Mecanismo de Plasticidade Sináptica
A LTP (long-term potenciation) é desencadeada por estímulos de alta frequência - 40-300Hz - (Mackay; Bliss e Lomo) ao contrário de LTD (long-term depression) que resulta de estimulação de baixa frequência - 1-5Hz 1,11,20.
O mecanismo de LTP baseia-se na libertação de glutamato, na sequência de despolarização do neurónio pré-sináptico e a despolarização do neurónio pós-sináptico: através do desbloqueio de NMDA e a entrada de Ca2+ na célula pós-sináptica por via de complexos VSCC (voltage-sensitive Ca2+ channels) e NMDA (N-metyl-D-aspartate)23 (ver fig.1)13,18,21,27, ativa-se mGluR que irá desencadear uma cadeia de reações metabólicas mediada por uma proteína G. Consequentemente, o retículo sarcoplasmático liberta cálcio, cujo aumento de concentração intracelular conduz à ativação de quinases (CaMKII, PKC, fyn-trosina quinase)21,22,27,35, e à fosforilação das proteínas da membrana. Disto resulta a maximização de correntes dos recetores AMPA e NMDA. (A ativação de CaMKII também leva a exocitose de novos recetores AMPA34,38).
Também é possível a maximização sináptica. O processo depende de CREB (cAMP responsable element building protein), ativado com o aumento da concentração de cálcio no núcleo, e modela a expressão genética e a síntese proteica6,35. Existem dois períodos de fosforilação de CREB e da expressão génica, na altura de estimulação, e 3-6 horas após a estimulação35. Igualmente é possível a síntese de NO, que atua como um transmissor retrogrado no terminal pré-sináptico, aumentando a sua própria libertação35,40.
Estimulação de baixa frequência promove baixa concentração de cálcio intracelular, e ativa, preferencialmente, as fosfotases (calcineurina e PP1). O processo leva à diminuição de eficiência sináptica (LTD) e inverte os efeitos de LTP por desfosforilação de proteína GluR1 nos recetores AMPA, diminuindo a condutância dos canais, o que baixa a amplitude de PEPS40.Quando o nível Ca2+ é baixo, este liga-se a calmodulina e ativa a calcineurina (PP2B). Sequencialmente, aumenta a atividade de PP1 que funciona como inibidor de recetores AMPA e CaMKII, levando à endocitose de recetores AMPA21,22,35.
Evidências experimentais sugerem que é necessário ter em conta a sequência de ativação pré e pós-sináptica. Pois, a ativação pré-sináptica e posterior despolarização do neurónio pós-sináptico levam a grande fluxo de Ca2+ e LTP. Por outro lado, se a ativação pós-sináptica anteceder o potencial de ação pré-sináptico, a entrada de cálcio é reduzida e ocorre LTD. Esta propriedade é conhecida como STDP (spike timing-dependent plasticity)39 e deve-se à necessidade de deteção simultânea de eventos pré-sinápticos (libertação glutamato) e pós-sinápticos (despolarização da célula com consequente libertação de Mg2+ dos NMDAs) para a entrada massiva de Ca2+e indução de LTP38. A assimetria temporal permite uma aprendizagem sequencial e previne modificações absurdas.
Assim, o Ca2+ intracelular é o principal regulador de plasticidade sináptica5, e a indução de LTP/LTD depende de atividade relativa de quinases e fosfotases. As duas formas de modificação de eficácia sináptica
permitem a execução de tarefas complexas como aprendizagem e memorização9,16,17, cooperando para
modificar o estado funcional das redes neuronais no cérebro.

Metaplasticidade e Modelo BCM
O estudo da plasticidade do córtex visual levou a formulação de uma de um novo modelo, teoria BCM
(Bienenstock-Cooper-Munro)10,30,31,37:
 a modificação de threshold (m ) o que irá reforçar ou enfraquecer a sinapse. A modificação
sináptica irá variar com uma função não-linear  que depende da atividade pós-sináptica (c).
Este parâmetro depende de x (atividade pré-sináptica),  é o grau de modificação e w (eficácia
sináptica)8,9,31;
 A modificação do m depende de atividade recente do neurónio pós-sináptico, i.e., depois de
uma estimulação prévia facilitará ou dificultará a indução de LTP21,26;
 A modificação de threshold ocorre em todos as sinapses excitatórias dos neurónios afectados
(plasticidade heterosináptica)2,3,4.

Esta última propriedade sugere que pode ocorrer o fenómeno de metaplasticidade: a alteração do
limiar para a indução de LTP/LTD no modelo BCM2. Esta propriedade corresponde ao priming, isto é,
facilitação ou dificultação prévia de excitação sináptica, condicionando a plasticidade sináptica2. Uma
hipótese para explicação do fenómeno é a modificação de propriedades de recetores de NMDA e ativação de mGluR2,14. Curiosamente, a ativação separada de mGluR conduz à facilitação de LTP, e a de NMDA leva àinibição de LTP. Também são relevantes os fatores modulatórios, como neurotransmissores e hormonas circulantes28,29.
Ilustração 1: LTP na região do hipocampo (CA1 e CA3). (A) - sinapse normal; (B) - Indução de LTP com activação de quinase e mensageiro retrógrado; (C) - LTP por indução de expressão génica e síntese protéica (Adaptado do Kandel)

Conclusão
A LTP foi descoberta no hipocampo. Hoje, já são conhecidos fenómenos de plasticidade sináptica em diversas zonas cerebrais, como é o caso de CA1 e CA3 do hipocampo20,24,38, estriado, amígdala e córtex visual, entre outros.
A plasticidade sináptica e metaplasticidade constituem bases importantes para a aprendizagem, sendo indispensáveis na memória de longo e curto prazo, uma vez que promovem redes neuronais especializadas na identificação de estímulos específicos e respectiva resposta, rápida e eficaz.
Em suma, o fenómeno de plasticidade sináptica, tendo uma complexa base fisiológica influenciada por estímulos externos, expressão génica e modificações endócrinas29,35, é essencial para a adaptação do ser humano às condições do mundo exterior e constitui uma enorme vantagem evolutiva. Pois, a plasticidade sináptica é o mecanismo fundamental de desenvolvimento e funcionamento do cérebro.

Anastasiya Strembitska, Carlos Rafael Lopes, Inês Silva, José Leitão, Sara Cartaxo

Bibliografia
1. Abel, T. et Kandel, E. (1998), Positive and negative regulatory mechanisms that mediate long-term memory storage, in Brain Res Brain Res Rev, 26 (2.3): 360.378.
2. Abraham, W.C. et Bear, M.F. (1996) Metaplasticity: the plasticity of synaptic plasticity, in Trends Neurosci, 19 (4): 126.130.
3. Abraham, W.C., et alli (2001). Heterosynaptic metaplasticity in the hippocampus in vivo: a BCM-like modifiable threshold for LTP, in Proc Natl Acad Sci USA, 98 (19):10924.
4. Abraham, W.C. et Tate, W.P. (1997), Metaplasticity: a new vista across the field of synaptic plasticity, in Prog Neurobiol, 52 (4): 303.323.
5. Artola, A. et Singer, W. (1993), Long-term depression of excitatory synaptic transmission and its relationship to long-term potentiation, in Trends Neurosci, 16 (11): 480.487.
6. Bailey, C.H.; Chen M.C. (1983), Morphological basis of long-term habituation and sensitization in Aplysia, in Science, 220:91–93.
7. Benuskova, L. (1988), Mechanisms of synaptic plasticity, in Ces Fysiol, 37 (5): 387.400.
8. Benuskova, L.; Diamond, M.E. et Ebner F.F. (1994), Dynamic synaptic modification threshold: computational model of experience-dependent plasticity in adult rat barrel cortex, in Proc Natl Acad Sci USA, 91 (11):4791.4795.
9. Benuskova, L. et alli (2001), Theory for normal and impaired experience-dependent plasticity in neocortex of adult rats, in Proc Natl Acad Sci USA, 98 (5): 2797.2802.
10. Bienenstock, E.L.; Cooper L.N. et Munro P.W. (1982), Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex, in J Neurosci, 2 (1): 32.48.
11. Bliss, T.V. et Lomo T. (1973), Long-lasting potentiation of synaptic transmission in the dentate area of the anaesthetized rabbit following stimulation of the perforant path, in J Physiol, 232 (2): 331.356.
12. Carmignoto, G. et Vicini, S. (1992), Activity-dependent decrease in NMDA receptor responses during development of the visual cortex, in Science, 258 (5084): 1007.1011.
13. Castellani, G.C.et alli (2001), A biophysical model of bidirectional synaptic plasticity: dependence on AMPA and NMDA receptors, in Proc Natl Acad Sci USA, 98 (22): 12772.12777.
14. Cohen, A.S. et Abraham, W.C. (1996), Facilitation of long-term potentiation by prior activation of metabotropic glutamate receptors, in J Neurophysiol, 76 (2): 953.962.
15. Cooper, L. N, et alli (2004), Theory of cortical plasticity, World Scientific, New Jersey.
16. Debanne, D.; Gahwiler, B.H. et Thompson, S.M. (1998), Long-term synaptic plasticity between pairs of individual CA3 pyramidal cells in rat hippocampal slice cultures, J Physiol, 507 (1): 237.247.
17. Dudek, S.M. et Bear, M.F. (1992), Homosynaptic long-term depression in area CA1 of hippocampus and effects of N-methyl-D-aspartate receptor blockade, in Proc Natl Acad Sci USA, 89 (10): 4363.4367.
18. Elgersma, Y. et Silva, A.J. (1999), Molecular mechanisms of synaptic plasticity and memory, in Curr Opin Neurobiol, 9 (2): 209.213.
19. Feldman, D.E. (2000), Timing-based LTP and LTD at vertical inputs to layer II/III pyramidal cells in rat barrel cortex, in Neuron, 27 (1): 45.56.
20. Fujii, S. et alli (1991), Reversal of long-term potentiation (depotentiation) induced by tetanus stimulation of the input to CA1 neurons of guinea pig hippocampal slices, in Brain Res, 555 (1): 112.122.
21. Jedlicka, P. (2002), Sinaptic plasticity, metaplasticity and BCM theory, in Brat isl Lck Listy, 103: 137-143.
22. Glazewski, S. (2001), The effect of autonomous alpha-CaMKII expression on sensory responses and experience-dependent plasticity in mouse barrel cortex, in Neuropharmacology, 41(6): 771.778.
23. Guyton et Hall (2011), Textbook of Medical Physiology, 12ª Edição, Saunders Elsevier.
24. Hawkins, R.D.; Kandel E.R. et Siegelbaum S.A. (1993), Learning to modulate transmitter release: themes and variations in synaptic plasticity, in Annu Rev Neurosci, 16:625–665.
25. Hebb, D. (1949), The Organization of Behavior, J. Wiley and Sons, New York.
26. Huang, Y.Y. et alli (1992), The influence of prior synaptic activity on the induction of long-term potentiation, in Science, 255 (5045): 730.733.
27. Kandel, Schwartz, et Jessell (2000), Principles of Neural Science, 4ª Edição, McGraw-Hill.
28. Kim, J.J.; Foy, M.R. et Thompson, R.F. (1996), Behavioral stress modifies hippocampal plasticity through N-methyl-D-aspartate receptor activation, in Proc Natl Acad Sci USA, 93 (10): 4750.4753.
29. Kim J.J. et Yoon, K.S. (1996), Stress: metaplastic effects in the hippocampus, in Trends Neurosci, 21 (12): 505.509.
30. Kirkwood, A. et alli (1993), Common forms of synaptic plasticity in the hippocampus and neocortex in vitro, in Science, 260 (5113): 1518.1521.
31. Kirkwood, A.; Rioult, M.C. et Bear, M.F. (1996), Experience-dependent modification of synaptic plasticity in visual cortex, in Nature, 381 (6582):526.528.
32. Lee, H.K. et alli (2000), Regulation of distinct AMPA receptor phosphorylation
sites during bidirectional synaptic plasticity, in Nature, 405 (6789): 955.959.
33. Linden, D.J. (1999), The return of the spike: postsynaptic APs and the induction of LTP and LTD, in Neuron, 22 (4): 661.666.
34. Lisman J. (1994), The CaM kinase II hypothesis for the storage of synaptic memory, in Trends Neuroscience, 17:406–412.
35. Mackay, W.A. (2011), Neurofisiologia sem lagrimas, 5ª Edição, Fundação Calouste Gulbenkian, Lisboa.
36. Malinow, R. et Malenka, R.C. (2002), AMPA receptor trafficking and synaptic plasticity, in Annu Rev. Neurosci, 25: 103-26.
37. Philpot, B.D. et alli (2001), Visual experience and deprivation bidirectionally modify the composition and function of NMDA receptors in visual cortex, in Neuron, 29 (1): 157.169.
38. Randall, D.; Burggren, W. et French, K. (2001), Eckert Animal Physiology. Mechanisms and Adaptations, Capítulos 8 e 9, 5ª Edição, W.H. Freeman and Company, New York.
39. Song, S. et Abbott, L.F. (2001), Cortical development and remapping through spike timing-dependent plasticity, in Neuron, 32 (2): 339.350.
40. Tao, H.W. et Poo, M. (2001), Retrograde signaling at central synapses, in Proc Natl Acad Sci USA, 98 (20): 11009.11015.

Coddy e Joe: vida de cão



Coddy acorda de manhã e olha para o vidro sujo da varanda. Quando o sol da madrugada, mandrião, surge, inundando a antiga varanda de vidro com os seus raios. As pequenas poeiras que flutuam no ar, tornando-se visíveis, e dançam nesta melancolia até se juntarem as suas irmãs que já se pousaram no chão, formando flocos e reunindo-se nos cantos e ao pé das paredes. O reflexo do chão já não é tão nítido devido a esta sujidade que se acumula nas antigas garrafas de vidro e que conquista cada nova garrafa que aparece aqui. Com cada novo dia o seu vidro, inicialmente brilhante, verde ou castanho, adormece e nem os raios luminosos o conseguem acordar. É o destino de todas as garrafas que aparecem aqui - ardem com todas as cores do arco-íris e acabam por morrer cobertas de pó nesta antiga varanda de vidro virada para o Este.
Mas não é só na varanda que estão estes pedaços de vidro colorido, alguns povoaram a sala e outros proliferaram na cozinha. São dadas pelas pessoas que entram e saem ou são originárias das longas estantes  das lojas nas quais nem sempre se pode entrar. Elas trazem o líquido malcheiroso que assusta o Coddy. Nestes momentos ele tenta refugiar-se na casa de banho - um quarto que está quase sempre escuro e húmido, com uma poça de água ao pé da coluna branca. Sim, seria bom ir lá agora, mas o Coddy não consegue sair daqui, a porta está trancada, apenas o vento assopra para as inúmeras fendas que como as rugas da senhora do casaco vermelho se espalham pelo seu rosto e constituem uma prova da sua idade. No entanto, ao contrário da mulher idosa, a porta ainda consegue vencer o cão e este não pode abandonar a varanda.
O Joe consegue abrir esta porta, claro, é uma pessoa - o dono do cão. No entanto, há outras portas que ele já não é capaz de abrir e o Coddy não percebe porquê. Há outros "porquês", mas são demasiados para uma manhã só. Enfim, é mais fácil contar poeiras dispersas no ar, estas não trazem complicação nenhuma.
A vida humana é absurda demais para um cão, porque as pessoas não vivem como tais. O Coddy acha que por vezes ele é como o seu dono, Joe, ou o Joe é como ele, não se pode concluir. Quando as pessoas olham para eles os dois abrem as narinas, elevando o nariz, e juntam os lábios num gesto de desprezo e desgosto profundo. Dirigem o seu olhar para as janelas do comboio como se a paisagem da escuridão do metro fosse o evento mais interessante na vida deles que não se pode perder. Quem é o objeto do seu ódio, o cão ou o seu dono? Ou os ambos?

Realmente, apenas o Coddy compreende o Joe, pois quando olha para ele é como se visse o seu próprio reflexo numa daquelas garrafas de vidro que partilham com eles este pequeno espaço com janelas viradas para o Este.

Anastasiya

domingo, 20 de maio de 2012

QUANDO O HOMEM QUER SER DEUS

                                                                        "Quanto maior o poder, mais perigoso é o abuso.”
(Edmund Burke, s.d.)

O século XXI é o tempo de grande expansão e globalização tecnológica. Se no século passado o planeta passou por duas guerras mundiais, descoberta de energia nuclear e Guerra Fria, agora assistimos a enorme comercialização e aplicação de altas tecnologias. Computadores portáteis da espessura de um livro, turismo espacial, engenharia genética e Large Hadron Collaider não são mais que a realidade do quotidiano que vemos todos os dias ao nosso lado e nos mass-media. Todos estes avanços científicos e tecnológicos estão integrados na nossa vida - abrem novos horizontes e fornecem novas oportunidades. É o tempo dos investigadores que “Novos mundos ao mundo irão mostrando” (Luís Vaz de Camões). O mundo não é só o que vemos com os nossos olhos, mas é o que as lentes do microscópio e telescópio, as câmaras de vídeo, os computadores e as sondas espaciais nos permitem ver. Do ponto de vista epistemológico, o Universo expandiu-se colossalmente – estende-se do átomo até às galáxias distantes, da célula à biosfera, do microprocessador até ao space shuttle.
Neste novo “habitat” o Homem tem oportunidade de intervir em processos naturais e reproduzi-los in vitro ou in silico. No entanto, entre as outras descobertas científicas destacam-se duas que são cruciais para a humanidade: a descoberta do poder do átomo (a energia nuclear) e do ADN, “molécula-base” da vida, por James Watson e Francis Crick. Esta última talvez seja de maior importância porque não é apenas um instrumento de destruição, como uma arma atómica, mas de criação e manipulação da vida. Nestas condições surgiu a Engenharia Genética, que estuda o nível fundamental da organização dos seres vivos, o conjunto de moléculas que determinam morfologia e fisiologia de qualquer organismo.
Hoje em dia é frequente ver notícias sobre avanços de genética. Ninguém fica surpreendido quando os cientistas mostram ao grande público os últimos resultados das suas experiências, como é o caso da famosa ovelha Dolly ou do milho transgénico. Na realidade já é possível clonar cães, gatos e outros animais. No futuro mais próximo podem surgir clones de animais que foram extintos na Natureza, por exemplo, mamutes. Ao nível de genética terapêutica existem laboratórios que estudam as doenças genéticas do ser humano e fazem análises de ADN até de seres humanos que estão no estádio mais básico da sua existência e existem apenas como embriões nas placas de Petri. As possibilidades da genética são espantosas, dá-nos o poder sobre a vida, tornando-nos quasi deuses, mestres do mundo material capazes de manipular os seres vivos e as suas características.
Desta forma, os avanços da Genética fornecem conhecimentos importantíssimos que se aplicam na medicina. O diagnóstico e o tratamento das doenças são facilitados, podemos detectar as mutações perigosas mais cedo e reprimir a expressão de gene com fármacos, melhorando significativamente a qualidade de vida de pessoas. Todavia, a engenharia genética levanta grande polémica entre especialistas, pessoas religiosas e cidadãos comuns, pois implica a intervenção no genoma e nos processos que determinam a nossa existência e individualidade. Há também questões muito controversas, como a clonagem reprodutiva do ser humano e eugénia, selecção genética de seres humanos.
Pois, quanto maior é o poder, maior é a tentação. O Homem consegue manipular as características de plantas e animais, criar novas espécies, os chamados organismos geneticamente modificados, melhorando as características dos mesmos. No entanto, como qualquer ser ambicioso e limitado pela sua ignorância, o ser humano não perde a oportunidade de tentar enganar as leis naturais e corrigir os erros da Natureza. Assim, graças aos avanços científicos, em 2009 nasceu a primeira bebé britânica seleccionada para não carregar um dos genes que predispõe o desenvolvimento do cancro da mama e do útero. O caso é exemplificativo e controverso do ponto de vista ético, pois a futura criança tinha uma elevada probabilidade de sofrer de cancro da mama ou do cancro do útero e por isso os pais recorreram a selecção genética dos embriões durante a fertilização in vitro. Este acontecimento levou a uma grande polémica na sociedade ocidental. A Igreja católica considera a selecção genética uma acção “grave e ilícita” e os defensores do método sustentam que os futuros bebes têm uma vida mais saudável, ficando privados do sofrimento que as patologias genéticas causam.
De facto a Igreja nunca aceitou qualquer tipo de intervenção genética com o fim de alterar os processos naturais, isto é, a clonagem, engenharia genética e selecção genética são considerados actos imorais e que violam o direito sagrado de cada ser humano, a vida e a individualidade e põem em causa a vontade divina. Do ponto de vista da Igreja, a selecção genética dos embriões que não apresentam genes que provocam o desenvolvimento de uma doença é uma atitude tão grave como o aborto e a eutanásia, pois provocam a morte de um ser humano inocente. Os embriões nos primeiros estádios do seu desenvolvimento passam por um diagnóstico genético durante o qual são evidenciados os genes malignos, o embrião que não é portador destes genes é seleccionado para a implantação para o útero da mulher e os restantes são eliminados. A religião católica não só o caracteriza como um homicídio, mas também aponta para que o Homem assume o papel de Deus, escolhendo entre dar vida ou retirá-la.
Em contrapartida, temos a posição dos que defendem que o novo ser humano será mais saudável. Obviamente, é indiscutível que as pessoas saudáveis são normalmente mais felizes, uma vez que as suas famílias não têm de enfrentar a terrível luta contra uma doença grave e mortal. É uma posição tipicamente utilitarista, quando o eticamente correcto é o que evita maior sofrimento e causa maior felicidade. A questão fundamental é se a selecção genética é uma ferramenta segura e se podemos confiar no ser humano, capaz de errar e quebrar as regras éticas.
Realmente, com a engenharia genética é possível examinar todo o genoma e escolher o sexo, a cor dos olhos ou a sua estatura. Se esquecermos as normas éticas podemos modelar completamente o aspecto dos nossos futuros filhos, criar em laboratório gerações sem defeitos físicos e doenças. Hoje, como nunca antes, estamos perto do sonho de Hitler - a criação de uma raça perfeita. Contudo, os genes não determinam tudo, não há garantia de que o mais perfeito dos embriões será um campeão olímpico ou génio, tal como não podemos programar a bondade e a piedade nos seres humanos. Estas qualidades não se cultivam em proveta!
De facto, “de boas intenções está o Inferno cheio”. Quem age a pensar num bem universal para toda a humanidade pode fornecer uma arma horrível aos seres humanos mais corrompidos pelo poder e, neste caso, o feitiço vira-se contra o feiticeiro. A engenharia genética é apenas uma ferramenta poderosa, obra do génio humano, e tal como qualquer instrumento, pode ser usada para o bem ou para o mal. Como o bisturi é uma arma mortal nas mãos do criminoso e salva vidas nas mãos do cirurgião. Os objectos e o conhecimento só por si não possuem nenhum valor moral, apenas as acções humanas são contabilizadas pela ética. O perigo está na própria natureza do Homem, ser mortal e ignorante, vulnerável às tentações deste mundo. Infelizmente, não há maior tentação do que o Poder.
Já o antigo Sófocles afirmara - “O poder revela o homem.”. Raros são os homens que por natureza são determinados, capazes de resistir ao poder. A maioria abusa do poder a seu favor, e quanto maior é o poder, maior é o abuso. É a natureza do ser humano, o desejo de poder está em nós como em qualquer animal colectivo. Nos leões, nos lobos e nos homens reinam os mesmos instintos, pois somos mais animais do pensamos e a parte racional da nossa mente é menor do que podemos imaginar. Os exemplos são abundantes - os ditadores, os políticos corruptos, as companhias multinacionais que exploram terras dos países em desenvolvimento e ganham o dinheiro do trabalho infantil, até os maridos que praticam violência doméstica, todos são pessoas que abusam do poder. O mais forte, que tem o poder sobre os mais fracos e os mais vulneráveis, pode ser corrompido pela sensação da sua soberania e omnipotência, tornando-se egoísta e desvalorizando a integridade e a individualidade dos outros. O ser humano, quando não condicionado pelo contrato social, pelas normas morais e leis, inferioriza os mais frágeis. O poder é o vinho – o vício que releva os nossos instintos animalescos, e tal como o ópio, encanta-nos e transforma o mundo à nossa volta num jogo onde as vidas humanas são apenas peças do jogo sobre as quais temos um controlo total. É uma forma efémera de realizar os nossos próprios desejos, de nos tornarmos deuses e provarmos a nos próprios que somos mais do que seres mortais cuja existência é insignificante e inútil à escala do Universo. Elevar-se sobre os outros é uma prova de existência a nós próprios e uma expressão da vontade eterna do Homem de atingir a perfeição, algo divino.
Em suma, a selecção genética pode ser uma prática amoral, pois pode ser uma tentativa terrível de o ser humano se igualar a Deus. O conhecimento é poder na sua essência e um cientista sapiente pode ser mais perigoso do que um ditador. Quando os pais recorrem à selecção de embriões, parece uma atitude egoísta; evidentemente, eles valorizam mais os seus desejos do que a vida de um ser humano. O mesmo ocorre quando o Governo autoriza o aborto selectivo ou a selecção genética ao nível institucional, pois parece evidente que o Estado persegue o interesse económico – afinal uma população mais saudável é favorável para o desenvolvimento de qualquer país. Assim, parece que é um acto de egoísmo, individual e colectivo. O perigo surge quando a selecção de embriões não é determinada pelas razões meramente médicas mas sim pelos desejos egoístas de quem manipula os seus genes.
Ainda parece aceitável prevenir o sofrimento de um ser humano e dos seus familiares se a probabilidade de aparecimento de uma doença grave e sem cura for muito elevada. A decisão é dos pais e dos médicos, mas esta atitude só pode ser tomada nos casos extremos, caso contrário corremos o risco de discriminação de seres humanos por serem de um dos sexos ou por terem determinadas características, como a cor dos olhos. Será a discriminação dos mais fracos, que não podem protestar e que são excluídos a priori, ainda antes de vir para este mundo. Assim, a selecção genética tem de ter limites e, por sua vez, devem existir leis que asseguram todos os direitos humanos tendo em conta o desenvolvimento da engenharia genética.
Este é apenas um dos problemas da imparável evolução da ciência e da tecnologia, que levam ao aparecimento de novas oportunidades e, infelizmente, novos crimes. Muitas vezes, a humanidade ultrapassa o limite da ética quando persegue objectivos económicos ou científicos. O bom senso não funciona quando aparece a oportunidade de fazer papel de Deus. Com o nosso desenvolvimento científico elaboramos meios para criar a vida e destruir planetas – aproximamo-nos do potencial de um ser divino. No entanto, este super-homem sonhado por Nietzsche pode tornar-se um animal cruel, desprovido de qualquer princípio moral, se não encontrar uma simbiose para a dicotomia existente entre o poder e a ética.
O ser humano assemelha-se ao demiurgo, uma entidade criadora do mundo material, que possui sabedoria imperfeita. No entanto, seria pouco sensato pensar que um ser imperfeito não irá cometer erros. Jogamos no jogo de Deus com a ambição de não cair no abismo.

Pseudónimo: Belerofonte

domingo, 22 de janeiro de 2012

Genes tibetanos dão mais resistência à altitude (Crónica)


"Viver a 4500 metros acima do nível do mar não é precisamente o que está projectado para o corpo humano. A esta altitude, a pressão do oxigénio é tão baixa que a quantidade que chega aos pulmões não é suficiente para o organismo, excepto para aqueles que estão habituados a esse ambiente.
Há vários povos que vivem em regiões de grande altitude, como os andinos ou as tribos das montanhas etíopes. Os habitantes do planalto tibetano têm traços fisiológicos únicos, resultado de séculos de evolução a viver em condições extremas.
Para além de não sofrerem as alterações fisiológicas que qualquer outro ser humano tem de passar para ambientar-se a alturas elevadas, o sangue deste povo contém menos oxigénio, menos hemoglobina e uma quantidade normal de glóbulos vermelhos.
Como resultado da adaptação do organismo à região, os tibetanos não demonstram vasoconstrição pulmonar com a falta de oxigénio e mantêm um metabolismo aeróbio normal. ...
A única explicação possível para esta adaptação genuína esconde-se nos genes, garante um estudo, realizado por investigadores das Universidade de Utah (nos Estados Unidos) e de Qinghai (na China), publicado na Science. ... “O que é único nos tibetanos é que desenvolveram mais glóbulos vermelhos”, explica Josef Prchal, professor de Medicina Interna da mesma universidade americana, que acrescenta:“Se formos capazes de entender como isto se processa, podemos desenvolver tratamentos para algumas doenças”, como o edema pulmonar e cerebral ou os distúrbios relacionados com a falta de oxigénio. " (http://www.cienciahoje.pt/index.php?oid=42598&op=all)


A teoria de Selecção Natural de Darwin e a Genética, dois componentes da Teoria Neo-Darwinista, conseguem explicar quase todos os fenómenos de evolução de seres vivos. A evolução é sempre uma série de modificação que permitem ao organismo melhor adaptar-se ao meio ambiente. Deste modo, uma célula procariótica transformou-se em eucariótica com mitocôndrias e cloroplastos para se adaptar melhor ao meio hostil. Esta transformação ocorre devido às mutações que ocorrem no material genético de um ser vivo, no DNA que determina as suas características fenotípicas. As mutações ocorrem em vários segmentos do genoma, muitas vezes são prejudiciais a saúde humana, provocando doenças genéticas como o cancro, a anemia falciforme, talassemia, hemofilia, nanismo, entre as outras. Porém, algumas mutações fornecem aos seus portadores características benéficas que os permitem adaptar-se melhor ao meio e ter maior número de descendentes propagando os seus genes no pool genético de uma população. Os indivíduos mais aptos sobrevivem e os menos aptos são eliminados.
As mutações, mesmo aquelas que são aparentemente prejudiciais, fornecem aos seus portadores benefícios. Por exemplo, a talassemia que é comum na região do Mediterrâneo, quando em indivíduos heterozigóticos fornecem-nos a resistência a malária. O mesmo acontece em algumas regiões da África, onde se regista uma grande incidência de malária, os indivíduos com anemia falciforme, quando são hetorozigóticos, não sofre de deficiências graves e são imunes a malária. Este fenómeno é conhecido como a resistência dos hererozigóticos. De mesma forma, os portadores de gene da doença de Tay-Sachs, que teve origem numa comunidade de judeus, embora mortal em homozigotia, torna os heterozigóticos resistentes a tuberculose. Os indivíduos portadores de um alelo que provoca nanismo ficam prevenidos de cancro e diabetes.
O meio ambiente beneficia os indivíduos com determinadas características, deste modo os indivíduos que vivem em altitudes elevadas estão adoptados às baixas pressões de oxigénio. As suas características genéticas compensam a falta de oxigénio com um maior número de hemácias no sangue. Possivelmente, no inicia a população tibetana teria as mesmas características que a população chinesa, só que o ambiente da montanhas provocou a selecção natural: os indivíduos com baixo número de hemácias eram eliminados e os com maior quantidade de glóbulos brancos deixavam descendência e propagavam os seus genes no fundo genético da população tibetana. Sabe-se que as mulheres tibetanas estão adaptadas a gestação do feto a uma altitude elevada, quase 5 mil metros acima do nível médio do mar. Os europeus que chegaram a Tibete verificaram que quase todos os bebés de mulheres não tibetanas nasciam mortos devido a falta de oxigénio. Assim, só os portadores de genes mais benéficos para a adaptação a altitude elevada deixavam descendência.
Muitas vezes, as populações isoladas apresentam características únicas devido ao isolamento geográfico, que não permite o contacto e cruzamento com outros indivíduos, e o chamado efeito Fundador, que restringe a variedade genética da população original. Como o exemplo, os aborígenes da Austrália não possuem o aglutinogénio B nas suas hemácias, logo, o grupo sanguíneo B é inexistente nesta população. Possivelmente, o grupo de indivíduos que povoou o território australiano há milhares de anos não tinha indivíduos com aglutinogénio do tipo B ou a mutação que originou os aglutinogénios do tipo B ocorreu posteriormente na população euro-asiática.
Pode também acontecer que os indivíduos portadores de algumas características sejam extintos devido a uma catástrofe natural ou uma epidemia, sendo os seus genes eliminados do fundo genético da população – o efeito Gargalo.
A espécie humana apresenta uma grande variedade genética, pois encontra-se espalhada pelo todo o planeta Terra. Esta variedade genética não se traduz só na cor do cabelo ou dos olhos, está relacionada com as características que influenciam a nossa adaptação a um determinado ambiente, como a capacidade de produzir mais ou menos melanina na pele, uma maior produção de glóbulos vermelhos, maior força ou resistência física. Todas estas características estão guardadas no nosso pool genético e constituem o “seguro de vida” da nossa espécie – no caso de alterações bruscas no meio ambiente, alguns de nós estarão certamente mais aptos para sobreviver, melhor adaptados. A adaptação do ser humano a vários tipos de ambiente, até aos mais hostis, como é o caso dos tibetanos, constitui uma das maiores provas de que a nossa espécie tem futuro neste planeta.
Belerofonte (Pseudónimo)

Células da Glia - as guardiãs silenciosas do cérebro


Baseado no artigo The Hidden Brain de R.Douglas Fields
Em 1999, no National Institutes of Health, R. Douglas Fields e Beth Stevens realizaram uma experiência com cultura de células do tecido nervoso, e verificaram que, para além dos neurónios, as células de Schwann, um dos tipos de células de glia, também interagiam com os neurónios e estavam envolvidos na transmissão de informação por via não eléctrica.
Desde o século XIX até recentemente, o estudo da actividade cerebral e distúrbios de ordem neurológica baseavam-se na chamada neuron doctrine, isto é, a ideia de que o neurónio era a unidade básica funcional do sistema nervoso, transmitindo toda a informação através de impulsos electroquímicos. Porém, os neurónios constituem apenas 15% das células do cérebro, enquanto as células de neuroglia são uma maioria absoluta, 85%.
As células da glia que fazem parte do tecido nervoso desempenham inúmeras funções. Os astrócitos são célula de glia que transportam neurotransmissores, e as suas projecções citoplasmáticas envolvem os vasos sanguíneos no cérebro, formando uma barreira hematoencefálica selectiva, através da qual passam os nutrientes para os neurónios e são removidos os resíduos do metabolismo celular. Também regulam o fluxo sanguíneo conforme as necessidades do tecido nervoso. Os oligodendrócitos são responsáveis pela produção de mielina, o isolante eléctrico de natureza lipídica que se deposita e envolve os axónios, acelerando a transmissão do impulso nervoso, que assim se torna até 50 vezes mais rápido. Enquanto estas células se localizam no Sistema Nervoso Central, envolvendo vários axónios neuronais com os seus prolongamentos celulares, no Sistema Nervoso Periférico a mielinização dos axónios é feita pelas células de Schwann, que se localizam à volta do axónio mielinizado. Por sua vez, as células de microglia estão envolvidas na resposta inflamatória e reparação de danos celulares, removendo as células mortas de tecido. De um modo geral, a neuroglia executa funções de housekeeping– manutenção do tecido nervoso num estado funcional e saudável.
Para além destas funções, foi também descoberta a capacidade das células de glia de participarem em processos de transmissão de informação no cérebro. Assim, os astrócitos comunicam com os neurónios quimicamente por meio de neurotransmissores e são também responsáveis pela comunicação entre regiões distantes do cérebro, participando ainda nos processos cognitivos complexos, como a memorização e a aprendizagem. Os astrócitos conseguem aumentar a intensidade dos impulsos eléctricos nos axónios libertando neurotransmissores. Por exemplo, a comunicação química entres as sinapses na área do hipocampo é essencial para o bom funcionamento da memória e, consequentemente, torna-se crucial para a capacidade de aprendizagem de qualquer ser humano.
Visto que estas células são a garantia do bom funcionamento do sistema nervoso, muitos distúrbios e doenças neurológicas e até algumas patologias psicológicas tem origem ou estão relacionadas com a neuroglia. Por exemplo, a degeneração de microglia pode estar relacionada com a demência na doença de Alzheimer – quando a microglia deixa de exercer as suas funções, o tecido nervoso começa a acumular substâncias tóxicas que levam à sua degradação. Outro caso é o das lesões na medula espinhal que levam a paralisias. Através do bloqueio de algumas proteínas associadas à mielina produzida pelos oligodendrócitos pode-se induzir a recuperação deste tipo de lesões. Também se sabe que os oligodendrócitos e os astrócitos podem ser os responsáveis por alguns casos de esquizofrenia e depressão.
Em suma, as células de glia não só são cruciais para a manutenção da homeostasia no sistema nervoso, mas participam activamente nos processos cognitivos complexos, e o seu estudo pode revelar os mecanismos de muitas doenças e patologias associadas ao tecido nervoso. Neste novo paradigma os neurónios e as células de glia funcionam de forma diferente, mas a sua cooperação proporciona ao cérebro as suas espantosas capacidades.

Belerofonte (pseudónimo) e o seu grupo de MEBiom do IST

domingo, 4 de dezembro de 2011

A GRANDEZA E A IRRACIONALIDADE


   “Só os mortos conhecem o fim da guerra.”
(Platão, s.d.)

Hoje em dia ninguém questiona os benefícios do avanço científico e tecnológico da humanidade. Aqueles que o contestam criticam, evidentemente, a sua própria existência, pois sem o progresso científico-tecnológico esses indivíduos não seriam capazes, provavelmente, de sobreviver ou chegar à terceira idade e permaneciam no estado de primatas das cavernas. Porém, os mais inteligentes e preocupados com a nossa sobrevivência enquanto espécie questionaram a aplicação que o Homem dá às suas invenções.
Os animais irracionais e mesmo criaturas com cérebro desenvolvido ou uma organização social complexa, tal como os golfinhos e as formigas, respectivamente, estão desprovidos de cuidados médicos especializados e tecnologias que permitem governar as forças assustadoras da Natureza submetendo-as às nossas regras e usando-as ao nosso favor. A ausência de conhecimentos científico-técnicos resulta em incapacidade de conquistar um planeta inteiro, mandar satélites para outros corpos do Sistema Solar e para o espaço exterior a este. No entanto, estes animais existem durante mais tempo do que o frágil ser humano - apresentam uma estratégia biologicamente estável.
As descobertas científicas e tecnológicas aparentemente são úteis e benéficas para os seres racionais, mas quando chegam às mãos do Homem, mais ou menos tarde, tornam-se uma arma perigosa. A história da metamorfose de descobertas úteis em poder destrutivo começou com o aparecimento da espécie humana – agressiva e portadora de intelecto. Como sempre, as intenções eram as melhores: descobrir o fogo para se aquecer e cozer os alimentos, mas o resultado é mais drástico – a queima das florestas. A invenção de armas para defesa tornou-se o primeiro passo para guerras sangrentas. Até a invenção da roda, que devia ser posta nas máquinas agrícolas, se transformou em instrumentos de guerra que mataram milhões. Nas mãos do Homem, mesmo hoje em dia, um automóvel ligeiro de passageiros passa a ser a uma arma mortífera responsável por milhares de mortos por ano. “De boas intenções está o Inferno cheio.”
Na Idade Média o conhecimento sobre a anatomia e fisiologia do corpo humano não era usado para curar e salvar vidas, mas para provocar maior sofrimento às vítimas das torturas. No entanto, nada se compara ao auge da mente maléfica do Homo sapiens sapiens, que se iniciou depois da Revolução Industrial, quando o ser humano decidiu acabar não só com os indivíduos mais próximos, mas também com todo o planeta. De facto, a Terra, sendo o ecossistema em que nós vivemos e que garante a nossa existência, passou a ser o principal alvo dos homens. Assim começou a Era da Poluição. Com as novas fábricas e produtos químicos o Homem conseguiu, em duzentos anos, destruir o equilíbrio natural. A acção dos seres humanos está a aproximar-se do efeito de uma “extinção em massa”. Quem serão os dinossauros do terceiro milénio?
Existem várias semelhanças entre os humanos e os dinossauros: eles dominaram o planeta Terra na Era Mesozóica, nós dominamo-lo actualmente. Porém, existe uma diferença colossal - os “répteis terríveis” existiram durante mais de 185 mil milhões de anos e desapareceram na sequência de um desastre natural, os humanos existem como espécie há 2 milhões de anos e já estão à beira da catástrofe planetária. O Homem como espécie tem o record absoluto de espécies extintas. O exemplo mais citado é a extinção da ave dodó pelos marinheiros espanhóis no século XIX. No século XXI, em média, todos os dias desaparece uma espécie da flora ou da fauna nas florestas amazónicas em consequência da acção do homem. Tudo isso provoca um distúrbio ecológico profundo.
Para demonstrar a natureza auto-destrutiva do Homem no seu apogeu temos de nos lembrar do século XX. Uma das mentes mais brilhantes no âmbito da Física da nossa civilização, Albert Einstein, contribuiu, involuntariamente, para a criação da arma nuclear – talvez o mecanismo mais destrutivo do Universo. Por ironia, primeiro surgiu a bomba nuclear e só depois a primeira central termonuclear para fins não militares. Curiosamente, não é a única inovação científica que aparece de uma actividade bélica.
Em suma, a agressividade natural do ser humano, conjugada com inteligência, permitiu-nos sobreviver durante milhares de anos num ambiente hostil, mas ao mesmo tempo constitui o nosso “calcanhar de Aquiles”. A ausência de racionalidade nos seres potencialmente racionais, quando estes são mais perigosos do que qualquer outro animal, resulta numa política de auto-destruição ou destruição mútua, no caso de uma guerra entre duas potências nucleares. Tudo isso exemplifica a “maneira inconsciente como a Humanidade aplica as suas conquistas tecnológicas” (Cousteau, 1978). Somos dotados de inteligência, mas não da razão – ignorantes e cegos num campo de minas criado por nós.

Belerofonte(Pseudónimo)

sexta-feira, 26 de agosto de 2011

Deus joga aos dados! (O dilema do Gato de Schrödinger)



A
té ao século XX no mundo científico predominava o paradigma de um Universo determinista. Pensava-se que tudo no nosso mundo era determinado pelo princípio de causalidade, ou seja, para cada acontecimento acreditava-se existir sempre uma causa: em última análise podia ser Deus o responsável, na perspectiva religiosa, ou as causas primeiras que deram origem ao nosso Universo, como o Big Bang. Por exemplo, usando as leis de Newton e as leis de Kepler[1] se soubermos as posições e velocidades do Sol e outros planetas num dado instante, podemos prever a posição de um planeta dentro do Sistema Solar em cada instante do seu período de translação. Esta teoria determinista teve um grande apoio, dado que se acreditava na existência do planeta Neptuno antes da sua descoberta por Johann Gottfried Galle[2], em 1846, que o viu pela primeira vez através de um telescópio. Realmente, a descoberta de Neptuno foi prevista através de cálculos matemáticos de Urbain Le Verrier[3], ou seja, respeitando o princípio de causalidade necessária. Até meados do século XX algumas das mentes mais brilhantes do horizonte da ciência apoiavam a ideia de um mundo totalmente determinista, onde não havia lugar para o acaso. A título de exemplo, refira-se Albert Einstein, que sempre acreditou que se algo parece ser aleatório, é porque existe uma causa desconhecida que determina o resultado de uma experiência ou um acontecimento. Costuma-se citar uma frase célebre do pai da Teoria da Relatividade: “Deus não joga aos dados”. No entanto, no início do século passado surgiu uma nova teoria que alterou a nossa perspectiva do Universo.
Hoje em dia sabe-se que o universo dos átomos é governado pelo Princípio da Incerteza. No mundo da Física Quântica tudo é incerto, desde a dualidade onda – partícula (ou onda – corpúsculo) até à estrutura do átomo. Houve necessidade de abolir alguns princípios lógicos básicos do nosso pensamento para compreender o enigmático mundo das nanopartículas!
No final do século XIX a Física Clássica respondeu a quase todos os enigmas da Natureza: com a termodinâmica, a mecânica newtoniana e o electromagnetismo de Maxwell. O Universo deixou de parecer misterioso. Faltava resolver apenas dois “pequenos problemas”: o enigma do corpo negro, que levou à introdução da constante de Planck, e o problema da experiência de Michelson e Morley[4], que pôs em causa a existência do éter (uma substância que servia de meio para as ondas luminosas (Klein, 1996)). Deste modo, pensava-se que com as teorias científicas existentes nessa altura conseguia explicar-se qualquer fenómeno. No entanto, quanto maior é a ignorância maior é ilusão! Com o tratamento das duas pequenas “nuvens negras” levantaram-se novos dilemas e houve necessidade de criar novas teorias para explicar o enigmático mundo que nos rodeia. Assim, surgira as Teorias da Relatividade Restrita e Geral de Einstein e a Mecânica Quântica. Ambas assentes em novos paradigmas que punham em causa o panorama da Física clássica.
Analisemos o problema de um corpo negro – um emissor perfeito. Acreditava-se que um corpo quente emitia ondas electromagnéticas em quantidades idênticas em todas as frequências. Ou seja, o corpo emitia igual quantidade de energia em ondas de frequência alta e em ondas de baixa frequência. Rayleigeh e Sir James Jeans[5], baseando--se nesta teoria científica do final do século XIX, concluíram que um corpo quente devia irradiar quantidades ilimitadas de energia, uma vez que não existe limite para a frequência. Ora, essa conclusão era absurda! Como resposta a esse problema, Max Planck enunciou uma hipótese que dizia que as ondas electromagnéticas, como os raios-X, não podiam ser emitidas em quantidades arbitrárias (Hawking, 2009). Seguindo a ideia de Planck, a energia só podia ser emitida em quantidades pequenas e bem definidas. Estas doses de energia passaram a chamar-se quanta[6]. Deste modo, o cientista efectuou uma quantização de energia que mais tarde foi aplicada ao átomo, pois os átomos podem receber e irradiar a energia apenas numa quantidade finita e quantizada, ou seja, em forma de quanta. Cada quantum teria uma energia tanto maior quanto mais alta fosse a frequência. Isto implicava que uma frequência muito alta necessitava de mais energia do que aquela que se encontrava disponível para a emissão de um único quantum de energia. Esta energia não podia ser emitida aleatoriamente, logo, haveria limite para a emissão de energia.
Com a quantização de energia os físicos perceberam que os átomos só recebem e emitem certas quantidades de energia na forma de radiação electromagnética - isto está relacionado com as energias dos níveis electrónicos que também não são arbitrárias. Com o conhecimento desta propriedade do átomo, um cientista alemão, Werner Heisenberg, tentou medir a posição e a velocidade do electrão no átomo. Para isso incidiu luz na partícula e, uma vez que algumas ondas são dispersas pelo electrão, Heisenberg conseguia saber a sua posição. No entanto, não se podia usar uma quantidade muito pequena de energia, devia-se usar pelo menos um quantum - isto implicava que ao incidir na partícula iria alterar a velocidade inicial do electrão o que não permitia a medição da velocidade inicial. Simultaneamente, não podemos saber com certeza a posição e a velocidade do electrão no átomo, quanto mais preciso for o valor da posição, maior será o erro do valor da velocidade e vice-versa. Surge assim uma base fundamental para a compreender o mundo das nanopartículas: o Princípio de Incerteza de Heisenberg!
O problema da medição é inevitável. Talvez seja a única lei fatal que rege o nosso mundo. Quando tentamos medir o estado de um sistema, a nossa medição altera o seu estado original, ou seja, qualquer medição, enquanto uma intervenção na experiência, introduz uma perturbação nas condições iniciais. Assim, sempre que observamos um sistema, ou seja, medimos o seu estado, introduzimos um erro nas nossas medições (Croca, 2004), pois, enquanto observadores imperfeitos, não conseguimos observar um sistema sem o alterar. É a mesma coisa que cultivar uma planta sensível à luz numa caixa escura e de vez em quando abrir a caixa para verificar o estado da planta. Infelizmente, cada vez que abrimos a caixa deixamos que a planta entre em contacto com os raios luminosos que alteram o seu crescimento, não sabemos o quão profunda é alteração das condições iniciais mas temos a noção de que interferimos no crescimento da planta. Cada um de nós poderá perceber que a medição ou observação altera as condições do sistema e, portanto, os resultados. Se alguma vez participou num torneio desportivo ou efectuou um exame teórico na escola teve a sensação de que o facto de a pessoa estar a ser observada pode provocar stress e alterar os seus resultados. Obviamente, no caso dos humanos tem a ver com questões psicológicas que são remediáveis, mas o mesmo não acontece com as nanopartículas.
O Princípio de Incerteza é fundamental para perceber a física dos átomos e, como uma consequência inevitável, o funcionamento de toda a matéria que nos rodeia e até a bioquímica do nosso próprio corpo.
Esta nova ideia de incerteza levou três cientistas, Werner Heisenberg, Erwin Schrödinger e Paul Dirac, à reformulação da física clássica numa nova teoria – Mecânica Quântica, que acabou com o paradigma determinista. Numa experiência existem vários resultados possíveis, a mecânica quântica prevê os resultados possíveis a as suas probabilidades. Como os alunos da disciplina de Física e Química do 10ºAno já sabem, na perspectiva desta teoria, os electrões não têm órbitas definidas mas sim uma zona de espaço onde a probabilidade de encontrar um electrão é superior a 95%. – a orbital. Teoricamente, nenhum acontecimento é impossível. No entanto, este paradigma tem outras implicações muito mais profundas que contrariam os nossos princípios lógicos. A hipótese de Planck e a conclusão de Heisenberg demonstraram que as ondas podem comportar-se como partículas e as partículas como ondas (Hawking, 2009). Esta dualidade onda-corpúsculo, visível no efeito fotoeléctrico, foi pela primeira vez enunciada por Louis-Victor de Broglie. É um dos paradoxos que fez os cientistas repensarem a física newtoniana e a lógica aristotélica usada até então.
A experiência do Gato de Schrödinger vai contra o princípio lógico básico da lógica aristotélica que usamos no quotidiano - o princípio de não-contradição. O princípio de não-contradição (pode também ser designado pelo princípio de contradição) consiste na ideia de que duas realidades contraditórias não podem coexistir. Para evitar oximoros e paradoxos lógicos não podemos afirmar, por exemplo, que algo existe e não existe simultaneamente, ou que um animal está vivo e morto. Deste modo, duas proposições contraditórias são simultaneamente verdadeiras. Do ponto de vista da lógica aristotélica, só pode estar ou vivo ou morto, tratando-se de um silogismo disjuntivo em que nenhum dos elementos pode coexistir com o outro, sendo que as duas realidades se excluem mutuamente. Para entender o mundo das nanopartículas e das ondas, a Mecânica Quântica estudada-as apoiando-se na onda-corpúsculo, abandonando as convicções da lógica aristotélica. Assim, nos meados do século passado surgiu a lógica paraconsistente que não respeita o princípio de não-contradição e admite que existem vários resultados possíveis dando uma probabilidade para cada um dos resultados. A dificuldade de compreensão da Mecânica Quântica é a necessidade de abstracção e de abandono de princípios lógicos aparentemente dogmáticos.

Concluindo, podemos dizer que a Mecânica Quântica alterou não só a perspectiva científica do Universo, mas também a nossa maneira de pensar e o nosso quotidiano. A alteração de paradigma científico permitiu a solução de vários problemas e abriu o caminho para um novo tipo de tecnologia, permitindo a construção de lasers, transístores, microscópios electrónicos e obter imagens de ressonância magnética. O caminho para uma inovação científico-tecnológica passava pela incerteza.
Desde o momento em que o Universo deixou de ser governado pelas leis deterministas dando o lugar ao acaso, surgiu a incerteza, que pode ser vista como uma forma de liberdade. A inevitabilidade da incerteza pode ser benéfica, pois proporciona-nos a liberdade de escolha – o livre arbítrio. Se não existe nenhuma causa fatal que determine as nossas escolhas, então podemos ser livres nas nossas decisões.
“A incerteza é uma propriedade inevitável do mundo.”
Stephen Hawking, in Breve História do Tempo (2009)
Nem sempre a incerteza significa “a dúvida”, por vezes é a liberdade - uma forma de ir mais longe, não nos limitando a dogmas e restrições. De facto, na ciência não existem verdades absolutas e teorias imutáveis. Para a mente humana a inevitabilidade da incerteza parece ser paradoxal. No entanto, a física quântica não difere muito do pensamento do grande filósofo grego, Sócrates: “Só sei que nada sei” (apud Platão, in Apologia de Sócrates). O facto de reconhecermos a nossa ignorância ou a incerteza já nos torna, na verdade, mais sábios do que éramos se vivêssemos na ilusão. O constante avanço da Mecânica Quântica é essencialmente a compreensão da complexidade e da imprevisibilidade do Universo.
A.S.


[1] Leis de Kepler (1605) – uma série de princípios que explicam o movimento de corpos celestes, como os planetas do Sistema Solar.
[2] Johann Gottfried Galle – astrónomo que pela primeira vez viu o planeta Neptuno.
[3] Urbain Le Verrier – foi um matemático e astrónomo francês. Baseando-se na lei de gravitação universal e leis de Kepler calculou com erro de 1% a órbita de Neptuno.
[4] Experiência que provou que a velocidade da luz tem mesma velocidade em todas as direcções, o que significava que não é necessário um meio para propagação de ondas luminosas – éter.
[5] A lei de Rayleigh-Jeans – lei proposta no início do século XIX, descreve a radiação electromagnética de todos os comprimentos de onda irradiada por um corpo negro a uma dada temperatura.
[6]Quanta - forma plural de quantum, do latim “quantia”.

segunda-feira, 23 de maio de 2011

Bactérias e antibióticos - problemas de resistência bacteriana

Até aos meados do século XX milhões de pessoas faleciam devido às infecções bacteriológicas. Nas guerras e na vida quotidiana a ausência quase total de higiene e de cuidados médicos promoviam o desenvolvimento de bactérias patogénicas que podiam matar o Homem. O grande progresso da medicina e a melhoria de condições de vida devem-se não só ao aumento de cuidados de higiene, mas sobretudo ao aparecimento de novos fármacos com propriedades anti-bacterianas – os antibióticos.
A descoberta do primeiro antibiótico deve-se ao mero acaso. Alexander Fleming, bacteriologista inglês descobriu a penicilina quando estudava o desenvolvimento de estafilococos, bactérias mais perigosas para o ser humano. Por coincidência, em algumas preparações com culturas microbianas expostas ao ar durante três semanas começou a desenvolver-se um bolor branco que impedia o crescimento de bactérias. Este fundo produzia uma substância anti-bacteriana – penicilina (provem do nome científico do fungo Penicillium chrysogenum). Este bolor tem uma relação de amensalismo ou antibiose com as bactérias, como já foi dito, impedem o desenvolvimento das bactérias através de produção de antibióticos que destroem as paredes celulares de peptidoglicanos da bactéria.
Uma vez apurados e sintetizados in vitro, esta substância pode ser usada para curar muitas doenças, desde pneumonias até infecções de sangue. É um dos medicamentos mais importantes para o sistema de saúde de actualidade.
Não querendo desvalorizar a importância dos antibióticos e a sua enorme contribuição para a manutenção da Saúde Publica, temos de dizer que o uso descontrolado de antibióticos pode provocar o aparecimento de bactérias resistentes a estes. A resistência bacteriana é um problema da actualidade, no dia Mundial da Saúde de 2011 este foi o tema principal. A Organização Mundial da Saúde alerta para proliferação de bactérias e outros microrganismos resistentes a medicamentos (http://hipernews.net/2011/04/07/dia-mundial-da-saude-combate-a-resistencia-microbiana-e-o-tema-de-2011/ ). Um dos exemplos mais demonstrativos são as bactérias da tuberculose (Mycobacterium tuberculosis) que tornaram-se resistentes aos antibióticos. Estas circulam, principalmente, dentro dos hospitais.
“Para a Organização das Nações Unidas (ONU), o avanço desses microrganismos ameaça a eficácia de vários tratamentos e cirurgias, como no caso de cancro e o transplante de órgãos. Além disso, a resistência microbiana prolonga a doença das pessoas, eleva o risco de morte e torna os tratamentos mais caros. No ano passado, foram registados, pelo menos, 440 mil casos de tuberculose multirresistente e 150 mil mortes em mais de 60 países.”

As bactérias são seres procariontes, sem o núcleo, com o DNA circular não associado às histonas. Estes microrganismos reproduzem-se por divisão binária e durante a replicação do DNA são frequentes os erros, alterações de sequência de nucleótidos – as mutações. Algumas destas mutações são perigosas e outras são benéficas, conferindo-as resistência a algumas substâncias. Uma única bactéria mutante resistente a antibióticos vai originar duas bactérias-filhas dentro de 20 minutos, dentro de um dia a cultura bactéria na irá ter milhões de bactérias. Em poucos dias estas bactérias podem contagiar centenas de pessoas e sendo resistentes a antibióticos irão proliferar sem reagir aos fármacos. As bactérias resistentes podem passar o gene que lhes confere protecção contra os antibióticos às bactérias vizinhas se o gene estiver num plasmídeo bacteriano. As bactérias podem transferir plasmídeos pelos pili (tubulos especiais) e adquiri-los do meio envolvente. As bactérias, com os mecanismos de mutações genicas, criam mecanismos de defesa contra as substâncias dos bolores. Um destes genes que tornam a bactéria imune aos antibióticos é NDM-1.
O gene NDM-1, encontrado nas bactérias resistentes à maioria dos antibióticos, foi detectado em amostras de água supostamente potável de Nova Deli, na Índia, revela um artigo publicada na última edição da revista "The Lancet", num suplemento sobre infecções que alude à "necessidade urgente" de uma acção global contra a proliferação mundial deste gene.
O uso descontrolado e incorrecto de antibióticos é a possível principal causa para a proliferação de “superbactérias”. Como tal, a comunidade científica encontra-se preocupada com a possibilidade de difusão de bactérias resistentes, imunes a antibióticos.
Hoje em dia chegou-se à conclusão que na tuberculose não há imunidade humoral com a produção de células-memória, sendo a vacina ineficaz contra a tuberculose pulmonar. Porém, a vacinação contra a tuberculose é extremamente eficaz para prevenir formas graves da tuberculose nas crianças, como a meningite tuberculosa.

Deste modo, em alternativa aos antibióticos como um método de tratamento de doenças devem se desenvolvidos outros métodos, sobretudo de prevenção. Entre as formas de prevenção devem ser destacadas as medidas de higiene individual e a vacinação. Os seres vivos competem entre si desenvolvendo mecanismos de defesa contra as substâncias e organismos perigosos. A evolução é o resultado de interacção de organismos e meio ambiente e a adaptação. Deste modo, os antibióticos não são a cura contra todas as doenças e em breve iremos enfrentar novas ameaças, possivelmente mais perigosas do que as do século passado.

domingo, 24 de abril de 2011

Organismos transgénicos e o futuro da engenharia genética

No tempo de crise já ninguém fala de” buraco de ozono”, nem da redução de biodiversidade, já nos esquecemos do Aquecimento Global embora as alterações climáticas perturbam a nossa vida. Os activistas de Greenpeace não fazem tantos protestos nos tempos da crise, pois a sua principal preocupação é não perder o trabalho ou procurar um novo se a desgraça já aconteceu. Não é nada surpreendente que hoje em dia o assunto tão debatido como a produção e venda de GMO (Organismos Geneticamente Modificados) já não aparece nas notícias.
No entanto, não nós podemos esquecer que é nos tempos da crise e da guerras que se ganhão maiores fortunas. Já o Rockefeller tornou-se rico após a Grande Depressão de 1929, depois de ter comprado as acções de grandes companhias norte-americanas. Hoje em dia, no tempo de crise económica, que começou nos EUA, a pobreza aumenta e cada vez são mais procurados os chamados bancos alimentares. Isso significa que as companhias que produzem e vendem alimentos irão render mais. Pois, os cidadãos desempregados da América do Norte e da Europa, as populações em fome de alguns países africanos e os países com grande crescimento demográfico, como China e Índia precisarão cada vez mais de alimentos.
A situação tende para uma crise alimentar. Não só porque existe um grande crescimento demográfico, sendo previsto que nos próximos 20 anos a população mundial ultrapassará 8 mil milhões de habitantes, mas também porque os recursos terrestres são cada vez mais reduzidos e o clima mais imprevisível. De facto, as alterações climáticas trazem consequências desastrosas para agricultura. Os verões quentes com incêndios e os invernos rigorosos reduzem a produção de maior parte de agriculturas, principalmente de batata e trigo. Ora, estas duas plantas são essenciais para alimentação humana e para criação de gado. Por outro lado, se o clima do planeta se alterar serão inundadas grandes áreas habitadas e muitas planícies envolvidas na produção agrícola. No caso de início de uma nova Era Glaciar o prognóstico é também negativo, muitas terras da Eurásia e América do Norte onde é cultivado trigo passarão a ter um clima mais rigoroso o que dificultará a produção de alimentos.
Neste ambiente de aumento populacional e redução da área de terras propícias para a agricultura é necessário inventar novas formas de produzir alimentos. Assim, a única companhia que produz organismos transgénicos, mais resistentes as pragas, tolerantes aos pesticidas, irá render milhões ou mesmo milhares de milhões de dólares. De facto, Monsanto tem um monopólio no mercado de produtos transgénicos. É a única empresa que tem licença de produzir e vender organismos geneticamente modificados, como soja (Soja Roundup Ready®), milho (Milho Yieldgard®), tomate, algodão (Algodão Bollgard®) e morango.
Na Europa é proibido, na maior parte dos países cultivar e vender produtos geneticamente modificados. No entanto, na América do Norte os cidadãos já há 30 anos consomem organismos geneticamente modificados.
Infelizmente existem apenas estudos de curta duração sobre produtos transgénicos que foram introduzidos no mercado nos anos 80. Não existe nenhum estudo de longa duração e que torna imprevisível o efeito do consumo de organismos geneticamente modificados. Os produtores e exportadores de GMO afirmam que é seguro consumir os seus produtos, enquanto os opositores apelam aos possíveis perigos. A ausência de provas não é uma prova de perigo ou de ausência de riscos. No entanto, é sempre melhor prevenir até termos dados sobre os riscos de GMO.
Os opositores afirmam que GMO podem infectar o ambiente, criando novas espécies de pragas resistentes a pesticidas, como roundup (outro produto exclusivo de Monsanto). Para além de contaminação do ambiente pensa-se que os organismos com DNA estranho podem transmitir os seus genes as pessoas que os consomem. O nosso organismo está adaptado ao ambiente em que nós evoluímos durante milhões de anos e a introdução de organismos com DNA estranho, agentes desconhecidos para o nosso sistema imunitário, pode ser muito perigosa. É como se comêssemos organismos extra-terrestres. Há dados de experiências com ratos que apontam para que GMO alteram o sistema digestivo e provocam maior mortalidade de fetos, aqueles que sobrevivem apresentam menor actividade e têm tendências para obesidade. Assim, o consumo de organismos transgénicos pode também danificar órgãos internos e ter repercussões negativas para a descendência de consumidores de GMO. Outro factor muito importante e perigoso são as alergias provocadas pelos GMOs, é o caso de produtos transgénicos que foram criados com introdução de genes originários do Bacillus Thuringiensis (Bt). Bt é uma bactéria que produz proteínas que são tóxicas para seres humanos provocando reacções alérgicas.
  • “- foi pulverizada por via aérea nos EUA para combater a lagarta do sobreiro e 500 pessoas sofreram reacções alérgicas ou gripais, alguns desenvolveram anticorpos contra o Bt;
  • - num estudo laboratorial com ratos verificou-se que a exposição por injecção à toxina Bt desencadeou uma reacção imunitária sistémica e local “tão potente como a toxina da cólera”.
  • - num outro estudo, a exposição nasal e rectal induziu resposta imunitária.
  • - existem receptores para Bt à superfície do intestino de primatas – foram testados tecidos de macacos Rhesus.”
Esta toxina é produzida nas plantas geneticamente modificadas e pode existir em grandes quantidades em algumas culturas o que é um risco par a saúde humana. Aqui estão os resultados de um estudo feito pela companhia de Monsanto e analisado por cientistas independentes.
i odemonstrado que existem outros efeitos negativos possíveis de GMO:
 Aumento até 40% dos triglícerideos do sangue em ratos fêmea que participaram na experiência; redução de até 30% do fósforo e sódio na urina de ratos macho.
 lesões significativas nos rins e fígado nos ratos que participaram na experiência;
 alterações de peso, os machos cresceram menos que os animais de controlo e as fêmeas cresceram mais;
 aumento significativo de células sanguíneas relacionadas com o sistema imunitário: basófilos e linfócitos.
Porém, cada vez mais países optam por cultivar as plantas transgénicas. Alguns já pensam no próximo passo – criação de espécies de gado geneticamente modificado. Já existem os primeiros animais que foram modificados, alguns apenas por motivos estéticos, como o peixe-zebra (GloFish®). É de esperar que nas próximas décadas nas mesas dos norte-americanos e, quem sabe, europeus irão aparecer produtos de origem animal que foram modificados.
“Deus está morto” (Nietzsche, A Gaia da Ciência). Assim, o homem quer tomar o controlo da Natureza achando que essa é imperfeita. Queremos alterar, extinguir tudo que nos parece débil. O próximo passo é alterar a nossa própria imperfeição. A engenharia genética permite escolher embriões mais viáveis, mais fortes, mais saudáveis. Será que no futuro vamos escolher também os caracteres dos nossos futuros filhos, como a cor dos olhos, altura, capacidades intelectuais? O problema é o seguinte: a nossa visão de perfeição é subjectiva e por isso absurda. Um portador de talassemia é geneticamente imperfeito mas no caso de uma epidemia de malária ele tem maior probabilidade de sobreviver do que um indivíduo sem gene de hemofilia. A beleza não é a presença de olhos claros, pele branca ou cabelos loiros. Já houve uma tentativa de criar uma “raça perfeita”, esta tentativa conhecida como Holocausto. Escolher um filho em vez de uma filha, um embrião com olhos azuis em vez do outro que irá ter olhos castanhos é descriminação, tal como oprimir os indivíduos de origem africana ou não deixar a uma mulher entrar no mercado de trabalho. Matar um embrião saudável por razões não médicas é eticamente inaceitável.