domingo, 4 de dezembro de 2011

A GRANDEZA E A IRRACIONALIDADE


   “Só os mortos conhecem o fim da guerra.”
(Platão, s.d.)

Hoje em dia ninguém questiona os benefícios do avanço científico e tecnológico da humanidade. Aqueles que o contestam criticam, evidentemente, a sua própria existência, pois sem o progresso científico-tecnológico esses indivíduos não seriam capazes, provavelmente, de sobreviver ou chegar à terceira idade e permaneciam no estado de primatas das cavernas. Porém, os mais inteligentes e preocupados com a nossa sobrevivência enquanto espécie questionaram a aplicação que o Homem dá às suas invenções.
Os animais irracionais e mesmo criaturas com cérebro desenvolvido ou uma organização social complexa, tal como os golfinhos e as formigas, respectivamente, estão desprovidos de cuidados médicos especializados e tecnologias que permitem governar as forças assustadoras da Natureza submetendo-as às nossas regras e usando-as ao nosso favor. A ausência de conhecimentos científico-técnicos resulta em incapacidade de conquistar um planeta inteiro, mandar satélites para outros corpos do Sistema Solar e para o espaço exterior a este. No entanto, estes animais existem durante mais tempo do que o frágil ser humano - apresentam uma estratégia biologicamente estável.
As descobertas científicas e tecnológicas aparentemente são úteis e benéficas para os seres racionais, mas quando chegam às mãos do Homem, mais ou menos tarde, tornam-se uma arma perigosa. A história da metamorfose de descobertas úteis em poder destrutivo começou com o aparecimento da espécie humana – agressiva e portadora de intelecto. Como sempre, as intenções eram as melhores: descobrir o fogo para se aquecer e cozer os alimentos, mas o resultado é mais drástico – a queima das florestas. A invenção de armas para defesa tornou-se o primeiro passo para guerras sangrentas. Até a invenção da roda, que devia ser posta nas máquinas agrícolas, se transformou em instrumentos de guerra que mataram milhões. Nas mãos do Homem, mesmo hoje em dia, um automóvel ligeiro de passageiros passa a ser a uma arma mortífera responsável por milhares de mortos por ano. “De boas intenções está o Inferno cheio.”
Na Idade Média o conhecimento sobre a anatomia e fisiologia do corpo humano não era usado para curar e salvar vidas, mas para provocar maior sofrimento às vítimas das torturas. No entanto, nada se compara ao auge da mente maléfica do Homo sapiens sapiens, que se iniciou depois da Revolução Industrial, quando o ser humano decidiu acabar não só com os indivíduos mais próximos, mas também com todo o planeta. De facto, a Terra, sendo o ecossistema em que nós vivemos e que garante a nossa existência, passou a ser o principal alvo dos homens. Assim começou a Era da Poluição. Com as novas fábricas e produtos químicos o Homem conseguiu, em duzentos anos, destruir o equilíbrio natural. A acção dos seres humanos está a aproximar-se do efeito de uma “extinção em massa”. Quem serão os dinossauros do terceiro milénio?
Existem várias semelhanças entre os humanos e os dinossauros: eles dominaram o planeta Terra na Era Mesozóica, nós dominamo-lo actualmente. Porém, existe uma diferença colossal - os “répteis terríveis” existiram durante mais de 185 mil milhões de anos e desapareceram na sequência de um desastre natural, os humanos existem como espécie há 2 milhões de anos e já estão à beira da catástrofe planetária. O Homem como espécie tem o record absoluto de espécies extintas. O exemplo mais citado é a extinção da ave dodó pelos marinheiros espanhóis no século XIX. No século XXI, em média, todos os dias desaparece uma espécie da flora ou da fauna nas florestas amazónicas em consequência da acção do homem. Tudo isso provoca um distúrbio ecológico profundo.
Para demonstrar a natureza auto-destrutiva do Homem no seu apogeu temos de nos lembrar do século XX. Uma das mentes mais brilhantes no âmbito da Física da nossa civilização, Albert Einstein, contribuiu, involuntariamente, para a criação da arma nuclear – talvez o mecanismo mais destrutivo do Universo. Por ironia, primeiro surgiu a bomba nuclear e só depois a primeira central termonuclear para fins não militares. Curiosamente, não é a única inovação científica que aparece de uma actividade bélica.
Em suma, a agressividade natural do ser humano, conjugada com inteligência, permitiu-nos sobreviver durante milhares de anos num ambiente hostil, mas ao mesmo tempo constitui o nosso “calcanhar de Aquiles”. A ausência de racionalidade nos seres potencialmente racionais, quando estes são mais perigosos do que qualquer outro animal, resulta numa política de auto-destruição ou destruição mútua, no caso de uma guerra entre duas potências nucleares. Tudo isso exemplifica a “maneira inconsciente como a Humanidade aplica as suas conquistas tecnológicas” (Cousteau, 1978). Somos dotados de inteligência, mas não da razão – ignorantes e cegos num campo de minas criado por nós.

Belerofonte(Pseudónimo)

sexta-feira, 26 de agosto de 2011

Deus joga aos dados! (O dilema do Gato de Schrödinger)



A
té ao século XX no mundo científico predominava o paradigma de um Universo determinista. Pensava-se que tudo no nosso mundo era determinado pelo princípio de causalidade, ou seja, para cada acontecimento acreditava-se existir sempre uma causa: em última análise podia ser Deus o responsável, na perspectiva religiosa, ou as causas primeiras que deram origem ao nosso Universo, como o Big Bang. Por exemplo, usando as leis de Newton e as leis de Kepler[1] se soubermos as posições e velocidades do Sol e outros planetas num dado instante, podemos prever a posição de um planeta dentro do Sistema Solar em cada instante do seu período de translação. Esta teoria determinista teve um grande apoio, dado que se acreditava na existência do planeta Neptuno antes da sua descoberta por Johann Gottfried Galle[2], em 1846, que o viu pela primeira vez através de um telescópio. Realmente, a descoberta de Neptuno foi prevista através de cálculos matemáticos de Urbain Le Verrier[3], ou seja, respeitando o princípio de causalidade necessária. Até meados do século XX algumas das mentes mais brilhantes do horizonte da ciência apoiavam a ideia de um mundo totalmente determinista, onde não havia lugar para o acaso. A título de exemplo, refira-se Albert Einstein, que sempre acreditou que se algo parece ser aleatório, é porque existe uma causa desconhecida que determina o resultado de uma experiência ou um acontecimento. Costuma-se citar uma frase célebre do pai da Teoria da Relatividade: “Deus não joga aos dados”. No entanto, no início do século passado surgiu uma nova teoria que alterou a nossa perspectiva do Universo.
Hoje em dia sabe-se que o universo dos átomos é governado pelo Princípio da Incerteza. No mundo da Física Quântica tudo é incerto, desde a dualidade onda – partícula (ou onda – corpúsculo) até à estrutura do átomo. Houve necessidade de abolir alguns princípios lógicos básicos do nosso pensamento para compreender o enigmático mundo das nanopartículas!
No final do século XIX a Física Clássica respondeu a quase todos os enigmas da Natureza: com a termodinâmica, a mecânica newtoniana e o electromagnetismo de Maxwell. O Universo deixou de parecer misterioso. Faltava resolver apenas dois “pequenos problemas”: o enigma do corpo negro, que levou à introdução da constante de Planck, e o problema da experiência de Michelson e Morley[4], que pôs em causa a existência do éter (uma substância que servia de meio para as ondas luminosas (Klein, 1996)). Deste modo, pensava-se que com as teorias científicas existentes nessa altura conseguia explicar-se qualquer fenómeno. No entanto, quanto maior é a ignorância maior é ilusão! Com o tratamento das duas pequenas “nuvens negras” levantaram-se novos dilemas e houve necessidade de criar novas teorias para explicar o enigmático mundo que nos rodeia. Assim, surgira as Teorias da Relatividade Restrita e Geral de Einstein e a Mecânica Quântica. Ambas assentes em novos paradigmas que punham em causa o panorama da Física clássica.
Analisemos o problema de um corpo negro – um emissor perfeito. Acreditava-se que um corpo quente emitia ondas electromagnéticas em quantidades idênticas em todas as frequências. Ou seja, o corpo emitia igual quantidade de energia em ondas de frequência alta e em ondas de baixa frequência. Rayleigeh e Sir James Jeans[5], baseando--se nesta teoria científica do final do século XIX, concluíram que um corpo quente devia irradiar quantidades ilimitadas de energia, uma vez que não existe limite para a frequência. Ora, essa conclusão era absurda! Como resposta a esse problema, Max Planck enunciou uma hipótese que dizia que as ondas electromagnéticas, como os raios-X, não podiam ser emitidas em quantidades arbitrárias (Hawking, 2009). Seguindo a ideia de Planck, a energia só podia ser emitida em quantidades pequenas e bem definidas. Estas doses de energia passaram a chamar-se quanta[6]. Deste modo, o cientista efectuou uma quantização de energia que mais tarde foi aplicada ao átomo, pois os átomos podem receber e irradiar a energia apenas numa quantidade finita e quantizada, ou seja, em forma de quanta. Cada quantum teria uma energia tanto maior quanto mais alta fosse a frequência. Isto implicava que uma frequência muito alta necessitava de mais energia do que aquela que se encontrava disponível para a emissão de um único quantum de energia. Esta energia não podia ser emitida aleatoriamente, logo, haveria limite para a emissão de energia.
Com a quantização de energia os físicos perceberam que os átomos só recebem e emitem certas quantidades de energia na forma de radiação electromagnética - isto está relacionado com as energias dos níveis electrónicos que também não são arbitrárias. Com o conhecimento desta propriedade do átomo, um cientista alemão, Werner Heisenberg, tentou medir a posição e a velocidade do electrão no átomo. Para isso incidiu luz na partícula e, uma vez que algumas ondas são dispersas pelo electrão, Heisenberg conseguia saber a sua posição. No entanto, não se podia usar uma quantidade muito pequena de energia, devia-se usar pelo menos um quantum - isto implicava que ao incidir na partícula iria alterar a velocidade inicial do electrão o que não permitia a medição da velocidade inicial. Simultaneamente, não podemos saber com certeza a posição e a velocidade do electrão no átomo, quanto mais preciso for o valor da posição, maior será o erro do valor da velocidade e vice-versa. Surge assim uma base fundamental para a compreender o mundo das nanopartículas: o Princípio de Incerteza de Heisenberg!
O problema da medição é inevitável. Talvez seja a única lei fatal que rege o nosso mundo. Quando tentamos medir o estado de um sistema, a nossa medição altera o seu estado original, ou seja, qualquer medição, enquanto uma intervenção na experiência, introduz uma perturbação nas condições iniciais. Assim, sempre que observamos um sistema, ou seja, medimos o seu estado, introduzimos um erro nas nossas medições (Croca, 2004), pois, enquanto observadores imperfeitos, não conseguimos observar um sistema sem o alterar. É a mesma coisa que cultivar uma planta sensível à luz numa caixa escura e de vez em quando abrir a caixa para verificar o estado da planta. Infelizmente, cada vez que abrimos a caixa deixamos que a planta entre em contacto com os raios luminosos que alteram o seu crescimento, não sabemos o quão profunda é alteração das condições iniciais mas temos a noção de que interferimos no crescimento da planta. Cada um de nós poderá perceber que a medição ou observação altera as condições do sistema e, portanto, os resultados. Se alguma vez participou num torneio desportivo ou efectuou um exame teórico na escola teve a sensação de que o facto de a pessoa estar a ser observada pode provocar stress e alterar os seus resultados. Obviamente, no caso dos humanos tem a ver com questões psicológicas que são remediáveis, mas o mesmo não acontece com as nanopartículas.
O Princípio de Incerteza é fundamental para perceber a física dos átomos e, como uma consequência inevitável, o funcionamento de toda a matéria que nos rodeia e até a bioquímica do nosso próprio corpo.
Esta nova ideia de incerteza levou três cientistas, Werner Heisenberg, Erwin Schrödinger e Paul Dirac, à reformulação da física clássica numa nova teoria – Mecânica Quântica, que acabou com o paradigma determinista. Numa experiência existem vários resultados possíveis, a mecânica quântica prevê os resultados possíveis a as suas probabilidades. Como os alunos da disciplina de Física e Química do 10ºAno já sabem, na perspectiva desta teoria, os electrões não têm órbitas definidas mas sim uma zona de espaço onde a probabilidade de encontrar um electrão é superior a 95%. – a orbital. Teoricamente, nenhum acontecimento é impossível. No entanto, este paradigma tem outras implicações muito mais profundas que contrariam os nossos princípios lógicos. A hipótese de Planck e a conclusão de Heisenberg demonstraram que as ondas podem comportar-se como partículas e as partículas como ondas (Hawking, 2009). Esta dualidade onda-corpúsculo, visível no efeito fotoeléctrico, foi pela primeira vez enunciada por Louis-Victor de Broglie. É um dos paradoxos que fez os cientistas repensarem a física newtoniana e a lógica aristotélica usada até então.
A experiência do Gato de Schrödinger vai contra o princípio lógico básico da lógica aristotélica que usamos no quotidiano - o princípio de não-contradição. O princípio de não-contradição (pode também ser designado pelo princípio de contradição) consiste na ideia de que duas realidades contraditórias não podem coexistir. Para evitar oximoros e paradoxos lógicos não podemos afirmar, por exemplo, que algo existe e não existe simultaneamente, ou que um animal está vivo e morto. Deste modo, duas proposições contraditórias são simultaneamente verdadeiras. Do ponto de vista da lógica aristotélica, só pode estar ou vivo ou morto, tratando-se de um silogismo disjuntivo em que nenhum dos elementos pode coexistir com o outro, sendo que as duas realidades se excluem mutuamente. Para entender o mundo das nanopartículas e das ondas, a Mecânica Quântica estudada-as apoiando-se na onda-corpúsculo, abandonando as convicções da lógica aristotélica. Assim, nos meados do século passado surgiu a lógica paraconsistente que não respeita o princípio de não-contradição e admite que existem vários resultados possíveis dando uma probabilidade para cada um dos resultados. A dificuldade de compreensão da Mecânica Quântica é a necessidade de abstracção e de abandono de princípios lógicos aparentemente dogmáticos.

Concluindo, podemos dizer que a Mecânica Quântica alterou não só a perspectiva científica do Universo, mas também a nossa maneira de pensar e o nosso quotidiano. A alteração de paradigma científico permitiu a solução de vários problemas e abriu o caminho para um novo tipo de tecnologia, permitindo a construção de lasers, transístores, microscópios electrónicos e obter imagens de ressonância magnética. O caminho para uma inovação científico-tecnológica passava pela incerteza.
Desde o momento em que o Universo deixou de ser governado pelas leis deterministas dando o lugar ao acaso, surgiu a incerteza, que pode ser vista como uma forma de liberdade. A inevitabilidade da incerteza pode ser benéfica, pois proporciona-nos a liberdade de escolha – o livre arbítrio. Se não existe nenhuma causa fatal que determine as nossas escolhas, então podemos ser livres nas nossas decisões.
“A incerteza é uma propriedade inevitável do mundo.”
Stephen Hawking, in Breve História do Tempo (2009)
Nem sempre a incerteza significa “a dúvida”, por vezes é a liberdade - uma forma de ir mais longe, não nos limitando a dogmas e restrições. De facto, na ciência não existem verdades absolutas e teorias imutáveis. Para a mente humana a inevitabilidade da incerteza parece ser paradoxal. No entanto, a física quântica não difere muito do pensamento do grande filósofo grego, Sócrates: “Só sei que nada sei” (apud Platão, in Apologia de Sócrates). O facto de reconhecermos a nossa ignorância ou a incerteza já nos torna, na verdade, mais sábios do que éramos se vivêssemos na ilusão. O constante avanço da Mecânica Quântica é essencialmente a compreensão da complexidade e da imprevisibilidade do Universo.
A.S.


[1] Leis de Kepler (1605) – uma série de princípios que explicam o movimento de corpos celestes, como os planetas do Sistema Solar.
[2] Johann Gottfried Galle – astrónomo que pela primeira vez viu o planeta Neptuno.
[3] Urbain Le Verrier – foi um matemático e astrónomo francês. Baseando-se na lei de gravitação universal e leis de Kepler calculou com erro de 1% a órbita de Neptuno.
[4] Experiência que provou que a velocidade da luz tem mesma velocidade em todas as direcções, o que significava que não é necessário um meio para propagação de ondas luminosas – éter.
[5] A lei de Rayleigh-Jeans – lei proposta no início do século XIX, descreve a radiação electromagnética de todos os comprimentos de onda irradiada por um corpo negro a uma dada temperatura.
[6]Quanta - forma plural de quantum, do latim “quantia”.

segunda-feira, 23 de maio de 2011

Bactérias e antibióticos - problemas de resistência bacteriana

Até aos meados do século XX milhões de pessoas faleciam devido às infecções bacteriológicas. Nas guerras e na vida quotidiana a ausência quase total de higiene e de cuidados médicos promoviam o desenvolvimento de bactérias patogénicas que podiam matar o Homem. O grande progresso da medicina e a melhoria de condições de vida devem-se não só ao aumento de cuidados de higiene, mas sobretudo ao aparecimento de novos fármacos com propriedades anti-bacterianas – os antibióticos.
A descoberta do primeiro antibiótico deve-se ao mero acaso. Alexander Fleming, bacteriologista inglês descobriu a penicilina quando estudava o desenvolvimento de estafilococos, bactérias mais perigosas para o ser humano. Por coincidência, em algumas preparações com culturas microbianas expostas ao ar durante três semanas começou a desenvolver-se um bolor branco que impedia o crescimento de bactérias. Este fundo produzia uma substância anti-bacteriana – penicilina (provem do nome científico do fungo Penicillium chrysogenum). Este bolor tem uma relação de amensalismo ou antibiose com as bactérias, como já foi dito, impedem o desenvolvimento das bactérias através de produção de antibióticos que destroem as paredes celulares de peptidoglicanos da bactéria.
Uma vez apurados e sintetizados in vitro, esta substância pode ser usada para curar muitas doenças, desde pneumonias até infecções de sangue. É um dos medicamentos mais importantes para o sistema de saúde de actualidade.
Não querendo desvalorizar a importância dos antibióticos e a sua enorme contribuição para a manutenção da Saúde Publica, temos de dizer que o uso descontrolado de antibióticos pode provocar o aparecimento de bactérias resistentes a estes. A resistência bacteriana é um problema da actualidade, no dia Mundial da Saúde de 2011 este foi o tema principal. A Organização Mundial da Saúde alerta para proliferação de bactérias e outros microrganismos resistentes a medicamentos (http://hipernews.net/2011/04/07/dia-mundial-da-saude-combate-a-resistencia-microbiana-e-o-tema-de-2011/ ). Um dos exemplos mais demonstrativos são as bactérias da tuberculose (Mycobacterium tuberculosis) que tornaram-se resistentes aos antibióticos. Estas circulam, principalmente, dentro dos hospitais.
“Para a Organização das Nações Unidas (ONU), o avanço desses microrganismos ameaça a eficácia de vários tratamentos e cirurgias, como no caso de cancro e o transplante de órgãos. Além disso, a resistência microbiana prolonga a doença das pessoas, eleva o risco de morte e torna os tratamentos mais caros. No ano passado, foram registados, pelo menos, 440 mil casos de tuberculose multirresistente e 150 mil mortes em mais de 60 países.”

As bactérias são seres procariontes, sem o núcleo, com o DNA circular não associado às histonas. Estes microrganismos reproduzem-se por divisão binária e durante a replicação do DNA são frequentes os erros, alterações de sequência de nucleótidos – as mutações. Algumas destas mutações são perigosas e outras são benéficas, conferindo-as resistência a algumas substâncias. Uma única bactéria mutante resistente a antibióticos vai originar duas bactérias-filhas dentro de 20 minutos, dentro de um dia a cultura bactéria na irá ter milhões de bactérias. Em poucos dias estas bactérias podem contagiar centenas de pessoas e sendo resistentes a antibióticos irão proliferar sem reagir aos fármacos. As bactérias resistentes podem passar o gene que lhes confere protecção contra os antibióticos às bactérias vizinhas se o gene estiver num plasmídeo bacteriano. As bactérias podem transferir plasmídeos pelos pili (tubulos especiais) e adquiri-los do meio envolvente. As bactérias, com os mecanismos de mutações genicas, criam mecanismos de defesa contra as substâncias dos bolores. Um destes genes que tornam a bactéria imune aos antibióticos é NDM-1.
O gene NDM-1, encontrado nas bactérias resistentes à maioria dos antibióticos, foi detectado em amostras de água supostamente potável de Nova Deli, na Índia, revela um artigo publicada na última edição da revista "The Lancet", num suplemento sobre infecções que alude à "necessidade urgente" de uma acção global contra a proliferação mundial deste gene.
O uso descontrolado e incorrecto de antibióticos é a possível principal causa para a proliferação de “superbactérias”. Como tal, a comunidade científica encontra-se preocupada com a possibilidade de difusão de bactérias resistentes, imunes a antibióticos.
Hoje em dia chegou-se à conclusão que na tuberculose não há imunidade humoral com a produção de células-memória, sendo a vacina ineficaz contra a tuberculose pulmonar. Porém, a vacinação contra a tuberculose é extremamente eficaz para prevenir formas graves da tuberculose nas crianças, como a meningite tuberculosa.

Deste modo, em alternativa aos antibióticos como um método de tratamento de doenças devem se desenvolvidos outros métodos, sobretudo de prevenção. Entre as formas de prevenção devem ser destacadas as medidas de higiene individual e a vacinação. Os seres vivos competem entre si desenvolvendo mecanismos de defesa contra as substâncias e organismos perigosos. A evolução é o resultado de interacção de organismos e meio ambiente e a adaptação. Deste modo, os antibióticos não são a cura contra todas as doenças e em breve iremos enfrentar novas ameaças, possivelmente mais perigosas do que as do século passado.

domingo, 24 de abril de 2011

Organismos transgénicos e o futuro da engenharia genética

No tempo de crise já ninguém fala de” buraco de ozono”, nem da redução de biodiversidade, já nos esquecemos do Aquecimento Global embora as alterações climáticas perturbam a nossa vida. Os activistas de Greenpeace não fazem tantos protestos nos tempos da crise, pois a sua principal preocupação é não perder o trabalho ou procurar um novo se a desgraça já aconteceu. Não é nada surpreendente que hoje em dia o assunto tão debatido como a produção e venda de GMO (Organismos Geneticamente Modificados) já não aparece nas notícias.
No entanto, não nós podemos esquecer que é nos tempos da crise e da guerras que se ganhão maiores fortunas. Já o Rockefeller tornou-se rico após a Grande Depressão de 1929, depois de ter comprado as acções de grandes companhias norte-americanas. Hoje em dia, no tempo de crise económica, que começou nos EUA, a pobreza aumenta e cada vez são mais procurados os chamados bancos alimentares. Isso significa que as companhias que produzem e vendem alimentos irão render mais. Pois, os cidadãos desempregados da América do Norte e da Europa, as populações em fome de alguns países africanos e os países com grande crescimento demográfico, como China e Índia precisarão cada vez mais de alimentos.
A situação tende para uma crise alimentar. Não só porque existe um grande crescimento demográfico, sendo previsto que nos próximos 20 anos a população mundial ultrapassará 8 mil milhões de habitantes, mas também porque os recursos terrestres são cada vez mais reduzidos e o clima mais imprevisível. De facto, as alterações climáticas trazem consequências desastrosas para agricultura. Os verões quentes com incêndios e os invernos rigorosos reduzem a produção de maior parte de agriculturas, principalmente de batata e trigo. Ora, estas duas plantas são essenciais para alimentação humana e para criação de gado. Por outro lado, se o clima do planeta se alterar serão inundadas grandes áreas habitadas e muitas planícies envolvidas na produção agrícola. No caso de início de uma nova Era Glaciar o prognóstico é também negativo, muitas terras da Eurásia e América do Norte onde é cultivado trigo passarão a ter um clima mais rigoroso o que dificultará a produção de alimentos.
Neste ambiente de aumento populacional e redução da área de terras propícias para a agricultura é necessário inventar novas formas de produzir alimentos. Assim, a única companhia que produz organismos transgénicos, mais resistentes as pragas, tolerantes aos pesticidas, irá render milhões ou mesmo milhares de milhões de dólares. De facto, Monsanto tem um monopólio no mercado de produtos transgénicos. É a única empresa que tem licença de produzir e vender organismos geneticamente modificados, como soja (Soja Roundup Ready®), milho (Milho Yieldgard®), tomate, algodão (Algodão Bollgard®) e morango.
Na Europa é proibido, na maior parte dos países cultivar e vender produtos geneticamente modificados. No entanto, na América do Norte os cidadãos já há 30 anos consomem organismos geneticamente modificados.
Infelizmente existem apenas estudos de curta duração sobre produtos transgénicos que foram introduzidos no mercado nos anos 80. Não existe nenhum estudo de longa duração e que torna imprevisível o efeito do consumo de organismos geneticamente modificados. Os produtores e exportadores de GMO afirmam que é seguro consumir os seus produtos, enquanto os opositores apelam aos possíveis perigos. A ausência de provas não é uma prova de perigo ou de ausência de riscos. No entanto, é sempre melhor prevenir até termos dados sobre os riscos de GMO.
Os opositores afirmam que GMO podem infectar o ambiente, criando novas espécies de pragas resistentes a pesticidas, como roundup (outro produto exclusivo de Monsanto). Para além de contaminação do ambiente pensa-se que os organismos com DNA estranho podem transmitir os seus genes as pessoas que os consomem. O nosso organismo está adaptado ao ambiente em que nós evoluímos durante milhões de anos e a introdução de organismos com DNA estranho, agentes desconhecidos para o nosso sistema imunitário, pode ser muito perigosa. É como se comêssemos organismos extra-terrestres. Há dados de experiências com ratos que apontam para que GMO alteram o sistema digestivo e provocam maior mortalidade de fetos, aqueles que sobrevivem apresentam menor actividade e têm tendências para obesidade. Assim, o consumo de organismos transgénicos pode também danificar órgãos internos e ter repercussões negativas para a descendência de consumidores de GMO. Outro factor muito importante e perigoso são as alergias provocadas pelos GMOs, é o caso de produtos transgénicos que foram criados com introdução de genes originários do Bacillus Thuringiensis (Bt). Bt é uma bactéria que produz proteínas que são tóxicas para seres humanos provocando reacções alérgicas.
  • “- foi pulverizada por via aérea nos EUA para combater a lagarta do sobreiro e 500 pessoas sofreram reacções alérgicas ou gripais, alguns desenvolveram anticorpos contra o Bt;
  • - num estudo laboratorial com ratos verificou-se que a exposição por injecção à toxina Bt desencadeou uma reacção imunitária sistémica e local “tão potente como a toxina da cólera”.
  • - num outro estudo, a exposição nasal e rectal induziu resposta imunitária.
  • - existem receptores para Bt à superfície do intestino de primatas – foram testados tecidos de macacos Rhesus.”
Esta toxina é produzida nas plantas geneticamente modificadas e pode existir em grandes quantidades em algumas culturas o que é um risco par a saúde humana. Aqui estão os resultados de um estudo feito pela companhia de Monsanto e analisado por cientistas independentes.
i odemonstrado que existem outros efeitos negativos possíveis de GMO:
 Aumento até 40% dos triglícerideos do sangue em ratos fêmea que participaram na experiência; redução de até 30% do fósforo e sódio na urina de ratos macho.
 lesões significativas nos rins e fígado nos ratos que participaram na experiência;
 alterações de peso, os machos cresceram menos que os animais de controlo e as fêmeas cresceram mais;
 aumento significativo de células sanguíneas relacionadas com o sistema imunitário: basófilos e linfócitos.
Porém, cada vez mais países optam por cultivar as plantas transgénicas. Alguns já pensam no próximo passo – criação de espécies de gado geneticamente modificado. Já existem os primeiros animais que foram modificados, alguns apenas por motivos estéticos, como o peixe-zebra (GloFish®). É de esperar que nas próximas décadas nas mesas dos norte-americanos e, quem sabe, europeus irão aparecer produtos de origem animal que foram modificados.
“Deus está morto” (Nietzsche, A Gaia da Ciência). Assim, o homem quer tomar o controlo da Natureza achando que essa é imperfeita. Queremos alterar, extinguir tudo que nos parece débil. O próximo passo é alterar a nossa própria imperfeição. A engenharia genética permite escolher embriões mais viáveis, mais fortes, mais saudáveis. Será que no futuro vamos escolher também os caracteres dos nossos futuros filhos, como a cor dos olhos, altura, capacidades intelectuais? O problema é o seguinte: a nossa visão de perfeição é subjectiva e por isso absurda. Um portador de talassemia é geneticamente imperfeito mas no caso de uma epidemia de malária ele tem maior probabilidade de sobreviver do que um indivíduo sem gene de hemofilia. A beleza não é a presença de olhos claros, pele branca ou cabelos loiros. Já houve uma tentativa de criar uma “raça perfeita”, esta tentativa conhecida como Holocausto. Escolher um filho em vez de uma filha, um embrião com olhos azuis em vez do outro que irá ter olhos castanhos é descriminação, tal como oprimir os indivíduos de origem africana ou não deixar a uma mulher entrar no mercado de trabalho. Matar um embrião saudável por razões não médicas é eticamente inaceitável.

sábado, 8 de janeiro de 2011

O Sonho

Um terço da vida nós passamos no sono. O Homem é um dos poucos animais que dorme durante um grande período da sua vida. Sabe-se que ser humano não pode passar mais de 10-11dias sem dormir. Já se uma pessoa passar uma semana sem dormir pelo menos 7 horas por dia pode entrar na fase de micro-sono durante a vigília, o micro-sono é um estado de sono que dura entre alguns micro segundos a 8segundos, quando a pessoa está a dormir sem se aperceber. Os cientistas também verificaram que é essencial dormir pelo menos 3 horas sem interrupção porque o sono não é só um período de descanso para o organismo, mas também um fase de” reiniciação” do cérebro. Depois da primeira fase do sonho, passando 1,5 horas, a pessoa entra em fase rápida do sonho que dura cerca de 10 minutos, a actividade do seu cérebro aumenta, fisicamente a pessoa está imóvel, o corpo encontra-se paralisado, para além de processo biológicos vitais, como a respiração são notórios os movimentos dos olhos – a pessoa começa a sonhar (ver o Estádio 4). Cada noite nós vemos pelo menos 5 sonhos, mas nem sempre nos lembramos deles. A fase rápida do sonho parece ser indispensável, uma equipa de investigadores verificou que uma pessoa que não entra no fase de sonho rápido, sendo constantemente acordada quando o cérebro começa a sonhar, passando uma semana começa a ver uma espécie de ilusões, a interferência de sonhos na parte consciente da mente durante a vigília que desaparecem se o ritmo normal do sonho for restabelecido.
De facto, o nosso cérebro não dorme, está sempre a trabalhar, mas durante o sonho o córtex cerebral, responsável pela actividade intelectual durante o dia, tem uma actividade mínima, a zona que predomina é a parte mais antiga do cérebro. O sonho é uma das maiores enigmas do nosso tempo.
Nenhum cientista consegue responder a questão “Para que nós sonhamos?”…
Sonho – é a reflexão de acontecimentos que aconteceram durante o dia. Outra hipótese afirma que é a expressão do subconsciente que nos pode avisar – sonhos de advertência. Pode ser expressão da informação do subconsciente e é analisado conforme uma lógica diferente da nossa, conseguimos aceder a informação do subconsciente que não pode ser analisada pelo consciente – sonhos artísticos. Isto pode ser relacionado com o facto de que os sonhos resultam da actividade das zonas mais profundas do nosso cérebro e não do córtex cerebral. Podem também acontecer sonhos fisiológicos – expressão no sonho do incómodo que sentimos durante o sono.
Os psicanalíticos, desde Sigmund Freud, acham que os sonhos podem ser expressão do subconsciente, de desejos ocultos, normalmente aparecem codificados, na forma de enigma.
Podem acontecer sonhos prognósticos – previsão do futuro. Porém, pensa-se que só um em mil sonhos é uma “visão do futuro”. Os cientistas acham que são apenas prognósticos do nosso cérebro baseados em análise de factos que nós já conhecemos.
Os árabes da antiguidade e da idade Média acreditavam que no sonho a pessoa não pode fazer duas coisas – ver a fase contrária da palma da mão e dizer o seu nome. No entanto, há quem quer ultrapassar as limitações do nosso subconsiente. Muitas pessoas desejam descobrir o segredo dos sonhos “progmaveis” – controlo dos sonhos pela própria pessoa – previsão do futuro, resolução de problemas, imaginar as situações que são agradáveis, etc. .
Representação da actividade cerebral durante vários estádios de sono. O estádio REM é o estádio do "sono rápido".