EnglishEspañolPortuguês

Simulação de reações químicas em computador pode tornar os testes em animais desnecessários

11 de novembro de 2013
5 min. de leitura
A-
A+
(Foto: Divulgação)
(Foto: Divulgação)

O Prêmio Nobel de Química 2013, anunciado há um mês, foi dado a Martin Karplus, Michael Levitt e Arieh Warshel, cientistas que conseguiram usar a física quântica para simular processos químicos no computador. Dias depois, fotos de cães da raça beagle usados em estudos pelo Instituto Royal, em São Roque (SP), ganharam a mídia nacional e provocaram na sociedade questionamentos sobre a necessidade de testes de laboratório em animais. Os dois fatos, aparentemente desconexos, estão profundamente relacionados. Pois são os modelos computacionais de reações químicas e biológicas como os criados pelo trio de pesquisadores que podem, um dia, dar fim ao uso de cobaias em experimentos.

Na União Europeia, a proibição de cosméticos e produtos de higiene testados em animais começou há quase 10 anos, banindo primeiro os experimentos dos produtos, depois dos ingredientes, em 2009, e dando um fim na comercialização de qualquer produto do tipo em março deste ano. A mudança deu origem ao projeto colaborativo Notox, que se dedica a criar modelos de computador capazes de substituir as cobaias tradicionais. Em vez de submeter os bichos aos produtos, seriam as máquinas que dariam o aval de segurança.

Os programas desenvolvidos pela iniciativa usam como referência uma série de testes feitos com células humanas produzidas em laboratório. As reações do tecido orgânico são traduzidas em complexos modelos tridimensionais e matemáticos que serão consultados por pesquisadores à procura de sinais de reações tóxicas.

Para Elmar Heinzle, coordenador do projeto, o desafio é criar um modelo que mostre melhores resultados do que os próprios animais – a não ser que o computador se mostre mais útil que camundongos e cães, mudar o hábito científico pode ser difícil. “Historicamente, esses dados vêm de testes com animais, então os pesquisadores estão acostumados a isso”, admite.

Embora os bichos tenham uma fisionomia diferente da humana, eles fornecem resultados completos, produzidos por um organismo inteiro. Já os programas de simulação de células humanas ainda têm a limitação de realizar testes ao nível molecular. “Se imaginarmos que o corpo é um prédio, e os tijolos são as moléculas que formam o corpo, a gente só consegue trabalhar com alguns tijolos”, reconhece Hugo Verli, professor de bioinformática na Universidade Federal do Rio Grande do Sul (UFRGS). Os computadores são muito bons em descrever a arquitetura, mas ainda falham em prever como as diferentes peças se encaixam.

Além disso, o trabalho é imenso. Exemplo disso é um projeto realizado por pesquisadores da Universidade de Stanford, nos Estados Unidos. Eles precisaram recorrer à computação distribuída para estudar o comportamento de proteínas, pois um computador sozinho não daria conta da tarefa. O Folding@home usa o tempo ocioso de quase 300 mil computadores somente para simular a dobradura das moléculas. Até mesmo 30 mil consoles de PlayStation 3 foram recrutados. Como o programa leva meses para recriar segundos da movimentação dos peptídeos num modelo tridimensional, não há como prever quando o projeto vai conseguir descrever a ação de medicamentos ou o comportamento do câncer.

Vidas e lucro

A bioinformática teve início há 50 anos e passou a ser adotada pela indústria farmacêutica como forma de aumentar a taxa de sucesso dos fármacos desenvolvidos em laboratório. O impacto do computador ocorre antes dos ensaios pré-clínicos com animais. As máquinas se encarregam de planejar os compostos em nível atômico e selecioná-los para testes in vitro. Mas o destino final da experimentação, lamentam os pesquisadores, ainda são os animais, pois os programas não são capazes de simular o processo biológico com perfeição. “Estamos, no mínimo, a décadas de montar um modelo com essa complexidade”, estima Verli.

Até lá, os computadores podem não substituir completamente os bichos, mas já começam a poupar muitos deles. Com o fim do método de tentativa e erro, a tendência é que cada vez menos cobaias sejam necessárias para encontrar um remédio ou eliminar uma toxina. A procura por compostos para o desenvolvimento de vacinas, por exemplo, teve o prazo reduzido de décadas para alguns meses graças à vacinologia reversa. O método computadorizado já é usado pela Fundação Oswaldo Cruz (Fiocruz) para a criação de imunizantes contra a esquistossomose, a leishmaniose e a Campylobacter, bactéria que causa aborto bovino.

O genoma do organismo é sequenciado, traduzido por um algoritmo e um programa identifica os trechos que têm potencial de induzir uma resposta imune. Em um conjunto de 8 mil genes, apenas 20 acabam chegando aos tubos de ensaio – e um número ainda menor nos testes com camundongos, cães e macacos. “O desenvolvimento experimental é enorme, em todos os sentidos. Consegue fazer experimentação mais assertiva”, avalia Jerônimo Conceição Ruiz, líder do grupo de biossistemas da Fiocruz.

Além de apressar a experimentação, o planejamento racional com base em modelos de computador representa uma economia de milhões para as indústrias cosmética e farmacêutica. Essa pode ser a bandeira que vai incentivar os laboratórios a investir nas cobaias virtuais.

Toxicidade

Não foi a pressão pública e sim os altos custos com testes de laboratório que levaram um grupo da Universidade do Kansas, nos Estados Unidos, a desenvolver uma técnica computacional capaz de prever a toxicidade de substâncias. “Podemos usar a computação para avaliar a correlação da facilmente obtida informação in vitro com a custosa informação de toxicidade in vivo, que geralmente usa modelos animais”, explica Jun Huan, diretor do Laboratório de Bioinformática e Ciências da Vida Computacionais da universidade.

O sistema usa como base uma lista de 300 compostos químicos encontrados em pesticidas e que já tiveram o potencial tóxico medido em experimentos. Os pesquisadores criaram um modelo de aprendizado artificial que identifica uma função matemática para descrever o padrão dos dados e prevê o efeito das substâncias com base nas semelhanças que elas têm com fórmulas já conhecidas. A taxa de acerto do programa é de 70%.

Os pesquisadores não se arriscam em dizer se o método pode substituir os testes tradicionais com cobaias, mas afirmam que a estratégia tem grande potencial para otimizar o trabalho dos cientistas e economizar muito tempo e dinheiro nos laboratórios. “Usando computação, seremos capazes de integrar dados de várias fontes, de identificar importantes características in vitro e acelerar os testes de toxicidade”, acredita Huan.

Fonte: Em

Você viu?

Ir para o topo