segunda-feira, 12 de janeiro de 2015

Modelagem molecular

A modelagem molecular é uma área dentro da física e da química que representa a estrutura da matéria em nível molecular. Esta área é capaz de criar modelos que podem agrupar, prever e desenvolver novos materiais. Porém, como estes sistemas são complexos, as contradições se sobrepõem às correlações.
Ela estuda as origens moleculares da atividade biológica dos fármacos, relacionando estrutura e atividade e aplicando os fundamentos no planejamento racional dos fármacos. As teorias explicando a atividade farmacológica sustentam-se no paradigma "chave-fechadura", onde as "fechaduras" (receptores celulares) são biomacromoléculas extremamente sensíveis responsáveis pelo reconhecimento molecular de espécies endógenas e exógenas com atividade biológica. Eles interagem reversivelmente com moléculas bioativas, consideradas como as "chaves”.
No nível experimental, o conhecimento da estrutura da molécula não é tarefa simples. São poucos os métodos capazes de caracterizar completamente certa estrutura, permitindo sua descrição com precisão. A cristalografia ainda é a técnica mais eficiente, porém é limitada à substâncias em fase cristalina (não há garantia das moléculas terem conformação idêntica a moléculas em solução. Neste conceito houve o surgimento dos métodos computacionais como uma alternativa.
A ação das moléculas bioativas é bastante complexa, tendo seus efeitos associados a interações ou reações químicas com estruturas macromoleculares presentes no sistema vivo (proteínas, na grande maioria). Se estas proteínas forem receptores, as moléculas são classificadas como agonistas ou antagonistas de receptores. No caso das enzimas, estas moléculas atuam como inibidores enzimáticos. Interações intermoleculares, que podem ser determinantes da ação da molécula bioativa ou ser complementadas por reações com aminoácidos da proteína-alvo, são fundamentais para que a molécula tenha seu efeito biológico ou farmacológico.
O uso da química computacional vem desde a década de 60. Em 1972, o uso de computadores na educação química já era foco de pesquisas. Anos mais tarde, no University Chemical Laboratory de Cambridge, no Reino Unido, usavam microcomputadores como ferramenta de ensino para a Teoria do Orbital Molecular. Dez anos depois, Real Academia de ciências da Suécia outorgou o Prêmio Nobel de Química de 1998 aos pesquisadores Walter Kohn e John A. Pople. A IUPAC define a química computacional como: "aspectos da pesquisa molecular que são tornados práticos pelo uso de computadores".
A primeira representação de moléculas através de fórmulas estruturais, realizada por Van't Hoff e Le Bel, ocorreu em 1874 com a descoberta do arranjo tetraédrico dos átomos de carbono em compostos orgânicos. Já em 1953, Barton introduziu o conceito de análise conformacional, estabelecendo que moléculas podem ser representadas por arranjos atômicos espaciais diferentes. Na segunda metade da década de 50 houve o desenvolvimento da cristalografia de raios X. A elucidação das estruturas tridimensionais permitiu a obtenção de parâmetros estruturais, além da definição de propriedades atômicas. Desta forma, houve a possibilidade de representação tridimensional de moléculas em escalas relativamente reais.

Três diferentes modelos de representação da estrutura do propano, desenvolvidas entre 1959-1965
Fonte: SANTOS, H. F.; Cadernos temáticos de química nova na escola, 2001

Através da química computacional, há a capacidade de visualizar eventos que acontecem a nível microscópico ajudando na descrição, explicação e exploração dos fenômenos e ideias abstratas. Podem ser encontradas ferramentas que simulam conceitos e fatos que possuem relação com esses sistemas. Não é fácil a criação de uma ferramenta computacional que produza simulações, além de não ser econômico. O programa se comporta como um laboratório virtual, permitindo a visualização dos acontecimentos quando o sistema é aquecido ou resfriado, quando sofre um aumento ou diminuição da densidade e quando há aumento ou diminuição da pressão ambiente.
O uso de métodos computacionais têm se tornado uma prática rotineira. Do ponto de vista do planejamento, deve-se destacar que não se pretende chegar a uma molécula bioativa simplesmente pelo uso de programas de computador. O desenvolvimento de moléculas com essa complexidade requer o trabalho de uma equipe multidisciplinar, que fará uso métodos computacionais de modo sistemático com intenção de facilitar e otimizar o processo de desenvolvimento de compostos bioativos, em constante troca de informações com grupos de síntese química e avaliação de atividades dos compostos.
Na química computacional destaca-se o "docking" molecular, ou docagem molecular ou simplesmente ancoramento, introduzida na década de 80. Investiga as possíveis orientações que a molécula assume no interior do sítio ligante, sendo usado na triagem virtual. É um dos principais métodos de SBDD (técnica baseada no conhecimento do arranjo topológico de alvos moleculares, utiliza como pré-requisito a informação 3D detalhada da molécula em estudo). Este método envolve uma função de energia que contêm parâmetros eletrostáticos, que geram modelos matemáticos que predizem as orientações e conformações mais estáveis que um ligante adota no receptor. As mais recentes versão de programas em docagem (FlexE e GOLD) consideram a flexibilidade do ligante e as cadeias laterais do receptor, enquanto os métodos mais recentes (FlexX-Pharm e GLUE) utilizam informações farmacofóricas do receptor para guiar as simulações.
O processo de docagem pode ser dividido em modelagem do modo de ligação (considerada a etapa mais simples e robusta) e predição da afinidade do ligante pelo sítio. Para a realização da primeira etapa, são utilizados diferentes métodos de amostragem que irão atribuir flexibilidade à molécula do ligante. Os métodos de amostragem podem ser classificados em: métodos sistemáticos, métodos aleatórios ou estocásticos e métodos de simulação. A etapa de predição é realizada baseada em funções de pontuação desenvolvidas para avaliação e classificação do modo de interação proposto na etapa de modelagem do modo de ligação. As funções de pontuação podem ser agrupadas em: campos de força, empíricas e funções baseadas no conhecimento.

Etapas envolvidas no processo de docagem molecular

Dentre as funções citadas anteriormente, a categoria dos campos de força tem sua base em métodos de mecânica molecular, além de quantificar a energia gerada pelas interações entre o ligante e o receptor e a energia interna do ligante (G-score e D-score, implementados no pacote de programas SYBYL; Amber, implementado no programa AUTODOCK; GOLDscore implementado o programa GOLD). A categoria empírica é fundamentada no ajuste teórico de dados experimentais através do uso de equações (regressão linear, LigScore, PLP, LUDI, F-Score, ChemScore e X-score). Por fim, a categoria das funções baseadas no conhecimento utiliza dados estatísticos dos potenciais de pares atômicos de interação, que são derivados de conjuntos de dados vindos de complexos cristalográficos entre proteínas e ligantes (PMF e DrugScore).
O planejamento de moléculas baseado em estrutura e no mecanismo de ação é uma das estratégias mais usadas, contribuindo em todos os estágios do processo. Informações estruturais permitem a descoberta, seleção e síntese de compostos complexos, que se tornam mais atrativos quando utilizados com proteínas, afinal 78% dos fármacos recentes têm como alvo terapêutico esse tipo de molécula.
As aproximações mais usadas em modelagem molecular são a aproximação clássica e a aproximação quântica. A primeira inclui os métodos da mecânica molecular e da dinâmica molecular, enquanto a segunda inclui os métodos ab initio e semi-empíricos. A escolher destas aproximações depende das propriedades a serem avaliadas, da precisão desejada e da capacidade computacional que estará disponível para realizar os cálculos.

Modelagem molecular
Fonte: CAMPOS, A. F. C.; Introdução à modelagem molecular, 2013

Na mecânica molecular, as moléculas são descritas como um conjunto de "átomos conectados". Seu modelo é justificável pelos parâmetros associados a conjuntos de átomos permanecerem razoavelmente constantes entre estruturas diferentes, desde que do mesmo tipo e com a mesma hibridação. O que se faz nesse modelo é desenvolver o campo de força, conjunto de funções de energia que determinam penalidades energéticas para o afastamento da estrutura dos valores "normais". A metodologia da mecânica molecular é baseada na aproximação de Born-Oppenheimer, conhecida como superfície de energia potencial, onde os movimentos dos núcleos e dos elétrons podem ser tratados separadamente. Supostamente, a densidade eletrônica pode ajustar-se instantaneamente a qualquer alteração na configuração geométrica dos núcleos.
Não há regras a respeito do número ou tipo de função de energia potencial a serem usados. Dependendo da função, são permitidos: cálculos das propriedades geométricas; cálculos das propriedades geométricas e vibracionais; cálculos das propriedades geométricas e termodinâmicas; cálculos das propriedades geométricas, vibracionais e termodinâmicas. As expressões da energia potencial para cálculos de mecânica são descendentes de três tipos básicos de campo de força: campo de força central (considera apenas distâncias interatômicas), campo de força de valência geral (considera comprimentos e ângulos de ligação, ângulos diedros, coordenadas de deformação fora do plano e adicionam os termos cruzados) e campo de força de Urey-Bradley (considera comprimentos e ângulos de ligação, ângulos diedros, coordenadas de deformação fora do plano e as interações entre átomos ligados por um centro comum).
A dinâmica molecular é uma das técnicas computacionais mais versáteis para o estudo de macromoléculas biológicas. Este método tem contribuído em diversos estágios do processo de planejamento de fármacos. É fundamentada na mecânica clássica e fornece informações sobre o comportamento dinâmico microscópico. Baseada na mecânica molecular, as moléculas são tratadas como uma coleção de átomos que podem ser descritas por forças newtonianas (mantidas unidas por forças harmônicas ou elásticas).
Entre diversos métodos computacionais que simulam materiais, destacam-se os que não usam informações empíricas, ou seja, não utilizam informações vindas de medidas experimentais sobre o sistema a ser estudado. Estes métodos são conhecidos por métodos de primeiros princípios ou métodos "ab initio" devido sua capacidade de resolução de problemas quânticos de átomos interagentes, além de providenciar a descrição do sistema eletrônico e nuclear do material. O método de Hartree-Fock (HF) foi primeiro métodos deste tipo, ainda sendo usado atualmente na simulação de moléculas, clusters atômicos e outros sistemas quânticos de menor porte. Nos anos 70 do século passado foram criados métodos baseados na Teoria Funcional da Densidade (DFT), focada no cálculo das propriedades microscópicas dos sólidos: LAPW (Linearized Augmented Plane Wave), LMTO (Linear Muffin Tin Orbital). Como eram utilizados praticamente apenas códigos de computadores, inicialmente suas aplicações eram limitadas, porém com a evolução tecnológica, estes métodos atingiram um alto grau de eficiência, permitindo o seu uso para simular sistemas reais, encontrados na natureza ou produzidos laboratorialmente. Existem programas gratuitos, como o GAMESS, que permitem a realização dos cálculos ab initio.
Depois de trabalhos pioneiros de Pople e colaboradores, Dewar e colaboradores criaram programas para tornar acessível os cálculos semi-empíricos de orbitais moleculares aos não especialistas. Estes programas deveriam oferecer informações estruturais quimicamente preciisas com um custo razoável de tempo de cálculo. Os métodos semi-empíricos de maior uso são o AM1 (Austin Model 1 ou Modelo Austin 1) e o PM3 (Parametric Method 3 ou Métodos Paramétrico 3), que incorporam aproximações semelhantes, no entanto, possuem parametrizações diferentes. Estes métodos possuem aplicação limitada aos elementos para os quais foram desenvolvidos parêmetros correspondentes: no método AM1 são os elementos H, Na, K, Rb, Zn, Hg, B, Al, C, Si, Ge, Sn, N, P, O, S, F, Cl, Br e I, enquanto o métodos PM3 conta com os mesmos elementos (exceto o B) e elementos que não estão no AM1: Be, Mg, Cd, Ga, In, Tl, As, Sb, Bi, Se e Te. Os métodos semi-empíricos foram para reprodução de série de dados experimentais, como geometrias de equilíbrio, calores de formação, momenos de dipolo e energias de ionização. Eles estão presentes em programas públicos, como o programa de cálculo de orbitais moleculares MOPAC. Atualmente foram apresentadas duas novas parametrizações: o modelo RM1 (Recife Model 1) e o PM6 (Parametric Method 6), que disponibilizam parâmetros para 70 elementos da tabela periódica.
A Teoria do Funcional Densidade (TFD) (DFT - Density Functional Theory) surgiu como alternativa para os métodos tradicionais, ab initio e semi-empíricos, no que diz respeito ao estudo de propriedades do estado fundamental de sistemas moleculares. Sua grande vantagem em relação aos outros métodos está no ganho em velocidade computacional e espaço em memória. Como nas derivações das equações nenhum parâmetro em princípio precisa ser ajustado ou determinado empiricamente, a TFD pode ser considerada como uma teoria da natureza ab initio, sendo útil no estudo de grandes sistemas moleculares e descrevendo realisticamente sistemas orgânicos, inorgânicos, metálicos e semi-condutores. Desta forma, a metodologia do funcional de densidade vem sendo usada cada vez mais para sistemas moleculares encontrados em pesquisas farmacêuticas, agroquímicas e biotecnológicas; na ciência de materiais e polímeros; em pesquisas com complexos organometálicos e aglomerados típicos em catálise, superfície e estado sólido; em eletroquímica e microeletrônica, sistemas estes fora do alcance de métodos de natureza ab initio padrões. Atualmente tem-se usado o modelo do funcional de troca híbrido de 3 parâmetros de Becke e do funcional de correlação de Lee-Yang-Parr (B3LYP), por causa da qualidade dos seus resultados, principalmente para moléculas orgânicas.
Os métodos de análise populacional fazem a partição da densidade eletrônica (DE) entre os átomos de um sistema. A DE define qual fração dos elétrons permanece nos átomos após o estabelecimento das ligações químicas da estrutura molecular. Há métodos alternativos para calcular a DE, que levam a resultados que concordam qualitativamente, como na aproximação LCAO, que são as análises populacionais de Mulliken e de Löwdin. A análise populacional de Mulliken é o método mais tradicional e mais usado entre os químicos. Esse método é baseado na teoria dos orbitais moleculares, onde um conjunto de orbitais é definido por uma combinação linear de orbitais atômicos, também conhecidos como funções de base, cujos coeficientes são determinados pelo métodos de Hartee-Fock.
A análise populacional de Mulliken deve sua popularidade à intensiva aplicação dos métodos que empregam a teoria dos orbitais moleculares e à facilidade com que pode ser calculada, além de obter as variáveis usadas para efetuar a análise populacional diretamente, não necessitando nenhum custo adicional. No entanto, este método possui limitações importantes. Uma fonte de problemas é a divisão das populações de recobrimento em contribuições atômicas e a consequências desta falha é a péssima reprodução do momento dipolar molecular calculado através da função de onda SCF utilizando as cargas de Mulliken. Outro problema é a forte dependência do conjunto de base empregado no cálculo, consequente desta função ser projetada diretamente sobre as funções de base utilizadas. Em diversos casos a análise oferece resultados razoáveis, porém em outros ela não é satisfatória devido às limitações descritas. Tentando reduzir estes problemas, diversas modificações foram propostas, no entanto, sem sucesso significativo. O método com mais popularidade foi o de Weinhold e Reed, que tinha finalidade de minimizar os problemas usando um procedimento mais complexo de partição da densidade eletrônica.
Os métodos de modelagem por comparação com estruturas conhecidas têm importante aplicação no estudo de bioativos. São utilizados bancos de dados de estruturas de alças de proteínas, nos quais pode-se procurar estruturas que tenham as conformações energética e geometricamente mais favoráveis. É o caso da modelagem de proteínas por homologia, onde muitas vezes somente a sequência primária de um receptor ou de uma enzima é conhecida. É usado um algoritmo de reconhecimento de moldes adequados em um banco de dados de estruturas tridimensionais de proteínas, que depende do reconhecimento da similaridade entre as estruturas. Com base em um ou mais moldes, os resíduos de aminácidos da proteína são montados para se criar um modelo primário, que depois é otimizado por um método de mecânica molecular. Quanto maior o número de resíduos idênticos entre o molde e o modelo, melhor a qualidade do modelo final. Pode ser feito em sites como o servidor Swiss-Model ou em programas específicos. Em alguns casos as limitações inerentes aos métodos comparativos podem ser reduzidas aplicando-se de métodos híbridos.
A modelagem de proteínas por homologia possui basicamente quatro passos: identificação e seleção de proteínas-molde, alinhamento das sequências de resíduos, construção das coordenadas dos modelos e validação. Para cada passo há um número de métodos, programas e servidores específicos da internet. As etapas com mais problemas são o alinhamento das sequências e a modelagem das regiões de alças. Diversos avanços foram feitos nos métodos de alinhamento de sequências, porém a modelagem de alças ainda é um fator limitante, principalmente quando há um grande número de resíduos. Os erros normalmente encontrados podem ser divididos em: erros de modelagem das cadeias laterais, deslizamento em regiões do alinhamento, erros em regiões sem molde, erros de alinhamento e moldes incorretos.

Esquema geral do processo de modelagem de proteínas por homologia
Fonte: FILHO, O. A. S.; ALENCASTRO, R. B., Modelagem de proteínas por homologia, 2003

Nenhum comentário:

Postar um comentário