A modelagem molecular é uma área dentro da física
e da química que representa a estrutura da matéria em nível molecular. Esta
área é capaz de criar modelos que podem agrupar, prever e desenvolver novos
materiais. Porém, como estes sistemas são complexos, as contradições se sobrepõem
às correlações.
Ela estuda as origens moleculares da
atividade biológica dos fármacos, relacionando estrutura e atividade e
aplicando os fundamentos no planejamento racional dos fármacos. As teorias explicando
a atividade farmacológica sustentam-se no paradigma
"chave-fechadura", onde as "fechaduras" (receptores celulares)
são biomacromoléculas extremamente sensíveis responsáveis pelo reconhecimento
molecular de espécies endógenas e exógenas com atividade biológica. Eles interagem
reversivelmente com moléculas bioativas, consideradas como as "chaves”.
No nível experimental, o conhecimento da
estrutura da molécula não é tarefa simples. São poucos os métodos capazes de
caracterizar completamente certa estrutura, permitindo sua descrição com
precisão. A cristalografia ainda é a técnica mais eficiente, porém é limitada à
substâncias em fase cristalina (não há garantia das moléculas terem conformação
idêntica a moléculas em solução. Neste conceito houve o surgimento dos métodos computacionais
como uma alternativa.
A ação das moléculas bioativas é bastante
complexa, tendo seus efeitos associados a interações ou reações químicas com
estruturas macromoleculares presentes no sistema vivo (proteínas, na grande
maioria). Se estas proteínas forem receptores, as moléculas são classificadas
como agonistas ou antagonistas de receptores. No caso das enzimas, estas
moléculas atuam como inibidores enzimáticos. Interações intermoleculares, que
podem ser determinantes da ação da molécula bioativa ou ser complementadas por
reações com aminoácidos da proteína-alvo, são fundamentais para que a molécula
tenha seu efeito biológico ou farmacológico.
O uso da química computacional vem desde a
década de 60. Em 1972, o uso de computadores na educação química já era foco de
pesquisas. Anos mais tarde, no University Chemical Laboratory de Cambridge, no
Reino Unido, usavam microcomputadores como ferramenta de ensino para a Teoria
do Orbital Molecular. Dez anos depois, Real Academia de ciências da Suécia
outorgou o Prêmio Nobel de Química de 1998 aos pesquisadores Walter Kohn e John
A. Pople. A IUPAC define a química computacional como: "aspectos da
pesquisa molecular que são tornados práticos pelo uso de computadores".
A primeira representação de moléculas
através de fórmulas estruturais, realizada por Van't Hoff e Le Bel, ocorreu em
1874 com a descoberta do arranjo tetraédrico dos átomos de carbono em compostos
orgânicos. Já em 1953, Barton introduziu o conceito de análise conformacional,
estabelecendo que moléculas podem ser representadas por arranjos atômicos
espaciais diferentes. Na segunda metade da década de 50 houve o desenvolvimento
da cristalografia de raios X. A elucidação das estruturas tridimensionais
permitiu a obtenção de parâmetros estruturais, além da definição de
propriedades atômicas. Desta forma, houve a possibilidade de representação
tridimensional de moléculas em escalas relativamente reais.
Três diferentes modelos de
representação da estrutura do propano, desenvolvidas entre 1959-1965
Fonte: SANTOS,
H. F.; Cadernos temáticos de química nova na escola, 2001
Através da química computacional, há a capacidade
de visualizar eventos que acontecem a nível microscópico ajudando na descrição,
explicação e exploração dos fenômenos e ideias abstratas. Podem ser encontradas
ferramentas que simulam conceitos e fatos que possuem relação com esses
sistemas. Não é fácil a criação de uma ferramenta computacional que produza
simulações, além de não ser econômico. O programa se comporta como um
laboratório virtual, permitindo a visualização dos acontecimentos quando o
sistema é aquecido ou resfriado, quando sofre um aumento ou diminuição da
densidade e quando há aumento ou diminuição da pressão ambiente.
O uso de métodos computacionais têm se
tornado uma prática rotineira. Do ponto de vista do planejamento, deve-se
destacar que não se pretende chegar a uma molécula bioativa simplesmente pelo
uso de programas de computador. O desenvolvimento de moléculas com essa
complexidade requer o trabalho de uma equipe multidisciplinar, que fará uso
métodos computacionais de modo sistemático com intenção de facilitar e otimizar
o processo de desenvolvimento de compostos bioativos, em constante troca de
informações com grupos de síntese química e avaliação de atividades dos
compostos.
Na química computacional destaca-se o
"docking" molecular, ou docagem molecular ou simplesmente ancoramento,
introduzida na década de 80. Investiga as possíveis orientações que a molécula
assume no interior do sítio ligante, sendo usado na triagem virtual. É um dos
principais métodos de SBDD (técnica baseada no conhecimento do arranjo topológico
de alvos moleculares, utiliza como pré-requisito a informação 3D detalhada da
molécula em estudo). Este método envolve uma função de energia que contêm
parâmetros eletrostáticos, que geram modelos matemáticos que predizem as orientações
e conformações mais estáveis que um ligante adota no receptor. As mais recentes
versão de programas em docagem (FlexE e GOLD) consideram a flexibilidade do
ligante e as cadeias laterais do receptor, enquanto os métodos mais recentes
(FlexX-Pharm e GLUE) utilizam informações farmacofóricas do receptor para guiar
as simulações.
O processo de docagem pode ser dividido em
modelagem do modo de ligação (considerada a etapa mais simples e robusta) e
predição da afinidade do ligante pelo sítio. Para a realização da primeira
etapa, são utilizados diferentes métodos de amostragem que irão atribuir
flexibilidade à molécula do ligante. Os métodos de amostragem podem ser
classificados em: métodos sistemáticos, métodos aleatórios ou estocásticos e
métodos de simulação. A etapa de predição é realizada baseada em funções de
pontuação desenvolvidas para avaliação e classificação do modo de interação
proposto na etapa de modelagem do modo de ligação. As funções de pontuação
podem ser agrupadas em: campos de força, empíricas e funções baseadas no
conhecimento.
Etapas envolvidas no processo de
docagem molecular
Dentre as funções citadas anteriormente, a
categoria dos campos de força tem sua base em métodos de mecânica molecular,
além de quantificar a energia gerada pelas interações entre o ligante e o
receptor e a energia interna do ligante (G-score e D-score, implementados no
pacote de programas SYBYL; Amber, implementado no programa AUTODOCK; GOLDscore
implementado o programa GOLD). A categoria empírica é fundamentada no ajuste
teórico de dados experimentais através do uso de equações (regressão linear,
LigScore, PLP, LUDI, F-Score, ChemScore e X-score). Por fim, a categoria das
funções baseadas no conhecimento utiliza dados estatísticos dos potenciais de
pares atômicos de interação, que são derivados de conjuntos de dados vindos de
complexos cristalográficos entre proteínas e ligantes (PMF e DrugScore).
O
planejamento de moléculas baseado em estrutura e no mecanismo de ação é uma das
estratégias mais usadas, contribuindo em todos os estágios do processo.
Informações estruturais permitem a descoberta, seleção e síntese de compostos
complexos, que se tornam mais atrativos quando utilizados com proteínas, afinal
78% dos fármacos recentes têm como alvo terapêutico esse tipo de molécula.
As
aproximações mais usadas em modelagem molecular são a aproximação clássica e a
aproximação quântica. A primeira inclui os métodos da mecânica molecular e da
dinâmica molecular, enquanto a segunda inclui os métodos ab initio e semi-empíricos. A escolher destas aproximações depende
das propriedades a serem avaliadas, da precisão desejada e da capacidade
computacional que estará disponível para realizar os cálculos.
Modelagem molecular
Fonte: CAMPOS, A. F. C.; Introdução à
modelagem molecular, 2013
Na
mecânica molecular, as moléculas são descritas como um conjunto de "átomos
conectados". Seu modelo é justificável pelos parâmetros associados a
conjuntos de átomos permanecerem razoavelmente constantes entre estruturas
diferentes, desde que do mesmo tipo e com a mesma hibridação. O que se faz
nesse modelo é desenvolver o campo de
força, conjunto de funções de energia que determinam penalidades
energéticas para o afastamento da estrutura dos valores "normais". A
metodologia da mecânica molecular é baseada na aproximação de Born-Oppenheimer,
conhecida como superfície de energia potencial, onde os movimentos dos núcleos
e dos elétrons podem ser tratados separadamente. Supostamente, a densidade
eletrônica pode ajustar-se instantaneamente a qualquer alteração na
configuração geométrica dos núcleos.
Não há
regras a respeito do número ou tipo de função de energia potencial a serem
usados. Dependendo da função, são permitidos: cálculos das propriedades
geométricas; cálculos das propriedades geométricas e vibracionais; cálculos das
propriedades geométricas e termodinâmicas; cálculos das propriedades
geométricas, vibracionais e termodinâmicas. As expressões da energia potencial
para cálculos de mecânica são descendentes de três tipos básicos de campo de
força: campo de força central (considera apenas distâncias interatômicas),
campo de força de valência geral (considera comprimentos e ângulos de ligação,
ângulos diedros, coordenadas de deformação fora do plano e adicionam os termos
cruzados) e campo de força de Urey-Bradley (considera comprimentos e ângulos de
ligação, ângulos diedros, coordenadas de deformação fora do plano e as
interações entre átomos ligados por um centro comum).
A
dinâmica molecular é uma das técnicas computacionais mais versáteis para o
estudo de macromoléculas biológicas. Este método tem contribuído em diversos
estágios do processo de planejamento de fármacos. É fundamentada na mecânica
clássica e fornece informações sobre o comportamento dinâmico microscópico.
Baseada na mecânica molecular, as moléculas são tratadas como uma coleção de
átomos que podem ser descritas por forças newtonianas (mantidas unidas por
forças harmônicas ou elásticas).
Entre diversos métodos computacionais que simulam
materiais, destacam-se os que não usam informações empíricas, ou seja, não
utilizam informações vindas de medidas experimentais sobre o sistema a ser
estudado. Estes métodos são conhecidos por métodos de primeiros princípios ou
métodos "ab initio" devido
sua capacidade de resolução de problemas quânticos de átomos interagentes, além
de providenciar a descrição do sistema eletrônico e nuclear do material. O método
de Hartree-Fock (HF) foi primeiro métodos deste tipo, ainda sendo usado
atualmente na simulação de moléculas, clusters atômicos e outros sistemas
quânticos de menor porte. Nos anos 70 do século passado foram criados métodos
baseados na Teoria Funcional da Densidade (DFT), focada no cálculo das
propriedades microscópicas dos sólidos: LAPW (Linearized Augmented Plane Wave),
LMTO (Linear Muffin Tin Orbital). Como eram utilizados praticamente apenas
códigos de computadores, inicialmente suas aplicações eram limitadas, porém com
a evolução tecnológica, estes métodos atingiram um alto grau de eficiência,
permitindo o seu uso para simular sistemas reais, encontrados na natureza ou
produzidos laboratorialmente. Existem programas gratuitos, como o GAMESS, que
permitem a realização dos cálculos ab
initio.
Depois de trabalhos pioneiros de Pople e
colaboradores, Dewar e colaboradores criaram programas para tornar acessível os
cálculos semi-empíricos de orbitais moleculares aos não especialistas. Estes
programas deveriam oferecer informações estruturais quimicamente preciisas com um
custo razoável de tempo de cálculo. Os métodos semi-empíricos de maior uso são
o AM1 (Austin Model 1 ou Modelo Austin 1) e o PM3 (Parametric Method 3 ou
Métodos Paramétrico 3), que incorporam aproximações semelhantes, no entanto,
possuem parametrizações diferentes. Estes métodos possuem aplicação limitada
aos elementos para os quais foram desenvolvidos parêmetros correspondentes: no
método AM1 são os elementos H, Na, K, Rb, Zn, Hg, B, Al, C, Si, Ge, Sn, N, P,
O, S, F, Cl, Br e I, enquanto o métodos PM3 conta com os mesmos elementos
(exceto o B) e elementos que não estão no AM1: Be, Mg, Cd, Ga, In, Tl, As, Sb,
Bi, Se e Te. Os métodos semi-empíricos foram para reprodução de série de dados
experimentais, como geometrias de equilíbrio, calores de formação, momenos de
dipolo e energias de ionização. Eles estão presentes em programas públicos,
como o programa de cálculo de orbitais moleculares MOPAC. Atualmente foram
apresentadas duas novas parametrizações: o modelo RM1 (Recife Model 1) e o PM6
(Parametric Method 6), que disponibilizam parâmetros para 70 elementos da tabela
periódica.
A Teoria do Funcional Densidade (TFD) (DFT -
Density Functional Theory) surgiu como alternativa para os métodos
tradicionais, ab initio e
semi-empíricos, no que diz respeito ao estudo de propriedades do estado
fundamental de sistemas moleculares. Sua grande vantagem em relação aos outros
métodos está no ganho em velocidade computacional e espaço em memória. Como nas
derivações das equações nenhum parâmetro em princípio precisa ser ajustado ou
determinado empiricamente, a TFD pode ser considerada como uma teoria da
natureza ab initio, sendo útil no
estudo de grandes sistemas moleculares e descrevendo realisticamente sistemas
orgânicos, inorgânicos, metálicos e semi-condutores. Desta forma, a metodologia
do funcional de densidade vem sendo usada cada vez mais para sistemas
moleculares encontrados em pesquisas farmacêuticas, agroquímicas e
biotecnológicas; na ciência de materiais e polímeros; em pesquisas com complexos
organometálicos e aglomerados típicos em catálise, superfície e estado sólido;
em eletroquímica e microeletrônica, sistemas estes fora do alcance de métodos
de natureza ab initio padrões. Atualmente
tem-se usado o modelo do funcional de troca híbrido de 3 parâmetros de Becke e
do funcional de correlação de Lee-Yang-Parr (B3LYP), por causa da qualidade dos
seus resultados, principalmente para moléculas orgânicas.
Os métodos de análise populacional fazem a
partição da densidade eletrônica (DE) entre os átomos de um sistema. A DE
define qual fração dos elétrons permanece nos átomos após o estabelecimento das
ligações químicas da estrutura molecular. Há métodos alternativos para calcular
a DE, que levam a resultados que concordam qualitativamente, como na
aproximação LCAO, que são as análises populacionais de Mulliken e de Löwdin. A
análise populacional de Mulliken é o método mais tradicional e mais usado entre
os químicos. Esse método é baseado na teoria dos orbitais moleculares, onde um
conjunto de orbitais é definido por uma combinação linear de orbitais atômicos,
também conhecidos como funções de base, cujos coeficientes são determinados
pelo métodos de Hartee-Fock.
A análise populacional de Mulliken deve sua
popularidade à intensiva aplicação dos métodos que empregam a teoria dos
orbitais moleculares e à facilidade com que pode ser calculada, além de obter
as variáveis usadas para efetuar a análise populacional diretamente, não
necessitando nenhum custo adicional. No entanto, este método possui limitações
importantes. Uma fonte de problemas é a divisão das populações de recobrimento
em contribuições atômicas e a consequências desta falha é a péssima reprodução
do momento dipolar molecular calculado através da função de onda SCF utilizando
as cargas de Mulliken. Outro problema é a forte dependência do conjunto de base
empregado no cálculo, consequente desta função ser projetada diretamente sobre
as funções de base utilizadas. Em diversos casos a análise oferece resultados
razoáveis, porém em outros ela não é satisfatória devido às limitações
descritas. Tentando reduzir estes problemas, diversas modificações foram
propostas, no entanto, sem sucesso significativo. O método com mais
popularidade foi o de Weinhold e Reed, que tinha finalidade de minimizar os
problemas usando um procedimento mais complexo de partição da densidade
eletrônica.
Os métodos de modelagem por
comparação com estruturas conhecidas têm importante aplicação no estudo de
bioativos. São utilizados bancos de dados de estruturas de alças de proteínas,
nos quais pode-se procurar estruturas que tenham as conformações energética e
geometricamente mais favoráveis. É o caso da modelagem de proteínas por
homologia, onde muitas vezes somente a sequência primária de um receptor ou de
uma enzima é conhecida. É usado um algoritmo de reconhecimento de moldes
adequados em um banco de dados de estruturas tridimensionais de proteínas, que
depende do reconhecimento da similaridade entre as estruturas. Com base em um
ou mais moldes, os resíduos de aminácidos da proteína são montados para se
criar um modelo primário, que depois é otimizado por um método de mecânica
molecular. Quanto maior o número de resíduos idênticos entre o molde e o
modelo, melhor a qualidade do modelo final. Pode ser feito em sites como o
servidor Swiss-Model ou em programas específicos. Em alguns casos as limitações
inerentes aos métodos comparativos podem ser reduzidas aplicando-se de métodos
híbridos.
A modelagem de proteínas por
homologia possui basicamente quatro passos: identificação e seleção de
proteínas-molde, alinhamento das sequências de resíduos, construção das
coordenadas dos modelos e validação. Para cada passo há um número de métodos,
programas e servidores específicos da internet. As etapas com mais problemas
são o alinhamento das sequências e a modelagem das regiões de alças. Diversos
avanços foram feitos nos métodos de alinhamento de sequências, porém a modelagem
de alças ainda é um fator limitante, principalmente quando há um grande número
de resíduos. Os erros normalmente encontrados podem ser divididos em: erros de
modelagem das cadeias laterais, deslizamento em regiões do alinhamento, erros
em regiões sem molde, erros de alinhamento e moldes incorretos.
Esquema geral do processo de
modelagem de proteínas por homologia
Fonte: FILHO, O. A. S.; ALENCASTRO, R. B., Modelagem de proteínas por
homologia, 2003
Nenhum comentário:
Postar um comentário