Vous êtes sur la page 1sur 50

Introducción al diseño

racional de fármacos

JULIO CÉSAR ESCALONA ARRAnz


RAMÓN CARRASCO VELAR
JUAN ALEXANDER PADRÓN GARCÍA
Introducción al diseño racional de
fármacos
Introducción al diseño racional de
fármacos

Julio César Escalona Arranz

Ramón Carrasco Velar

Juan Alexander Padrón García

Todas las universidades en una: EDUNIV


615.19-Esc-D
Diseño racional de fármacos / Julio César Escalona Arranz, Ramón Carrasco Velar y Juan
Alexander Padrón García. -- Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-
959-16-0647-1. – 45 pág.
1. Escalona Arranz, J. C.
2. Carrasco Velar, R.
3. Padrón García, J. A.
4. Química Farmacéutica
Edición: Dr. C. Raúl G. Torricella Morales
Corrección: Luz María Rodríguez Cabral
Ministerio de Educación Superior de la República de Cuba,
2008
Editorial Universitaria, 2008

La Editorial Universitaria publica bajo licencia Creative Commons de tipo Reconocimiento


No Comercial Sin Obra Derivada, se permite su copia y distribución por cualquier
medio siempre que mantenga el reconocimiento de sus autores, no haga uso
comercial de las obras y no realice ninguna modificación de ellas. La licencia
completa puede consultarse en:

http://creativecommons.org/licenses/by-nc-nd/2.5/ar/legalcode

ISBN 978-959-16-0647-1
Editorial Universitaria
Calle 23 entre F y G, No. 564
El Vedado, Ciudad de La Habana
Cuba CP 10400
e-mail: torri@reduniv.edu.cu
Sitio Web: http://revistas.mes.edu.cu
Nota a la Edición

El presente texto surge como resultado directo de los trabajos realizados en la tesis: Nuevos
descriptores atómicos y moleculares para estudios de estructura-acitividad. Aplicaciones, de Ramón
Carrasco Velar. El trabajo directo con los alumnos y el conocimiento de la necesidad de aprendizaje de
los mismos ha llevado a los autores a elaborar este libro, el cual constituye una herramienta para quienes
pretendan adentrarse en el campo del diseño de fármacos con la ayuda de la computador. Espero que
les sea de utilidad.

El Editor
Índice
INTRODUCCION 2

CAPÍTULO I: DISEÑO DE FARMACOS. METODOS TRADICIONALES 4

I.1 CONSIDERACIONES GENERALES

I.2 METODOS VARIACIONALES

CAPITULO II: DISEÑO DE FARMACOS ASISTIDO POR COMPUTADORAS 12

II.1 METODOS DE CÁLCULO

II.2 TECNICAS SAR O MODELACION MOLECULAR EN EL DESARROLLO DE


NUEVOS FARMACOS

II.3 TECNICAS QSAR EN EL DESARROLLO DE NUEVOS FARMACOS

II.4. DESCRIPTORES MOLECULARES O INDICES 38

II.5 SITUACIÓN ACTUAL Y TENDENCIAS FUTURAS DEL DISEÑO DE FÁRMACOS


ASISTIDO POR COMPUTADORAS 45
J.C. Escalona, R. Carrasco y J. A. Padrón 2

INTRODUCCION

La historia del medicamento se remonta a los orígenes de la sociedad humana. Desde los primeros
tiempos el hombre ha acudido a la naturaleza para obtener sustancias que, o bien le ayudaran a paliar
su dolor, los síntomas de sus enfermedades... o bien le facilitaran la obtención del alimento (veneno
para la caza), sus relaciones sociales y religiosas (estimulantes y alucinógenos), etc. Esta
circunstancia ha permitido disponer de una amplia información, que sometida a la observación atenta
y al estudio crítico, ha dado lugar al planteamiento de ideas que, debidamente desarrolladas, han
llevado a la obtención de nuevos medicamentos, de sustancias líderes. Esta historia previa es la causa
de que en la actualidad, el modelo de aproximadamente la mitad de los productos de que se dispone
sea de origen natural. Modelos que, obtenidos a partir de un organismo vivo, han sufrido diferentes
modificaciones en el laboratorio, encaminadas a obtener moléculas más potentes y menos tóxicas que
las originales, las cuales en realidad no habían sido diseñadas para un tratamiento específico.

El descubrimiento de un nuevo medicamento y su desarrollo posterior, son dos fases que condicionan
el logro de un nuevo producto, útil en la terapéutica. Se considera, de manera general, que el
descubrimiento comprende toda la fase necesaria para que podamos asegurar que el compuesto tiene
un perfil deseable de actividad; comprende desde la síntesis, el aislamiento de la fuente natural, o la
obtención biotecnológica y toda la fase preclínica, incluida la toxicología; de manera tal que nos
confirmen que el compuesto es aceptable en cuanto eficacia y seguridad para su ensayo en seres
humanos. Comprende en un sentido más amplio, un gran conjunto de actos que culminan en la
utilización terapéutica de un nuevo medicamento (Figura1).

Esta fase de descubrimiento, o sea, desde la obtención hasta la primera aplicación en humanos, se
estima que dura aproximadamente 42,6 meses (3,55 años) como promedio, en aquellos países y
transnacionales farmacéuticas con una amplia infraestructura investigativa. En países con un nivel
menor de desarrollo, esta fase alcanza aproximadamente unos 5-6 años.

La fase de desarrollo comprende la de los estudios clínicos y la del registro farmacéutico, y se estima
que duren entre 68.6 meses y 30.3 meses respectivamente. Todo este largo proceso, desde su
obtención hasta su registro comprende un total de 11.8 años de investigación, con un costo promedio
de 231 millones de dólares por cada nuevo medicamento que salga al mercado.

Lo más alarmante es que sólo una de cada 10 000 moléculas ensayadas pasa a la fase de desarrollo,
una de cada 100 000 supera los ensayos clínicos y logra registrarse y sólo 3 de cada 10 nuevos
medicamentos registrados recupera su inversión inicial. Esto genera una triste realidad, por cada
millón de moléculas que se inician en esta larga cadena para la obtención de un nuevo medicamento,
sólo tres recuperan la inversión inicial. Por tal motivo el diseño racional de fármacos, constituye una
herramienta casi indispensable en el desarrollo actual de nuevos medicamentos, contribuyendo a un
aumento de las posibilidades de éxitos y a un decrecimiento de los costos.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


3 Introducción al diseño racional de fármacos

Obtención y caracterización química del producto.

Ensayos Preclínicos

Definición del lugar y del mecanismo de acción

Desarrollo de la formulación

Estudio de tolerancia Estudio de toxicidad

Estudios de toxicidad subaguda en dos especies

Estudios suplementarios de toxicidad Teratogenicidad


aguda (otras vías y especies) (dos especies)

Informe final de los efectos

Desarrollo de métodos para la determinación de la


sustancia en el material biológico

Farmacocinética y metabolización
(Modelos animales)

Preparación Farmacéutica

Estudios de
A veces, estudios toxicológicos
tolerancia local
en terceras especies.

Farmacología general de la sustancia

Técnicas Técnicas Farmaco- Efectos Espectro de


estandarizadas comparadas dinámica secundarios actividad

Estudios
microbiológicos
adicionales

Propuesta de dosis y niveles de dosificación

INICIO DE LA FARMACOLOGÍA

Figura1. Fases necesarias para la generación de un nuevo medicamento.


J.C. Escalona, R. Carrasco y J. A. Padrón 4

CAPÍTULO I: DISEÑO DE FARMACOS. METODOS TRADICIONALES

I.1 CONSIDERACIONES GENERALES

El desarrollo de medicamentos cada vez más seguros, adecuados, específicos y efectivos en el


tratamiento de enfermedades, es una tarea que requiere del esfuerzo coordinado e inteligente de un
elevado números de profesionales de distinta formación y dedicación, en la que la capacidad de
deducción, la institución y en muchos casos, la suerte, han jugado un papel fundamental.

Reconociendo la importante contribución del azar en el resultado positivo de este esfuerzo, es preciso
matizar que su base está sólidamente anclada en un diseño inteligente y racional ya que si sólo se
acude al azar, es poco probable obtener medicamentos eficaces y seguros.

Si se conoce la base biológica de una enfermedad o de un desarreglo metabólico, es posible diseñar


un medicamento utilizando un mecanismo de aproximación al proceso patológico. Cuando se conoce
este proceso en su base molecular y se pueden definir las moléculas implicadas en el mismo, es
posible diseñar medicamentos que interactúen con la molécula responsable, de tal forma que la
modifique y se modifique así mismo la patología.

Para conocer a profundidad el proceso fisiológico, es necesario conocer la estructura tridimensional


de la(s) molécula(s) objetivo. Esto es posible pocas veces, sobre todo por la dificultad de obtener los
receptores en estado cristalino. Los métodos más utilizados en este sentido son la Resonancia
Magnética Nuclear, la cristalografía de rayos X y los cálculos teóricos de las fuerzas que mantienen
la configuración de un sistema, ya sea por mecánica molecular o mecánica cuántica.

Todo esto provoca, que los especialistas que tomarán a la química farmacéutica como profesión
dentro del área del conocimiento científico, deberán no sólo especializarse en los aspectos
relacionados con la síntesis y la estructura química, sino que tendrán que ser capaces de dominar el
conjunto de ciencias biológicas afines, que se encuentran en la interface del descubrimiento y el
desarrollo de un nuevo fármaco. El encabezamiento de una encuesta realizada a los químicos
farmacéuticos de las principales industrias farmacéuticas del mundo en 1995, comenzaba con la
frase. “Los químicos farmacéuticos involucrados en descubrimiento de los nuevos fármacos deben
ser sobresalientes químicos en la síntesis orgánica y comprender las aproximaciones modernas al
análisis de la relación estructura-actividad, además de la necesidad de dominar los conceptos de la
interface con otras disciplinas involucradas en el proceso del diseño de fármacos” hecho que
evidencia la importancia del conocimiento de las ciencias biológicas en los científicos de esta área de
la ciencia1.

En estas encuestas los resultados reflejaron que los trabajadores de la química farmacéutica proponen
la necesidad el conocimiento de la modelación molecular, bioquímica, farmacología, fisiología y
biología molecular. Los porcientos de votaciones para estas disciplinas alcanzaron valores superiores
al 30 % de los encuestados.

1
Wess, G. DDT, Vol 1, No. 12, 1996.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


5 Introducción al diseño racional de fármacos

En tal sentido, la unión internacional de química pura y aplicada (IUPAC) publicó en ese mismo año
1995 el conjunto de cualidades que deseaban los representantes de las principales compañías
farmacéuticas que tuvieran sus químicos farmacéuticos2. Estas habilidades son:

♦ Capacidad de inserción en grupos interdisciplinarios, como interface entre los científicos del área
biológica (farmacología, bioquímica, biología molecular etc.)
♦ Habilidad en la búsqueda de nuevos fármacos.
♦ Conocimiento de cómo sintetizar moléculas convenientes a ser evaluadas en ensayos biológicos.
♦ Entendimiento de las razones y la necesidad de porqué generar nuevos compuestos.
♦ Conocimiento del diseño de fármacos.
♦ Perspicacia a la hora de establecer relaciones de estructura-actividad, aún con insuficientes datos.
♦ Conocimiento de campos colaterales (fisiopatología, biología celular y genética)
♦ Rápida familiarización con las nuevas tecnologías.

I.2 METODOS VARIACIONALES.

En este acápite se considerará de forma breve con algunos ejemplos, la metodología de este enfoque,
las circunstancias y cadenas de hechos que llevan al descubrimiento de nuevos compuestos
considerados como líderes o cabezas de serie y su posterior desarrollo, la aplicación en definitiva, de
las técnicas que de forma general se conocen como “Variaciones estructurales”.

I.2.1 Búsqueda de la cabeza de serie o compuesto líder.

Aunque en la búsqueda de una cabeza de serie se pueden aplicar varios métodos los más empleados
son:
• El empleo de productos activos presentes en drogas utilizadas en la medicina tradicional.
• Estudio de nuevos compuestos provenientes de la síntesis química o de la biotecnología.

Ambos métodos requieren de la existencia previa de una amplia batería de ensayos biológicos
cuidadosamente diseñados, que permitan determinar con rapidez y de manera inequívoca la
actividad biológica de los nuevos compuestos.

En el caso de estudios de compuestos empleados en la medicina tradicional, es más fácil, en


principio, el diseño de la prueba biológica, ya que se cuenta con información previa de la actividad
prevista; se trata de comprobar simplemente de manera científica el empleo popular. Sin embargo,
cuando se desconoce la posible actividad, la batería de ensayos ha de ser lo suficientemente amplia,
en el intento de no perder ninguna información interesante. Lamentablemente, los costos asociados a
este tipo de estudios hacen que estos se vean limitados en número y en el espectro de acciones
biológicas.

Otras vías de obtener un compuesto líder o cabeza de serie son:

2
Ganellin, CR., Mitscher, LA., Topolis, IG. Annu. Rep. Med. Chem., Vol 30, 1996.
J.C. Escalona, R. Carrasco y J. A. Padrón 6

• Aislamiento de los productos responsables de una acción biológica determinada y su posterior


identificación y caracterización. Esto se cumple fundamentalmente en productos naturales que no
han sido reconocidos por el hombre. Ejemplos son las hormonas esteroidales, que llevaría a la
identificación de los esteroides, al ácido araquidónico, que permitió el desarrollo de las
prostaglandinas y tromboxanos, la obtención de potentes anticoagulantes a partir de venenos de
víboras, etc.
• Detección y observación de efectos secundarios o acciones biológicas inesperadas durante el
empleo de compuestos activos. Ejemplos son la acción antiagregante de la aspirina por
inhibición de la ciclooxigenasa (enzimas implicadas en la síntesis de prostaglandinas), la acción
diurética de sulfas antibacterianas como la acetazolamina (por inhibición de la anhidrasa
carbónica) entre otros muchos ejemplos.
• Por observación del metabolismo de los compuestos. En ocasiones, algunos de los metabolitos de
un fármaco presentan una actividad superior o diferente a la del propio fármaco de partida. La
síntesis de sulfonamidas bacterianas en consideración del metabolismo del prontosil puede servir
de ejemplo para este tipo de búsqueda.
• El análisis de la actividad biológica de productos intermedios de la síntesis de un fármaco. Tal es
el caso de las tiosemicarbazonas empleadas en la síntesis del sulfatiadiazol, que provocaron una
nueva estrategia para la terapia de la tuberculosis y el desarrollo de la Amiatizona.

A estas informaciones se le pueden unir, como se planteó anteriormente, las obtenidas del estudio
del mecanismo de acción de los compuestos, así como consideraciones relativas a la bioquímica de
la enfermedad y procesos del organismo enfermo sobre el cual van a actuar los productos.

I.2.2 El desarrollo de una cabeza de serie: la variación molecular.

Una vez encontrada y definida la cabeza de serie se hace necesario la exploración de la serie por
modulación de su estructura con el fin de encontrar un producto mejor. El objetivo que se propone es
encontrar nuevos y mejores medicamentos con superior actividad, mejor biodisponibilidad, menor
toxicidad y reacciones secundarias mínimas. O sea, en otras palabras se refiere a ¿qué voy a
modificar en el compuesto líder?. Esto se conoce como “Variación Molecular”.

En la finalidad de esta técnica se pueden distinguir:

• Mejora de la potencia del líder.


• Eliminación de efectos secundarios no deseados.
• Potenciación de acciones secundarias deseadas, ya sea por complemento sinérgico a la acción
principal o por sí misma. Esta última se cumple en el caso del desarrollo de las sulfas diuréticas
comentado con anterioridad.
• Separación de actividades en compuestos multiacción. Tiene como objetivo potenciar alguna de
las acciones farmacológicas sobre las demás, o eliminar algunas de ellas en beneficio de las otras.
Un ejemplo puede ser el desarrollo de antiinflamatorios esteroidales a los cuales se le busca la
disminución de su efecto mineralocorticoide con un incremento de su efecto glucocorticoide.
• Combinar actividades. Se trata de reunir en una entidad actividades diferentes que puedan actuar
en común frente a desórdenes asociados. Tal es el caso de los antiinflamatorios con efecto
antiinflamatorio y analgésico para el tratamiento de enfermedades reumatoideas. También la

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


7 Introducción al diseño racional de fármacos

asociación de la actividad antiagregante a la de los vasodilatadores habituales para el tratamiento


de enfermedades vasculares, principalmente en ancianos.
• Modificación de la biodisponibilidad del fármaco líder. El descubrimiento de un nuevo fármaco
por lo general necesita un mejoramiento en su asequibilidad biológica. Lo anterior pude
explicarse con varios ejemplos:

a. Protección frente a la acción de sistemas enzimáticos: Las β-lactamasas son enzimas que
desdoblan el núcleo β-lactámico de penicilinas y cefalosporinas inactivándolas. Para eso ocurre
una reacción entre el grupo hidroxilo de un resto serina de la enzima que realiza un ataque
nucleofílico sobre el átomo de carbono carbonílico del anillo β-lactámico. El grupo sustituyente
en la posición 7 del anillo cefalosporánico, juega un papel primordial para lograr la conformación
espacial que impida la acción de las β-lactamasas. Obsérvese que la sola sustitución en R’ de un
=N-OH por un =N-OCH3 hace que disminuya 100 veces la potencia de los compuestos, debido a
una disposición espacial diferente, que en el caso de los segundos, no logra impedir el ataque de
la enzima.
S
H2N
N
CCOHN 7 S
R'
N
O R3
-
COO

R3 R E. coli S. aureus
MIC MIC
-(CH)2CH2OCONH2 =NOH 0.025 0.1
-(CH)2CH2OCONH-CH3 =NOH 0.025 0.1
-(CH)2CH2OCONH2 =NOCH3 0.2 0.8
-(CH)2CH2OCONH-CH3 =NOCH3 0.2 0.8

b. Incremento en la selectividad de la acción: Las mostazas nitrogenadas y su actividad


anticancerosa pueden servir de ejemplo. La mecloroetamina (I), surge a partir del tristemente
famoso gas mostaza empleado en la primera guerra mundial. Este compuesto, con el desarrollo
de nuevos citostáticos se convirtió en un fármaco excesivamente tóxico, por lo que debía
incrementarse la selectividad de su acción a las células tumorales. De esta manera se desarrolló
el Mefalan (II), derivado de la fenilalanina.
CH2CH2CL
CH2CH2CL HOOC CH CH2 N
CH3 N CH2CH2CL
CH2CH2CL NH2
(I) (II)

c. Modificaciones para alterar la distribución: Se utiliza cuando se desea excluir de algún


compartimento biológico al fármaco. La atropina (III) y sus sales de amonio cuaternario (IV)
pueden servir de ejemplo. La formación de esta sal aumenta la hidrofilia e impide al fármaco
atravesar la barrera hematoencefálica, sin alterarse las acciones anticolinérgicas periféricas.
J.C. Escalona, R. Carrasco y J. A. Padrón 8

NCH3 +
N(CH3)2

O O
C CH C CH
CH2OH CH2OH
(III) (IV)

I.2.3 Método Variacional. Tipos de aplicación.

En este tópico se enumerarán algunas de las estrategias a seguir para aumentar la eficacia del
compuesto líder. La pregunta ahora es: ¿cómo modificar el compuesto líder?. Entre las estrategias
más comunes se encuentran:

I.2.3.1 Sustitución bioisotérica.

En un enunciado un tanto simplista, es razonable el hecho de que compuestos con una misma
actividad biológica, deban poseer también una misma estructura, o al menos puntos comunes en las
partes responsables de la actividad, por lo que la sustitución de grupos con igual distribución
electrónica en la última capa e igual deslocalización del orbital puede conducir a la obtención de
nuevos compuestos de interés farmacológico.

Este método es aplicable a las sulfas antibacterianas (V), en la cual la similitud electrónica del grupo
sulfamida al grupo carboxilo del ácido p-aminobenzoico (PABA) (VI) provoca la “equivocación” de
la bacteria. Ahora bien, no siempre las sustituciones bioisostéricas generan una equidad en cuanto a
actividad. Ejemplos de este caso lo representan los antibióticos β-lactámicos, en la serie de las
penemas (VII), oxapenemas (VIII) y carbapenemas (IX), en los que el cambio del átomo de azufre
por el de oxígeno, aumenta la reactividad del anillo β-lactámico y lo convierte en una molécula
“suicida” que inactiva a las β-lactamasas. La sustitución entonces del oxígeno por el etileno (CH2)
disminuye nuevamente esta reactividad, incluso a valores inferiores que los de las penemas, por lo
que genera moléculas menos activas, aunque aún con utilidad farmacológica.

En general, el término bioisosterismo se aplica para todo el conjunto de analogías que se pueden
establecer entre dos agrupaciones atómicas, incluyendo tanto elementos estéricos como electrónicos,
y en general, todos cuantos sirvan para definir la estructura de una molécula.
O O
H2N C H2N S NHR
O O
(V) (VI)

R S R O R

N N N
O COOH O COOH O COOH
(VII) (VIII) (IX)

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


9 Introducción al diseño racional de fármacos

I.2.3.2 Modulación Molecular

Esta técnica consiste en variar al compuesto líder con modificaciones limitadas tanto en extensión (la
molécula debe mantener las características iniciales) como en número (posiciones a modificar). Sin
embargo a pesar de restringirse aparentemente las posibilidades de variación con esta técnica, es muy
frecuente encontrar resultados positivos en su aplicación.

De manera general existen tres formas diferentes de actuar:


• Modulación: Comprende isomerización, homología, alquilación, ramificación, desalquilación,
saturación, insaturación, cambio en la posición de la insaturación, desplazamiento de una función,
introducción, sustitución o eliminación de heteroátomos, introducción de sistemas cíclicos,
contracción o extensión de ciclos, sustitución de ciclos, etc.
S

N N
CH2 CH2

CH2 CH2
CH2 CH2
N(CH3)2 N(CH3)2
Imipramina Promazina
Fig. #2. Cambios de actividad secundaria por extensión del ciclo.

• Simplificación: En ocasiones, la molécula se rompe, en un intento de encontrar qué parte o partes


son responsables de la actividad biológica que se está estudiando. Con este fin se diseñan
compuestos más sencillos, que contengan aisladamente los fragmentos mencionados. Es
necesario aclarar que las partes responsables de la actividad no tienen necesariamente que
encontrarse unidas entre sí, sino que pueden estar separadas por una serie de átomos que no
forman parte decisiva en la interacción con el receptor. En estos estudios se necesita de un
verdadero conocimiento de la estructura tridimensional y del comportamiento conformacional del
compuesto.
CH 3
N CH3
N

HO

HO O OH

Morfina Levofenol
CH 3 CH 3
N H 3C N
CH3

C OC2H 5
C OC2H5 O
O

Meperidina Metadona

Fig. #3. Moléculas obtenidas por la simplificación de la molécula de morfina.


J.C. Escalona, R. Carrasco y J. A. Padrón 10

• Unión de elementos activos: Se trata de unir en una molécula, restos que han demostrado ser
activos en otras moléculas.

De este tipo de estudio se desprende una evolución en el peso relativo de las diferentes ciencias
implicadas en el diseño de nuevos medicamentos. Se observa en primer lugar un aumento progresivo
en la importancia que tienen los métodos biológicos como elemento de apoyo y decisión en el
planteamiento de las estrategias de síntesis, llegando a ser auténticas piezas claves en muchos casos.
También se deduce la necesidad de disponer de técnicas cada vez más avanzadas en el campo del
análisis instrumental, como base para la elucidación estructural de los nuevos compuestos. Y siempre
como elemento fundamental, la colaboración estrecha entre investigadores de diferentes
profesiones por la posibilidad de ofrecer puntos de vistas desde diferentes perspectivas.
.
I.3 SITUACIÓN ACTUAL Y TENDENCIAS FUTURAS.

Los avances previsibles en el campo de la biotecnología, la biología molecular y ciencias afines,


están dando un nuevo enfoque al diseño de medicamentos. Por otro lado, la ingeniería genética ha
ido ganando un espacio cada vez más sólido en la industria farmacéutica fundamentalmente a partir
del año 1993. Hacia finales del año 1995 ya eran 180 los contratos de colaboración firmados entre
compañía-compañía y compañía- instituto de investigación en el área de la ingeniería genética y esta
cifra continúa creciendo, involucrando cada vez más a las principales transnacionales farmacéuticas3.
Las principales asociaciones se resumen en la siguiente tabla:

Tabla 1 Principales contratos compañía farmacéutica compañía de investigación genética.

Programa Genético Industria


Farmacéutica
Proyecto Genoma Takeda
Humano (HGS) E Merk
Pfizer
Abbott
Incyte Johnson & Johnson
Pharmaceuticals Roche
BASF
Washington Merck (USA)
University
Milleninium Eli Lilly
Pharmaceuticals Roche
Myriad Genetics Bayer
Sequana Therapeutics GlaxoWellcome
Darwin Molecular Co. Rhône-Poulenc Rorer

Otro de los grandes avances en el desarrollo de nuevos medicamentos lo constituye la química


combinatoria, mediante la cual es posible obtener en un tiempo relativamente corto hasta millones de

3
Beeley, LJ., Duckworth, DM. DDT, Vol 1, No. 11, 1996.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


11 Introducción al diseño racional de fármacos

moléculas relacionadas, pudiendo brindar compuestos candidatos a ensayos clínicos rápidos y de


bajos costos.

Esta novedosa técnica, propuesta por Geysen en 1980, se basa en la combinación de moléculas
pertenecientes a un grupo químico con otras pertenecientes a otro grupo. En un ejemplo sencillo se
tienen cuatro moléculas: A1, A2, B1 y B2. Las moléculas A1 y A2 son estructuralmente relacionadas, y
B1 y B2 pertenecen a otra clase de molécula. Si ambas clases de moléculas pueden reaccionar entre sí
entonces las combinaciones posibles serían A1-B1, A1-B2, A2-B1 y A2-B2.

Este ejemplo puede parecer muy simple, pero la realidad es que normalmente se trabaja con al menos
30 compuestos de cada grupo, esto generaría un total de 30x30= 900 nuevos compuestos. Si a estos
se le agrega otro grupo químico de 30 compuestos se obtendrían un total de 27 000 nuevos
compuestos (30x30x30), todos ellos obtenidos de forma rápida4. Este enfoque, aplicado a la síntesis
de péptidos, proporciona en la práctica, la posibilidad de crear “librerías” de oligopéptidos del orden
de millones de compuestos a partir de la enorme cantidad de combinaciones posibles, las cuales se
incrementan con la cantidad de aminoácidos que se empleen en la síntesis.

Independientemente del avance de las técnicas de obtención de nuevos productos activos, el método
de las variaciones estructurales siempre estará como método de apoyo en el diseño de estrategias de
síntesis, formando parte de los equipos multidisciplinarios decididos a encontrar los mejores
medicamentos, pues en su esencia constituye un método racional eficaz en el diseño de nuevos
fármacos.

4
Plunkett, MJ., Ellman JA. Scientific American, 1997.
J.C. Escalona, R. Carrasco y J. A. Padrón 12

CAPITULO II: DISEÑO DE FARMACOS ASISTIDO POR COMPUTADORAS

En la actualidad existen numerosos métodos experimentales para determinar la estructura molecular


de una sustancia. Las espectroscopías ultravioleta (UV), infrarroja (IR), y fundamentalmente la de
masas y la de resonancia magnética nuclear H1 y de C13, así como las técnicas de difracción de rayos
X son las más comunes. No obstante, el desarrollo alcanzado por la computación y la química
computacional ha propiciado la generación de sistemas que permitan calcular la geometría y la
energía molecular. Estos sistemas son capaces de generar datos con una amplia aplicación en la
investigación experimental, tanto para la interpretación de los resultados obtenidos y la planificación
de futuros, así como para deducir información no asequible experimentalmente.

II.1 METODOS DE CÁLCULO

En principio, se pueden considerar tres tipos de métodos teóricos de cálculo para la obtención de la
geometría de una molécula: los métodos ab initio, los semiempíricos y los de mecánica molecular. La
elección de uno u otro método depende fundamentalmente del tamaño de la molécula, la naturaleza
del problema planteado y del tiempo de cálculo requerido.

En el caso de la mecánica molecular, aunque es el menos exacto de todos, requiere de menos tiempo
de cálculo con respecto a los semiempíricos y ab initio, y reproducen con buena precisión los valores
experimentales referentes a geometrías y energías. Este método se basa en los formulismos de la
espectroscopía vibracional, representando la molécula como un modelo mecánico de masas (núcleos)
unidas por fuerzas armónicas o elásticas (enlaces), las cuales se considera que poseen valores de
longitud y ángulo ideales o naturales que condicionan la geometría. Entonces la energía E de la
molécula se define como la desviación de los parámetros ideales y es minimizada siguiendo un
algoritmo de optimización:

E = E r + Eθ + Eϖ + EVDW + E D + E H
Ecuación 1.

donde Er define las deformaciones de la longitud de enlace (acortamiento-alargamiento), Eθ se


relaciona con las distorsiones del ángulo de enlace, Eω es la energía de torsión del ángulo diedro por
rotación de los enlaces y EVDW, ED y EH consideran las contribuciones de las interacciones de Van der
Walls, las repulsiones electrostáticas y las asociaciones por puentes de hidrógeno, respectivamente.

Dado que la mecánica molecular supone una interpolación de los datos experimentales existentes,
generalmente predice correctamente las geometrías moleculares de los compuestos bajo estudio.
Estas geometrías optimizadas se pueden utilizar como datos de entrada para los cálculos mecánico
cuánticos con el objetivo de comenzar la optimización total con una estructura previamente refinada.
Además su uso principal en la actualidad es en el campo de las macromoléculas, en las cuales los
métodos de cálculos mecánico-cuánticos se tornan prohibitivos en cuanto a costo computacional

Por otra parte, el tratamiento cuántico de la materia esta basada en el principio de incertidumbre de
Heisenberg, según el cual no es posible conocer simultáneamente la posición y el momento de una

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


13 Introducción al diseño racional de fármacos

partícula. Por esto es necesario abordar el problema desde el punto de vista estadístico, dada la
necesidad de poder encontrar una partícula en un lugar determinado y en un momento dado.

Otro concepto fundamental de la mecánica cuántica es que todas las cantidades dinámicas asociadas
a cada partícula están cuantificadas. La energía de una partícula tiene un valor discreto, el cual es
múltiplo de una energía básica y la constante de Plank. La ecuación fundamental es la de
Schrödinger, que para el átomo de hidrógeno viene dada por la ecuación:

∇2 ψ - (8π2m/h2) (E+ Z e2/r) ψ = 0


Ecuación 2

donde ∇2 es el operador diferencial, ψ es la función de onda, h es la constante de Plank, y r la


distancia entre el electrón y el núcleo.

Para los átomos multielectrónicos, la ecuación de Schrödinger, no puede ser resuelta, pues no es
posible la separación de las variables. Para ello es preciso acudir a la expresión de Hartree, que
considera cada electrón independientemente, moviéndose en el campo del resto de los electrones y de
los núcleos. Teniendo en cuanta el principio de exclusión de Pauli, según el cual no pueden existir
más de dos electrones en una misma órbita, con dos espines diferentes, se obtiene la expresión de
Hartree-Fock; la cual expresada en forma analítica, no matricial, origina la ecuación de Roothaan.

En párrafos anteriores hicimos mención de que existen dos métodos principales de cálculos
mecánico-cuánticos, en dependencia de las aproximaciones que se realizan:

1. Los métodos ab initio


2. Los métodos semiempíricos

Los métodos ab initio con el modelo hamiltoniano nos brindan una representación completa de todas
las interacciones no relativísticas entre el núcleo y los electrones de la molécula, soluciones no
disponibles en la ecuación de Schrödinger. La utilización de este algoritmo de cálculo hace que los
métodos ab initio necesiten un elevado tiempo de cómputo, que va a ser proporcional al número de
electrones de la molécula, dependiendo por lo tanto de la naturaleza de los átomos y del tamaño de la
misma. Sirva como ejemplo la molécula de metano, para la cual es necesario resolver un total de
1080 integrales, 1035 de ellas dielectrónicas.

La gran mayoría de los cálculos ab initio utilizan la aproximación del orbital, definida en el método
de Hartree-Fock. Ellos incluyen interacciones configuracionales (CI), campos autoconsistentes
multiconfiguracionales (MC SCF), la teoría de correlación por pares de electrones (CPMET), y la
teoría de las perturbaciones.

Una alternativa de cálculo mecánico-cuántico lo ofrecen los métodos semiempíricos. Estos métodos
han sido desarrollados dentro de la teoría de los orbitales moleculares (SCF MO), pero sobre la base
de simplificaciones y aproximaciones introducidas al algoritmo de cálculo, que hacen que los
tiempos de cómputo en computadoras normales (incluso microcomputadoras), se vea drásticamente
reducido con respecto a los métodos ab initio, permitiendo una mayor utilización de los mismos. Hoy
J.C. Escalona, R. Carrasco y J. A. Padrón 14

día, es práctica común la realización de cálculos de optimización de geometría en moléculas de


mediano tamaño, con más de 200 orbitales de base, en computadoras personales.

En tal sentido un método semiempírico debe cumplir los siguientes requisitos:

1. Que sea lo suficientemente simple para poder calcular moléculas relativamente grandes.
2. Que mantenga las principales interacciones intermoleculares: atracción por los núcleos y
repulsión entre los electrones.
3. Que los resultados del cálculo puedan ser interpretados, permitiendo la construcción de métodos
cualitativos adecuados.
4. Que compensen por parametrización las insuficiencias del método Hartree-Fock.

La principal aproximación que realizan los métodos semiempíricos es que ellos desprecian las
integrales de solapamiento, teniendo solamente en cuenta los electrones de valencia de cada uno de
los átomos integrantes de la molécula, considerando los electrones internos como parte del núcleo no
polarizable. Así, mientras el método semiempírico NDDO calcula un total de 741 integrales para el
propano, un método ab initio deberá resolver un gran total de 38 226 integrales para la misma
molécula. Esto en tiempo de cálculo se traduciría en que, para realizarlos en una computadora con
capacidad de un millón de operaciones por minuto, el cálculo semiempírico duraría no más de 5
minutos contra un total de 5 horas para el ab initio en la propia molécula de propano. En la actualidad
se cuenta con computadoras de mayor potencia y velocidad, con lo que es posible la realización de
cálculos ab initio en un tiempo mucho menor que el expresado anteriormente.

En principio, cualquier método semiempírico puede ser utilizado para el cálculo de la geometría
optimizada de una molécula. El primer método aplicado fue el de Hückel en 1931, luego le siguió el
PPP en 1935. A partir de este momento se han ido creando nuevos métodos de cálculos, cada uno de
los cuales se va haciendo más complejo por el desarrollo lógico que va experimentando la
computación, permitiendo realizar cada vez más, operaciones complejas en un menor intervalo de
tiempo.

Los más populares en orden cronológico son los siguientes5:

• La teoría de Hückel extendida (EHT), la cual es una extensión de la aproximación de electrones-π


de Hückel que trata a todos los electrones de valencia de la molécula. Las integrales de
solapamiento son calculadas por las funciones tipo Slater, mientras que las repulsiones
electrónicas y nucleares son obviadas. Este método ha sido utilizado preferentemente para
describir cualitativamente la estructura electrónica de sistemas moleculares. No obstante, al
obviar importantes interacciones electrónicas, las distribuciones de cargas calculadas son irreales.
• El método C.N.D.O. (complete neglect differential overlap) es el más simple de los métodos
semiempíricos. En el se obvian el solapamiento de orbitales atómicos, tanto diatómicos como del
átomo simple, creando una aproximación incorrecta en el sentido de que no existe justificación
para no incluir el solapamiento diferencial de un átomo simple.
• Los métodos I.N.D.O (intermediate neglect differential overlap) y M.I.N.D.O (modified INDO)
se desarrollan bajo un compromiso en el cual el solapamiento de un centro es retenido en las
integrales de un centro. Estos métodos representan una aproximación más real a la práctica que

5
Karelson, M., Lobanov, VS. Chem. Rev., Vol 96, 1996.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


15 Introducción al diseño racional de fármacos

los anteriores, pero todavía existe una reducción sustancial de las repulsiones electrónicas,
utilizando un conjunto mínimo de electrones de valencia, obviando todas las integrales que
implican el solapamiento de orbitales atómicos, excepto las integrales de resonancia
monocéntricas y las integrales monocéntricas de intercambio. En estos métodos y en el método
CNDO, las integrales de repulsión entre los orbitales atómicos del átomo A y cualquiera del
átomo B, forman un conjunto igual, tanto si son del tipo s, p, σ ó π.
• Los métodos M.N.D.O (modified neglect of diatomic overlap), el AM1 (Austin model 1) y el
PM3 (parametric model 3) están basados en la correcta inclusión del solapamiento de un centro,
negando u obviando solamente el solapamiento diferencial diatómico. A diferencia de los
métodos CNDO, INDO y MINDO estos métodos consideran un número adicional de integrales
bicéntricas. Así, para cada par de átomos no similares es necesario calcular 22 integrales a
diferencia de una única integral a calcular en los métodos CNDO, INDO y MINDO. Según
Dewar, autor de los métodos MNDO y AM1, el método MNDO no describe correctamente la
energía de los enlaces por puentes de hidrógeno ni la de los aniones, así como sobrestima las
repulsiones electrónicas. Estas dificultades son mejoradas por el método AM1 sin que ello
incremente el tiempo de cómputo. Posteriormente Stewart, uno de los colaboradores de Dewar
realizó una reparametrización del método AM1 generando así el PM3. No obstante no se ha
logrado demostrar la superioridad de uno con respecto al otro (AM1 y PM3), por lo que en la
literatura actual es común encontrarse trabajos que utilizan uno u otro método indistintamente, sin
que eso atente contra la calidad de los resultados.

Por los motivos anteriormente descritos, los métodos semiempíricos han tenido un amplio uso en el
diseño de fármacos, toda vez que son métodos que reproducen en gran medida las propiedades reales
de las moléculas, invirtiendo para ello, poco tiempo de cálculo; a diferencia de los métodos ab initio
en los que el tiempo de cálculo resulta en realidad una gran limitante. Sin embargo, es necesario
resaltar que los cálculos ab initio son los que reproducen con mayor fiabilidad las características
estructurales de las moléculas, divergiendo en no más de un 2% con respecto a los datos
experimentales.

II.2 TECNICAS SAR O MODELACION MOLECULAR EN EL DESARROLLO DE


NUEVOS FARMACOS

De manera general, los métodos que relacionan la estructura química con la actividad biológica
asistidos por computadoras pueden dividirse en dos grandes categorías: los Métodos de Modelación
Molecular ó SAR (Structure Activity-Relationships) y los Métodos QSAR (Quantitative Structure
Activity-Relationships).

Los métodos SAR (Structure Activity-Relationships) consideran las propiedades de las moléculas en
tres dimensiones y son importantes en ellos aspectos como el análisis conformacional, la mecánica-
cuántica, los campos de fuerzas y los gráficos moleculares interactivos. Estos últimos permiten la
representación y la manipulación de la molécula en tres dimensiones, lo que proporciona una
información espacial que es esencial para comparar moléculas y para estudiar la interacción entre
ligandos y receptores macromoleculares. Estos estudios SAR son utilizados no sólo en el diseño de
nuevos fármacos, sino que es aplicable al estudio de mecanismos de acción de los fármacos y a otras
ramas de la ciencia como la ingeniería de proteinas y la química de polímeros.
J.C. Escalona, R. Carrasco y J. A. Padrón 16

No obstante, se puede plantear que, el modelado molecular se refiere al uso de la química


computacional (cálculos químicos) combinada con gráficos tridimensionales sobre computadoras, y
sus aspectos centrales pueden ser divididos en las siguientes componentes:

1. Generación y optimización de la estructura molecular


2. Manipulación y análisis de las mismas.
3. Desarrollo de la hipótesis.
4. Predicción de las actividades.

II.2.1 Búsqueda del farmacóforo.

Independientemente de la vía que se utilice para lograr un nuevo fármaco (ver capítulo anterior) el
químico farmacéutico tendrá al final una nueva estructura química que estará destinada a interactuar
de manera precisa con un blanco molecular, ya sea un receptor de membrana, un canal iónico, una
enzima o una proteina transportadora. En la mayoría de los casos, la nueva molécula identificada no
parece a primera vista similar a otras conocidas y de igual actividad, sin embargo el blanco molecular
es capaz de reconocer en ellos características similares, por lo que es una tarea del químico
farmacéutico identificar aquellos aspectos que tienen en común estas moléculas que le permiten ser
identificadas por el blanco biológico y por tanto generar una respuesta farmacológica. En estas
circunstancias, el análisis estructural comparativo ayudado por computadoras constituye una
herramienta importante en la identificación de estos aspectos similares.

La búsqueda en una serie de moléculas de los aspectos estructurales indispensables para lograr la
unión al receptor y experimentar una actividad farmacológica se conoce como búsqueda del
farmacóforo. Este no es más que el conjunto de grupos químicos, unidos o no entre sí, que todas las
moléculas activas sobre un mismo receptor tienen en común, y que son esenciales para el
reconocimiento por el mismo. Es común asociar al farmacóforo como un conjunto de átomos y no
como un conjunto de formas y propiedades electrónicas que son los aspectos identificados por las
enzimas y los receptores. El concepto de bioisosterismo tiene una alta aplicabilidad en el diseño de
fármacos debido a esta característica.

Aunque por definición propia el farmacóforo es el mínimo conjunto de requisitos estructurales y


electrónicos indispensable para una determinada actividad, ello no implica que su presencia en
cualquier estructura química sea suficiente para esperar una respuesta farmacológica. En tal sentido
puede ocurrir que otras partes de la molécula en experimentación puedan interaccionar también con
el sitio activo del receptor, impidiendo así la activación del mismo. Por ello la atribución de actividad
farmacológica por la presencia en la estructura del farmacóforo debe estar condicionada por otros
requisitos como son:

1. El compuesto debe ser metabólicamente estable, y capaz de ser transportado hasta el sitio de
interacción con el receptor. Este es el caso de compuestos aparentemente óptimos para una
determinada actividad sin embargo resultan inactivos o poco activos por problemas de
biodisponibilidad.
2. El compuesto debe ser capaz de asumir la conformación farmacófora, siendo importante el por
ciento que el mismo representa en el equilibrio conformacional de la molécula. Así, confórmeros
farmacóforos energéticamente estables presentarán una mayor actividad que aquellos que, debido

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


17 Introducción al diseño racional de fármacos

a su inestabilidad energética sean menos abundantes en el equilibrio y por lo tanto menos


disponibles a la hora de la interacción con el receptor.
3. El compuesto no debe presentar en su estructura otras partes que le permitan una interacción
parcial con el receptor, pues estaría bloqueando la actividad del compuesto.

En la actualidad existen dos vías fundamentales de obtener el farmacóforo y estas son:

• Cuando no se conoce la estructura del receptor


• Cuando se conoce la estructura del receptor

II.2.1.1 Obtención del farmacóforo cuando no se conoce la estructura del receptor.

En este caso, el trabajo está destinado a la búsqueda de las secuencias en la estructura química de
múltiples ligandos que se unan a un mismo receptor. Para esto, se utilizan una serie de programas
que permiten la visualización tridimensional de los ligandos, a través de los cuales, se pueden realizar
rotaciones, traslaciones y operaciones de superposición de las moléculas. En sentido general se
pueden definir cinco métodos computacionales a partir de los cuales puede definirse la estructura de
un farmacóforo:

1. Por análisis de estructuras análogas y mapeo del receptor.


2. Por análisis conformacional y quimiometría.
3. Por determinación de las distancias geométricas.
4. Por determinación de los potenciales electrostáticos moleculares.
5. Por técnicas de QSAR tridimensional.

Análisis de estructuras análogas y mapeo del receptor

En el análisis de estructuras análogas y mapeo del receptor se llevan a cabo dos pasos fundamentales.
En el primer paso es posible llegar a detectar, por superposición de un conjunto de estructuras,
aquellas regiones de las moléculas que son indispensables para la actividad, y aquellas que son
vulnerables a ser sustituidas con variaciones pequeñas en la afinidad. La información así recopilada
puede orientar sobre la naturaleza de los grupos funcionales necesarios para la interacción con el
receptor. En un segundo paso, la hipótesis establecida es verificada por determinación de cual es la
disposición tridimensional coincidente de estos grupos (conformaciones) para los compuestos en
estudio. El arreglo tridimensional obtenido para los grupos indispensables se convierte en un
candidato a farmacóforo, el cual debe ser posteriormente evaluado en moléculas activas sobre el
mismo blanco molecular y no incluidas en el estudio. El farmacóforo así obtenido puede ser
consolidado por un análisis de cargas y estableciendo los potenciales electrostáticos del mismo.

Adicionalmente, es recomendable calcular el volumen del sitio de unión que está realmente
disponible para ser ocupado por los ligandos. El volumen mínimo lo proporciona la unión de los
volúmenes de todas las moléculas activas en aquellas conformaciones que sirvieron para proponer el
farmacóforo. Una vez conseguido esto, se debe probar con moléculas que posean estos mismos
grupos funcionales y sin embargo tengan muy poca o ninguna afinidad por el receptor. En el caso de
que una molécula sea capaz de adoptar una conformación energéticamente razonable, en la cual los
grupos farmacóforos se encuentren correctamente alíneados con los compuestos activos, una
J.C. Escalona, R. Carrasco y J. A. Padrón 18

explicación alternativa posible sería entonces el análisis del volumen molecular de la misma. Si este
volumen es superior al calculado para el resto de las moléculas, entonces esta seria una causa
razonable de la inactividad del mismo.

Si el conjunto de moléculas estudiadas es lo suficientemente grande, se pueden llegar a determinar


mapas de volumen para diversos receptores, cuya comparación puede permitir optimizar la actividad
de un compuesto con respecto a otro. Esta metodología sirve para caracterizar la topografía de
receptores de los cuales no se conoce su estructura tridimensional, al permitir determinar tanto el
volumen asequible al farmacóforo como el volumen adyacente que debe ser excluido de los ligandos.
Sobre esta base, Lloyd en 1986, llegó a proponer una estructura farmacófora común para 14 clases
diferentes de fármacos que actúan sobre el SNC.

Análisis conformacional y quimiometría

El análisis conformacional puede ser tratado como un problema multidimensional si se construyen


mapas de distancias y de torsión angular de los confórmeros obtenidos. Las matrices así obtenidas
son transformadas o simplificadas utilizando métodos estadísticos clásicos como el análisis de
componentes principales, análisis factorial o por técnicas clusters. Estos procedimientos son
conocidos como métodos quimiométricos y tienen como objetivo disminuir el número de variables a
analizar.

Este tipo de estudio necesita de un análisis conformacional riguroso de cada una de las moléculas a
analizar, pues puede ser que para un determinado fármaco, la conformación activa no sea la más
estable termodinámicamente, debido a que la energía libre de asociación supera generalmente la
energía necesaria para que el ligando sufra un cambio conformacional. Esta limitante, hace que este
tipo de estudio sea muy complicado y que los resultados a obtener no sean siempre satisfactorios,
pues cada conformación energéticamente accesible, presupone una disposición tridimensional
diferente de los grupos candidatos a interaccionar con el receptor. Es por eso que este tipo de análisis
debe ir siempre acompañado de un método quimiométrico, en aras de reducir el número de
conformaciones a analizar.

Una forma común de paliar esta dificultad es la búsqueda de un análogo rígido que tenga este mismo
mecanismo de acción, plegando el resto de las moléculas a la conformación impuesta por él. No
obstante, existen casos en los que no se dispone de un análogo de este tipo y otros, en los que este
análogo rígido no es tan efectivo famacológicamente, generando resultados, en este último caso, con
un grado de error proporcional al grado de afinidad presentado por esta molécula.

Determinación de las distancias geométricas.

Este método desarrollado inicialmente por Crippen y col.6 necesita de un riguroso análisis
conformacional. En este tipo de estudio se proponen por superposición molecular, distancias óptimas
a las que se deben encontrar los grupos capaces de interaccionar con el blanco molecular. Como la
matriz de distancia no varía ni con la rotación ni con la traslación, también es aplicable la
superposición con análogos rígidos. Con la información del volumen molecular anteriormente
descrito, se pueden además dar explicaciones acerca de las diferencias entre agonistas y antagonistas.

6
Crippen, GM. Et al. J. Med. Chem., Vol22, 1979.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


19 Introducción al diseño racional de fármacos

Cuando la geometría y la naturaleza del sitio de unión se han calculado, es posible obtener por
diseño, compuestos con mayor capacidad de unión al receptor, pudiéndose calcular además, la
energía de unión y predecir la energía con la que el nuevo compuesto interaccionará con el blanco
molecular. Como complemento, se han diseñado algoritmos computarizados para buscar nuevas
clases de compuestos con una determinada actividad, comparando bibliotecas de fragmentos
moleculares de estructuras conocidas y seleccionando aquellas que mayores posibilidades tienen de
ajustarse a las medidas previamente calculadas para el sitio de unión.

Determinación de los potenciales electrostáticos moleculares.

Para que ocurra la formación del complejo ligando-receptor, debe ocurrir el reconocimiento del
potencial electrostático del ligando por el receptor. Esto hace que este tipo de estudio brinde una
información importante a la hora de determinar el farmacóforo.

El cálculo del mapa del potencial electrostático de una molécula puede ser llevado a cabo por
métodos de cálculo mecánico-cuánticos, ab initio o por métodos de cálculos de carga basados en el
incremento de la electronegatividad. No obstante, debe tenerse en cuenta en el análisis
conformacional que se realice, que el potencial electrostático es altamente dependiente de la
conformación adoptada por el ligando, y por tanto, los resultados derivados de él dependerán en gran
medida de los confórmeros empleados en el establecimiento del farmacóforo y de la efectividad del
método empleado para el análisis conformacional.

Criterios de calidad de los modelos de farmacóforos. Alcances y limitaciones

Independientemente de los resultados que estos tipos de análisis generen, la calidad en la obtención
de los farmacóforos es menor que en aquellos casos en los que la estructura del blanco farmacológico
es conocida, por lo que su contribución al descubrimiento de nuevas moléculas tiene un alcance
limitado. No obstante, en la actualidad las principales determinaciones de estas secuencias se realizan
con la utilización de estos métodos, por la generalmente escasa información sobre las moléculas
dianas.

Un modelo farmacóforo ideal debe ser lo suficiente explicativo y predictivo para poder llenar los
siguientes criterios:7

1. Incluir y explicar las diversas series de compuestos químicos reconocidos como activantes del
receptor en estudio.
2. Contener al menos un representante rígido y por otro lado representantes flexibles en los que las
conformaciones de mínima energía y otras conformaciones secundarias puedan ser analizadas.
3. Debe proponer la razón de la pérdida de actividad en los análogos inactivos con respecto a las
estructuras activas.
4. Debe ser capaz de discriminar estereoisómeros, pues la estereoespecificidad es la principal
característica de los receptores.
5. Debe ser distintivo entre agonistas y antagonistas.

7
Wermuth, CG., Langer, T. Pharmacophore identification, 3D QSAR in drug design, Cap I. Ed. Leiden, Germany,
1993.
J.C. Escalona, R. Carrasco y J. A. Padrón 20

6. Debe ser validado en su capacidad predictiva en el diseño de nuevos y más potentes fármacos de
estructuras totalmente novedosas.

Las limitaciones fundamentales de este tipo de estudio estriban en que se discriminan las posibles
uniones alternativas que puedan ocurrir entre el ligando y el receptor, o incluso la unión en diferentes
sitios del propio receptor. Además, se ignora las afinidades relativas perdiendo información sobre la
magnitud de la interacción.

II.2.1.2 Obtención del farmacóforo cuando se conoce la estructura del receptor

El conocimiento de la estructura del receptor puede simplificar el estudio de identificación del


farmacóforo. No obstante, la tarea de determinación de la estructura de una macromolécula como
estas, constituye en la actualidad un evento de gran dificultad.

Los primeros en describir una estructura y una conformación detallada para una estructura celular
fueron los famosos genetistas Watson y Crick en 1953, con sus trabajos sobre el ADN. La doble
hélice del mismo, y la complementariedad que debe existir entre los pares de nucleótidos hace que el
ADN sea un blanco farmacológico de suma importancia, al que se pueden unir pequeñas y medianas
moléculas tanto por intercalación en su doble hélice como impidiendo la formación de la misma.

Por otro lado, la primera descripción detallada sobre la estructura y conformación de una proteina
data desde 1958, cuando Kendrew caracterizó por cristalografía de rayos X a la mioglobina de
ballena. Teniendo en cuenta que una gran cantidad de fármacos realizan su acción por unión a
enzimas o receptores peptídicos, es que este tipo de información estructural sobre las proteinas es de
gran utilidad en el diseño de fármacos.

En la actualidad existen bancos de datos de coordenadas atómicas (estructuras tridimensionales) de


macromoléculas biológicas, procedentes de cristalografía de rayos X y de resonancia magnética
nuclear. La mayor base de datos de macromoléculas la constituye el banco de datos de proteinas
(PDB) de Brookhaven que cuenta en la actualidad con varios miles de estructuras de proteinas y
varios cientos de estructuras de ácidos nucleicos.

Actualmente se ha logrado además, la cristalización de las estructuras de receptores en su unión con


el ligando. De esta forma, es posible conocer cuáles son los grupos del ligando que interaccionan
directamente con el receptor, y cuáles son sus contrapartes en la proteina.

Con estos resultados es posible conocer la naturaleza de la unión, la flexibilidad del receptor, y las
interacciones que mantienen al ligando unido al mismo, pudiendo estimarse por tanto la energía de
estabilización de este complejo, y además, el aporte por separado, de cada una de las regiones del
ligando. Mediante este tipo de estudio, es posible definirse entonces de manera más precisa y exacta,
la naturaleza del farmacóforo. Además, la lectura en computadoras de estos datos del complejo
fármaco-receptor, permitirá la manipulación del ligando y la inserción de otros ligandos en la cavidad
de unión, pudiendo analizar la naturaleza de la interacción entre estos nuevos sustratos con el
receptor. Esto permite también la inserción de estructuras construidas o diseñadas para su ajuste
exacto al receptor, siendo fuente de generación de nuevas entidades famacológicamente activas.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


21 Introducción al diseño racional de fármacos

Otra de las utilidades que brinda el conocimiento de los receptores estriba en la posibilidad de
estudiar la naturaleza de otras estructuras o receptores análogas a él cuya estructura tridimensional se
desconozca. Esta técnica se conoce como modelado de receptores farmacológicos.

Teniendo en cuenta que la mayoría de los datos de proteinas provienen de cristalografía de rayos X,
la cual se obtiene en estado cristalino, hace que el modelado de proteinas o de receptores
farmacológicos afronte dos problemas básicos:

1. El número de conformaciones en una proteina es enorme. Por ejemplo un receptor de tamaño


pequeño, 250 aminoácidos, posee unos 750 grados de libertad de ángulos torsionales. Si cada uno
de estos ángulos, tiene acceso a sólo 4 valores de mínimos energéticos el número teórico de
conformaciones a adoptar por la proteina será de 4750. Esto no ocurre cuando se dispone de datos
de RMN, que brinda los datos de los aspectos dinámicos del movimiento interno de la proteina.
Las técnicas actuales de cristalografía de rayos X a baja resolución han logrado mejorar estos
resultados.
2. La descripción teórica de la interacción entre los átomos de una proteina requiere la formulación
precisa de un potencial o campo de fuerza empírico que contengan términos para representar los
enlaces covalentes, los ángulos de enlaces de hidrógeno, y las interacciones electrostáticas y de
van der Waals. En la actualidad estos programas no son capaces de predecir a partir de una
estructura primaria la estructura tridimensional.

No obstante estas limitaciones, es posible predecir la estructura y propiedades de una proteina a


partir de la estructura tridimensional de otra proteina con un porciento de analogía razonable. De
esta forma se logrará tener la estructura “aproximada” de una proteina no conocida y por tanto
diseñar nuevos ligandos capaces de acoplarse al centro activo de la misma.

II.2.2 Consideraciones Finales

El modelado molecular continúa su evolución aplicando una gran variedad de métodos


computacionales al problema de identificar las complejas relaciones existentes entre estructuras
moleculares y actividades biológicas en cuanto a interacciones entre los átomos constituyentes. La
introducción de nuevos métodos de cálculo y de computadoras cada vez más potentes, generarán sin
dudas nuevos resultados que culminarán con la obtención de estructuras novedosas cada vez más
potentes y selectivas.

II.3 TECNICAS QSAR EN EL DESARROLLO DE NUEVOS FARMACOS

Estos métodos están basados en el empleo de técnicas de correlación entre la estructura química y la
actividad biológica. En este tipo de técnica, a las que el uso común han designado con las siglas
QSAR (derivadas del término anglófono Quantitative Structure-Activity Relationships)8, la actividad
biológica es interpretada como función de diferentes aspectos de la estructura química, y por lo tanto
dependiente de ésta como se analizará más adelante.

8
. Kubinyi H., Methods and Principles in Medical Chemistry Vol. 1. QSAR: Hansch Analysis and related approaches.
Editorial: VCH Verlag. RFA y VCH Publishers NY USA. Editor, H.F.Hebel, (1993).
J.C. Escalona, R. Carrasco y J. A. Padrón 22

La actividad biológica del fármaco, producto de su interacción con el receptor, es una función de las
características estructurales de la molécula. El modelo extratermodinámico de Hansch brinda una
explicación matemática del fenómeno en la siguiente ecuación:

ln A= fh(Xh) + fe(Xe) + fs(Xs) + cte


Ecuación 3

donde A es la actividad y fh(Xh), fe(Xe), fs(Xs) son funciones de índices o parámetros hidrofóbicos,
electrónicos o estéricos respectivamente. El término extratermodinámico proviene de que las
relaciones se describen en términos termodinámicos, aunque no se deducen de sus leyes.

Las aspectos fundamentales de la metodología extratermodinámica pueden formalizarse en una serie


de puntos, la mayoría de los cuales se extraen de la ecuación fundamental, y es lo que se conoce
como el paradigma de Hansch, que establece que:

1. La actividad biológica es función de la estructura del fármaco.


2. La estructura del fármaco implica ciertas propiedades globales como la hidrofobicidad,
refractividad molar, y solubilidad entre otras; y ciertas propiedades locales como la distribución
de la hidrofobicidad, carga y volumen en determinadas posiciones de la molécula.
3. Estas propiedades globales y locales pueden ser cuantificadas mediante ciertos parámetros.
4. Siempre existe una función que relaciona los cambios de actividad biológica con los cambios en
las propiedades globales y locales, aunque puede ser que no sea sencilla ni evidente.

Las funciones estructura-actividad que propone el método extratermodinámico, constituye un método


mediante el cual se pueden buscar los productos más activos entre un conjunto de candidatos.

La metodología de investigación en el QSAR sigue, independientemente del modelo que se utilice,


pasos comunes que se hallan resumidos en la figura # 4. El punto de partida implica en todos los
casos la existencia de una cabeza de serie. Este producto, aunque reviste interés como modelo a
desarrollar, tiene propiedades susceptibles a ser mejoradas en aras de obtener siempre un producto lo
más biodisponible posible.

Cuando se dispone de un prototipo, es preciso diseñar una serie de exploración, que debe estar
constituida por un conjunto de análogos del prototipo, para establecer las primeras relaciones
estructura-actividad. Los miembros de la serie de exploración han de ser sintetizados y evaluados en
la actividad biológica de interés.

Los miembros de la serie de exploración están constituidos por un núcleo común, y unos
sustituyentes o fragmentos variables, que son característicos de cada producto de la serie. Dichos
sustituyentes variables han de ser identificados por descriptores, que serán utilizados como variables
independientes (Xi) en el modelo. Los valores de actividad biológica (A) –expresados regularmente
en forma logaritmica- se utilizan como variable dependiente.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


23 Introducción al diseño racional de fármacos

Es de particular importancia la calidad de la serie de exploración a emplear, pues la calidad de las


predicciones van a estar condicionadas en gran medida al diseño óptimo de esta serie, para así tratar
de evitar fallos en la predicción.

Prototipo o cabeza de seie

Serie de exploración

Identificación Actividad
Sustituyentes Biológica

Tratamiento de la muestra

Modelo matemático

Productos óptimos

Fig. #4 Diagrama sobre la metodología de investigación en estudios QSAR.

II.3.1 Elección de la serie

La calidad de una serie de exploración viene definida principalmente por dos aspectos:

1. Disimilitud de la serie. Los productos de la serie deben ser, respecto a los parámetros elegidos,
diferentes entre sí. No tiene sentido intentar estudiar cómo influye una característica sobre la
actividad si sólo se estudian productos similares respecto a esta característica. Además, puesto
que la serie debe ser una muestra del espacio experimental, el rango de variación de las
características dentro de dicha serie debe ser equiparable a la que existe en el espacio
experimental.
2. Ortogonalidad de la serie. Los productos deben escogerse de tal forma que la variación en las
características se produzca de manera independiente. Si la variación de una propiedad X1 viene
siempre acompañada de la variación en otra propiedad X2, no es posible conocer si el cambio de
actividad de unos a otros productos se debe al cambio en la propiedad X1 ó en la propiedad X2.
En estas situaciones se dice que las propiedades X1 y X2 se encuentran correlacionadas en la
J.C. Escalona, R. Carrasco y J. A. Padrón 24

serie. Una serie en a cual las correlaciones entre los parámetros son mínimas se dice que la serie
es ortogonal.

Una vez definida y evaluada la actividad biológica de la serie de experimentación se procede al


tratamiento de la muestra, de la cual se obtiene un modelo matemático que permitirá predecir uno o
varios compuestos a los que les serán evaluadas sus actividades biológicas y reincorporados, en caso
de no presentar una actividad óptima, a la serie de exploración. Este proceso se repetirá el número de
veces necesarias hasta lograr la eficacia esperada para el fármaco a obtener.

II.3.2 Tipos de estudios QSAR.

En la actualidad existen diferentes técnicas por las que se puede desarrollar un estudio QSAR en
dependencia del tipo de tratamiento matemático que se le dé a la muestra y se pueden clasificar en:

• QSAR tradicional
• QSAR por redes de neuronas
• QSAR tridimensional

II.3.2.1 QSAR tradicional.

El método tradicional incluye el tratamiento estadístico de los datos por métodos multivariados, que
incluye el análisis de regresión, análisis cluster y análisis por componentes principales, entre otras
técnicas estadísticas. En ellos se valora la actividad biológica como variable dependiente del conjunto
de descriptores moleculares que constituyen las variables independientes.

Como resultado de esto se obtienen modelos que describen la actividad biológica como una
determinada función matemática de los descriptores moleculares, bien sean estos estructurales,
químico-físicos, o ambos.

El método estadístico más familiar es la regresión múltiple, en la que se obtendrá la ecuación de una
recta, un plano, o de un hiperplano, según sea el número de variables independientes incluida en la
expresión. En el caso del análisis cluster, los datos y por lo tanto los compuestos de la muestra, se
agruparán por la semejanza entre ellos según los valores de similitud que se le exijan.

El análisis de componentes principales tiene como principal objetivo la reducción de variables. A


diferencia de lo que pudiéramos creer, en la práctica de la modelación estructural el número de
descriptores es muy grande y la selección de los que mejor representan a la muestra en la actividad
biológica estudiada es difícil de definir en ocasiones. En el análisis por componentes principales, los
datos se combinan en una línea recta. Esta línea recta es rotada de diferentes formas y en cada una de
ellas se establecen los coeficientes de cada variable. Por lo tanto, en dependencia de la rotación que
se haga, así variarán los valores de los coeficientes de cada descriptor estructural o químico-físico y
por ende su peso o influencia en este componente. Cada componente (resultado del ajuste a un
modelo líneal de todas las variables en las rotaciones efectuadas) se utiliza como una nueva variable.
Con estas nuevas variables se puede realizar un análisis de regresión y determinar cual es la
componente más importante o de mayor calidad para describir la muestra. Es práctica común emplear
solamente aquellas que en su conjunto dan el mayor valor de varianza explicada. El problema

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


25 Introducción al diseño racional de fármacos

entonces para el especialista consiste en poder asignar a esas componentes una significación químico-
física o estructural. Recordemos que cada una de ellas es el resultado de la combinación líneal de
todos los descriptores, con sus respectivos pesos.

El análisis de regresión múltiple, como se planteó anteriormente, es el más utilizado dentro del
QSAR tradicional. En él, una vez de establecidos los conjuntos de valores de las variables
independientes Xi y la actividad biológica A, se obtiene un modelo en forma de ecuación de una recta
(ecuación 4), la cual describe la dependencia de la actividad (A) en función del conjunto de
descriptores (Xi) así como la magnitud de las contribuciones de cada uno de ellos.

A=f(Xi) + cte.
Ecuación 4.

El modelo así obtenido ha de ser analizado en función de su calidad estadística, para poder evaluar su
capacidad de predicción. Cuanta mayor calidad estadística tenga el modelo, más confiables y exactas
serán las predicciones a realizar.

La calidad estadística de un modelo se evalúa por diferentes estadígrafos. Los más comúnmente
aceptados son el coeficiente de regresión r, el valor F de Fischer y la desviación estándar s. Cuanto
más tienda a la unidad el valor de r, mejor ajuste tendrán los datos al modelo. El valor F correlaciona
la varianza explicada (r2) por el número de grados de libertad, con la varianza no explicada (1- r2)
por el número de variables del modelo. Cuanto más alto es el porcentaje de varianza explicada por el
modelo mayor será el valor de F, mientras que la existencia de variables con baja contribución a la
explicación de la varianza, tenderán a disminuir dicho valor, que tiende a infinito en los mejores
modelos. La desviación estándar s depende de la varianza no explicada y de los grados de libertad del
modelo y es una medida de cuanto se alejan los valores predichos por el modelo de la línea, plano o
hiperplano. La tendencia a cero de este valor pudiera presuponer mayor calidad en la predicción. Sin
embargo, esto puede conducir a modelos sobrepredictivos en los cuales se refleje exactamente el
comportamiento de la muestra pero que no sea posible utilizarlo para la extrapolación de valores en
el caso de la predicción de nuevos compuestos. Un valor de s es válido cuando está en el mismo
orden de magnitud del error experimental de las mediciones de la variable dependiente (la actividad
biológica).

En la ecuación 5 se muestra el modelo de regresión líneal múltiple obtenido por nuestro grupo de
investigación al correlacionar los datos reportados de actividad bactericida de un grupo de alcoholes
alifáticos.

log MIC=31.88(±6.95)**-2.10(±0.17)P1ΩQC***+2.16(±0.62)EHOMO**
N=12 R=0.97 F=74.22 S=0.44
Ecuación 5

Como se puede observar en esta ecuación, la actividad bactericida, expresada como función
logarítmica de la concentración mínima inhibitoria (log MIC), es una función de dos índices que
describen las características estructurales de la muestra de 12 alcoholes (n=12). Según establece esta
ecuación, la actividad aumentaría con un decrecimiento en los valores del índice P1ΩQC, el cual sólo
admite por definición valores positivos, (observe el signo negativo delante del valor de la variable).
J.C. Escalona, R. Carrasco y J. A. Padrón 26

Un aumento de la actividad también se lograría incrementando el valor de la energía HOMO


(EHOMO), observe el signo positivo. El valor 31.88 es la constante o intercepto. De manera general,
según lo establece el modelo, alcoholes con índices bajos de P1ΩQC y elevados valores de EHOMO
deben poseer mayor poder bactericida.

Si analizamos la calidad estadística del modelo, observaremos que el mismo posee un alto coeficiente
de correlación r=0.97, un valor bajo de desviación estándar s=0.44, y un elevado valor de F, por lo
que el modelo debe tener una alta capacidad predictiva.

Consideraciones adicionales para el establecimiento de una ecuación con calidad se tienen en función
del número de variables independientes a incluir en el modelo. La cantidad de variables, debe estar
limitada por el número de compuestos que forman parte de la serie de exploración, de forma tal que,
la relación existente entre ellos sea de una variable por cada 5 o 6 compuestos en la serie de
exploración. La utilización de una cantidad excesiva de variables en una ecuación de regresión puede
conducir a reproducciones de la muestra de entrenamiento eliminándole el valor predictivo al
modelo. Es necesario señalar además que, mientras mayor número de variables se incluyan en la
ecuación, mayor será el número de parámetros a variar en el compuesto a obtener, hecho que se
puede tornar difícil en la práctica sintética.

II.3.2.1.1 Análisis de residuales

Otros estadígrafos empleados para determinar la calidad de un modelo son el error cuadrático medio
(ECM), el error absoluto medio (EAM) y el error relativo medio (ERM). El error en la predicción o
residual a quien se hace mención, es la diferencia entre el valor observado o experimental y el valor
predicho (calculado) por el modelo. Su transformación brinda información acerca de la calidad o
ajuste del modelo a nuestros datos y la forma de cálculo es simple.

Error cuadrático medio. Es el promedio del cuadrado de los residuales (diferencia entre el valor
observado y el valor predicho). Con él se resaltan los mayores valores de error y se elimina el efecto
de los valores negativos de los mismos.

Error absoluto medio. Es el promedio del valor absoluto de los residuales. De esta forma se eliminan
los signos negativos y positivos de los errores y permite el análisis integral de los mismos,
independientemente que el error sea por sobrepredicción (valor predicho superior al observado) o por
subpredicción (valor predicho inferior al valor observado).

Error relativo medio. Con él es posible dar información de una manera clara, sobre el
comportamiento de los errores en toda la muestra. Se calcula sacando el promedio al cociente del
valor absoluto de los residuales entre el valor experimental y se da en forma de porciento. Al
dividirse el error absoluto entre el valor observado, se hace posible comparar todos los errores entre
sí según el peso que representan ellos para cada compuesto en cuestión. En este caso, teniendo en
cuenta que se trabaja generalmente en términos de concentración, aquellos compuestos cuya
respuesta biológica se alcanza a valores mayores, su error, como es obvio, podrá tener un valor
mayor también. En estos casos, analizar los resultados en términos porcentuales del error, no
permitirá que se desvirtúe el resultado por el peso que puedan tener en la muestra aquellos
compuestos con valores mayores de respuesta biológica.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


27 Introducción al diseño racional de fármacos

En dependencia de la naturaleza de los residuales y de los datos, así como del interés del
investigador, se seleccionará el tipo o los tipos de error a reportar. Cada uno de ellos brinda una
información que puede ser válida en el análisis de los resultados. Además, en un estudio estadístico
determinado, no todos los integrantes de la muestra se ajustan necesariamente al modelo. La razón
puede ser, desde una mala selección de la muestra, hasta un comportamiento diferente en el medio
biológico, por actuar por un mecanismo distinto o por enmascararse la actividad con reacciones
competitivas que sustraen al compuesto del medio. Otra razón puede ser la incapacidad de los
descriptores empleados (variables independientes) de reflejar los aspectos estructurales de interés en
un compuesto específico. Todo esto hace que en un momento determinado, un elemento no se ajuste
a la recta, plano o hiperplano que describe el modelo. Toca entonces definir si ese comportamiento
que lo sitúa como outlier estadístico se debe a algo casual.

Outliers estadísticos son por definición observaciones atípicas no frecuentes. Por la forma en que se
determina la línea de regresión en la Regresión Múltiple, los outliers tienen una profunda influencia
en la pendiente de la línea de regresión y en consecuencia, sobre el valor del coeficiente de
correlación. Incluso un solo outlier es capaz de provocar estos cambios. Ellos representan errores al
azar que debemos ser capaces de controlar, pues pueden ser capaces no sólo de incrementar el valor
de un coeficiente de correlación sino también de disminuirlo. Por eso se recurre a lo que se conoce
como Análisis de Residuales en el que se decide la exclusión o permanencia de del compuesto en
cuestión dentro de la muestra en estudio.

Son diferentes los tipos de residuales que se analizan para definir si un compuesto es o no outlier.
No es correcto al momento de hacer este análisis, emplear un solo criterio de exclusión. Para eso se
emplea más de uno, de los cuales haremos una breve reseña, sin pretender presentarlos todos.

Criterio para la eliminación de outliers


Cuando se trabaja con muestras reducidas (n ≤ 100), los coeficientes de la ecuación de regresión no
son muy estables. Es decir, valores extremos pueden influir demasiado en los resultados de la
regresión. Por lo tanto, es aconsejable revisar diferentes criterios de eliminación de outliers para
reiniciar el análisis en los casos más críticos después de eliminarlos. En este trabajo analizaremos
como indicadores de la condición de outliers los siguientes estadígrafos:

Residual estándar. Es el valor del residual, estandarizado (el valor observado menos el valor
predicho dividido por la raíz cuadrada del residual cuadrático medio). Lo utilizaremos como criterio
de exclusión absoluto si su valor es mayor que 3σ, aunque según la naturaleza del problema, puede
oscilar entre ±2σ y ±5σ.

Distancia de Mahalanobis. Si pensamos que las variables independientes de la ecuación están


definiendo un espacio multidimensional, podemos pensar también que en ese mismo espacio
podemos plotear el valor medio de cada variable independiente. A este pseudo punto medio del
espacio multidimensional se le llama centroide. La distancia de Mahalanobis es la distancia del
centroide al caso en el espacio multidimensional, y su medida da un índice de si una observación es o
no un outlier.
J.C. Escalona, R. Carrasco y J. A. Padrón 28

Residuales borrados. Es el valor estandarizado para cada caso, si este ha sido excluido del análisis de
regresión. Si el residual borrado difiere mucho del residual estandarizado respectivo, entonces ese
caso es posiblemente un outlier porque su exclusión cambia la ecuación de regresión.

Distancia de Cook. Indica la diferencia entre el valor del coeficiente de la variable independiente
calculado y el valor que se debía esperar después que el caso se excluye Todas las distancias deben
ser aproximadamente de la misma magnitud. Si no es así, puede decirse que el caso respectivo varió
la estimación de los coeficientes de regresión.

En última instancia, cuando un compuesto de la muestra resulta outlier en tres o más criterios,
entonces se le puede considerar un verdadero outlier estadístico y se le excluye de la muestra, si no
existen consideraciones cualitativas de compromiso que fuercen su permanencia.

II.3.2.1.2 Análisis gráfico de resultados.

En estadística, los gráficos resultan de mucha utilidad para visualizar la información contenida en los
modelos. Esta forma de análisis se aplica lo mismo al modelo en sí como a los residuales.

Gráficos de predichos vs observados

Este tipo de gráficos ilustra el comportamiento de los valores experimentales respecto a los predichos
por el modelo. El comportamiento ideal es cuando existe coincidencia entre ambos valores y por lo
tanto se superponen dando una línea recta. La figura 5 es el resultado de plotear el valor predicho de
Area de Superficie Accesible a Disolvente contra los valores calculados por el método DelPhi en una
muestra heterogénea de 296 compuestos9, descrito por la ecuación:

ASAD = 85.12(±2.121) +60.19(±1.886)1χv- 40.743(±2.648) 3χv - 20.406(±2.186)4χ


+27.128(±1.626)1ε + 8.505(±2.638) 2Ωq3 -26.822(±4.553)Ω4-15.441(2.360)5ε-9.569
(±1.867)1Ω +10.768(±2.310)1Ωq3+15.878(±4.072) 5Ωq
R= 0.994 R2= 0.988 F(10,285)=2424.5 p<0.0000 S= 9.284 n=296

Ecuación 6

9
Padrón, JA,. Carrasco, R., Marrero, J., Pardillo, E and Estrada, E. Use of Topological and Topographical Indexes in the
Prediction of the Solvent Accessible Surface Area. Quant Struct Act Relat.Submited

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


29 Introducción al diseño racional de fármacos

Figura 5. Valores predichos vs observados obtenidos por la ecuación 6.

Gráfico de Residuales vs Residuales Borrados

Con este tipo de gráfico es posible ver de manera clara la estabilidad del modelo cuando se elimina
por pasos cada uno de los casos de la muestra. Según esta forma de presentación, aquellos residuales
borrados que no se ajusten a la recta, pueden ser analizados como potenciales outliers. Su
eliminación y posterior análisis de la ecuación resultante, así como de los gráficos correspondientes,
decidirá si realmente el compuesto constituye o no un outlier. En la figura 6 se muestra el gráfico de
Residuales vs Residuales Borrados correspondientes a la ecuación anterior.

Figura 6.Gráfico de residuales vs residuales borrados de la ecuación 6


Según este resultado hay al menos un compuesto con posibilidad de ser outlier. La exclusión del
mismo empeoró la ecuación de regresión (menor R, menor F y mayor s), y por lo tanto permaneció
en el modelo.
J.C. Escalona, R. Carrasco y J. A. Padrón 30

Gráfico de distribución de residuales estándar o de residuales puros.

En ocasiones resulta de interés al momento de la presentación de los resultados, visualizar


gráficamente la distribución de residuales. Esta forma de presentación en histogramas resulta muy
ilustrativa, sobre todo si se desea trasmitir al potencial lector la información directa y confiable del
rango de error en que incurre el modelo, así como su distribución normal. Al analizar outliers a partir
de los residuales estándar se fijan en valores no mayores de ±2σ, ±3σ o de hasta ±5σ, según los
objetivos y tareas concretas. Es decir, que los valores de error no se separen de los experimentales en
más de 2, 3 o hasta 5 veces la desviación estándar (σ) del experimento.

La figura 7 muestra la distribución de residuales estándar de un modelo de regresión para la


estimación del coeficiente de partición octanol/agua en una muestra heterogénea de 58 compuestos10,
dado por la ecuación 7.

log P = 1.476(±0.123)p1Ωq- 0.463(±0.036)HB1-6.657(±1.204)p6ερ +6.492(±1.352)p6Ω -


1.118(±0.462)c3Ωq - 0.621(±0.273)
n=58 R= 0.965 R²= 0.932 F(5,52)=142.69 p<0.000 s= 0.275

Ecuación 7.

Distribution of Standard residual


20

18

16

14

12
No of obs

10

2
Expected
0
-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 Normal

Figura 7. Gráfico de distribución de residuales estándar para la ecuación 7.

De la gráfica anterior puede observarse que los residuales estándar no sobrepasan el valor de ±3σ y
que presentan una distribución casi normal, compatible con la heterogeneidad de la muestra.

10
Carrasco, R., Capote, R., Padrón, JA., and Estrada, E. Modeling Physico-chemical Properties of Organic Compounds
from Topological/Topographic Molecular Descriptors. J. Chem. Inf. and Comput. Sci., submited.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


31 Introducción al diseño racional de fármacos

II.3.2.2 QSAR por redes de neuronas.

A nuestro mundo civilizado de hoy se le ha dado en llamar la “Sociedad de la Información”. Esta


idea, expresada de otra forma: “El dueño de la información es el dueño del mundo”, ilustra el estado
actual de este aspecto de la vida del hombre en los finales del siglo XX. Es tan grande la cantidad de
información de todo tipo que se recibe por múltiples vías diariamente, que se hace evidente que
podemos quedar “ahogados” dentro de esa avalancha de conocimientos que nos llega. Cada vez
resulta más difícil hallar el dato necesario dentro de la profusión de datos individuales.

El análisis de datos en química no es algo nuevo. Durante años se ha realizado por métodos
estadísticos y técnicas de reconocimiento de patrones. Pero también ha estado claro que el cerebro
del hombre recibe y analiza información de forma sui generis porque la adquisición de conocimientos
por el cerebro humano no se realiza por métodos estadísticos.

Las limitaciones propias de los métodos mencionados condujeron a los sistemas expertos. Un
sistema experto tiene su punto de partida en una gran cantidad de información (base de datos), un
número considerable de reglas de conocimientos (base de conocimientos) y un mecanismo de
inferencia que une ambas bases y permite tomar decisiones. En el acápite sobre sistemas expertos, se
presentan ejemplos de estos sistemas basados en computadoras que permiten simular el razonamiento
del hombre en el dominio del saber específico. Sin embargo, los sistemas expertos distan mucho de
ser perfectos. Estos métodos requieren, para construir su base de conocimientos, muchas disciplinas
científicas. Pero evidentemente, esta no es la vía por la cual el cerebro adquiere el conocimiento.

Los avances en neurofisiología, y las nuevas técnicas experimentales como la electroencefalografía,


la tomografía axial computarizada, el tratamiento de imágenes por RMN, la tomografía de positrones
o la de fotones, han incrementado la comprensión de la anatomía del cerebro y de los procesos físico-
químicos que ocurren en él. A partir de este conocimiento, se
diseñaron modelos matemáticos de adquisicón de
conocimientos del cerebro humano llamados Redes de neuronas
artificiales (RNA), o simplemente, Redes de Neuronas (RN).
Los modelos de redes neuronales se basan en la interacción
colectiva y en paralelo de una gran cantidad de procesadores
simples que simulan la conducta de las neuronas biológicas. La
manera como las neuronas se encuentran interconectadas
determina la arquitectura o topología de la red. Cada neurona
por ejemplo, puede estar conectada con todas las restantes (red
Figura 8 Red de Hopfield de Hopfield), estar basada en una sola capa de neuronas
organizada en un plano con una topología definida (red de
Kohonen), o pueden estar organizadas por capas (perceptrón
multicapa). En la figura 8 se muestra un ejemplo de red de Hopfield en la que se indican con flechas
de diferentes tipos la conexión de tres de las 10 neuronas que la constituyen. La figura 9 es un
ejemplo de red de Kohonen bidimensional.

Una RNA la podemos considerar una caja negra que acepta un conjunto de datos, los procesa y
brinda una o más salidas. La función de procesar es a lo que comunmente se le llama aprendizaje de
J.C. Escalona, R. Carrasco y J. A. Padrón 32

la red. Muchos usuarios de las RNA’s desconocen lo que ocurre dentro de esa caja negra sin
embargo, continúan aplicándola a su problema.

Las RNA’s han sido aplicadas en química tanto para estudios de relación estructura-propiedad como
estructura-actividad biológica, de forma cualitativa y cuantitativa. En dependencia del tipo de trabajo
a realizar en un campo específico debe seleccionarse el tipo de red a emplear. En los estudios QSAR
y QSPR es de uso común los perceptrones multicapa para procesamiento cualitativo y cuantitativo de
las muestras. Las redes de Kohonen y Hopfinger se emplean preferentemente en problemas de
selección de variables para el establecimiento de los modelos y para definir muestras de
entrenamiento y prueba. se utiliza frecuentemente para establecer criterios de selección de variables
La selección del tipo de red y la definición de su topología se establece dependiendo del tipo de
trabajo a realizar en el campo específico.

II.3.2.2.1 Teoría de las redes de neuronas artificiales.

Una RNA consiste de un número de unidades de


procesamiento conectadas entre sí usualmente, pero no
siempre en diferentes capas. Aquí sólo expondremos el tipo
de red conocida como perceptrón multicapa por ser la más
ampliamente aplicada en estudios QSAR y QSPR, en el que
la arquitectura más empleada es la de una capa de entrada,
una oculta y una de salida. Esta arquitectura ha demostrado
ser suficiente para la resolución de problemas en este campo
con el máximo de economía en el gasto computacional.

Cada unidad de procesamiento o neurona realiza varias


funciones en analogía muy simplificada al compararla con
C apa C apa C apa los cientos que realizan las neuronas biológicas,
de o c ulta de pero que a los efectos de modelo resultan
e ntra d a s a lid a suficientes. Ellas reciben los datos en la unidad
de entrada, los pasan a la unidad de
procesamiento, aplican una función de
Figura 10. Perceptrón multicapa
transferencia y producen una salida (fig. 10). La
función de transferencia es generalmente una
sigmoide pero pueden ser otras funciones; el
propósito de esta función de transferencia es
simular o mimetizar las funciones de las
neuronas biológicas las que envían un impulso o
señal si la señal recibida o dato está por encima
de un cierto umbral de valor.

Hay diferentes algoritmos para el aprendizaje de


las redes de neuronas, pero el más ampliamente
Figura 9. Red de Kohonen
empleado por los quimiométricos es el conocido
como feed-forward backpropagation, o
simplemente backpropagation. Este procedimiento utiliza un método de aprendizaje supervisado, lo

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


33 Introducción al diseño racional de fármacos

cual quiere decir, que necesita conocer las respuestas a las entradas, por adelantado, o sea, la
actividad biológica o propiedad. De manera común, este tipo de red emplea las unidades
procesadoras en tres tipos de capas: de entrada, oculta y de salida. Cada unidad en una capa está
conectada a cada una de las unidades en las capas adyacentes con un peso o fuerza de conexión ωi. El
ajuste de estos pesos durante el proceso de optimización es lo que se realiza durante el entrenamiento
de la red. El valor de cada unidad en la capa de salida se compara con el valor diana que, en los
estudios de relación estructura-actividad o estructura-propiedad son los valores experimentales de
dicha propiedad.

Mientras que en la regresión múltiple tenemos una tabla de n compuestos con y propiedades químico-
físicas y la actividad biológica asociada a cada uno de los n compuestos, en las RN tendremos y
unidades en la capa de entrada y generalmente una unidad en la capa de salida (actividad o
propiedad) con usualmente una capa de unidades ocultas entre las capas de entrada y salida. Las
entradas a la red pueden ser cada uno de los valores y a cada una de las y neuronas para cada
compuesto. El valor diana para cada uno de los n compuestos será la actividad biológica o la
propiedad químico-física, según sea el caso.

A las redes a las que se les suministran los datos en la capa de entrada y producen una señal hacia la
capa de salida, se les llama feed-forward o de alimentación hacia delante. El entrenamiento de la red
implica cambios iterativos de los pesos en las conexiones hasta que la señal de la neurona o neuronas
de la capa de salida se ajusta, dentro de ciertos valores límites de error, con el valor diana en un
proceso de minimización del error. Hay diversas formas de alterar los pesos de la red pero uno de los
más empleados es la regla delta.

La regla delta, dicha de forma cualitativa, está descrita por una expresión según la cual, los cambios
en el peso de una conexión dada entre dos neuronas es función de dos parámetros denominados β o
velocidad de aprendizaje para ajustar la velocidad a la cual la RN asimila la información, aprende,
durante el entrenamiento y un término α (también se encuentra μ como notación) llamado
momentum, que impide que la red quede atrapada en mínimos locales. Al inicio del entrenamiento, a
los pesos de las conexiones se les asignan valores al azar. Los datos para todos los compuestos se
pasan por la red (se transforman por la función de transferencia) y la respuesta de salida se compara
con el valor experimental, en nuestro caso la actividad, y se determina el error. Los pesos se ajustan
entonces para que los datos pasen por la red por segunda vez con el fin de reducir el error anterior.
Como la regla delta requiere el cálculo de un error en la neurona de salida para calcular los errores
en las restantes neuronas, es que se les conoce como propagación del error hacia detrás o
backpropagation errors, de ahí su nombre. Este proceso se repite iterativamente hasta minimizar el
error por debajo de un valor fijado. Por último, se puede calcular el coeficiente de correlación entre el
valor observado de la actividad biológica y el predicho por la red. Las redes de este tipo se emplean
cuando no se conoce la forma analítica del modelo (lineal, cuadrático, etc.) o cuando se desea extraer
información no-lineal compleja del conjunto de datos.

II.3.2.2.2 Aplicaciones de las redes de neuronas en estudios QSAR.

Al igual que otros modelos matemáticos de análisis de datos, la calidad de los resultados dependerá
en buena medida de la calidad de los mismos, es decir, de la naturaleza de la muestra, así como de los
descriptores empleados para el establecimiento del modelo. La selección de una muestra de trabajo
J.C. Escalona, R. Carrasco y J. A. Padrón 34

puede ser en un momento determinado, un aspecto limitante; bien porque las condiciones
experimentales no permiten llenar vacíos o la bibliografía no suministra la información necesaria. Es
un lugar común el no disponer de los datos necesarios y suficientes, aunque la cantidad de ellos sea
extensa. Esta situación obliga a trazar una estrategia en los estudios QSAR para la selección de las
muestras de entrenamiento y prueba. La aplicación de la misma en el análisis de regresión, permite
validar los resultados del modelo alcanzado en un conjunto de compuestos diferentes al utilizado para
desarrollar el modelo y así valorar su capacidad descriptiva. Por su parte, en el trabajo de RN se
precisa generalmente un tercer conjunto al que se llama de validación, pues en RN es frecuente que
los programas presenten la opción de salvar la mejor red según los resultados alcanzados en la
muestra de entrenamiento o en la de prueba. En estos casos, este procedimiento le restaría algo del
valor de generalización al resultado del aprendizaje, pues la red ya habría visto en algún momento a
la muestra de prueba. Por eso, ese tercer grupo de compuestos constituye el último criterio para
validar los resultados.

Uno de los primeros trabajos aplicados a estudios QSAR fue un análisis discriminante de un conjunto
de derivados anticancerígenos de mitomicina. Se empleó un conjunto de seis variables, dos de ellas
indicadoras y cuatro de sustituyente, se dividió la actividad en cinco categorías y se fijó una capa
oculta de 12 neuronas (arquitectura 6 x 12 x 5) . La red entrenada fue capaz de clasificar
correctamente los 16 compuestos de la muestra de entrenamiento. Sin embargo, el elevado número de
conexiones (132) puede dar lugar a correlaciones casuales o a un ajuste excesivo, lo que en
terminología de RN se conoce como memorizar; es decir, la red ha retratado la muestra y establecido
un patrón único lo cual le impide hacer la generalización de su aprendizaje. Esto hace que si se le
presenta un grupo de compuestos no visto por ella anteriormente, no los reconocerá pues su patrón
para identificar nuevas entidades se especializó en el conjunto de entrenamiento que se le suministró
previamente para el aprendizaje. ¿Qué quiere decir este comportamiento? Que se ha sobreajustado
una superficie a la muestra de entrenamiento brindando un aparentemente buen comportamiento
pero, no permite la predicción. Este problema fue identificado por Andrea (1990) el cual propuso un
parámetro ρ, que puede ser empleado para caracterizar la relación entre los puntos de datos y el
número de conexiones según la expresión:

N o de puntos de datos
ρ=
N o de conexiones

En ese trabajo se recomienda emplear valores de 1.8<ρ<2.2 para evitar por una parte que la red
memorice, y por la otra, para evitar pérdida de información por insuficiente número de conexiones.
En el ejemplo mencionado, ρ=0.5 y por lo tanto, es posible que exista un sobreajuste. Sin embargo,
según J. Zupan y J. Gasteiger11 la búsqueda de una arquitectura apropiada para una red resulta en la
práctica, un procedimiento de prueba y error.

11
Zupan, J. and Gasteiger, J. Neural Networks for Chemists. An Introduction, cap. 8; 1994.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


35 Introducción al diseño racional de fármacos

En otra aplicación, se trabajó con una muestra heterogénea de


CO NH S
R7 7 6
1
2
cefalosporinas (fig. 11) con variaciones estructurales en las
8 5
N 4
3 posiciones 7 y 3 del anillo cefalosporánico y se utilizó la
O
R3 actividad medida frente a E. coli como respuesta biológica. Se
CO OH
dividió la muestra de 104 derivados en tres: de entrenamiento
(n=57), prueba (27) y validación (20). Se lograron
Figura 11. Fórmula general de las predicciones aceptables para un modelo cuantitativo tan
cefalosporinas heterogéneo. El error relativo en la predicción para las
muestras de entrenamiento y prueba es de 7.7% y para la
muestra de validación de 7.9%. En otro trabajo utilizando esa misma muestra, se lograron modelos
para el S. aureus con errores relativos para las muestras de entrenamiento y prueba de 6.9% y de
10.5% para la muestra de validación. Estos resultados se consideran muy buenos, teniendo en cuenta
la elevada heterogeneidad de la muestra.

Una capacidad de análisis de la información que es exclusiva de las redes de neuronas, es la que nos
permite evaluar simultáneamente en un mismo modelo, más de una actividad. La incorporación de
neuronas adicionales en la capa de salida es la que facilita esta opción. En un trabajo actualmente en
curso, nos encontramos evaluando un sistema de redes en las que se evalúa simultáneamente la
actividad de una familia de 65 cefalosporinas de diferentes generaciones frente a dos bacterias Gram
(+), S. aureus y E. cloacae. Para ese estudio la muestra se dividió también en tres: entrenamiento
(48), prueba (12) y validación (5). Se lograron coeficientes de correlación de 0.90 y 0.86, así como
errores relativos promedios de 5.3 y 6.7% para cada bacteria respectivamente. Esta tipo de análisis es
imposible de realizar con otros métodos multivariados.

II.3.2.3 QSAR tridimensional (3D-QSAR).

El QSAR tridimensional es una técnica moderna que combina los aspectos relacionados en el estudio
QSAR clásico con los de los estudios SAR o de modelado molecular. En los estudios SAR de
análogos, la elección se limita a si el compuesto es activo o inactivo. En la práctica, sin embargo, los
resultados se representan generalmente de forma numérica que refleja las diferencias cuantitativas en
la unión de uno u otro ligando. Por otro lado, el QSAR clásico si tiene en cuenta estos valores
numéricos de las afinidades, pero para establecer un modelo por esta técnica, no es posible considerar
compuestos estructuralmente diferentes, ya que en este tipo de análisis, es indispensable el empleo de
una serie estructuralmente análoga. La necesidad de lograr una interfase entre ambos tipos de trabajos
necesitó el desarrollo de un análisis conceptualmente nuevo.

El primer logro en este sentido lo alcanzaron Cramer y colaboradores12 en 1988 al desarrollar el


análisis comparativo de campos moleculares (CoMFA). La premisa básica de este método, es que “el
muestreo adecuado de los campos eléctricos y electrostáticos alrededor de un conjunto de moléculas
o fármacos, puede proporcionar toda la información necesaria para comprender las actividades
biológicas”.

12
Cramer, RD., Patterson, DE., Brunce, JD. J. Am. Chem. Soc. Vol 110, 1988.
J.C. Escalona, R. Carrasco y J. A. Padrón 36

Para hacer esto posible, se precisa del cálculo de los campos de fuerzas por mecánica molecular, que
sólo consideran las fuerzas estéricas y electrostáticas. Para lograrlo, se superponen todas las
moléculas en las conformaciones presumiblemente activas y se calculan las energías de interacción
estéricas (van der Waals) y las electrostáticas (Coulomb) entre cada una de las moléculas de interés.
Posteriormente se recurre a la técnica estadística de los mínimos cuadrados parciales y se extraen las
variables que describen la varianza del conjunto de datos, los cuales se someten después, a una
validación cruzada. El análisis de regresión lineal múltiple no es aplicable en esta técnica, pues, la
cantidad de variables generada en estos estudios es muy elevado.

De manera general los pasos a seguir son los siguientes:

1. Postular la conformación activa para el metabolito endógeno o para el fármaco más activo.
2. Alinear el resto de las moléculas y establecer a su alrededor una malla tridimensional como una
caja de puntos en el espacio potencial del receptor.
3. Calcular el campo que cada molécula ejercería sobre un átomo sonda situado en cada punto de la
malla.
4. Determinar una expresión lineal mediante la técnica de mínimos cuadrados parciales que podría
consistir en un conjunto mínimo de puntos de la malla necesarios para distinguir los compuestos
sometidos a examen de acuerdo a las actividades determinadas experimentalmente.
5. Realizar la validación cruzada del modelo (crossvalidation)
6. Ajustar la alineación de los compuestos peor predichos y repetir los pasos anteriores hasta
encontrar la mayor alineación posible.

Estos resultados del QSAR-3D producido por miles de términos (en el QSAR tradicional el número
de términos es más reducido en función del tamaño de la muestra), se pueden visualizar gráficamente
en formas de mapas de contorno, pudiendo colorearse de diversos colores para resaltar la dirección y
magnitud de la interacción. De tal manera, las regiones coloreadas aparecerán en aquellas regiones en
donde las diferencias electrónicas y estéricas produzcan una mayor variación de la actividad.

II.3.3 Validación de modelos.

Independientemente del tipo de análisis QSAR empleado, el resultado final va a ser un modelo
matemático. Para estar completamente seguros de que el modelo obtenido no resulta de un
ordenamiento al azar de los datos, es común, según las normas internacionales, verificar la calidad
del mismo.

El método de regresión lineal múltiple proporciona los valores para los coeficientes que hacen que la
función matemática propuesta explique al máximo, cómo varían las actividades. Independientemente
de esto, siempre quedará una varianza no explicada por el modelo -los residuales-, que corresponden
a los errores en las medidas de los datos de actividad y a posibles efectos no incluidos en él -
parámetros no considerados-. Mientras mayor sea la diferencia entre la varianza explicada sobre la no
explicada mayor será la utilidad del modelo. Esto puede contrastarse con un análisis de varianza y un
test de F. Cuando el modelo no es satisfactorio se obtiene la no significación en el test.

Otro problema es que el modelo no sea predictivo, es decir, que la función propuesta no se cumpla
para productos no incluidos en la serie de exploración. Este problema suele solucionarse realizando

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


37 Introducción al diseño racional de fármacos

una validación cruzada (crossvalidation) al modelo, con el procedimiento conocido como leave-one-
out. Este procedimiento consiste en un análisis de regresión lineal que se repite tantas veces como
número de compuestos tenga la muestra, eliminando en cada uno de los análisis a un compuesto. De
tal manera, en una muestra donde el número de estructuras evaluadas es 24 (n=24), se realizarán 24
análisis de regresión con 23 compuestos, generando al final los valores promedios de los coeficientes
de correlación (r2 ó rcross) y de las desviaciones estándar obtenidas (Spress). De esta forma se puede
conocer si el modelo mantiene su calidad estadística independientemente de la presencia o ausencia
de algunas de las moléculas estudiadas.

Si el valor de r2 ó rcross disminuye ostensiblemente con respecto al valor del coeficiente de


correlación (r), eso significa que el modelo obtenido sustenta su valor estadístico sobre los datos
evaluados, pues la inclusión o eliminación de un compuesto influye apreciablemente en los valores
del coeficiente de correlación. De tal manera la ecuación o modelo obtenido no tendrá valor como
modelo predictivo. El límite de disminución de r2 ó rcross con respecto al coeficiente de correlación
para que el modelo mantenga propiedades predictivas, está en dependencia del tipo de análisis
estadístico empleado. Para el caso del 3D-QSAR, donde se utiliza el método de los mínimos
cuadrados parciales (PLS), los valores de r2 ó rcross pueden disminuir hasta el valor de r2≥0.6513; y en
el caso del QSAR tradicional donde se utiliza el método de regresión múltiple, estos valores no deben
disminuir en más de un 10%, en aras de disminuir el por ciento de error a la hora de realizar las
predicciones.

Otra forma de medir o evaluar la calidad de la ecuación obtenida consiste en determinar la robustez
(q2) del mismo, y el mismo se calcula a través de la ecuación siguiente:

q2 = (SD-PRESS)/SD
ecuación 8
donde SD es la sumatoria al cuadrado de las desviaciones estándares de los residuales y PRESS es la
sumatoria al cuadrado de los residuales. Este valor de q2 derivado de la validación cruzada no es más
que la habilidad del modelo para realizar la predicción. En un modelo donde se obtenga un valor de
q2> 0.5 puede ser considerado como un modelo predictivo.

Para que el estudio de relaciones estructura-actividad se concluya con éxito debe obtenerse un
modelo significativo y predictivo. Aún así, la validez del modelo estará siempre limitada al rango de
parámetros explorados por la serie de exploración, fuera del cual nunca debe considerarse válido. De
hecho, esta es la principal limitación a la hora de buscar el óptimo de actividad predicho por un
modelo.

Cuando el modelo contiene sólo términos lineales, basta con buscar sustituciones que maximicen,
según los valores que toma el índice, los términos con coeficientes positivos y minimicen los
términos con coeficientes negativos. Esta operación debe ser resuelta con mucho cuidado, pues los
procesos de maximización o minimización deben realizarse sobre la base de los valores que toma el
índice, pues existen índices que pueden tomar valores tanto positivos como negativos (las cargas,
energías, lipofilidad, etc.); mientras que otros sólo poseen valores solamente positivos (los índices
Ω, χ etc.) o negativos (EHOMO y ELUMO).

13
Tong, W. Et al. Environ Health Perspect. Vol 105, No. 10, 1997.
J.C. Escalona, R. Carrasco y J. A. Padrón 38

Debe tenerse en cuenta, que si se rebasan los valores máximos y mínimos de la serie de exploración,
los resultados a obtener en los nuevos compuestos no tienen porqué responder al modelo, pues esos
valores no fueron explorados y por tanto no incluidos en el mismo. Un ejemplo de esto puede ser un
modelo en el cual sea necesario el incremento del índice Ω. Este índice, que sólo toma valores
positivos, se incrementa cuando se aumentan los órdenes de enlaces y las ramificaciones en la
estructura química. Esto hace pensar que, en las moléculas a diseñar, la inclusión de un mayor
número de dobles o triples enlaces, y el aumento de la ramificación por utilización de las técnicas
modulativas de la variación molecular (ver capítulo I), generaría compuestos más activos; sin
embargo este aumento de dobles o triples enlaces puede generar en la molécula una susceptibilidad al
metabolismo y metabolizarse rápidamente sin que esta llegue al sitio de interacción con el blanco
terapéutico. El incremento de la ramificación, por su parte, puede generar un volumen superior al
permitido por el receptor y por tanto bloquear por impedimento estérico la interacción del ligando
con el mismo. Estas consideraciones no pudieron ser recogidas evidentemente por el modelo, pues en
él este extremo de valores no fue considerado.

II.4. DESCRIPTORES MOLECULARES O INDICES

Bajo este término se agrupan una serie de parámetros que a través de valores numéricos representan
una información estructural, electrónica, estérica, así como una determinada propiedad químico-física
de la molécula en estudio. Desde este punto de vista estos parámetros se clasifican en:

• Indices basados en propiedades químico-físicas: Son aquellos, como lo dice su nombre, que
derivan de la determinación experimental de una determinada propiedad químico-física de la
molécula.
• Indices mecánico-cuánticos: Son aquellos que se determinan por cálculos mecánico-cuánticos.
• Indices topológicos y topográficos: Son aquellos que se determinan a partir del grafo químico, o
sea de la estructura química.

II.4.1 Indices basados en propiedades químico-físicas

Las propiedades químico-físicas en una molécula pueden reflejar la interacción de dicha molécula
con el receptor. Entre los parámetros químico-físicos más empleados en el QSAR se encuentran:

Símbolo Descripción Tipo Referencia


log P Logaritmo del coeficiente de partición Hidrofóbico Hansch, 1979
MR Refractividad Molecular Estérico Hansch, 1973
pka Constante de ionización Electrónico Martin, 1978
μ Momento dipolar Electrónico Lien, 1982

Todos los parámetros anteriormente reflejados representan propiedades globales de la molécula. Este
tipo de parámetro tiene el inconveniente de que es necesario medir la propiedad, y muchas veces esto
presupone un trabajo laborioso; aunque muchos de estos índices pueden ser determinados por
métodos computacionales con aproximaciones bastantes exactas a la realidad experimental.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


39 Introducción al diseño racional de fármacos

Existen además índices fragmentales derivados de la parametrización del índice global en un


conjunto de derivados de una cabeza de serie, en la cual sólo varían los sustituyentes en una o varias
posiciones de éste. De tal manera, el índice fragmental se calcula por la diferencia existente entre el
índice global de la molécula cabeza de serie y el índice global para la molécula analizada. El valor
así obtenido representa la contribución del sustituyente sobre el núcleo básico.

De este modo pueden caracterizarse propiedades locales de la molécula, pero también propiedades
globales, tomando en consideración el carácter aditivo de cada uno de los valores fragmentales que
constituyen la molécula final. De tal modo que se hace innecesaria la síntesis previa de los productos
a caracterizar. Entre estas constantes fragmentarias las más utilizadas son:

Símbolo Descripción Tipo Referencia


π Constante hidrofóbica del sustituyente Hidrofóbico Fuyita, 1964
σ Constante de Hammett Electrónico Hammett, 1940
Es Parámetro estérico de Taft Estérico Taft, 1956
MR Refractividad Molar de sustituyente Estérico Hansch, 1973
F,R Constantes del efecto inductivo y Electrónico Swain, 1968
resonante

III4.2 Índices mecánico-cuánticos.

En cualquier estudio QSAR, la obtención de un coeficiente de correlación significativo está


condicionado en gran medida a la utilización de descriptores que logren reproducir el fenómeno
estudiado, independientemente del origen del mismo.

El desarrollo reciente de la computación ha hecho posible el cálculo mecánico-cuántico de las


estructuras químicas. Estos cálculos químicos-cuánticos ha generado un creciente interés en la
obtención de índices que en un principio, puedan expresar todas las propiedades electrónicas y
geométricas de las moléculas, así como, sus interacciones. Es precisamente, la química cuántica, la
que brinda una información electrónica más detallada, que en muchos casos no es posible cuantificar
experimentalmente.

Para un estudio QSAR lo importante a obtener de estos cálculos químico-cuánticos son índices que
permitan describir las características electrónicas y energéticas de las moléculas. Debido a la amplia
información que pueden contener estos descriptores teóricos, su utilización en estudios QSAR puede
tener dos grandes ventajas:

1. Los compuestos y sus varios fragmentos y sustituyentes pueden ser directamente sobre la base
exclusiva de su estructura molecular.
2. El mecanismo de acción propuesto para los fármacos a estudiar puede estar directamente
relacionado con la reactividad química calculada.

Consecuentemente, los modelos QSAR obtenidos con la utilización de índices o descriptores


moleculares de esta naturaleza, incluirán información de la naturaleza de las fuerzas intermoleculares
envueltas en la acción del o de los fármacos.
J.C. Escalona, R. Carrasco y J. A. Padrón 40

A continuación se relacionan los principales índice mecánico-cuánticos empleados en los estudios


QSAR5:

Definición Nombre
Qa Carga neta sobre el átomo A
Qmin, Qmax Cargas netas más negativa y positiva de la molécula
qE,A, qN,A Cargas electrónicas nucleofílicas y electrofílicas, calculadas a
partir de los orbitales ocupados y desocupados respectivamente.
qA,σ, qA,π Densidades electrónicas σ y π del átomo A
εHOMO εLUMO Energías HOMO y LUMO. Significan las energías del último
orbital ocupado y la del primer orbital sin ocupar respectivamente.
SE,A, SN,A Superdeslocalizabilidad electrofílica y nucleofílica.
α Polarizabilidad Molecular
μ Momento dipolo molecular
ET Energía total de la molécula
ΔH0f Calor de formación

Cargas Atómicas:
De acuerdo con la teoría química clásica, todas las interacciones químicas son por naturaleza o
electrostáticas (polares) u orbitalarias (covalentes). Es una evidencia práctica, que las densidades
electrónicas locales o cargas, son importantes en muchas reacciones químicas y en muchas
propiedades químico-físicas de las moléculas. Así, los descriptores basados en las cargas han sido
extensamente empleados como índices de reactividad química y como medidores de las interacciones
intermoleculares débiles tal y como ocurre en las interacciones iónicas entre el fármaco y el receptor.

Las cargas parciales sobre los átomos han sido utilizadas como índices de reactividad química
estacionarios. Las densidades electrónicas σ y π por su parte, caracterizan la posible orientación de
las interacciones químicas, por lo que son consideradas índices direccionales de reactividad. Por el
contrario, las densidades electrónicas y las cargas netas sobre los átomos son consideradas índices de
reactividad no direccionales.
Energías de los orbitales moleculares:
Las energías HOMO y LUMO son los descriptores químico-cuánticos más populares. Se ha
demostrado que estos orbitales juegan un papel muy importante en muchas de las reacciones
químicas y en la formación de los complejos de transferencia de cargas. De acuerdo con la teoría de
los orbitales moleculares fronteras (FMO) de la reactividad química, la formación de un estado de
transición se debe a la interacción entre los orbitales fronteras HOMO y LUMO de las especies
químicas reaccionantes.

La energía HOMO está directamente relacionada con el potencial de ionización, y caracteriza la


susceptibilidad de la molécula a ser atacada por electrófilos. La energía LUMO está directamente
relacionada con la afinidad electrónica y caracteriza la afinidad de la molécula a ser atacada por
nucleófilos.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


41 Introducción al diseño racional de fármacos

Superdeslocalizabilidades.
Este es un índice de reactividad de los orbitales ocupados y no ocupados y está relacionada con la
contribución hecha por el átomo, a la estabilización en la energía de formación de un complejo de
transferencia de carga con una segunda molécula, o la capacidad del reaccionante de establecer
enlaces a través de transferencia de cargas. La distinción hecha entre nucleofílica y electrofílica están
relacionadas con la naturaleza de la superdeslocalizabilidad, si esta es aceptora o donante
respectivamente. Las superdeslocalizabilidades son conocidas también como índices de reactividad
dinámica. A diferencia de los índices estáticos (cargas), que describen moléculas aisladas en su
estado base, los índices dinámicos de reactividad se refieren a los estados transicionales en las
reacciones.

Polarizabilidad Molecular:
Se refiere a la polarización que puede sufrir una molécula por un campo eléctrico externo, cuya
propiedad más significativa es su relación con el tamaño molecular o el volumen molar. Se ha
demostrado que la polarizabilidad guarda relación con el coeficiente de partición; de ahí su
aplicabilidad en estudios de relación estructura-actividad.

Momento dipolo:
La polaridad de una molécula guarda una estrecha relación con varias propiedades físico-químicas.
El momento dipolo de la molécula es un reflejo de la polaridad global de la molécula.

Energías:
Las energías totales y los calores de formación de las moléculas son un reflejo de la estabilidad de las
mismas, por lo que el empleo de estos índices puede conducir a la explicación del fenómeno
estudiado.

II4.3 Índices topológicos y topográficos.

La topología es aquella parte del álgebra que estudia las posiciones e interconexiones entre los
elementos de un conjunto. Esta rama de la ciencia, aplicada a la estructura química ha dado origen a
una disciplina llamada “Topología Molecular” que analiza precisamente las posiciones y las
interconexiones entre los átomos de una molécula dada. De esta forma se lograría caracterizar
estructuralmente los compuestos.

Para definir dichos índices se representan por puntos los átomos de la molécula (excluyendo a los de
hidrógeno) y por rayas o segmentos los enlaces. De tal manera se obtiene el grafo de la molécula o
grafo químico como comúnmente se conoce. Con posterioridad se construye la matriz topológica
cuyos elementos toman el valor de uno o cero en dependencia de si el átomo “i” está enlazado o no al
átomo “j”. Así se genera una matriz cuadrada de “n” filas por “n” columnas, siendo “n” el número de
vértices del grafo o lo que es lo mismo el número de átomos. El resultado del cálculo genera un valor
numérico que representa o describe la estructura química de la molécula, por lo que este tipo de
descriptores tienen una gran utilidad en los estudios QSAR.
J.C. Escalona, R. Carrasco y J. A. Padrón 42

De esta forma se pueden generar matrices de adyacencia y matrices de distancias entre vértices. Las
matrices de adyacencia describen la unión o no entre átomos y la de distancias los números de
átomos existentes entre un átomo “X” y otro no enlazado a él. Sirva como ejemplo ilustrativo de la
construcción de estas matrices la molécula de isopentano.
V2
V5
V3
e1 e2 e3
V1 e4

V4

⎡0 1 0 0 0⎤ ⎡0 1 2 3 3⎤
⎢1 ⎢1 0 1 2 2⎥
0 1 0 0⎥ ⎢ ⎥
⎢ ⎥
Α = ⎢0 1 0 1 1⎥ D = ⎢2 1 0 1 1⎥
⎢ ⎥ ⎢ ⎥
⎢0 0 1 0 0⎥ ⎢3 2 1 0 2⎥
⎢⎣0 0 1 0 0⎥⎦ ⎢⎣ 3 2 1 2 0⎥⎦
Matriz de adyacencia Matriz de distancia
entre vértices Entre vértices

Observe que para la matriz de adyacencia, al átomo o vértice 1 (V1) le corresponden valores en la
matriz, de 0 para su relación con los átomos 1, 3, 4 y 5 y valor de 1 con el vértice 2 (V2), pues es
solamente con él, con quién se encuentra enlazado. Así mismo para V3 le corresponden valores en la
matriz de 0 para los vértices 1 y 3 y valores de 1 para los átomos 2, 4, 5. De esta forma se obtiene un
valor numérico que representa o describe la estructura molecular.

En la matriz de distancia, a V1 se le asignan valores de 0, 1, 2, 3 y 3, pues ésta es el número de


mínimo de átomos que lo separan de los átomos 1, 2, 3, 4 y 5. Esta es otra forma de describir el grafo
químico a través de un valor numérico, pero utilizando en este caso las distancias mínimas que
separan un átomo de otro.

El grafo molecular puede ser subdividido en subgrafos en dependencia del número de ejes
interconectados al vértice. Estos subgrafos se clasifican según su orden (m) y su tipo (t).

El orden de un grafo no es más que el número de ejes o enlaces que contiene el vértice, considerando
como simples a los enlaces múltiples. Los tipos de los subgrafos por otro lado se clasifican en tres
tipos:

♦ Tipo Camino (p), que son aquellos subgrafos que la valencia (número de enlaces) de sus vértices
son menores o iguales que dos. Téngase en cuenta que los átomos de hidrógeno no se consideran
en el grafo molecular.
♦ Tipo Cluster (c), constituido por aquellos subgrafos que tienen al menos algún vértice con
valencia 3, 4 o mayor, pero ninguno con valencia de dos.
♦ Tipo Camino-cluster (pc) Son los subgrafos que incluyen vértices con valencias de dos, además
de algunos con valencia de 3, 4 o mayor.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


43 Introducción al diseño racional de fármacos

Estos índices de conectividad mχt corresponden en cada caso a la suma de todos los subgrafos de tipo
t y de orden m, y están relacionados con la ecuación 9:
n
mχ =
m


t j =1
m
Sj

Ecuación 9

donde nm es el número de subgrafos tipo t y de orden m.

Los términos mSj se definen como el inverso de la raíz cuadrada del producto de las valencias de los
vértices integrantes del subgrafo, Donde j define un subgrafo en particular (ver figura 12).

Sirva como ejemplos de subgrafos, la molécula de isopentano:

Tipo (t) Orden (m)


1 2 3 4

Camino

Cluster

Camino-
Cluster

Figura 12. Subgrafos del isopentano


J.C. Escalona, R. Carrasco y J. A. Padrón 44

La definición de algunos de los índices obtenidos por esta metodología aparecen recogidos en la tabla
siguiente:

ÍNDICE DEFINICIÓN

χ = ∑ [δ (v )δ (v )]
m
−1/ 2

Conectividad Molecular (Randic) i j


r =1

[ ]
m
1χ =
∑ δ (vi )δ (v j )Kδ (v l +1 )
−1/ 2

r =1
Conectividad molecular extendido
donde δ(vi), δ(vj),… δ(vl+1) son los grados de
los vértices en la cadena considerada

[ ]
m
1χ v =
∑ δ v (vi )δ v (v j )
−1/ 2

Conectividad de valencia i≠ j
l =1

Para evitar el uso indiscriminado de este tipo de índice, uno de los más prestigiosos investigadores en
esta área de la química ha propuesto que para la generación de nuevos índices de esta naturaleza,
estos deben cumplir los siguientes atributos:

Atributos deseables para los índices topológicos, según Randic:

1. Interpretación estructural directa. Indices basados en conceptos estructurales sencillos ayudan a


interpretar propiedades en términos de estructura química.
2. Buena correlación con al menos una propiedad. Esto sugiere el aspecto estructural dominante en
la propiedad.
3. Buena discriminación de isómeros. Necesario cuando la propiedad en estudio cambia con el
isómero.
4. Localmente definidos. Es decir, que no se obtengan de forma global, sino localmente como en los
índices de conectividad, en que se definen por la conectividad de cada átomo.
5. Generalizable a análogos superiores. Por ejemplo, los índices 1 χ , 2 χ , 3 χ ,…,etc.
6. Linealmente independientes. Permite describir información estructural no contenida en otros
índices.
7. Simplicidad. Facilita su interpretación.
8. Que no estén basados en propiedades físico-químicas.
9. Que no estén relacionados de manera trivial con otros índices.
10. Eficiencia de construcción. Facilita su cálculo.
11. Basados en conceptos estructurales familiares.
12. Mostrar una dependencia correcta con el tamaño. Las propiedades que dependen del tamaño y en
general, la selectividad de los índices disminuye con el tamaño del grafo.
13. Tener cambios graduales con cambios graduales en la estructura.

Ciudad de La Habana : Editorial Universitaria, 2008. – ISBN 978-959-16-0647-1


45 Introducción al diseño racional de fármacos

II4.4 Criterios de selección de parámetros.

No existe ningún criterio simple ni único, para seleccionar qué parámetros deben utilizarse en un
estudio de relación estructura-actividad. Ante un problema nuevo se debe comenzar a buscar en la
literatura trabajos previos realizados sobre el mismo tipo de productos, y de no encontrarse, sobre
productos parecidos o con la misma actividad. En general, en esta primera etapa, cualquier tipo de
información puede ser orientadora respecto a las características físico-químicas que pudieran
intervenir en la actividad, y por tanto cuáles son los parámetros más adecuados para describirlas.

No obstante, es posible encontrarse en situaciones en las cuales no se disponga de ninguna


información previa; en esos casos, una solución inteligente es seleccionar algunos parámetros
representativos de cada una de las propiedades físico-químicas, electrónicas, estéricas y estructurales
de la molécula. Esta primera orientación, aunque no genere un buen modelo, podrá señalar cuáles de
estos parámetros tiene una mayor influencia en la actividad y por tanto aumentar el número de
índices que describen la misma en un segundo intento de análisis.

II.5 SITUACIÓN ACTUAL Y TENDENCIAS FUTURAS DEL DISEÑO DE FÁRMACOS


ASISTIDO POR COMPUTADORAS.

El avance sostenido que ha experimentado la bioquímica y la biología molecular en la identificación


de macromoléculas dianas, y de secuencias de nucleótidos y aminoácidos, unido a los poderosos
sistemas computacionales, hacen posible en la actualidad, el estudio de preferencias
configuracionales, de la naturaleza y las magnitudes de las fuerzas interatómicas que gobiernan su
interacción, así como el comportamiento dinámico del complejo ligando-receptor. Estos
procedimientos ayudan al mejor entendimiento del comportamiento de estos sistemas a nivel
subcelular, permitiendo establecer comparaciones entre los datos teóricos y los experimentales, e
incluso realizar predicciones cuantitativas.

Teniendo en cuenta los avances que promete tener la farmacología molecular, es de suponer que el
futuro del diseño de fármacos no esté destinado como hasta el presente, a la obtención de sustancias
que puedan ser reconocidas por los receptores o que modulen la síntesis, metabolismo o recaptación
de los neurotransmisores, sino que estará orientado a obtener sustancias que actúen sobre los sistemas
enzimáticos activadores de la cascada de eventos que lleva consigo una respuesta farmacológica.
Entiéndase por sistemas enzimáticos activadores de la cascada de eventos a las proteinas G o
cualquiera de sus subunidades, las enzimas formadoras de mensajeros secundarios y las proteina-
quinasas entre otras.

El hecho de que no siempre es mejor actuar sobre los receptores lo sugiere el hecho de que frente a
una exposición continua del agonista o del antagonista, se producen fenómenos de desensibilización
o supersensibilidad, que pueden ser responsables de nuevas alteraciones fisiológicas. El influir
mediante estos fármacos sobre estos mecanismos intermediarios entre el receptor y el efector,
pueden dar origen a sustancias muy selectivas que operen sobre las células que padezcan la
disfunción.

Vous aimerez peut-être aussi