Vous êtes sur la page 1sur 53

1.

ESTADO DEL ARTE

En el presente capítulo se presenta el estado del arte en cuanto a las investigaciones sobre la
variación espacio-temporal de la precipitación y otras que han tenido en cuenta esta variación
en la respuesta hidrológica. Igualmente se presentan los modelos hidrológicos utilizados con
mayor frecuencia dentro del contexto urbano, su clasificación y aplicaciones, así como las
metodologías de calibración, análisis de sensibilidad e incertidumbre de los mismos.

Es importante anotar que la investigación aquí descrita se encuentra enmarcada dentro del
proyecto denominado “Instrumentación y Modelación Hidrometeorológica y Ambiental de
una Cuenca Urbana” financiado por la Vicerrectoría de Investigaciones de la Universidad
Nacional de Colombia Sede Bogotá, y dentro del cual se desarrollaron tres investigaciones
paralelas: la primera relacionada con la caracterización de la variación espacial y temporal de la
precipitación, la segunda con el impacto de dicha variación en la respuesta hidrológica de una
micro cuenca urbana, que es el objeto de este documento y la tercera relacionada con la
estimación de la carga de primer lavado de sólidos disueltos totales.

La variabilidad espacio-temporal de la precipitación constituye la base, motivación e insumo


básico de esta investigación. Por esta razón, en el desarrollo del presente capítulo se iniciará
con una comparación de escalas que permite visualizar de manera preliminar dicha variación.
Luego se mencionarán algunas de las investigaciones más importantes realizadas no solamente
a nivel mundial sino a nivel regional y local sobre variación espacio-temporal de precipitación.
También se mencionarán algunos casos de estudio en los que se han realizado
instrumentaciones similares en cuencas piloto y finalmente se presentarán los modelos
hidrológicos usados con mayor frecuencia en nuestro medio y sus metodologías de calibración.

1.1 Generalidades

En la actualidad la hidrología urbana se enfrenta a tres graves problemas: el primero de ellos es


suministrar agua para las diferentes actividades que realiza el hombre en las ciudades como son
consumo, higiene, industria, distracción, ornamentación, etc.; el segundo es controlar y evitar
las inundaciones causadas por lluvias torrenciales produciendo daños materiales, problemas de
salud pública, que en algunas ocasiones se traducen en pérdida de vidas humanas; y finalmente
realizar el control y saneamiento de las aguas residuales, producto de los desechos residenciales
e industriales (Bateman en Monsalve, 2001).

El segundo de estos problemas ha sido objeto de interés dentro de esta investigación y tiene
como elementos principales el componente hidrológico (Cuánto llueve y cómo se distribuye la

17
lluvia), el componente hidráulico en cuanto a obras de captación (Recolección de agua en la
superficie) e hidráulica de los conductos (Transporte de agua en la red), y finalmente el de
disposición y evacuación del agua de la red en los puntos de entrega, (estaciones de bombeo,
obras de desagüe, planta de tratamiento y cuerpo receptor) que está íntimamente relacionado
con la calidad del agua y que es objeto de una investigación paralela. Estos cuatro aspectos se
deben tener en cuenta de forma conjunta con el fin de minimizar los efectos de la urbanización
y propender por guardar el “equilibrio” en el que inicialmente se encontraba la naturaleza.

1.2 Variación Espacial y Temporal de la Precipitación (VETP)

La complejidad climática, hidrológica, geográfica, ecológica y topográfica en el mundo, hace


compleja la tarea de conocer detalladamente la distribución espacial y temporal de la
precipitación. Sin embargo, el registro de precipitación a diferentes escalas permite no solo
realizar la modelación del proceso lluvia escorrentía sino también analizar el ciclo hidrológico a
diferentes escalas. El término escala es muy subjetivo dependiendo de la óptica en la cual se
analiza (problema a solucionar, área de estudio, condiciones climáticas, topografía, entre
otras), por este motivo y basados en los diferentes problemas de escala a los que a diario se
tiene que enfrentar la hidrología y los cuales han sido de gran interés para varios autores, a
continuación se presenta una introducción al tema con el fin de guiar al lector y dar a conocer
la escala objeto de análisis, permitiendo enmarcar la presente investigación y presentando así
las diferentes investigaciones realizadas dentro del mismo contexto.

Según lo mencionado por Rodríguez et al, 2007, el problema de escala en hidrología y


meteorología, entendido como aquel asociado con el cambio de las propiedades estadísticas
espaciales de una variable, por efecto del tamaño del área o del intervalo de tiempo
considerado (Dubayah et al., 1996), ha recibido importante consideración en la literatura
(Bergstrom & Graham, 1998; Kite & Haberlandt, 1999; Wood, 1998). En estos estudios,
conducidos fundamentalmente a escala de cuenca (100 -1,000 km2) y a escala regional (1,000 –
100,000 km2), se ha demostrado e intentado parametrizar la importante variabilidad espacial y
temporal que existe en la humedad del suelo, la evaporación, la escorrentía y la precipitación,
entre otros.

1.2.1 Clasificación de las escalas

Los aspectos meteorológicos e hidrológicos durante muchos años han estado desligados. Sin
embargo los avances presentados en los últimos años en estos dos campos han permitido
vislumbrar el potencial de investigación y las ventajas para la ciencia que traería la interacción
de estas dos áreas. Un ejemplo del vínculo entre la meteorología y la hidrología se puede
observar en la clasificación de escalas realizada por Orlanski (1975), el cual propuso una
clasificación de escalas meteorológicas en función de las dimensiones espaciales horizontales o
de su longitud de onda característica y de la duración media de los sistemas atmosféricos. Esta
clasificación está ampliamente aceptada en el mundo meteorológico e implementada en el

18
contexto hidrológico. En la Figura 1 se puede ver dicha clasificación con tres escalas básicas: la
sinóptica o macroscala, la mesoscala y la microscala. A su vez, a la mesoscala y la microscala las
dividió en subclases meso-alfa, meso-beta, meso-gamma. Los fenómenos climáticos a meso y
micro escala se ha convertido en temas de interés e investigación para la hidrología; sin
embargo, es necesario tener una visión global (meteorología) para poder comprender,
entender, analizar y modelar la complejidad de estos fenómenos.

Figura 1. Clasificación de las escalas meteorológicas propuestas por Orlanski, 1975.

Se puede decir que la mesoscala está formada por los fenómenos meteorológicos cuyos
sistemas de viento, nubes, etc., poseen unas dimensiones espaciales comprendidas entre los 2 y
2000 km. y ciclos de vida o escalas temporales del orden de decenas de minutos hasta de un
día. En el nivel inferior de los fenómenos mesoscálicos (corta duración y extensión) se
encuentran las simples tormentas y en el superior los sistemas convectivos de mesoscala que
afectan i.e al área del Pacífico o al área Mediterránea.

Para el caso de la microscala la dimensión espacial es de menos de 2 km y la escala temporal


del orden de decenas de minutos hasta segundos. Como lo presenta la Figura 1, la presente
investigación se encuentra enmarcada en el estudio de los fenómenos climáticos (lluvia-
escorrentía) a escala meso-gamma donde hay mayor influencia de los efectos urbanos (Urban

19
Effect). Sin embargo como se describe en el numeral 2 la cuenca objeto de estudio no supera
los 2 km2, por lo cual se encontraría enmarcada según la Figura 1 dentro de la microscala alfa.
Lo anterior nos da una idea clara sobre lo subjetivo de las escalas, la importancia de conocer
los diferentes tipos de escala y la “elección” de la misma para el fenómeno climático analizado.

Con el fin de enmarcar un poco más los fenómenos meteorológicos que se presentan a nivel
de mesoescala y a los cuales se les atribuyen importantes efectos sobre el clima Colombiano
(Poveda, 2004), el prestigioso meteorólogo investigador japonés (Fujita, 1996), afinó más la
clasificación de Orlanski pero mantuvo su filosofía. En la Tabla 1 se presentan los fenómenos
mesoescalares más importantes y sus órdenes de magnitud espacio-temporal.

Tabla 1. Algunos fenómenos mesoscalares (Fujita, 1996)


Dimensiones
Nomenclatura Sistemas o estructuras
Espacial Temporal
Corriente en chorro,
Mesoscala-alpha 200 - 2000 km 6 hrs - 2 días
pequeños huracanes
Vientos locales,
vientos de montaña,
brisas tierra/mar,
Mesoscala-beta 20 - 200 km 30 mins - 6 hrs
Sistemas y complejos convectivos de
mesoscala (SCM,CCM),
tormentas grandes
La mayoría de las tormentas,
Mesoscala-gamma 2 - 20 km 3 - 30 mins grandes cúmulos,
tornados significativos

Con lo anterior se puede inferir que una de las escalas de mayor importancia tanto para la
meteorología como para la hidrología es la mesoescala. La definición de las escalas es
descriptiva y los límites que se adoptan deben considerarse "elásticos" y no fijos. Por tal razón,
se puede enmarcar según la Figura 1, la Tabla 1 y dentro del marco de la meteorología que la
presente investigación está entre la mesoescala beta-gamma (Escala Temporal ver Figura 7) y
microescale alpha (Escala Espacial ver numeral 2).

Una vez realizada esta clasificación, de aquí en adelante se presentaran los fenómenos más
importantes dentro del contexto de la hidroclimatología Colombia basados en la clasificación
antes descrita y en la síntesis de Poveda, 2004, describiendo la escala espacial y luego la escala
temporal y los fenómenos climáticos asociados a cada una.

1.2.2 Variación de la precipitación a nivel planetaria y continental

Realizando un reajuste a la clasificación propuesta por Orlanski, 1975, desde el punto de vista
de la dimensión espacial-temporal pero dentro del contexto global, se pueden tener una serie
de escalas espaciales que van desde la planetaria, pasando por la continental, regional, local
para finalizar en la escala puntual. De la misma forma la escala a nivel temporal, teniendo en
cuenta ya no la duración del fenómeno climático sino el análisis de series de tiempo, se puede

20
clasificar desde la paleo-climática pasando por la milenial, secular, decadal, interanual, anual,
intra-anual, diurna hasta la escala de la turbulencia atmosférica de la capa límite.

Para la variación planetaria y continental los avances de la tecnología y el interés de los países
más desarrollados de instalar instrumentos de medición (radares, satélites), que permiten la
captura de información meteorológica de un gran número de variables (temperatura, humedad,
radiación solar, precipitación, evaporación, dirección de masas de aire, etc.), han permitido
abordar la solución de un sin número de problemáticas que surgen por falta de información y
comprensión de los procesos naturales a escala global. La escala denominada en este
documento escala planetaria y continental (Áreas mayores a 100.000 km2), plantea retos a la
hidrología y la meteorología en su intento por conocer los distintos fenómenos naturales,
analizar su comportamiento e intentar reproducirlo y predecirlo, estando la precipitación y su
variación incluidas dentro de estos retos.

La Figura 2 presenta una plano de la tierra con información sobre la precipitación promedio
anual, así como una imagen satelital GOES INFRAROJO, en donde es posible observar las
variaciones espaciales a escala planetaria y continental, con variabilidad a largo plazo VLP
(Izquierda) y variabilidad a corto plazo VCP (Derecha).

Figura 2. Precipitación Anual Mundial VLP (Christopherson, 1997). Imagen Satelital GOES
infrarrojo VCP (http://weather.unisys.com)

Tal como lo sintetiza (Poveda, 2004), el análisis de la escala a nivel interdecadal está dominado
por el cambio climático y el cambio ambiental a largo plazo que repercute en todas las escalas
espaciales. El cambio climático está caracterizado por una disminución de las temperaturas
medias y mínimas en la estratosfera de la tierra y un aumento en la troposfera baja, debido
principalmente a la inyección de altas cantidades de gas carbono y a la deforestación. Esta
última genera una disminución importante de los sumideros de CO2 que posee el Planeta,
repercutiendo directamente sobre los cambios de temperatura.

21
Adicionalmente (Smith et al, 1996; Poveda, Rave & Mantilla, 2001; Mesa, Poveda & Carvajal,
1997, Pérez et al, 1998, citados por Poveda, 2004), luego de un completo estudio de tendencias
y cambios estadísticos han encontrado cambios importantes en el clima y para el caso
específico del régimen hidrológico de Colombia, cambios en su amplitud y fase, con
importantes implicaciones para la agricultura y la generación de energía, entre otros. Así mismo
fenómenos macroclimáticos a escala interdecadales como son la Oscilación Decadal del
Pacífico (PDO) y la Oscilación Decadal del Atlántico (NAO), son parte de la variabilidad
climática natural del clima de la tierra, que tiene importantes efectos sobre el clima Colombia
(Poveda et al, 2002, Poveda et al, 1998 y Poveda & Mesa, 1996b citados en Poveda, 2004).

Las variaciones a nivel interanual están fuertemente controladas por la ocurrencia del evento El
Niño/Oscilación Sur (ENSO) tiene una variación estacional (asociado con su enfasamiento
con el ciclo anual), pero a su vez tiene un componente cuasi bienal con tiempo de recurrencia
de 2 a 2.5 años y baja frecuencia con recurrencia entre 4 -5 años. Caracterizado por un
aumento en las temperaturas superficiales del mar sobre el centro y el oriente del pacífico
tropical llevando a alteraciones en los patrones de circulación del viento, de presiones
atmosféricas superficiales y de precipitaciones sobre todo el Océano Pacífico. La Niña es la
fase fría del ENSO (Poveda, 2004).

Entre sus características principales en el Niño se presenta una disminución de precipitación y


caudales, así como de humedad de suelo y actividad vegetal, como procesos inversos hay un
incremento en la temperatura medias del aire con efectos adversos para la agricultura,
producción agropecuaria, generación hidroeléctrica, transporte fluvial y aparición de epidemias.
La Niña se presenta con anomalías contrarias, altas precipitaciones, aumento de caudal de los
ríos, avalanchas, inundaciones entre otras.

Los fenómenos PDO y NAO también afectan la hidroclimatología a escala interanual y están
relacionados con el ENSO. Las interacciones son altamente no lineales dificultando su
predicción, adicionalmente todos los eventos del ENSO son de diferente duración y amplitud
aumentando la complejidad y notando diferencias en los efectos hidroclimáticos del país.
(Poveda, 2004).

1.2.3 Variación de la precipitación a nivel regional

Para el caso específico de la escala regional (1.000 -100.000 km2) en la cual se encuentra
Colombia y como lo confirman estudios anteriores, la alta variabilidad se manifiesta en un
amplio rango de escalas espaciales y temporales, Mesa et al, 1997; Poveda, 2004; Poveda et al,
2007; citados por Álvarez et al, 2008. Este último presenta los nuevos campos de precipitación
promedio anual para Colombia ver Figura 3.

Dentro de los fenómenos climáticos que se identifican a partir de la variación temporal a escala
anual, se encuentra la denominada migración latitudinal de la Zona de Convergencia

22
Intertropical, asociada con la dinámica trans-ecuatorial de advección de la humedad por los
vientos alisios del este, la actividad del Chorro del Pacífico y de los sistemas convectivos de
mesoescala y la interacción suelo atmosfera que permite la regulación del ciclo anual
hidrológico del país (Poveda, 2004).

Figura 3. Nuevos campos de precipitación media para Colombia estimados mediante


diferentes métodos (Álvarez et al, 2008)

La característica principal sobre Colombia de la migración meridional de la zona de


convergencia intertropical se evidencia sobre la zona central del país, en donde se presenta un
régimen bimodal bien marcado, fuera de esta zona se puede encontrar un régimen
monomodal. El Chorro del Chocó ejerce una importancia influencia en el occidente y centro
del país, pero a su vez las lluvias en los andes colombianos ejercen un efecto importante en las
precipitaciones frente a las costas del pacífico.

A los Sistemas Convectivos de Mesoescala (SCM) se les atribuyen muchos de los eventos más
extremos de precipitación que se desarrollan en SCM, (Mejía y Poveda 2003, referenciados por
Poveda (2004) apoyados en información de satélite TRMM (Tropical Rainfall Measuring
Mission). Según Poveda (2004), la distribución de eventos con y sin SCM está fuertemente
determinada por la migración de la zona de convergencia intertropical.

Para Colombia la escala intra-anual con fenómenos climáticos importantes como la oscilación
de 30 y 60 días y las ondas tropicales del este, ejercen una importante influencia sobre la
hidroclimatología (Poveda, 2004). De la misma manera es importante resaltar los trabajos
adelantados por Agudelo et al, 2001; Vieira & Moreno; Álverez & Toro, 2001 y Poveda et al,
2002 referenciado por Poveda, 2004, que permitieron conocer el ciclo diurno de algunas

23
variables climatológicas dentro de las cuales se encuentra la precipitación, concluyendo para
esta última la alta variabilidad en el espacio, la existencia de picos bimodales y unimodales en
las estaciones de estudio con alta influencia de factores locales. Adicionalmente para el periodo
comprendido entre las 8:00 a.m y las 11:00 p.m los estudios concluyeron que se presenta una
menor probabilidad de lluvia en todos los Andes de Colombianos.

1.2.4 Variación de la precipitación a nivel de cuenca

A nivel de escala de cuenca (100 -1.000 km2) y para el caso específico de la Sabana de Bogotá
(177.598 Ha) el efecto de la variación espacio-temporal de la precipitación no es ajeno. En el
transcurso de las últimas cuatro décadas, la Empresa de Acueducto y Alcantarillado de Bogotá
(EAAB) ha adelantado estudios de planeamiento y diseño del sistema de evacuación de aguas
residuales y lluvias de la ciudad, dentro de los cuales se realizaron análisis hidrológicos para
establecer las características de las tormentas en la Sabana de Bogotá.

El primer estudio realizado por el consorcio Camp, Dresser y McKee - CEI - Planhidro
(CDM-CEI-PH, 1973) contratado por la EAAB, tenía como objetivo final la determinación de
las crecientes del río Bogotá y de sus afluentes, para esto se hizo necesario el uso de modelos
lluvia - escorrentía como el hidrograma unitario y el Método Racional. El estudio realizó el
análisis de la variación tanto espacial como temporal de la precipitación en la Sabana de
Bogotá, dando como resultado la preparación de una primera zonificación pluviográfica de la
Sabana relacionada con las curvas Intensidad - Duración - Frecuencia (IDF). El estudio
concluyó con una distribución espacial con mayores valores en estaciones cercanas a los cerros
orientales de la ciudad y menores valores a medida que se apartan de ellos en dirección
occidental; con este estudio, se dividió el campo de precipitación en 5 zonas en un área de la
sabana comprendida entre La Caro y El Muña en el sentido norte - sur, y en el sentido este -
oeste, los cerros orientales y la línea imaginaria La Caro - Funza – Alicachín. Para este primer
estudio se tuvieron en cuenta 20 estaciones pluviográficas. La zonificación para este primer
estudio se presenta en la Figura 4.

A principios de la década de los 80, se inició un segundo estudio adelantado por el Consorcio
Hidroestudios - Black and Veatch Intl (HE-BV, 1985), en este se realizan los estudios
hidrológicos tendientes a establecer los caudales de diseño de los canales de aguas lluvias del
Plan Maestro de Alcantarillado de Bogotá y las crecientes de los afluentes del río Bogotá. Así,
se determinaron la magnitud y ubicación de las tormentas de diseño y se actualizaron tanto la
zonificación pluviométrica de Bogotá (ver Figura 4) como las curvas IDF correspondientes a
cada zona. La información pluviográfica estuvo basada en registros de 41 estaciones y un
periodo comprendido entre 1961 y 1980, considerándolo suficiente para definir la variación
espacial y temporal de las tormentas.

En el año 1993 la EAAB contrató el estudio para el análisis y caracterización de tormentas en


la sabana de Bogotá, adelantado por Ingeniería y Recursos Hídricos Ltda(IRH, 1995). El
objeto de este estudio fue actualizar los estudios realizados del año 73 y 80, basados en un

24
mayor número de estaciones las cuales eran operadas por EAAB, CAR y el IDEAM, y
adicionalmente utilizar las tecnologías disponibles para realizar un mejor manejo y análisis de la
información. El resultado final de de este estudio quedó condensado en un sistema de
información de tormentas (Aplicación de Tormentas V 1.0, 1995), en el cual es posible
encontrar los diferentes criterios de diseño para las obras de drenaje y zonificaciones para la
ciudad de Bogotá. A manera de ejemplo en la Figura 5 se presentan las isolíneas de
intensidades para una duración de 15 min y un periodo de retorno (Tr) de 10 años y el
despliegue de una de las pantallas del aplicativo de tormentas (Herrera & Ramírez, 2001).

Figura 4. Zonificación Pluviográfica Estudio CDM-CEI-PH, 1973 (Izq). Estudio HE-BV, 1985
(Der). IRH, 1995.
ISOLINEAS DE INTENSIDAD (mm/h)
DURACION : 15 minutos
T : 10 años

2120188

1030000 130.000 N
100.000 E

1025000 AVE
2120559
AUTOPI
NIDA
GUAY
MA RAL
STA NOR
TE
RIO
BO

110
GO

1020000 120.000 N
TA
90.000 E

AV Cll. 170
E NID
A
M
E
D
EL

100
LIN

1015000
P-01
2120516 P-11 P-05
2120579
R IO

2120613
P-09
SA
LITR

90
AV

1010000 2120542 P-02


EN
ID
A
NORTE

BO

AV

2120571
YA

EN
C
A

ID

P-48
A
68

P-38
P-41
P-44
Carrera 30

1005000 A2120523
V.
80
EL
AV. DE
LAS
P-30
AV
D

AMERICAS . JI
O
R

ME
P-36
AD

NE
O

Z
P-40
2120558
1000000 DEL SUR
AUTOPISTA P-29 70
R
IO
FU

P-37
CH
A

P-42 P-47

2120561
995000 P-35 60
EMBA
LSE DEL

2120172
2120572
MUNA

2120051 50
RIO TUNJUELO

990000
~

90.000 N 90.000 N
90.000 E

100.000 E

2120085

985000

2120060
980000 985000 990000 995000 1000000 1005000 1010000
ESTE

Figura 5. Isolineas de intensidad para la sabana de Bogotá (Der) Aplicación de Tormentas


(Izq) (EAAB-Tormenta, 1995)

25
Finalmente en la presente década la EAAB ha realizado una nueva actualización a través de la
firma Colombia INGETEC, la información sobre la nueva zonificación no fue posible
obtenerla para la presente investigación.

Como se presenta en la Figura 5 la variación espacio-temporal a nivel de cuenca (100 -1,000


km2) existe y empieza a tener mayor relevancia para el desarrollo de obras de ingeniería en las
ciudades. Es aquí en donde la variación espacio-temporal de la precipitación empieza a cobrar
mayor importancia en el diseño de obras de drenaje urbano, surgiendo la necesidad de medir,
analizar y conocer los procesos que se dan en este tipo de cuencas. Considerando la
importancia de analizar los procesos hidrológicos a diferentes escalas es necesario realizar
estudios a escala espacial detalladas, y es aquí en donde se encuentra enmarcada está investigación.
El autor de este trabajo no conoce ninguna investigación a nivel de microcuenca que además
de analizar la variabilidad espacial y temporal de la precipitación, determine el impacto que
tiene dicha variación en la respuesta hidrológica de la cuenca, convirtiéndose la presente
investigación en pionera en este campo a nivel Colombia.

1.2.5 Variación de la precipitación a pequeña escala

Como ya se mencionó, las características físicas y climatológicas de una cuenca varían


temporal y espacialmente. Esto hace necesaria la implementación de una estrategia de
recolección y análisis de información de tipo hidrológico, hidráulico y de calidad ambiental,
que permita evaluar los impactos de la variabilidad indicada. Con el fin de evaluar estos
impactos se recurre al diseño e instalación de redes de medición de precipitación con
resoluciones espacial y temporal detalladas, compatibles con los tamaños y tiempos de
respuesta de cuencas urbanas de pequeña escala, y apropiadas para propósitos de modelación.

Como lo menciona (Rodríguez et al, 2008), en la implementación de redes para medición de


precipitación a pequeña escala, varios investigadores han analizado diferentes opciones y han
propuesto diversas configuraciones para cuencas no necesariamente urbanas. Flitcroft et al,
(1987) citado por (Johann et al. 1998), describe una red implementada en Ibecetene en la
República de Nigeria ocupando un área de 10x10 km (pequeña escala) con una red de
pluviógrafos separados cada 2 km. Moore et al., (2000) desarrollaron una configuración óptima
de ocho pluviógrafos en una cuenca de 2x2 km. De acuerdo con Schilling (citado por Díaz-
Granados et al. 2002) existen criterios de resolución espacial y temporal para aplicaciones de
drenaje urbano, que en términos generales indican la necesidad de una mayor densidad espacial
de pluviómetros, entre 2 a 5 pluviómetros por km2 e intervalos temporales entre 1 y 10
minutos. Para (Krajewski et al, 2001) la mejor configuración en una cuenca de 2x2 km estaría
dada por una red de 17 pluviógrafos, y garantizaría una buena estimación de la variabilidad
espacial de la precipitación, con errores menores del 5%, para la climatología de los Estados
Unidos. (Canfield & Goodrich, 2003) mostraron que el uso de un pluviógrafo y cuatro
pluviómetros serían suficientes para representar con buena aproximación la variabilidad
espacial de la precipitación en una cuenca rural de 0.045 km2 (4.5 ha).

26
Para escalas espaciales mayores a 1 km2, varios autores han reportado la importante
variabilidad espacial y temporal de la precipitación (Butyaert et al, 2006; Segond et al, 2006;
Vaes et al., 2005). Sin embargo, para el caso de pequeñas cuencas urbanas y específicamente en
Colombia existen pocos estudios, el realizado en la microcuenca El Virrey en la ciudad de
Bogotá (Uniandes, 2001) y en la ciudad de Girardot (Uniandes, 2005), en los que se ha
mostrado la importante variabilidad de la precipitación en este tipo de micro cuencas urbanas.

Específicamente en el estudio de la Universidad de los Andes para la ciudad de Bogotá,


denominado “Instrumentación y Análisis Ambiental de una subcuenca del Sistema de
Alcantarillado” (Uniandes, 2001), se seleccionó una subcuenca del sistema de alcantarillado de
la ciudad denominada “Subcuenca experimental el Virrey”, con un área aproximada de 93
hectáreas del cual el 60% es impermeable, pendiente promedio 20%, zona de uso residencial y
comercial con una población aproximada de 39.000 habitantes y un sistema de alcantarillado
tipo combinado. En cuanto a la instrumentación del campo de precipitación se instalaron 3
pluviógrafos de tipo Balancín para cubrir las 93 Ha, se realizaron labores de monitoreo en los
niveles y parámetros de calidad de agua en tres pozos dentro de la red de drenaje y se tomaron
muestras de contaminación ambiental en tejados, bajantes y sumideros. Desafortunadamente la
toma de información se realizó sólo durante un periodo aproximado de un año y medio.
Dentro de los objetivos perseguidos por el proyecto se encontraba evaluar la variación espacial
y temporal de la precipitación, analizar el proceso lluvia escorrentía y evaluar la calidad del agua
en la red de drenaje entre otros. En cuanto a la variación espacial de la precipitación en la
Figura 6 se presentan las curvas isoyetas para la subcuenca el Virrey elaboradas con la ayuda de
software Surfer con dos metodologías de interpolación, Kriging y la Función Base Radial
(Burgess & Webster, 1980; Hardy, 1971).

Figura 6. Curvas Isoyetas para la subcuenca el Virrey (Uniandes, 2001)

27
1.2.6 Variación de la precipitación en la zona de estudio

Para el caso específico de la zona de estudio (Campus Universidad Nacional de Colombia,


Sede Bogotá) la cual se describe con mayor detalle en el numeral 2 y apoyados en la densa
instrumentación pluviográfica descrita en el numeral 2.3.1, Rodríguez et al, (2008) han
demostrado la importante variación espacial y temporal de la precipitación para esta cuenca de
tan solo 1.2 km2.

De acuerdo con las características de los aparatos de registro (resolución de 0.2 mm y error 
5%) Rodríguez et al, (2008) seleccionaron 22 eventos de tormenta con profundidades mayores
a 4 mm (para los cuales el error de un volteo del balancín es inferior al 5% de la profundidad
medida). Bajo este criterio se registraron de marzo de 2007 a febrero de 2008, 73 eventos de
tormenta, entre los cuales los eventos seleccionados presentan grandes profundidades e
intensidades en 15 minutos (tiempo de concentración promedio de la cuenca). Las
características de algunos de los eventos registrados, los histogramas de duración de eventos y
hora de inicio se presentan en la Figura 7. Los resultados indican que por lo general las
tormentas se presentan pasado el medio día (2:45 pm), con duraciones cortas (promedio de 2
hr), patrones típicos de tormentas de carácter convectivo, con patrones erráticos, bastante
difíciles de analizar

Figura 7. Histograma de frecuencias duración de aguaceros registrados (Izq.). Histograma de


frecuencias hora de inicio del aguacero (Der). (Rodríguez et al, 2008)

En la Figura 8 se muestran las curvas de masa adimensionales para 22 de los eventos


analizados registrados en uno de los sitios de medición dentro de la cuenca, en donde se puede
observar la gran variedad de eventos de precipitación que pueden ser registrados.

El estudio presentado por Rodríguez et al, 2008, también analiza la variabilidad espacial de las
profundidades totales e intensidades máximas en 15 minutos, registradas en siete sitios dentro
de la cuenca. A manera de ejemplo, la Figura 9 muestra la variación de las intensidades

28
máximas en 15 minutos analizada mediante kriging ordinario, y que demuestra la importante
variabilidad para un evento.
Curvas de Masa Adimensionales

100

90

80

70

60
% Precpitacion

50

40

30

20

10

0
0 10 20 30 40 50 60 70 80 90 100
% Tiempo

T1 T2 T3 T4 T5 T6 T7 T8 T9 T10 T11 T12 T13 T14 T15


T16 T17 T18 T19 T20 T21 T22

Figura 8. Curvas de masa adimensionales para 22 aguaceros analizados, registrados en uno de


los pluviógrafos. (Rodríguez et al, 2008)

Figura 9. Análisis geoespacial mediante interpolación tipo Kriging


Tormenta 31 de Mayo de 2007. (Rodríguez et al, 2008)

29
1.3 Modelación hidrológica urbana

Con la implementación masiva de los computadores como herramienta de cálculo en muchas


áreas de la ingeniería, de la cual la hidrología no ha sido ajena, el software de modelos
hidrológicos urbanos ha tenido, de la misma manera, un auge muy importante durante los
últimos años. Existen en el mercado una gran cantidad de paquetes computacionales aplicables
a cuencas urbanas, que no solo permiten la modelación de la cantidad sino también de la
calidad del agua. Adicionalmente, la incorporación de nuevos módulos en los programas
existentes, así como la continua actualización de versiones, hacen muy dinámica el área de los
modelos hidrológicos urbanos. Dentro de este numeral se presentan los aspectos generales de
estos modelos, seleccionando los que a juicio del autor son de más fácil acceso, que a su vez
han tenido una mayor difusión en el medio, facilitando su implementación y utilización en
diferentes aplicaciones.
Con el fin de poder describir, entender, seleccionar y aplicar de manera adecuada los modelos
hidrológicos urbanos utilizados con mayor frecuencia para representar los procesos que
ocurren en estas cuencas, es importante resaltar algunos conceptos.

1.3.1 Modelación
En términos generales podría definirse la modelación matemática de un sistema como la
representación matemática simplificada de un fenómeno físico observable ocurriendo en el
mismo. Mediante la modelación es posible entender las características de los procesos dentro
del sistema, sus interrelaciones, las respuestas del mismo ante la ocurrencia de diversos
escenarios y finalmente realizar predicciones (Orozco & Saldarriaga, 2005). Los modelos
matemáticos han sido ampliamente usados en el campo de la ingeniería y su complejidad ha
aumentado debido al desarrollo de herramientas computacionales cada día más poderosas que
permiten resolver con rapidez las ecuaciones matemáticas que intentan describir diversos tipos
de fenómenos físicos.
Los modelos utilizados en los sistemas de drenaje urbano y que pueden de forma desacoplada
o integral analizar los componentes hidrológicos e hidráulicos tienen dos aplicaciones
principales: por un lado, permiten realizar el diseño de nuevos sistemas de drenaje urbano y
por el otro permiten acometer el análisis de sistemas de drenaje existentes. En el primer caso,
se tienen las características generales del sistema y el modelo proporciona diámetros y
pendientes; en el segundo, se conocen los diámetros y pendiente del sistema y el análisis se
hace con relación al caudal, altura de la lámina de agua, características de calidad del agua etc.

Para guiar al lector en los siguientes numerales se presenta un resumen de la clasificación de los
modelos. Existen modelos determinísticos los cuales producen una respuesta idéntica para una
misma entrada de datos, mientras los estocásticos pueden producir respuestas diferentes para
una misma entrada. Tanto los modelos determinísticos como los estocásticos pueden ser
clasificados en conceptuales o empíricos dependiendo si el modelo es físicamente basado o no,
esta distinción no es generalmente cierta tal como lo demuestra (Clark, 1973 referenciado por
Zoppou, 2001).

30
Otra clasificación de los modelos se basa en como estos abordan la variabilidad espacial, para
esto existen modelos distribuidos (tiene en cuenta la variación espacial) y los agregados (no
tiene en cuenta la variación espacial). La mayor cantidad de modelos urbanos se encuentran
dentro de los modelos determinísticos distribuidos (Nix, 1994 referenciado por Zoppou,
2001). Dependiendo si el modelo permite simular un evento o un largo periodo de tiempo el
modelo puede ser tipo evento o de proceso continuo respectivamente. Otra clasificación se da
dependiendo del propósito o campo de aplicación del modelo así: modelos de planeación,
diseño y operación. Finalmente dependiendo del método que se utilice para el tránsito, el
modelo puede ser hidrológico y/o hidráulico, ver numeral 1.3.2 y 1.3.3. Puede existir
interacción y complemento entre las diferentes clasificaciones i.e. modelo determinístico
distribuido de modelación continua y de eventos para planeación, diseño y operación.

La Figura 10 tomada de Rodríguez, 2008, permite sintetizar las diferentes aproximaciones que
se pueden dar para la modelación hidrológica y presenta una ayuda para el entendimiento de
las clasificaciones antes mencionadas.

Figura 10. Diferentes aproximaciones para modelación hidrológica (Izq). Algunos modelos
urbanos lluvia escorrentía, distribuidos y agregados (Der). (Rodríguez, 2008)

En el panel izquierdo de la Figura 10, se presentan en la parte superior los modelos basados en
datos, dentro de los cuales se encuentran para el caso de hidrología urbana, los modelos
conceptuales SISO (Simple Input Simple Output) y MISO (Multiple Input Simple Output) los
cuales pueden ser aplicados con series de precipitación, nivel y/o caudal de buena calidad (ver
numeral 1.3.5.3)

1.3.2 Modelación Hidráulica

Como se representa en la Figura 10, los métodos de tránsito de los modelos urbanos pueden
ser de dos tipos, hidráulicos e hidrológicos. A continuación se presentan las características
generales de estos tipos de tránsito. Un modelo hidráulico es aquel que permite de forma
simplificada describir el transporte del agua proveniente de las lluvias y de las descargas

31
residuales. El transporte es descrito mediante las ecuaciones básicas de la mecánica de fluidos.
Debido a que el flujo del agua residual varía con el tiempo así como durante los eventos de
lluvia, el flujo es no permanente. La descripción matemática de este tipo de flujo se puede
hacer mediante las ecuaciones de Saint Venant (Davies & Butler, 2000).

Las variaciones del flujo en un sistema de drenaje se presentan en las tres dimensiones
espaciales, i.e la velocidad varía a lo largo y ancho del conducto y también desde la superficie
del agua hasta el fondo del conducto. Sin embargo, para muchas aplicaciones prácticas, las
variaciones espaciales de la velocidad pueden despreciarse, de tal manera que el proceso de
flujo puede aproximarse como si variara solamente en una dimensión espacial, a lo largo del
conducto en la dirección del flujo.

Las ecuaciones de Saint-Venant, desarrolladas por primera vez por Barre de Saint- Venant en
1871, describen el flujo unidimensional no permanente en un canal abierto, que es aplicable al
flujo en tuberías parcialmente lleno y variado. Se componen de dos ecuaciones básicas:

 Ecuación de conservación de la masa


 Ecuación de conservación de la energía

Figura 11. Componentes de las Ecuaciones de Saint- Ven. (Camacho, 2008)

Dependiendo de los términos que sean más importantes en la ecuación de momentum, se


pueden distinguir tres tipos de tránsitos hidráulicos:
 Onda cinemática: este tipo de tránsito solo tiene en cuenta los términos de las fuerzas
gravitacionales y de fricción, mientras que los otros términos son despreciables.
 Onda de difusión: este es un tipo de tránsito un poco más complejo que el de la onda
cinemática en donde además de los términos de fricción y de peso se tiene en cuenta el
término de la fuerza de presión.
 Onda dinámica: es el tipo de tránsito más completo, en este tipo de tránsito se tienen en
cuenta todos los términos de la ecuación de momentum.

1.3.3 Modelación hidrológica

A diferencia de los métodos hidráulicos de tránsito, los métodos hidrológicos de tránsito de


crecientes ignoran la variación espacial y son generalmente basados en la ecuación de
conservación de la masa. Entre los métodos hidrológicos más comunes se encuentra el

32
hidrograma unitario, el método de Muskingum, los modelos de almacenamiento y de
almacenamiento no lineal (Zoppou, 2001).

Una vez realizada la comparación entre los modelación hidráulica e hidrológica, se puede
definir un modelo hidrológico o en general hídrico como la representación simplificada de un
sistema hídrico o “hidrosistema” utilizado para la toma de decisiones con base en la simulación
y predicción. Al ser una representación simplificada refleja el entendimiento y concepción de la
estructura y funcionamiento del sistema o mundo real, el cual no sólo es complejo sino
dinámico y cambiante. El término sistema hidrológico se refiere al conjunto de procesos que
interactúan entre sí, conformando el ciclo hidrológico. Incluye por lo tanto los componentes
naturales (precipitación, evaporación, escorrentía, etc.) y los componentes artificiales que lo
modifican, como lo son las obras de ingeniería.

En la anterior definición, se ha hecho énfasis en el objeto de un modelo, el cual es servir de


soporte a las decisiones que sobre el sistema se hagan, a partir de la simulación de posibles
comportamientos del sistema bajo diferentes condiciones, ya sean históricas o hipotéticas.

Un modelo hidrológico se compone principalmente de los siguientes elementos (Galarza,


2008)

 Variables: Las cuales pueden ser a su vez exógenas o exteriores al sistema que influyen,
estimulan o excitan un comportamiento del sistema (un ejemplo de estas variables son los
caudales a la entrada de un embalse, la precipitación sobre una cuenca); variables de control o
de decisión (variable endógena, interna del sistema) que corresponde a las características del
modelo sujetas a modificación por parte del usuario, por ejemplo la tasa de bombeo, la tasa
de derivación de un caudal, reglas de operación de un sistema, etc., y finalmente variables
de estado o características del sistema en un determinado momento, siendo por lo tanto
variables en el tiempo, como ejemplo de tales variables se tienen volúmenes o
almacenamiento, láminas de agua o niveles.

 Parámetros: Son una propiedad que caracteriza el sistema constante en el tiempo o variable
de forma conocida; los parámetros corresponden dentro del modelo a los coeficientes en
las ecuaciones, influyendo por lo tanto de manera importante en la transformación de las
entradas en salidas. Los parámetros pueden ser medidos o de calibración; en los primeros
el valor del parámetro se fija a partir de una característica de la cuenca (morfológica, de
suelo, de vegetación, etc.), en los segundos particularizan el modelo a un sistema específico
(cuenca por ejemplo) mediante el proceso de calibración, el cual será descrito en detalle
posteriormente.

 Ecuación de estado: La cual describe la evolución de las variables de estado del sistema en
función de los parámetros, de las variables exógenas con sus restricciones y de las variables
de control (igualmente con sus restricciones), a partir de una situación inicial.

33
En los siguientes numerales se hace una breve descripción de los modelos hidrológicos y/o
hidráulicos que se utilizan con mayor frecuencia en el medio y cuya revisión ha permitido
seleccionar los modelos utilizados en esta investigación. Como se mencionó en el numeral 1.3,
la gran cantidad de paquetes computacionales que existen actualmente en el mercado, limitan la
descripción de cada uno de ellos, sin embargo aquí se presentan los que a juicio del autor son
de mayor relevancia y aplicación en el medio.

Existen en el mercado diversos modelos urbanos, algunos de mayor importancia según lo


reportado por (Zoppou, 2001) como el SWMM (Huber and Dickinson 1988), DR3M-QUAL
(Alley and Smith 1982) HSPF (Bicknell et al., 1993), STORM (Hydrologic Engineering Center,
1997), QSS, MIKE-SWMM (Geiger and Dorsch, 1980), WALLINGFORD MODEL (Bettess
et al., 1978). Existen también otros conocidos por el autor como el MOUSE y CITYDRAIN
(Rauch and Achleitner 2004), modelos simplificados (SISO-MISO) y el mundialmente
conocido Método Racional. Otros modelos como el BRASS (Colon and McMahon, 1987),
HEC-5Q (Hydrologic Engineering Center, 1986), QUAL2E-UNCAS (Brown and Barnwell,
1987) y WQRRS (Hydrologic Engineering Center, 1978) no son propiamente modelos urbanos
sin embargo es posible adaptarlos para aplicaciones en problemas urbanos. A continuación se
realizan una serie de comparaciones que permiten identificar los bondades, ventajas y
desventajas de cada uno de ellos, la forma como operan y su aplicación más común.

1.3.4 Modelos Urbanos

Para realizar un comparación entre los modelos urbanos de mayor importancia el autor de este
trabajo se ha apoyado en la revisión de modelos hidrológicos urbanos elaborada por (Zoppou,
2001), este ha realizado una serie de tablas comparativas que permiten conocer las ventajas y
desventajas de algunos de los modelos urbanos más utilizados a nivel mundial, resaltando
aspectos como su funcionalidad, accesibilidad, características representativas de cada modelo
como la forma de realizar el tránsito de caudales (hidráulico-hidrológico), escala de tiempo que
modela (evento-proceso continuo), módulos que maneja (cantidad-calidad) y componentes en
el análisis de cantidad (tuberías, canales abiertos, reservorios, etc.). A continuación se presentan
las tablas comparativas con algunas modificaciones realizadas por el autor y la inclusión de
otros modelos urbanos utilizados en el medio.

Tabla 2. Comparación de modelos urbanos y no urbanos (Adaptada de Zoppou, 2000)


FUNCIONALIDAD ACCESIBILIDAD NIVEL DE RUTINA
NOMBRE DEL
ALMACENAMIENTO
PROGRAMA PLANEACIÓN OPERACIÓN DISEÑO PÚBLICO COMERCIAL HIDROLÓGICO HIDRÁULICO
SIMPLE
Modelos Urbanos
DR3M-QUAL X X X X X X
HSPF X X X X X
MIKE-SWMM X X X X X X X
QSS X X ? X X X
STORM X X X
SWMM* X X X 1 X 2
WALLINGFORD MODEL X X X X X X X
MOUSE X X X X X X X
CITYDRAIN* X X X 3 4 X
Modelos no urbanos
BRASS x x x x
HEC-5Q x x x x x
QUAL2E-UNCAS x x x
WQRRS x x x x x
*Se pueden implementar como modelos de operación 1) Balance de flujo solamente 2) Mediante el módulo Extran 3-4) Su código abierto permite incluir nuevos
bloques

34
ESCALA DE TIEMPO APLICACIÓN COMPONENTES MODELO DE CANTIDAD
NOMBRE DEL
CANALES ALMACE- CAUCES LLUVIA
PROGRAMA CONTINUO EVENTO CANTIDAD CALIDAD TUBERIAS OTROS
ABIERTOS NAMIENTO NATURALES ESCORRENTÍA
Modelos Urbanos
DR3M-QUAL X X X X X X X X
HSPF X X X X X X 1 X X
MIKE-SWMM X X X X X X X 2y7 X X
QSS X X X X 3 X X 2 X
STORM X X X
SWMM* X X X X X X 4y7 X X
WALLINGFORD MODEL X X X X 4 X X 2y5 X
MOUSE X X X X X X X 8y7 X X
CITYDRAIN* X X X X X X X 4y9 X X
Modelos no urbanos
BRASS X X X X 1 7 X X
HEC-5Q X X X 1 X
QUAL2E-UNCAS X X X X
WQRRS X X X X X 1 X X
1) Modulo de reservorio 2) Vertederos y bombas 3) Tubos presurizados 4)Compuertas y Bombas y 5) Recargas 6) Puentes 7)
Flujo Superficial 8) Conectividad con otros programas 9)Plantas de tratamiento

Como se presenta en la Tabla 2, las características de los anteriores modelos permiten no solo
para la presente investigación si no para futuras, la selección de manera rápida y objetiva de un
modelo urbano o no urbano con aplicaciones urbanas. Para la presente investigación y dada la
limitación de recursos no se han tenido en cuenta los programas comerciales, quedando
reducido a un grupo menor la elección e implementación de los modelos. A continuación se
presentan las consideraciones que se tuvieron en cuenta para la selección de los modelos a
implementar en la presente investigación.

1.3.5 Modelos Aplicados

Después de la evaluación de los modelos hidrológicos urbanos - no urbanos disponibles y


referidos en la literatura, como los descritos anteriormente y analizando sus características,
accesibilidad, costos, componentes, requerimientos de información, integralidad en el proceso
de modelación meteorológico-hidrológico-hidráulico, entre otros, se seleccionó el modelo
SWMM (Storm Water Management Model).

Este modelo puede emplearse en diversas situaciones, desde simples a muy complejas, e
incorpora tanto elementos tradicionales de drenaje urbano, colectores y cauces, como
elementos de técnicas alternativas, es decir volúmenes de retención y disposición local por
infiltración, además puede abordar aspectos de cantidad y de calidad de las aguas lluvias
urbanas de manera simultánea. Adicionalmente por ser de tipo institucional es de fácil
adquisición y sin costo facilitando su masificación (software libre).

El modelo SWMM se ha convertido en un modelo muy apropiado para fines de planificación y


diseño de situaciones globales a nivel de grandes cuencas urbanas, para el caso de Bogotá (p.e.
Grucon Ltda., 1999 y HMV Ingenieros, 2002) y para investigaciones en cuenca pequeñas
(Uniandes, 2001 y Uniandes, 2005). Es importante anotar que su empleo requiere un buen

35
conocimiento y entrenamiento para que sea efectivo, además de necesitar una cantidad
importante de información de la red de drenaje, antecedentes detallados sobre las obras y
características de la urbanización, así como unas adecuadas series de tiempo de precipitación,
niveles y caudales, acordes con las respuestas de las cuencas urbanas, que permitan su
calibración y validación. En cuanto a la calibración del modelo SWMM se han desarrollado
herramientas para la calibración (Uniandes 2001), (Orozco, 2005), (Cárdenas, 2008) que han
sido utilizadas en estudios previos (Uniandes, 2005) y en el presente estudio, permitiendo
realizar la calibración objetiva de los parámetros del modelo y facilitando aún más su
implementación.

A pesar de que en los últimos años se han desarrollado un buen número de metodologías y de
modelos hidrológicos, el método racional seguirá siendo utilizado en un futuro cercano, debido
básicamente a su sencillez y a la limitación de datos necesarios para aplicar modelos de
simulación más sofisticados. Por este motivo, se ha elegido como el método de comparación
de cálculo hidrológico con el fin de contrastar los resultados obtenidos con otros métodos.

Se incluye de igual manera una modelación preliminar con modelos simplificados tipo MISO y
SISO que también han sido aplicados en nuestro medio en cuencas urbanas con excelentes
resultados (Camacho et al, 2002, DíazGranados & Camacho, 2003) y que permiten de primera
mano ilustrar la influencia de la variación espacial y temporal de la precipitación, realizando un
aporte adicional en la presente investigación y planteando nuevas inquietudes para posteriores
trabajos de investigación. A continuación se describen con más detalle cada uno de los
modelos implementados.

1.3.5.1 Storm Water Management Model (SWMM)

El SWMM fue desarrollado entre 1969 y 1971 mediante un contrato de la USEPA (United
States Environmental Protection Agency) cuyo fin era el de desarrollar un software que
permitiera modelar los procesos hidrológicos en cuencas urbanas y los procesos hidráulicos y
de calidad del agua en sistemas de alcantarillado (EPA, 2005). En la primera fase se
desarrollaron los módulos RUNOFF y TRANSPORT. Posteriormente en 1973 se desarrolló el
módulo EXTRAN el cual permite modelar detalladamente la hidráulica de sistemas de
alcantarillado resolviendo las ecuaciones de Saint-Venant. Luego, por medio de contratos
sucesivos la EPA buscó refinar y mejorar los algoritmos del modelo así como los resultados y
aumentar el número de procesos modelados. Fue así como se desarrollaron módulos de
manejo de datos. Adicionalmente, en 1984 se desarrolló la primera interfaz amigable para el
usuario, llamada PCSWMM. En 1988 la EPA dispuso que el modelo SWMM fuera de dominio
público. Esto permitió una amplia difusión y conocimiento del modelo el cual hasta la fecha ha
demostrado su robustez para el análisis y la modelación de cuencas urbanas y sistemas de
alcantarillado (Camacho et al. 2002). La EPA se ha encargado de la difusión a través de
Universidades, Institutos de Investigación y empresas de consultoría por ser un software
gratuito, y de esta misma manera ha fomentado el aporte de ideas en el proceso de desarrollo y
mejoramiento del modelo.

36
En la Figura 12 se muestra el funcionamiento del modelo SWMM. Este es un modelo
computacional que simula los efectos de eventos de precipitación en los sistemas de
alcantarillado. Dependiendo de la calidad y cantidad de información recolectada de los eventos
y de las características de la cuenca, pueden alcanzar hasta doce parámetros, ver numeral 2.6.3.
Se utilizan datos de entrada con información de lluvias (hietogramas) y de otras entradas
climatológicas como temperatura, además de información de la topología del sistema de
alcantarillado, para modelar el tránsito del agua a través del drenaje urbano. Los resultados del
modelo son las salidas de sistemas de drenaje, representadas por valores de cantidad y de
calidad del agua en forma de hidrógrafas y polutogramas. Diversos tipos de modelaciones se
pueden realizar empleando el modelo SWMM entre las cuales se encuentran:

 Simulación por eventos para modelar la respuesta de un sistema de drenaje a un evento


individual de precipitación.
 Simulación continua para modelar la respuesta a periodos continuos de precipitación
durante los cuales se presenta más de un evento de lluvia.
 Simulación de intervalos de precipitación arbitrarios (1-15 min para eventos, 1 hora
para simulación continua).
 Simulación de intervalos de modelación arbitrarios para tiempos cortos o largos y con
discretizaciones pequeñas o grandes.
 Simulación de salidas en intervalos diarios, semanales, mensuales o anuales.

REALIDAD

Entradas Salidas
MODELO
Sistema Simplificado
Hietogramas Hidrógrafas
Climatología Polutogramas
Figura 12. Funcionamiento del modelo SWMM (Uniandes, 2001)

37
El SWMM es bastante versátil y flexible en cuanto al tipo de simulaciones y características de
las cuencas. El programa permite hacer modelaciones de sistemas de drenaje urbano con
diferentes propiedades espaciales. Se pueden modelar cuencas grandes o cuencas pequeñas. Se
pueden hacer modelaciones de cuencas con diferentes grados de simplificación o de detalle en
la topología de sus elementos según los requerimientos de modelación y la disponibilidad de
información.

Dependiendo del detalle requerido se pueden emplear diferentes módulos, el SWMM está
compuesto por módulos de servicio o manejo de la información y por módulos de simulación
de procesos o computacionales como se presenta en la Figura 13. Los primeros (módulos
STATISTICS, GRAPH, COMBINE, RAIN, TEMP) permiten manejar y generar la
información de entrada de los módulos de simulación de procesos y de salida de los mismos
(módulo COMBINE). Los módulos de simulación de procesos (RUNOFF, TRANSPORT,
EXTRAN y STORAGE) como su nombre lo indica permiten realizar simulaciones.

Figura 13. Módulos o bloques del modelo SWMM. (Huber & Dickinson, 1988)

Para la presente investigación se utilizaron los bloques del módulo procesos RUNOFF y
EXTRAN. El bloque RUNOFF es el componente del SWMM que modela los procesos lluvia-
escorrentía. Se estiman los hidrogramas de entrada a la red y los transita de acuerdo al nivel de
detalle especificado por el usuario empleando TRANSPORT o EXTRAN. El bloque
RUNOFF puede recibir datos de precipitación del bloque RAIN. Permite manejar bases de
datos con series continuas de lluvia. Se puede realizar la modelación de un evento o la
modelación continua del sistema.

El bloque RUNOFF requiere que la cuenca se divida en unidades menores de drenaje o


subcuencas, donde se supone que ocurren los procesos de lluvia-escorrentía antes de llegar a la
red de drenaje. Estas subcuencas deben ser caracterizadas con la siguiente información: ancho,
área total, porcentajes permeable e impermeable, pendiente, y coeficiente de rugosidad de
Manning para el área permeable e impermeable. Adicionalmente en este bloque se modelan los
procesos de infiltración empleando la ecuación de Horton, el método de Green Ampt o el
método del número de curva.

38
El tránsito del agua por cada subcuenca se hace empleando el método de embalses no lineales,
combinando la ecuación de continuidad con la ecuación de Manning (James, Huber, Dickinson
y James, 1999a), tal como se muestra en la Figura 14.

Figura 14. Esquema de embalse no lineal empleado por SWMM (Huber & Dickinson, 1988)

Para definir las profundidades y volúmenes de cada embalse se emplean las definiciones de
cada subcuenca, como por ejemplo, el volumen de almacenamiento de cada una de las zonas
permeable o impermeable. La ecuación de continuidad de este embalse sería entonces:
dV dd Ecuación 1
A  Ai *  Q
dt dt
Donde A es el área superficial de la subcuenca; d la profundidad del agua dentro del embalse; t
el tiempo; i* el exceso de lluvia y Q el caudal de salida del embalse.

El caudal de salida del embalse se determina empleando la ecuación de Manning:

1.49 5 1 Ecuación 2
Q W (d  d p ) 3 S 2
n

Donde W es el ancho de la subcuenca; n el coeficiente de rugosidad de Manning de la subárea


en cuestión; dp la altura de la porción almacenada dentro de la subárea en cuestión; y S la
pendiente de la subcuenca. Estas dos ecuaciones se combinan para obtener una ecuación
diferencial que resulta en la ecuación del embalse no lineal.

En el bloque RUNOFF se modela la calidad de agua superficial. Esta modelación tiene en


cuenta calidad del agua lluvia por un lado permitiendo asignar parámetros de calidad a ésta, y
por otro el lavado de sedimentos acumulados en las calles por depósito atmosférico,
permitiendo caracterizar estos procesos y especificar los contaminantes presentes. Como
resultado se obtienen polutogramas de salida de cada subcuenca, que a su vez sirven de entrada
a los nodos de la red drenaje. Para modelar la calidad del agua dentro de cada subcuenca se
supone mezcla completa en los elementos. La ecuación de conservación de masa para un
volumen de estas características está dada por:

39
dVC dC dV
V C  Qi C i  QC  KVC  L Ecuación 3
dt dt dt
Donde C es la concentración en el efluente y en el volumen completamente mezclado; V es el
volumen; Qi es el caudal de entrada; Ci es la concentración en el caudal de entrada; Q es el
caudal de salida; K es el coeficiente de decaimiento de primer orden; y L la fuente de
contaminante del volumen.

En el bloque EXTRAN se resuelve la hidráulica de la red con el mayor nivel de detalle posible
ya que se resuelven las ecuaciones de Saint – Vennant de forma completa, junto con la
ecuación de Manning. En la Figura 15 se representa de manera esquemática el funcionamiento
de este módulo.

Como lo ilustra, la Figura 15 el módulo EXTRAN recibe como datos de entrada los
hidrogramas de salida de alguno de los módulos como RUNOFF o TRANSPORT, así como
también datos de otros hidrogramas, y los transita por la red teniendo en cuenta las
características geométricas y topológicas de ésta y condiciones de frontera o mecanismos de
control del flujo (p.e. válvulas, bombas, almacenamientos temporales, vertimientos, etc.).
EXTRAN genera hidrogramas de salida de la red o hidrogramas en nodos o tubos internos de
la misma. Los hidrogramas de salida de la red pueden ser almacenados en la memoria del
computador de manera que puedan utilizarse como entrada a otros módulos o como datos de
entrada a redes de mayor tamaño. El módulo calcula niveles en tubos y pozos, velocidades,
caudales y direcciones de flujo en tubos a flujo libre y a presión, e información sobre los
tramos que funcionan a presión. Cuando ocurren inundaciones por reboses en pozos, se
pueden calcular estos volúmenes, pero no se pueden transitar por la superficie. Este módulo es
adecuado para la evaluación del comportamiento hidráulico de sistemas de alcantarillado así
como para su diseño.
Hidrógrafa de salida Información de la Reglas de operación:
del módulo de geometría del sistema. bombas, almacenamientos,
RUNOFF. vertederos, divisores de
flujo...

Modelo de Tránsito
en el sistema de
Drenaje

Salidas, que pueden


imprimirse o servir como
entradas o otros módulos.

Figura 15. Funcionamiento del modulo EXTRAN (Orozco, 2005)

40
El sistema de drenaje en SWMM es conceptualizado con una serie nodos y conductos. Los
nodos tienen características de almacenamientos y son los que se encuentran adyacentes a los
conductos (tuberías o canales), estos últimos tiene característica de transporte. Así, la ecuación
de continuidad es aplicada a los nodos y la de momentum a los conductos. Múltiples
conductos pueden ser unidos mediante nodos, ver Figura 16. La ecuación de continuidad en
los nodos es resuelta de manera simultánea con la ecuación de momentum en una dimensión
en los conductos. La técnica de solución explicita a menudo requiere que el intervalo de cálculo
sea corto (<10 sec) para que el criterio de estabilidad de Courant se mantenga, sin embargo se
pueden utilizar “tuberías equivalentes” para aliviar este requerimiento.
Nodo J
Qsalida Nodo J+1
Qentrada
Conexión N

Continuidad Conservación de
Conservada en el Momentum y
Nodo Continuidad en la Continuidad
Conexión Conservada
Unión
Figura 16. Configuración conceptual de los nodos y conductos en el bloque EXTRAN
(Roesner et al, 1988)

Los parámetros de calibración del SWMM han sido clasificados por Liong et al. (1991) en dos
grupos: (1) los parámetros tradicionales que incluyen los coeficientes de rugosidad de las
superficies impermeables, permeables y de tubería, el almacenamiento en depresiones de las
superficies impermeables y permeables, y los parámetros de infiltración como las tasas
máximas y mínimas de infiltración y el coeficiente de decaimiento de la curva de Horton y (2)
los parámetros no tradicionales, ancho, pendiente y % de áreas impermeables, cuyos valores
son obtenidos de las mediciones o de la interpretación de información secundaria. Estos
últimos parámetros se considerarían constantes, sin embargo, teniendo en cuenta el error en su
estimación factible, estos se calibran permitiendo su variación en un rango pertinente y
físicamente viable. Temprano et al. (2006) usaron estos criterios realizando calibración manual
(ver Tabla 3).

41
Tabla 3. Parámetros de calibración del SWMM
No.
Nombre del Parámetro Unidades
Parámetro
1 Ancho cuenca m
2 Pendiente cuenca %
3 % area impermeable %
4 % area impermeable sin almacenamiento %
5 Almacenamiento en área impermeable mm
6 Almacenamiento en área permeable mm
7 Máxima Tasa de Infiltración mm/hr
8 Mínima Tasa de Infiltración mm/hr
9 Coeficiente de Decaimiento 1/hr
10 Coeficiente de Rugosidad de Manning - Zona impermeable -
11 Coeficiente de Rugosidad de Manning - Zona permeable -
12 Coeficiente de Rugosisda de Manning - Conductos -

1.3.5.2 Método Racional

La historia del desarrollo de la Fórmula Racional así como de la fórmula de Manning es incierta
y aún hoy sujeta a debate. Varios investigadores reportaron en el siglo XIX sobre la relación
entre la lluvia y la escorrentía en una cuenca, particularmente el ingeniero Irlandés, Thomas J.
Mulvaney, quien escribió en 1851, de una manera descriptiva, sobre la relación lineal entre la
lluvia y la escorrentía. En América, Emil Kuichling presentó por primera vez la Fórmula
Racional usada en diseño de drenaje urbano en Rochester, New York en forma de ecuación
explícita en una reunión de la ASCE (American Society of Civil Engineering) en Philadelfia, la
cual fue finalmente publicada en 1889. La fórmula ha sido desde entonces la más comúnmente
utilizada en el diseño de drenaje, de pequeñas cuencas urbanas y rurales. Aún a pesar del gran
desarrollo tecnológico ocurrido en las últimas décadas, esta fórmula es todavía la más utilizada
para la estimación del pico de la creciente en una cuenca. Aún a pesar de largo periodo de
aplicación, esta simple fórmula “es utilizada como una bendición”, cien años son un gran
periodo en la escala de tiempo de la humanidad, lo que plantea una pregunta ¿la duración y
aplicación actual de la fórmula implica que es una fórmula sólida?, o por el contrario indica el
relativo poco desarrollo de los métodos hidrológicos en épocas recientes (Yen, 1992).

El cálculo del caudal según el método racional se hace mediante la fórmula:

Ecuación 4

Donde Q es el caudal pico en m3/seg; i es la intensidad de la lluvia en mm/h para una duración
igual al tiempo de concentración tc del área tributaria y para el período de retorno de diseño; A
es el área tributaria en kilómetros cuadrados km2; y C es el coeficiente de escorrentía.

42
El método supone que si sobre un área determinada cae una precipitación de intensidad
uniforme en el tiempo y en el espacio, llegará un momento en que la cantidad de agua que cae
equivale a la que sale del área, siempre y cuando ésta sea impermeable. El tiempo en el cual se
alcanza la equivalencia es el denominado tiempo de concentración tc. Aún en el caso en que el
área sea totalmente impermeable, existirán pérdidas por evaporación y almacenamiento en
depresiones, por ello el coeficiente C ajusta la relación entre el volumen escurrido por unidad
de tiempo i* A, y el volumen escurrido por unidad de tiempo; es decir, C es una relación de
escurrimiento-precipitación (Bolinaga, 1979)

De acuerdo con lo anterior, el método tiene una serie de limitaciones las cuales se describen a
continuación:
 La lluvia es uniforme en el tiempo; es decir, su intensidad es constante, lo cual es sólo
válido para duraciones muy cortas.
 La lluvia es uniforme en el espacio; es decir tiene la misma intensidad al mismo tiempo
sobre toda el área tributaria. Esto no es válido aún para áreas pequeñas como se ha
encontrado específicamente para el caso de la microcuenca del campus.
 Ignora el efecto de almacenamiento o retención temporal en la superficie, conductos,
cauces, etc., el cual es mayor entre menos impermeable sea el área
 El coeficiente de escorrentía es constante, no depende del Tr ni de la condición
antecedente de humedad del suelo, lo cual sólo es cierto para áreas impermeables.
 Supone que el caudal calculado tiene la misma frecuencia de la precipitación, lo cual es
más valido en áreas impermeables, en donde las condiciones previas de humedad del
subsuelo no influyen significativamente.

Las anteriores limitaciones llevan a la conclusión de que la Fórmula Racional puede arrojar
resultados aceptables sólo si el área es pequeña y tiene un alto porcentaje de impermeabilidad,
y además el tiempo de concentración es corto. Bajo otro tipo de condiciones, errores
importantes se pueden presentar utilizando esta metodología en la estimación de caudales
(Bolinaga, 1979). Uno de los objetivos de este trabajo es determinar y cuantificar “los
importantes errores” de la formula racional a partir de la calibración del coeficiente de
escorrentía, para eventos seleccionados con intensidades máximas en 15 minutos conocidas.
En la Tabla 1 se presentan algunos de los métodos tradicionales sugeridos en la literatura para
la estimación del caudal pico en cuencas de diverso tamaño

Tabla 4. Métodos y Límites para la estimación de caudales de creciente.(Yen, 1992).


Tipo de cuenca Método Área
Pequeña Método racional < 1 km2
Mediana Hidrograma unitario < 100 km2
Combinación HU y tránsito
Grande
de crecientes

Muy grande Análisis de Frecuencias

43
1.3.5.3 Modelos Conceptuales Simplificados SISO y MISO

Tal como lo mencionan (Díaz Granados y Camacho, 2003), para la modelación del proceso
lluvia-escorrentía es posible utilizar modelos complejos como los descritos en el numeral 1.3.4
y 1.3.5.1 o simplificados. Los modelos conceptuales o simplificados son adecuados cuando
existen series de datos de entrada y de salida de buena calidad y mediante métodos de análisis
de series de tiempo es posible determinar su estructura y estimar los parámetros del modelo,
siendo posible incluso encontrar una interpretación física a su estructura (Young y Lees, 1993;
Young et al., 1996). Un modelo simplificado de primer orden es el denominado SISO (Simple
Input Simple Output), cuya estructura se indica en la Ecuación 5.

Ecuación 5

Q es la escorrentía que el intervalo tiempo k depende de la precipitación, P, ocurrida en un


intervalo de tiempo anterior k-δ y del valor de la escorrentía en el tiempo anterior Q(k-1). Las
constantes b0 y a1 son los parámetros del modelo, cuyos valores deben estimarse a partir de las
series de tiempo concurrentes de precipitación y de escorrentía. El modelo SISO tiene una
representación física equivalente a la de un modelo de conservación de masa de primer orden
con un retraso advectivo en el sentido de flujo (Camacho et al., 2002). Cuando se dispone de
más de una serie de precipitación, i.e. cuando se tienen registros de más de un pluviógrafo
dentro de la cuenca, se puede aplicar un modelo MISO (Multiple Input Simple Output),
considerando dos o más series de entrada que generan una respuesta (Ver Ecuación 6)

Ecuación 6

P1 y P2 representan las dos series de entrada de precipitación que explican la serie de


escorrentía Q, las cuales se observan con respecto al sitio de salida retrasadas por intervalos de
tiempo ∆t*δ1 y ∆t*δ2, respectivamente. Debe destacarse la simplicidad y la facilidad de
calibración de los modelos SISO y MISO, y su potencial como modelos de alerta (series de
entrada en tiempo real) para el manejo de los sistemas de drenaje urbano (Díaz Granados y
Camacho, 2003).

1.4 Protocolo de Modelación

En el presente apartado se describen los procesos que se deben tener en cuenta al realizar una
modelación hidrológica, para esto el autor se ha basado en lo descrito por (Beven, 2001).

44
Revisar percepción 1. MODELO PERCEPTOR
Decisión sobre los procesos

Revisar ecuaciones
2. MODELO CONCEPTUAL
Decisión sobre las ecuaciones

Depurar 3. MODELO PROCESAL


Obtener el código para correr sobre un computador
Código

Revisar valores de 4. CALIBRACIÓN DEL MODELO


Parámetros Obtener los valores de los parámetros

5. VALIDACIÓN DEL MODELO


Buena idea pero difícil en la practica

No 6. Análisis de
¿DECLARA
sensibilidad e
ÉXITO?
incertidumbre
Si
7. SIMULACIÓN Y/O
PREDICCÍON

Figura 17. Esquematización de los diferentes pasos en el proceso de modelación.


(Adaptado de Beven, 2001)

El modelo de percepción es el resumen de cómo vemos la repuesta de la cuenca ante un


evento de precipitación bajo diferentes condiciones, depende en gran medida de la experiencia
del hidrólogo, la información que ha analizado, los libros y artículos que ha leído y los
diferentes campos que maneja de acuerdo a su experiencia y proyectos que ha desarrollado.
Cada hidrólogo puede tener una percepción diferente de los procesos para un mismo
problema. Se pueden hacer diferentes tipos de aproximaciones en el modelo perceptor, y
aunque estas pueden presentar simplificaciones importantes, es necesario que estas
aproximaciones o simplificaciones sean capaces de predecir de manera adecuada el fenómeno
que se quiere representar. La manera como se concibe el modelo perceptor es importante, ya
que está directamente relacionada con las teorías matemáticas que se van a manejar. Puede
existir cierto grado de dificultad cuando se quiere pasar del modelo perceptor a un lenguaje
matemático, sin embargo la descripción matemática es tradicionalmente, el primer paso en la
formulación de un modelo que pueda llegar hacer predicciones de tipo cuantitativas.

La descripción matemática del proceso es lo que se denomina modelo conceptual del proceso
o procesos que están siendo considerados; en este punto las suposiciones y simplificaciones

45
realizadas en la descripción de los procesos necesitan hacerse de manera explícita. El modelo
conceptual puede ser simple, como puede ser el uso de ecuaciones como la de balance de
masas, la cual permite representar los componentes de almacenamiento en la cuenca, y
complejas como el acople de ecuaciones diferenciales parciales no lineales. Algunas de estas
ecuaciones pueden ser fácilmente trasladadas a un código de programación para luego ser
usadas con la ayuda de un computador. Sin embargo, si las ecuaciones no pueden ser resueltas
de manera analítica dadas algunas condiciones de contorno que poseen los sistemas reales,
entonces se debe realizar un paso adicional donde es necesaria una aproximación mediante
técnicas de análisis numérico, definiendo así un modelo procesal, el cual en forma de código
puede ser ejecutado en un computador.

Las primeras tres etapas antes mencionadas ya han sido comentadas en los numerales
anteriores, y abordadas en el caso del SWMM por (Huber & Dickinson, 1988 y Roesner et al,
1988), para los modelos simplificados por (Camacho et al, 2002) y para el método racional por
(Mulvaney, 1850). En los numerales 1.5 a 1.6 se comentará lo correspondiente a calibración,
validación y análisis de sensibilidad e incertidumbre de los modelos, que son los pasos restantes
a seguir dentro del protocolo de modelación.

1.5 Calibración y Validación

Todos los modelos usados en hidrología tienen ecuaciones que envuelven una serie de entradas
y variables de estado que hacen necesario un proceso de calibración (Beven, 2001). En la
aplicación de modelos de cualquier índole y específicamente de sistemas de drenaje urbano, la
calibración es un tema relativamente nuevo, explorado muy poco y de mucha importancia en la
modelación. La importancia de este proceso, radica en que un modelo no calibrado no
representa la realidad de una manera segura y no se pueden establecer límites de validez de los
resultados. Por lo tanto, las decisiones tomadas con base en modelos sin calibrar pueden ser
riesgosas e ineficientes y adicionalmente pueden implicar grandes costos. En otras palabras, la
utilidad de los modelos se vuelve muy reducida si estos no han sido calibrados y validados
(Orozco, 2005).

1.5.1 Calibración

La calibración consiste en la determinación de los valores de los parámetros del modelo,


dentro de su rango de validez física (algunas veces no se tiene significado físico), que conducen
a una reproducción adecuada del funcionamiento histórico del sistema real estudiado. La
calibración de por sí es un proceso iterativo que se inicia con unos valores medidos o
supuestos de los parámetros, los cuales se van modificando para reducir la diferencia entre los
valores simulados y observados, este proceso puede hacerse de forma manual o automática.
Para la calibración manual se emplean gráficos o mapas de valores simulados y observados
para deducir a partir de ellos cuales son los parámetros que deben modificarse y en que
dirección. Este procedimiento es subjetivo y requiere un esfuerzo considerable de tiempo,
pero, familiariza al modelador con el papel y la sensibilidad de los parámetros en el modelo. En

46
la calibración automática mediante métodos numéricos y un chequeo visual se obtienen los
valores de los parámetros que minimizan una función objetivo dada.

En la presente investigación se ha adoptado la metodología de modelación propuesta por


Orozco (2005), y la de calibración propuesta por Cárdenas (2008), las cuales fueron
implementadas con información del proyecto de modelación de la calidad del agua del Río
Magdalena y en la caracterización de las aguas lluvias y residuales de Girardot Uniandes (2004)
y por Camacho et al, (2002) en el desarrollo del proyecto de instrumentación y análisis de una
subcuenca del sistema de alcantarillado de Bogotá (Uniandes, 2001), proyectos en los cuales se
implementó el modelo SWMM con buenos resultados. La metodología se puede resumir en
Proceso de modelación y calibración de modelos hidrodinámicos de
seis pasos los cuales se muestra de formadrenaje
esquemática
urbano en la Figura 18.
Conceptual MOUSE
1. Definir el tipo de modelo a utilizar
Estocástico SWMM

Determinístico HEC-RAS

2. Ingresar los
datos de entrada Escorrentía SEWECAD

Caudal de NOHA
tiempo seco
Estructura
Descripción
3. Análisis de sensibilidad de la red
Geometría

Mínimos cuadrados
4. Selección de la función objetivo

Desviación estándar
Mediciones
de campo Distribuciones probabilísticas

Valores máximos

5. Algoritmo de optimización Ensayo y error


Minimización de la Función objetivo
Algoritmos Genéticos

Cumple? Montecarlo, GLUE,


No MCAT
Si
Lógica Difusa

6. Análisis de incertidumbre MCAT

Figura 18. Proceso de Modelación y calibración de modelos hidrodinámicos de drenaje urbano


(Orozco, 2005)
Para conocer de manera detallada los componentes de la metodología de calibración y su
manera de implementarla al modelo SWMM, el lector puede remitirse al numeral 1.5.2, 2.6 o al
Anexo G.

47
1.5.1.1 Elementos del proceso de calibración

Los elementos a considerar en el proceso de calibración son (Wagener, 2004):

 Función Objetivo: Es una expresión matemática que mide el grado de ajuste entre los
valores simulados y observados, como una función de la secuencia temporal de los residuos.
Mide por lo tanto el desempeño del modelo. La función objetivo adoptada para la presente
investigación y que ha sido ampliamente utilizada en hidrología para evaluar el desempeño
general de muchos modelos, es el índice de eficiencia de Nash-Sutcliffe (Nash & Sutcliffe,
1970), NSE o coeficiente de eficiencia R2, el cual se estima utilizando la ecuación 7.
N

y  yˆ t ( ) 
2
t
NSE( )  1  t 1
Ecuación 7
 y  y
N
2
t
t 1

Donde:
θ: parámetros del modelo, N: número de períodos de tiempo considerados para el análisis,
yt: el caudal observado en el momento t, yˆ t ( ) : es el caudal calculado en el momento t
y : es la media de los caudales observados en el periodo analizado.

Un ajuste perfecto sugiere un valor NSE=1; cuando el valor es cero indica que el modelo no es
mejor si se compara con un modelo de una sola variable (por ejemplo un valor medio) y
valores negativos indican que el modelo se comporta peor.

El criterio para aceptar una calibración es muy subjetivo (depende del punto de vista del
modelador). En la literatura (Vélez, 2001) sugiere como aceptable una calibración con un
índice de Nash superior a 0.6, y se considera como excelente un valor superior a 0.8. Los
criterios de ajuste en validación son generalmente inferiores que en calibración, considerándose
en la literatura como aceptable un índice de Nash superior a 0.5, siendo excelentes las
validaciones con R2 por encima de 0.7. Esta función objetivo al basarse en el cuadrado de los
residuos, da preponderancia al funcionamiento para caudales altos (Wagener, 2000 y 2003 en
Wagener, 2004) siendo inferior el grado de ajuste para los períodos secos. Existen
adicionalmente otras funciones objetivos las cuales han sido estudiadas con mayor detalle y
pueden ser consultadas en Orozco (2005), Galarza (2007) y Cárdenas (2008).

 Datos de calibración: La calidad de la calibración depende de la cantidad y calidad de


las series de tiempo usadas. La cantidad de datos requerida es a su vez función del número de
parámetros del modelo. Así por ejemplo Yapo et al, (1996) encuentran que se necesitan 8 años
de datos para estimar los 13 parámetros del modelo Sacramento. Para el caso del SWMM la
cantidad de información requerida depende de la escala de tiempo a modelar (modelación

48
continua o por eventos), para esta investigación la calibración se realizó con dos eventos de
una misma condición y se modelaron tres condiciones antecedentes (ver numeral 2.4.2). En
cuanto a la calidad de la información fue necesario contar con registros de precipitaciones que
contaban con un pluviógrafo testigo y registros de niveles con labores de verificación
semanales, con escalas de tiempo adecuadas (1 minuto) acordes con el tiempo de respuesta de
cuencas urbanas. Dentro del proceso de calibración del SWMM es necesario conocer el
comportamiento de los caudales en tiempo seco, por lo cual se debe contar con información
de niveles de por lo menos una semana sin eventos de lluvia.

En resumen, los datos para calibración deben abarcar un período en que se capte la
variabilidad hidrológica, de manera que se registren diferentes comportamientos de la cuenca
bajo diferentes variables de entrada. Esta variabilidad en el proceso estímulo-respuesta de la
cuenca conduce no solo a una mejor calibración de parámetros, sino también a una
verificación inicial acerca de la apropiada estructura del modelo.

 Método de ajuste: La calibración de un modelo se convierte entonces en un problema


de minimización o maximización (dependiendo del tipo de función objetivo, minimización
generalmente) de la función objetivo con restricciones, como el rango de valores que pueden
asumir los parámetros, etc., siendo por lo tanto un problema de optimización. Para
calibraciones manuales se utiliza el método de ensayo y error y de comparación visual de los
resultados, mientras que para la calibración automática se emplean algoritmos de optimización,
los que en una primera etapa fueron de carácter local, es decir, empiezan en un punto
(conjunto de valores factibles de los parámetros) y siguen unas reglas programadas en
búsqueda del óptimo hasta que un criterio de finalización es satisfecho. Dentro de estas
metodologías están la técnica de búsqueda directa que no usa derivadas y la búsqueda según la
dirección del gradiente en que se usa la primera derivada y algunas veces la segunda derivada,
como ejemplo de los primeros se tiene el ensayo-error, el downhill simplex de Nelder y Mead
(Nelder & Mead, 1965) y el de rotación de ejes de Rosenbrock, y ejemplos de algoritmos de
búsqueda según la dirección del gradiente están los esquemas basados en el método de Newton
y en la matriz Hessiana.

Los algoritmos de búsqueda local, cuando la superficie de búsqueda es discontinua o no lineal


presentan el inconveniente de quedar atrapados en óptimos locales. Para evitar estos
inconvenientes, desde 1970, diferentes autores sugirieron el uso de búsquedas aleatorias para
identificar puntos de partida promisorios. Sin embargo, debido al poco desarrollo de los
computadores estas técnicas no se desarrollaron importantemente.

Otra alternativa, explorada durante los años 80, fue la de emplear los mismos métodos
anteriormente mencionados adicionándoles conceptos análogos a los de momento o
temperatura, como por ejemplo el método “Simulated Annealing - Recocido simulado”
(Kirkpatrick et al, 1983) en el que se reemplaza en cada etapa la solución actual por una
solución aleatoria cercana, seleccionada con una probabilidad que depende de la diferencia
entre los valores de la función y de un parámetro T (temperatura) que es reducido
gradualmente dentro del proceso (función de mínima energía), los anteriores desarrollos

49
condujeron a los llamados algoritmos de búsqueda global, entre los que se tienen los de
muestreo aleatorio puro, métodos aleatorios adaptativos y métodos evolutivos (Michalewicz y
Fogel, 1999).

Los métodos aleatorios puros se basan en el muestreo de un gran número de puntos (conjunto
de parámetros) en el espacio pre-seleccionados a partir de distribuciones, que no se conocen,
llevan en la práctica a asumir la distribución uniforme (Beven and Binley, 1992, en Wagener
2004). Se han introducido esquemas para asegurar que el muestreo cubra la totalidad del
espacio de búsqueda como el muestreo estratificado, el “Latin Hypercube”, LHS o métodos de
agrupamiento (clusters).

Estos métodos, sin embargo, no hacen uso de la información derivada del muestreo de los
parámetros en el espacio, lo que sí hacen los métodos aleatorios adaptativos basados en un
nuevo y detallado muestreo de las áreas con mejores resultados. Los métodos de Búsqueda
aleatoria adaptativa (ARS) y de Búsqueda aleatoria controlada (CRS) son ejemplos de estos
algoritmos.

Los métodos evolutivos de otra lado, parten de una población de parámetros basada en una
distribución (generalmente la distribución uniforme) y mejoran sus miembros por diferentes
esquemas evolutivos, como los algoritmos genéticos (GA), Cavalcanti (2002), o el “Shuffled
Complex Evolution Algorithm” (SCE) de Duan et al. (1994) ver numeral 1.5.2.1.

Finalmente existen métodos que buscan la forma de la función objetivo, dentro de este grupo
se encuentra la metodología Generalized Likelihood Uncertainty Estimation (GLUE), Beven y
Binley (1992), basada en simulaciones de Monte Carlo y la cual se presenta con detalle en el
numeral 1.5.2.2. Los nuevos desarrollos en la optimización de modelos hidrológicos se
orientan hacia la calibración multiobjetivo, en la que se emplean múltiples funciones objetivo
para evitar los problemas anotados de sesgos en una función objetivo, además de permitir el
ajuste del modelo con múltiples variables de las que se dispongan observaciones.

 Criterio de finalización: En el caso de calibración manual, el proceso finaliza de


manera subjetiva, cuando el modelador considera que se ha alcanzado el grado de ajuste
requerido, mientras que en la calibración automática se emplean:

a. Funciones de convergencia que detienen la calibración cuando la mejora de la Función


Objetivo está por debajo de un valor límite en un determinado número de iteraciones.
b. Convergencia de parámetros en que se para el proceso de calibración si en un número
determinado de iteraciones, los parámetros continúan dentro de un rango definido por
el modelador.
c. Máximo número de iteraciones en que finaliza la calibración cuando se alcanza un
número máximo de iteraciones. Este mecanismo puede aplicarse en conjunto con los
anteriores para evitar corridas excesivas del modelo cuando no se cumplen los criterios
previos.

50
1.5.1.2 Incertidumbre en la modelación

La incertidumbre del modelo se puede definir como el grado de desconocimiento que se tiene
en la respuesta del modelo debido a diferentes factores (parámetros, estructura de modelo,
mediciones, etc). Existen diferentes formas de determinar la incertidumbre (ver numeral 1.6).
Según Clemens (2001), esta incertidumbre puede cuantificarse mediante un porcentaje de
diferencia entre un valor real y un valor simulado dado, también puede calcularse con base en
la integración de todas las fuentes posible de errores. Pese a las continuas mejoras de los
algoritmos de optimización en la realidad existen varias fuentes de incertidumbre, entre las
cuales se tienen las siguientes, ver Figura 19.

Fuentes de Incertidumbre

Incertidumbre Incertidumbre en la Incertidumbre en


en el modelo naturaleza al toma de
decisiones

No entendimiento del
proceso Variación Espacial
Objetivos

Estructura del Variación Temporal Criterios de


modelo Evaluación

Parámetros

Datos

Figura 19.Tipos de incertidumbre ((Adaptada de Habib et al (2002) en Orozco, 2005)

Como lo menciona Orozco (2005), la incertidumbre en el modelo, se da por la falta de


conocimiento completo de los procesos de la naturaleza, el grado de exactitud con que el
modelo representa la realidad, y por simplificaciones de las ecuaciones matemáticas para
resolverlas en donde también influyen los métodos numéricos de solución. Por otro lado esta
la incertidumbre inherente a los parámetros y datos del modelo; por mediciones, diferentes
fuentes de información, errores humanos.

51
La incertidumbre por la variabilidad espacial y temporal de los procesos naturales, se refiere a
lo externo, al azar o estocástico. Se relaciona con la variabilidad inherente en el mundo físico
el cual, considera como irreducible y finalmente la incertidumbre por decisiones, la cual se
relaciona fuertemente con la manera cono se interpretan y se comunican las predicciones del
modelo.

1.5.1.3 Algoritmo de optimización

El algoritmo de optimización se refiere al código de computador que permite obtener el mejor


parámetro conjunto de parámetros del modelo implementado. En la presente investigación se
han seleccionado dos algoritmos de optimización, el Shuffled Complex Evolution Algorithm
(SCE) Duan et al, (1994) y la Generalized Likelihood Uncertainty Estimation (GLUE) Beven y
Binley (1992), los cuales han sido implementados y adaptados para la calibración del modelo
SWMM por Orozco (2005) y Cárdenas (2008). De igual manera para la calibración de los
modelos simplificados SISO y MISO se ha utilizado el método simplificado y refinado de la
variable instrumental (Simplified Refined Variable SRIV) Young, (1984) y la metodología
GLUE, implementada con buenos resultados por (Camacho et al., 2002, Uniandes 2001)

1.5.2 Algoritmos de optimización SWMM

Como se mencionó en el parágrafo anterior el Shuffled Complex Evolution Algorithm (SCE)


y la Generalized Likelihood Uncertainty Estimation (GLUE) han sido seleccionados como los
algoritmos de optimización para SWMM, a continuación se presenta en términos generales la
descripción de cada uno de estos. La adaptación, implementación y metodología de
calibración aplicando estos algoritmos para el caso del modelo SWMM se presenta en detalle
en el numeral 2.6.3.

1.5.2.1 Shuffled Complex Evolution Algorithm (SCE)

Las metodologías que usan algoritmos genéticos son ampliamente usadas en problemas de
optimización multidimensional, puesto que semejan la naturaleza y se ajustan al hecho de que
sobrevive el que más se ajusta. Los principios de la genética son representados con algoritmos
computacionales que buscan los mínimos de las funciones objetivo, a través de la evolución de
poblaciones con cromosomas artificiales. Los cromosomas son estructuras de datos que
representan una solución en el espacio de búsqueda, los cuales son sometidos a un proceso de
evolución dentro del que existen evaluaciones, selecciones, recombinaciones y mutaciones.
Luego de la evaluación y varias generaciones la población deberá tener individuos aptos, con
mejor ajuste.

La siguiente descripción de la metodología es tomada de Agyei y Hatfield (2005) en Cárdenas,


(2008). Esta metodología busca la forma detallada de la función objetivo. Consiste en la
evolución de población en la que se usa un procedimiento de generación aleatoria en un

52
espacio de muestra de los parámetros. La Universidad de Arizona desarrolló este algoritmo que
combina el muestreo aleatorio con un optimizador simplex y un procedimiento de mezcla
denominado Shuffled Complex Evolution (SCE-UA). Mediante esta técnica, se realiza la
evaluación de un importante número de conjuntos de parámetros para un modelo dado, con
un tiempo de cálculo normalmente inferior al muestreo de Montecarlo que se describe en el
siguiente numeral. La metodología SCE-UA tiene varias versiones para resolver la búsqueda
del óptimo global. La versión Shuffle Complex Evolution Gradient Based (SCEGB) que es un
híbrido que combina el SCE y la búsqueda local eficiente del algoritmo Gradient Based
Lavenberg Marquardt (GBLM). La versión Shuffled Complex Evolution Metropolis (SCEM-
UA) es un algoritmo de optimización que provee una estimación eficiente del conjunto de
parámetros más semejante usando distribuciones de probabilidad. Este algoritmo es un
ejemplo de Markov Chain Monte Carlo (MCMC), esta versión usa la estrategia de búsqueda de
Metropolis Hastings (MH) Vrugt et al (2005).

Campetitive Complex
Evolution (Nelder y Mead,
1965)

Figura 20. Diagrama de flujo del algoritmo SCE-UA (Vrugt et al, 2003).

La implementación de esta metodología se extiende a diferentes aplicaciones (Agyei y Hatfield,


2005; Vrugt, 2005; Mertens et al., 2004) de casos con funciones objetivo muy complejas y
múltiples óptimos locales (Duan et al., 1993, 1994). El método se basa en cuatro conceptos: (1)

53
combinación de aproximaciones determinísticas y probabilísticas, (2) evolución sistemática de
conjunto de valores de parámetros en una dirección, (3) evolución competitiva, (4) mezcla de
valores de parámetros. La combinación de estos conceptos hace de SCE un método efectivo y
robusto (Duan et al., 1994). El algoritmo de la metodología SCE UA consiste en los siguientes
pasos ver Figura 20.

1. Generación aleatoria de una muestra de valores, S, de distribución uniforme en el rango de


los parámetros y evaluación de la función objetivo en cada valor S de la muestra.
2. Agrupación de las muestras de valores S según la evaluación de la función objetivo. Las
primeras muestras tienen el valor más pequeño que representa la minimización de la función
objetivo.
3. División de las muestras de valores S en P grupos que contengan cada uno m muestras. Los
grupos se separan de manera que el primer grupo contiene los datos con mejor ajuste, el
segundo grupo contiene los datos con los siguientes datos con mejor ajuste y así hasta agrupar
el número total S.
4. Evolución de los grupos de acuerdo con el algoritmo Competitive Complex Evolution, CCE de
Nelder y Mead (1965) que se describe a continuación de manera esquemática ver Figura 21.

Figura 21. Paso de evolución en cada grupo (Duan et al, 1994)

Cada grupo evolucionará independientemente un número definido de veces. La evolución de


los grupos se realizará usando tres tipos de evolución: reflejo, reducción y mutación.

(I) Construcción de un subgrupo de q muestras a partir del grupo de acuerdo con una
distribución trapezoidal. Esta distribución de probabilidad está conformada de manera que el
mejor valor (valor de mejor ajuste) tenga la mayor posibilidad de ser escogido para formar el
subgrupo y el peor punto (valor con peor ajuste) tenga la última posibilidad.

54
Este es un método de simplificación basado en la intuición. Un número ilimitado de
movimientos que inicia con la selección de una forma geométrica y para cada vértice de la
Figura 21 se evalúa la función objetivo y se ordenan como se muestra en la Ecuación 8.

f(x 1) ≥ f(x 2 ) ≥…≥ f (x D+ 1 ) Ecuación 8

Donde, D es la dimensión de la función objetivo.

(II) Identificación del peor valor de ajuste del subgrupo y cálculo del valor medio de los valores
de evaluación de la función objetivo en los vértices de la figura como se indica en la Ecuación
9 sin incluir el peor valor,

Ecuación 9

(III) El paso de reflejo. El peor valor es reflejado a través del centroide (ver Figura 21). Si el
valor reflejado se encuentra dentro de la condición de búsqueda se pasa a la siguiente
instrucción. De otra manera, se genera aleatoriamente un valor dentro de la condición de
búsqueda y salta a la instrucción (VI).

(IV) Si el valor del nuevo punto generado es mejor que el peor punto, f(x1,nuevo) ≤ f(xD+1), se
reemplaza el peor por el mejor y se pasa a la instrucción (VII), sino va al siguiente paso.

(V) El paso de la reducción. Se calcula un punto en la mitad desde el centroide hasta el peor
valor, Si el valor del nuevo punto reducido es mejor que el peor, reemplaza
al peor por el nuevo reducido y se continúa con el paso (VII).

(VI) Genera un valor aleatorio dentro del espacio de búsqueda -proceso de mutación.
Reemplaza el peor valor por el valor generado aleatoriamente.

(VII) Repetir los pasos II a VI α veces, donde α ≥ 1 es el número de hijos hechos por el
mismo subgrupo.

(VIII) Repetir los pasos I a VII β veces, donde β ≥ 1 es el número de pasos evolucionados que
cada grupo hace antes de que sean combinados.

5. Combinación de la muestra de valores del grupo evolucionado en una muestra única de


población, es decir se unen todos los P grupos. Agrupación de muestras en orden ascendente
de la evaluación de la función objetivo, igual que el paso 2. Mezclar la muestra de población en
P grupos como en el paso 3.

55
6. Si alguna de las evaluaciones de la función objetivo converge según el criterio establecido de
finalización como el número de generaciones o un valor mínimo de la función objetivo,
entonces se detiene el procedimiento. Si no converge entonces continúa el proceso.

7. Revisión del número de grupos. Si el número de grupos es menor que el predeterminado


entonces se remueve el grupo de muestras con el peor ajuste. Ajustar P a P-1 y S a Pm.
Devolverse al paso 4. Si el número de grupos P es igual al número de grupos predeterminado
entonces devolverse al paso 4.

La Figura 22 tomada de Duan et al (1994), muestra como funciona el método usando un


ejemplo bidimensional. Las líneas de contorno representan los valores de la función objetivo;
hay un mínimo local en el punto (1,2) y otro global en el (4,2). La Figura 22 (Izquierda arriba)
muestra que la población S inicial de 10 muestras se divide en P grupos, es decir dos para el
ejemplo. Cada grupo contiene m miembros, 5 para cada uno. Los grupos se identifican con
puntos o con asteriscos. Como cada grupo se mueve independientemente, el grupo de los
asteriscos se dirige hacia un mínimo local, mientras el otro grupo lo hace hacia el mínimo
global.

Figura 22. Ilustración del método SCE-UA, (Duan et al, 1994)

La ubicación de los grupos evolucionados al final del primer ciclo de evolución es como se
muestra en a Figura 22 (Derecha arriba). El número de pasos de evolución β para cada grupo
es de diez. Los dos grupos son combinados como en el paso (V). Los nuevos miembros de los

56
dos grupos evolucionados aparecen en la Figura 22 (Izquierda abajo) y los dos grupos al final
del segundo ciclo de evolución se muestran en la Figura 22 (Derecha abajo)) evidenciando el
cubrimiento total hasta llegar al mínimo global.

La habilidad de la técnica para evitar algunas regiones en el espacio de búsqueda se toma en


cuenta con el proceso de mezcla y reformulación de las poblaciones. Con un tamaño
suficientemente grande de población se tiende a converger hacia una región cercana al óptimo
en la medida en que la búsqueda aumenta. La estrategia SCE-UA combina las ventajas del
procedimiento Simplex de Nelder y Mead (1965) con el concepto de búsqueda aleatoria
controlada (Price, 1987), evolución competitiva Nelder y Mead (1965) y el concepto de mezcla
compleja. El proceso de evolución competitiva y la mezcla compleja combinados en un
algoritmo aseguran que la información contenida en la muestra se explora eficientemente. La
muestra inicial de valores de parámetros da una buena posibilidad de llegar al óptimo sin
errores. La subdivisión de la población en grupos facilita la exploración extensiva en el espacio
de búsqueda en direcciones diferentes. En todo caso la subdivisión permite que se encuentren
varios posibles sitios de mínimos. La recombinación de comunidades permite mejorar la
supervivencia por medio del intercambio de información entre grupos.

Parámetros del algoritmo de búsqueda del método SCE-UA

Los siguientes son los parámetros de entrada del método SCE-UA:

1) Número de grupos, P. Este valor es dependiente de la naturaleza del problema a resolver.


Entre mayor sea la dificultad del problema mayor debe ser el valor de P por lo que se
recomienda variar el número de grupos P.
2) Número de puntos (m) en cada grupo P debe ser por lo menos dos en cada uno. Si el valor
es muy grande el resultado es un excesivo tiempo computacional sin asegurar resultados
efectivos. Duan et al. (1994) recomiendan dejar m= 2n+1, donde, n es el número de parámetros
a optimizar.
3) Número de puntos en cada subgrupo, q varía entre dos y m o se calcula como q = n+1.
4) Número de hijos consecutivos generados por cada subgrupo, α. Puede ser mayor o igual a 1,
si α es 1 entonces sólo uno de los padres originales puede ser reemplazado. Si α se incrementa,
la búsqueda se vuelve más efectiva.
5) Número de pasos de evolución de cada grupo, β. Puede ser un entero positivo mayor a 1 ó
se asume el mismo valor de 2P +1. Si β es pequeño, los grupos se mezclarán muy
frecuentemente lo que no conduce a una búsqueda independiente. Si β es grande, cada grupo
se reduce rápidamente y se pierde efectividad en la búsqueda global.
6) Número mínimo de grupos requerido en la población, pmin. Debe estar ente 1 y P.

57
1.5.2.2 Generalized Likelihood Uncertainty Estimation (GLUE)

En la investigación realizada por Cárdenas (2008), es posible encontrar una descripción más
detallada de los diferentes métodos de calibración para modelos lluvia escorrentía. A
continuación se presentan los elementos más importantes de la metodología GLUE, Beven y
Binley (1992).

La metodología GLUE (Generalized Likelihood Uncertainty Estimation) es una de las más


usadas en la calibración y análisis de sensibilidad, buscando la forma general de la función
objetivo. Ésta es una técnica desarrollada en la Universidad de Lancaster. Fue creada sobre la
metodología de análisis de sensibilidad del modelo Hornberger Spear Young, (HSY)
Whitehead y Young (1979).

La metodología GLUE está basada en la idea de que no existe una solución óptima y única, es
decir, se acerca mucho a la filosofía de equifinalidad, concepto basado en estudios empíricos
que se han desarrollado con modelos de buen ajuste de información. En GLUE se estudia si
diferentes conjuntos de parámetros puedan ser igualmente buenos en la predicción de las
observaciones. Los parámetros son clasificados como comportamentales (que se ajusten a los
datos medidos) y no comportamentales (que no se ajusten a los datos medidos), donde la
distinción se basa en el acercamiento de los resultados del modelo a las observaciones (función
objetivo).

En la metodología GLUE se selecciona un conjunto de modelo-parámetro que se encuentren


en un rango predeterminado, en donde cada combinación modelo-parámetro tiene una pseudo
probabilidad de ser la representación correcta del sistema. Esta metodología reconoce que a
veces no es posible identificar una modelación única óptima (Wagener et al., 2002), por esto
usa grados de membresía de conjuntos. El grado de membresía se determina de acuerdo con la
región en la cual las soluciones se ajustan al modelo, que a su vez es determinada por funciones
de probabilidad subjetivas.

La metodología GLUE puede resumirse de la siguiente manera, ver Figura 23.


1. Valores del Sistema 2. Simulación Estocástica (Método de
(Estadísticos, parámetros y variables) Monte Carlo)

3. Evaluación de las simulaciones


(Función Objetivo) 4. Aceptación o no aceptación

No
Fin

Figura 23. Diagrama de flujo metodología GLUE.

58
Inicialmente es necesaria la determinación de los valores estadísticos del sistema, parámetros y
variables que previa investigación son considerados decisivos en la simulación del sistema.
Simulación estocástica basada en los modelos, parámetros y variables. Se usa el método de
Monte Carlo para generar el conjunto de muestras aleatorias y se obtienen los estadísticos.
Finalmente, se hace la evaluación para cada simulación. Las simulaciones son agrupadas según
el grado de ajuste con los datos observados. Si las variables simuladas se encuentran cerca de
los datos observados se acepta y se asigna a la variable verosimilitud un valor positivo. En caso
de no aceptación se dará el valor de cero a esta variable (Beven y Binley, 1992).

El análisis de la sensibilidad con GLUE de cada parámetro usa los conceptos del análisis
generalizado de sensibilidad (Spear y Hornberger, 1980) extendido por Beven y Binley (1992).
En la técnica, la distribución acumulada de 10 clases del espacio de parámetros ordenados de
acuerdo con la medida de confiabilidad o bondad de ajuste se presentan en una gráfica así
llamada “análisis de sensibilidad regional” (Regional Sensitivity Análisis, RSA).

Con GLUE se pueden examinar parcialmente los parámetros óptimos estimados usando
diagramas de dispersión (Uniandes 2001), en los cuales los parámetros individuales de cada
realización de Monte Carlo se grafican contra los valores de la función objetivo (o la medida de
confiabilidad) evaluada para evaluar el ajuste logrado por el modelo con respecto a los datos
observados en esa simulación.

La metodología GLUE se usa también para realizar el análisis de incertidumbre con gráficas de
la respuesta del modelo con límites de confianza asociados, como percentiles al 5% y 95%. En
esencia los valores de una función objetivo, como el coeficiente de determinación y error
cuadrático medio, calculados para cada una de las realizaciones de Monte-Carlo, se
transforman en medidas de confiabilidad (Uniandes 2001). Las predicciones de las
simulaciones de Monte-Carlo se ponderan por las medidas de confiabilidad para producir
distribuciones ponderadas de probabilidad acumulada. Los límites de predicción o percentiles
estadísticos de estas distribuciones se utilizan para calcular los límites de confianza de las
predicciones del modelo.

El muestreo con la metodología Monte Carlo se refiere a una simulación repetitiva con valores
de parámetros generados aleatoriamente a partir de distribuciones uniformes en el rango de
validez de cada parámetro. El modelo se ejecuta con valores de parámetros aleatorios como
entrada y los valores de salida y de evaluación de la función objetivo se almacenan. Con valores
generados de manera aleatoria es mejor usar los de distribución uniforme y para estos casos se
definen los rangos superior e inferior. El número de simulaciones determina que tan grande
será el espacio de muestra. Lo recomendable es tener la mayor cantidad de iteraciones como se
lo permitan las variables y el tiempo computacional (Cárdenas, 2008).

59
1.5.3 Coeficiente de escorrentía del método o fórmula racional

En el caso del método racional, además de las características de la precipitación, el único


parámetro que permite relacionar el escurrimiento con la precipitación es el coeficiente de
escorrentía, el cual se selecciona inicialmente teniendo en cuenta características de la cuenca
que están estrechamente relacionadas con su permeabilidad, y que posteriormente puede ser
ajustado manual o automáticamente. La Tabla 5, muestra los valores de los coeficientes de
escorrentía recomendados para el caso de Bogotá teniendo en cuenta los diversos tipos de
superficie, permitiendo conocer los rangos físicamente posibles del coeficiente de escorrentía
que se deben tener en cuenta durante la fase de calibración.

Tabla 5. Coeficiente de escorrentía. (Norma Técnica de Servicio NS-85 Criterios de Diseño de


Sistemas Alcantarillados, EAAB)
Tipo de Superficie C
Cubiertas 0.9
Pavimentos asfálticos y superficies de concreto 0.8
Vías adoquinadas 0.75
Zonas comerciales o industriales 0.75
Residencial, con casas contiguas, predominio de zonas duras 0.7
Residencial multifamiliar, con bloques contiguos y zonas duras entre éstos 0.7
Residencial unifamiliar, con casas contiguas y predominio de jardines 0.55
Residencial, con casas rodeadas de jardines o multifamiliares apreciablemente
0.45
separadas
Residencial, con predominio de zonas verdes y parques-cementerios 0.3
Laderas sin vegetación 0.6
Laderas con vegetación 0.3
Parques recreacionales 0.3

En este estudio, y considerando los datos recopilados, para la obtención del coeficiente de
escorrentía se estimará la precipitación efectiva, la cual se obtiene de las mediciones de
caudales dentro de la red de drenaje y se dividirá entre precipitación total registrada con la
ayuda de la red de pluviógrafos. La intensidad máxima en 15 min será tomada de la
información suministrada por Villareal (2008) con la cual es posible obtener el caudal pico a
través del método racional.

1.5.4 Calibración Modelos SISO y MISO

La calibración de los modelos simplificados tipo SISO y MISO se realiza comúnmente


utilizando metodologías objetivas de calibración, ampliamente aceptadas en la literatura, y que
incluyen el método simplificado y refinado de la variable instrumental (Simplified Refined

60
Variable, SRIV) Young (1984) y la metodología generalizada de incertidumbre (Generalised
Likelihood Uncertainty Estimation methodology, GLUE) propuesta por Beven y Binley (1992)
descrita anteriormente. Las calibraciones de los modelos SISO y MISO fueron realizadas
utilizando códigos disponibles en MATLAB y la herramienta de análisis MCAT, desarrollada
por Lees y Wagener, 2000. Los resultados se presentan en el Capítulo 3 de la presente
investigación.

A continuación se describe el método de identificación y estimación basado en series de


tiempo tal como se describe en Uniandes (2001). De acuerdo con Young (1992) una función
general de transferencia en tiempo discreto puede ser representada de acuerdo con la Ecuación
10.
B( z 1 )  z 
S (k )  S u (k )   (k ) Ecuación 10
A( z 1 )
donde k denota el késimo instante de tiempo; Su es la variable de entrada en el késimo instante de
tiempo; S es la variable de salida modelada;  es una variable aleatoria introducida para permitir
considerar efectos estocásticos no modelados tales como errores de medición;  es un tiempo
de retraso advectivo expresado en términos de intervalos de tiempo t , definido como el valor
11
entero más cercano del tiempo de retraso del sistema  / t ; y B ( z ) y A( z ) son los
polinomios en el operador de retraso, (ver Ecuaciones 11 y 12):
B( z 1 )  b0  b1  z 1    bm  z  m Ecuación 11

A( z 1 )  1  a1  z 1    a n  z  n Ecuación 12

Donde el operador de retraso está definido por z  p , z  p x k  x k  p .El problema de


identificación de la estructura del modelo involucra la determinación de los números de
parámetros a y b (n, m  1 ) y denotados por la tríada [n, m  1 ,( n  1,2,... ; m  0,1,2,... ;
  0,1,2,... ) que mejor describen la relación entre las series de datos observadas de entrada y
salida del sistema Su y S respectivamente. Correspondientemente, una vez que el orden del
modelo ha sido identificado, el problema de estimación involucra la determinación de los
parámetros a1  an y b0  bm . (Uniandes 2001)

Muchas aplicaciones previas han demostrado que los parámetros de la función de transferencia
(Ver Ecuación 10) pueden estimarse satisfactoriamente utilizando el método del filtro Kalman
(Harvey, 1992) o el método de la variable instrumental simplificada refinada (del inglés,
Simplified Refined Instrumental Variable, SRIV) Young (1984,1985). La identificación de la
estructura u orden del modelo se realiza utilizando un procedimiento iterativo de evaluación de
diferentes medidas estadísticas para modelos de diferente orden. Se selecciona el “mejor”
modelo como aquel que produce los mejores criterios estadísticos. Los criterios estadísticos

61
recomendados por Young (1992) son el criterio de información de Young (YIC) y el
coeficiente de determinación R 2 ,
2
R2 1 2 Ecuación 13
y

Donde  es la varianza de los residuos del modelo y  y es la varianza de la serie de datos


2 2

de salida. El YIC es una medida combinada de la bondad del ajuste del modelo de los datos de
salida y de la eficiencia paramétrica (ver Young et al., 1996), mientras que el R2, el cual es una
medida de la varianza de los datos de salida explicada por el modelo, es solo un criterio de
bondad de ajuste. Si el modelo reproduce bien los datos observados de salida y no está sobre-
parametrizado, i.e. si no contiene demasiados parámetros, el valor del R2 deberá aproximarse a
la unidad (1) y el YIC será un número grande negativo.

1.5.5 Validación

Una vez que los valores del modelo han sido especificados y calibrados se puede realizar una
simulación y una cuantificación de la predicción sobre la repuesta obtenida, este paso de
evaluación de la predicción realizada es lo que se llama validación, en otras palabras la
validación es la etapa en la que se comprueba o verifica el adecuado funcionamiento del
modelo con una serie de observaciones no utilizadas en la calibración. Hay investigadores
como Clemens (2001) que proponen diferentes esquemas de validación del modelo: a)El
primer esquema que se puede realizar es una validación en su sentido tradicional, probando el
modelo con datos no empleados en la etapa de calibración, b) Luego se puede realizar una
validación del modelo con una cuenca hidrológicamente similar para probar la capacidad del
modelo para predecir el comportamiento en cuencas similares, c) También es posible realizar la
validación con períodos diferentes de datos con características hidrológicas diferentes (por
ejemplo períodos húmedos y períodos de sequía), d) Finalmente la validación del modelo con
diferentes períodos en cuencas hidrológicamente similares combinado así los esquemas b y c.

Para realizar todo este tipo de validaciones el factor determinante es la información disponible
con la que se cuente. En la presente investigación y teniendo en cuenta lo mencionado
anteriormente, la validación se realiza en el sentido tradicional (con datos no utilizados en la
calibración) y con información de periodos hidrológicamente diferentes.

1.6 Análisis de incertidumbre

El análisis de incertidumbre trata de cuantificar los efectos de los parámetros del modelo que
no se conocen con certeza en la respuesta del mismo. El análisis de incertidumbre puede ser
evaluado de manera analítica o numérica. Para problemas complejos técnicas numéricas son
usadas de manera exclusiva. Dentro de las técnicas numéricas de gran confiabilidad se incluyen
en orden de aproximación las siguientes. 1) Análisis de sensibilidad, 2) Análisis del segundo

62
momento valor medio de primer orden 3) Método del punto de estimación 4) Simulaciones de
Monte Carlo 5) Transformada de Mellin. Para ver detalles de cada uno de estas técnicas el
lector puede remitirse a (Zoppou, 2001).

Los métodos analíticos son usados para construir la distribución de predicciones modeladas en
situaciones con un número limitado de variables aleatorias y parámetros. Este método requiere
que el modelo sea bastante simple y matemáticamente descrito. Aparentemente esta técnica no
es muy aplicable a los sistemas de drenaje urbano, por la gran cantidad de variables y de
parámetros que estos contienen.

Las simulaciones de Monte Carlo se encuentran dentro de los métodos de estimación


estadísticos, estos métodos se basan en la suposición de que la incertidumbre de los
parámetros de los modelos, las variables de entrada y de salida son aleatorios. También se
asume que las distribuciones de las variables se conocen. Esas distribuciones son usadas para
las simulaciones del modelo. El proceso se repite muchas veces para producir una distribución
de los resultados del modelo.

Como se mencionó en el numeral 1.5.1.2, la incertidumbre puede proceder de diferentes


fuentes, incertidumbre paramétrica, incertidumbre de la estructura del modelo, incertidumbre
en los datos de entrada. Incertidumbre paramétrica: dada por la variabilidad espacial y temporal
de los parámetros y comportamiento en general de la naturaleza. Incertidumbre de la
estructura del modelo: dada por la cantidad de suposiciones y simplificaciones que el modelo
incorpora en su estructura para intentar simular el proceso lluvia-escorrentía. Incertidumbre en
los datos de entrada: dada por las decisiones tomadas en las mediciones.

La incertidumbre en la lluvia es el resultado de la variabilidad espacial, temporal y errores en la


toma de datos. Para el caso de la presente investigación los errores en la toma de datos de
precipitación se trataron de disminuir al máximo con la instalación de sistemas duales de
pluviógrafos, permitiendo la verificación y validación de la información recolectada, los detalles
de esto se mencionan en el numeral 2.3. Adicionalmente los datos ingresados en el modelo casi
nunca son enteramente correctos (topología, características de la subcuenca, parámetros de
escorrentía y otros) y estos influencian considerablemente los resultados de los cálculos del
modelo.

En esta investigación para cada evento analizado y utilizando los parámetros previamente
calibrados se investigaron los patrones adicionales de precipitación registrados en otros puntos
de medición de la cuenca ver numeral 3.2.3, los cuales produjeron incertidumbres en las salidas
de cada modelo debidas a las incertidumbres en la precipitación. Es importante anotar aquí que
para la fase de resultados y análisis dentro de esta investigación no se pretendió evaluar la
incertidumbre en las simulaciones de caudal debidas a incertidumbres en los parámetros de los
modelos y por esta razón estos permanecieron fijos para cada evento de tormenta
seleccionado, sin embargo para la fase de calibración de los eventos seleccionados este análisis
si se realizó.

63
En lo escrito anteriormente se han listado numerosas fuentes de error e incertidumbre
presentes en la modelación. En esta sección se describen algunas de las diferentes
aproximaciones para su análisis y el efecto sobre las variables de salida del modelo, actividad
esencial para las etapas de simulación y predicción de resultados del modelo.

En el análisis de la incertidumbre el primer paso es la caracterización de las distribuciones de


probabilidad de los valores de las variables y el segundo es el estudio de la propagación de las
incertidumbres de los valores de las variables, a través del proceso de cálculo, usando métodos
convencionales como el análisis de primer orden o métodos de simulación tipo Montecarlo.

El análisis de primer orden (Ven Te Chow, 1994), con series de Taylor, está basado en la
suposición de que la varianza total de la variable de salida del modelo, es una función de las
varianzas de las variables individuales de entrada al modelo y que la sensibilidad de la variable
de salida es una función de las variables de entrada. La sensibilidad de la variable de salida se
define como la primera derivada de la función o modelo, calculada analíticamente o aplicando
métodos numéricos. Hoybye en Wagener (2004), anota que este procedimiento da
predicciones precisas para los dos primeros momentos de la variable de salida cuando el
modelo es lineal o casi lineal y/o cuando la incertidumbre de variables y parámetros es
pequeña. De acuerdo con Parent y Kuczera citado por Wagener (2004), estas suposiciones y la
de multinormalidad de las variables y parámetros, con mucha frecuencia no se cumplen en los
modelos hidrológicos.

En la simulación Montecarlo se estima una distribución de riesgos por medio de la resolución


repetitiva de las ecuaciones del modelo. Se necesita definir la distribución de probabilidades
para cada variable del modelo.

Dentro de los métodos basados en simulación Montecarlo (Wagener, 2004) menciona los
siguientes:

 RSA (Regional Sensitive Analysis, Apear y Hornberger, 1980).


 GLUE (Generalised Likelihood Uncertainty Estimation, Beven y Binley, 1992).
 MCSM (Monte Carlo Set Membership, Keesman, 1989).
 PU (Prediction Uncertainty, Kepler et al, 1991)

Para la presente investigación se ha seleccionado la metodología GLUE ya que ha sido


implementada con éxito en numerosos estudios para el análisis de incertidumbre y sensibilidad,
para el caso de Colombia y específicamente en hidrología urbana con aplicaciones en el
modelos SWMM, (Unidades 2001, Uniandes 2005, Camacho et al, 2002, Orozco 2005,
Cárdenas 2008).

64
1.6.1 Identificabilidad de parámetros

Identificabilidad es la calidad de ser identificable, reconocido. Un parámetro se considera


identificado, cuando: 1) Los resultados del modelo son sensibles a la variación de los valores
del parámetro. 2) El valor del parámetro está limitado a una pequeña región del rango o
espacio posible en que puede variar.

De acuerdo con (Yapo et al. 1996) las razones por las cuales un parámetro no puede ser
identificado notablemente son:

1. Interdependencia de parámetros: los parámetros están correlacionados entre sí,


interactuando fuertemente, variando unos en compensación de la variación de otros
parámetros.
2. Los parámetros son no estacionarios: los parámetros están correlacionados con
características variables de la cuenca.
3. Calidad y/o cantidad pobre de los datos de calibración: los datos no reflejan las condiciones
hidrológicas requeridas para una apropiada identificación de los parámetros.
4. Función Objetivo inadecuada: La función objetivo no aprovecha adecuadamente la
información contenida en los datos.
5. Insensibilidad: el modelo es insensible a la variación de los parámetros. En este caso el
modelo está mal formulado al tomar como parámetro de calibración una variable que puede
ser constante o variable de forma conocida.

Para el análisis de incertidumbre de parámetros, Wagener y Lees (2000) desarrollaron el


software “Monte Carlo Analysis Toolbox (MCAT)”, el cual es empleado en este trabajo, y se
describe a continuación.

1.6.2 Monte Carlo Analysis Toolbox (MCAT)

Este software, desarrollado en el “Environmental and Water Resources Engineering (EWRE)


section of the Department of Civil and Environmental Engineering at the Imperial College
London (UK)” es un software de circulación libre. El software “Monte Carlo Análisis
Toolbox, MCAT” es una colección de funciones Matlab de visualización y análisis integrado
en una interfaz gráfica de usuario. Este software se emplea para analizar e interpretar los
resultados generados con un procedimiento de Montecarlo o con métodos de optimización
basados en técnicas evolutivas de la población, tal como el SCE-UA. Sus objetivos son analizar
la sensibilidad e identificabilidad de parámetros, la conveniencia estructural del modelo y la
incertidumbre de la predicción.

1. En el análisis de sensibilidad e identificabilidad de los parámetros, se evalúa como los


cambios en los parámetros afectan los resultados del modelo. Esta información es usada para
identificar los parámetros que no son importantes en la modelación de la respuesta del sistema
y pueden ser fijos o removidos, incrementando la parsimonia del modelo.

65
Las funciones que ayudan a dicho análisis son:
 Dotty Plots Objective Functions
 Dotty Plots Likelihoods
 A Posteriori Parameter Distribution
 Identifiability Plots
 Regional Sensitive Analysis, RSA
 Parameter View

Para la presente investigación se han utilizado las funciones Dotty Plots Objetive Functions y
Regional Sensitive Analyisis para investigar la identificabilidad y sensibilidad de los parámetros
del modelo SWMM.

2. En lo referente a la estructura adecuada del modelo, se considera que un modelo está


bien identificado si es consistente con los datos observados (valores adecuados de las
funciones objetivo de acuerdo al juicio del modelador), es decir, reproduce adecuadamente
diferentes respuestas del sistema con el mismo conjunto de parámetros.

Las funciones de MCAT aplicables a este análisis son:

 Class Plot
 GLUE Output Uncertainty
 Best Predictions Plot

3. La incertidumbre de la predicción se analiza definiendo el intervalo de confianza de los


resultados estimados del modelo. La función de MCAT en que se visualiza este análisis es:

 GLUE Output Uncertainty

Para analizar la adecuada estructura del modelo y la incertidumbre de la predicción se ha


utilizado las funciones Class Plot y GLUE Output Uncertainty.

Con el fin de describir más a fondo cada una de estas funciones utilizadas en la presente
investigación, se presentan a continuación las funciones más importantes de la herramienta
MCAT:

* Dotty Plots Objective Functions: (gráfica de dispersión) Esta opción grafica el valor de cada
uno de los parámetros contra el valor de la función objetivo. El programa resalta en color
magenta el valor óptimo del parámetro (el que minimiza la función objetivo) y en color cian los
óptimos de Pareto si fueron definidos previamente (con la función MCAT Pareto Output
Uncertainty), permite seleccionar la función objetivo que se desea analizar y fijar el umbral o
valor máximo de la función objetivo por encima del cual se descartan las muestras, puntos o
conjuntos de parámetros, que no se consideran consistentes.

66
Así y de acuerdo con la Figura 24 se analiza la presencia o no de un valor mínimo definido
para el parámetro.

Rugosidad Área impermeable Rugosidad Tubería (*10-3)


Figura 24. Opción MCAT “Dotty Plots Objective Functions”

A manera de ejemplo, en la Figura 24 panel izquierdo, no se muestra un valor mínimo


claramente definido, es decir, diferentes valores del parámetro a lo largo de su rango factible
producen similares funciones objetivo, los puntos están dispersos en toda la figura, por lo que
se dice que el parámetro no es identificable. Por otra parte el panel derecho muestra un valor
mínimo definido de la función objetivo para una región o valor específico del parámetro, se
puede decir que el parámetro es identificable.

* Glue Output Uncertainty: En la Figura 25 se muestra un ejemplo de este tipo de gráfica, en


la cual se presentan los intervalos de confianza calculados usando la metodología GLUE. Para
cada punto en el tiempo se realiza una distribución de frecuencia acumulada usando la función
objetivo deseada (convertido a probabilidad), y los intervalos de confianza (también definidos
por el usuario) se calculan con interpolación lineal. Adicionalmente se gráfica debajo de ésta,
una figura que hace fácilmente identificables las zonas de mayor incertidumbre con la
diferencia de los límites de confianza superior e inferior, normalizados con la máxima
diferencia de los dos límites como muestra la siguiente ecuación.

Ecuación 14

Donde, dCFL es la diferencia normalizada entre los límites de confianza superior e inferior,
UCFL es el límite de confianza superior, LCFL es el límite de confianza inferior y max() es la
máxima diferencia en el rango de tiempo evaluado.

67
Figura 25. Gráficos opción MCAT “Glue Output Incertainty”

*Class Plot: Ésta gráfica entrega 10 simulaciones con muestras realizadas con Monte-Carlo,
clasificadas de acuerdo con la función objetivo, la simulación más oscura (color magenta) es la
que corresponde a las mejores funciones objetivo, mientras que las más claras (color azul rey)
corresponden a grupo de simulaciones con peor función objetivo, los puntos azul oscuro
representan los datos medidos. Los resultados de las evaluaciones de la función objetivo se
transforman en probabilidades. Esta gráfica es muy ilustrativa pues muestra el rango de
variación de las simulaciones comparadas con los datos observados, en la Figura 26 se muestra
un ejemplo de este tipo de gráfica.

Figura 26. Gráficos opción MCAT “Class Plot”

*Regional Sensitive Analysis, RSA: La herramienta más importante para el análisis de


sensibilidad de parámetros es el “Regional Sensitive Analysis”, RSA, en el que se divide la
población en diez grupos de igual tamaño, con base en su función objetivo, dibujando para

68
cada uno su distribución acumulada. Las diferencias y separación entre las curvas proveen la
información acerca de su sensibilidad.

Rugosidad Área impermeable Rugosidad Tubería (*10-3)


Figura 27. Gráficos opción MCAT “Regional Sensitive Analysis”

En panel izquierdo de la Figura 27 muestra líneas rectas semejando diagonales dentro del
cuadro, muy cercanas entre sí, por lo que se puede decir que el modelo (sus funciones objetivo)
es insensible a los valores que tome el parámetro en todo su rango. Este parámetro por lo
tanto no está identificado. De forma contraria el panel derecho muestra un parámetro
identificado en el que uno de los diez grupos en que se divide la población se encuentra en un
rango relativamente pequeño de valores del parámetro con una pendiente pronunciada,
mientras que los restantes se alejan de este comportamiento mostrando una mayor amplitud en
el rango y una mayor insensibilidad en sus parámetros. Otras funciones del MCAT, pueden
ser consultadas en el manual del usuario (Wagener et al, 2001).

69

Vous aimerez peut-être aussi