Académique Documents
Professionnel Documents
Culture Documents
Negocios
“INTELIGENCIA DE NEGOCIOS”
CURSO: Planeamiento Estratégico de la Información
INTEGRANTES:
LIMA-PERÚ
2013
Página 2
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
ÍNDICE GENERAL
Índice 3
Introducción 5
Página 3
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Conclusión 76
Referencias Bibliográficas 64
Linkografía 77
Página 4
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Resumen
E n este ensayo nos hemos planteado el siguiente cuestionamiento: ¿Se puede considerar a
la Inteligencia de Negocios (BI) como una ventaja competitiva para las organizaciones? Se
señala y analiza las virtudes, ventajas competitivas y los beneficios del enfoque BI,
describiendo los componentes a tomar en cuenta al implantar una solución de BI así como las
aplicaciones de software de libre uso y acceso. Se explica la manera cómo la BI ayuda a los
gerentes de organizaciones a tomar decisiones que mejoren su rendimiento e impulsen su
ventaja competitiva en el mercado.
La BI esencialmente significa colocar información relevante en las manos de las personas que
toman decisiones en todos los niveles de la organización. Se soporta en sus componentes como
fuente de información, proceso de extracción, transformación y carga de los datos en el
datawarehouse y su visualización. Además, se nutre del área de la Computación que provee un
conjunto de herramientas y aplicaciones de software. BI es una ventaja competitiva para las
empresas con la que obtienen los beneficios tangibles, intangibles y estratégicos.
Página 5
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Introducción
En el presente módulo se ha estructurado algunos capítulos los cuales se describen a continuación:
OBJETIVO
Página 6
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
CAPÍTULO I
INTRODUCCIÓN A BUSINESS
INTELLIGENCE
Página 7
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
1.1 Introducción
L
a información es la clave de nuestros tiempos para poder lograr una ventaja comparativa
en el mercado, el problema ha sido que muchas veces esta no logra ser bien
decodificada para separar aquella que no tiene utilidad con la que nos permita poder
generar escenarios, reportes y pronósticos para el futuro de nuestra empresa. La idea
principal del acumular información es que esta nos pueda ser de utilidad para la toma de
decisiones, a partir de esta necesidad nace el concepto de la “inteligencia de negocios”.
En un nivel más técnico, podemos decir que este conjunto de metodologías, se traduce en la
identificación, análisis, registro y presentación de tanto las amenazas como las oportunidades que
influyen directamente a su empresa.
En lo concreto el BI se encarga de tomar todos los datos que han sido recopilados por una
compañía en el transcurso de los años, luego de un proceso de análisis, adquiere habilidades a
partir de las necesidades de esta, como por ejemplo, lograr que la empresa comprenda de mejor
manera el mercado de su entorno directo. Además de esto, tiene la capacidad de tomar el “capital
intelectual” de las personas que trabajan en la empresa para convertirlo en un recurso activo, para
optimizar el beneficio que traerá este en el futuro.
Lo más importante es que el sistema de BI nos permite hacer predicciones y detectar errores de
accionar, para así poder tomar decisiones de negocios a tiempo y así evitar consecuencias que
podrían ser perjudiciales o nefastas para un negocio.
Probablemente antes de 1996 resultaba impensable algún método que a partir de esos datos ya
acumulados, una entidad “no humana” pudiera ejercer una toma de decisiones instantáneas,
indicando los pasos más efectivos a seguir para resolver problemas típicos de una empresa, sin
necesidad de estar revisando una y otra vez cientos de informes de caso para recién ahí sacar
alguna conclusión y diseñar una estrategia.
Es en ese año cuando la empresa estadounidense Garner Group publicó un anunció que
revolucionaría la forma de comprender y analizar los datos de una empresa para desarrollar
estrategias de mercado. En este anuncio dictaba la necesidad de democratizar la información con
un conjunto de estrategias denominadas como “Inteligencia de negocios”, en el inglés Business
Intelligence más conocido como “BI”.
Página 8
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Explorar: En todo proyecto de BI hay un momento inicial en el que por primera vez
accedemos a información que nos facilita su interpretación. En esta primera fase, lo que
hacemos es “explorar” para comprender qué sucede en nuestro negocio; es posible incluso
que descubramos nuevas relaciones que hasta el momento desconocíamos.
Analizar: Pretendemos descubrir relaciones entre variables, tendencias, es decir, cuál puede
ser la evolución de la variable, o patrones. Si un cliente tiene una serie de características, cuál
es la probabilidad que otro con similares características actué igual que el anterior.
Comunicar los resultados y efectuar los cambios: Un objetivo fundamental del BI es que, una
vez descubierto algo, sea comunicado a aquellas personas que tengan que realizar los
cambios pertinentes en la organización para mejorar nuestra competitividad.
Página 9
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
En la década del 70, cuando aparecen los dispositivos de almacenamiento de acceso directo, se da
un gran paso en cuanto a la velocidad para acceder a los datos, pues con ellos las búsquedas ya no
eran lineales, sino directas. Junto con ello también aparecen sistemas de administración de bases
de datos (DBMS), cuyo propósito era facilitar al programador el acceso a la información al
encargarse del almacenamiento e índices. En ese entonces se definió a la base de datos como "una
fuente única de información para todo el procesamiento".
Tanto la implementación de las bases de datos para el procesamiento en línea como las nuevas
tecnologías y lenguajes de cuarta generación (4GL), proveyeron al usuario la facilidad de tener el
control directo de los sistemas y la información, dando origen a los primeros Sistemas de
Información formales. Pero también fueron el inicio del paradigma de una sola base de datos que
pudiera servir tanto al procesamiento operativo como al procesamiento de alto nivel.
La información almacenada en las bases de datos mantiene el registro total de lo que sucede en la
organización. Cuando un usuario operativo desea consultar transacciones unitarias o pequeños
grupos de transacciones, se puede acceder directamente y extraer la información en un lapso muy
breve (milisegundos); si la base de datos no es muy extensa, incluso un gerente puede también
realizar una consulta (vía Inteligencia de Negocios asistentes) que traiga información resumida
sobre muchos registros e, incluso, sobre toda la base de datos, los tiempos para consultas de ese
tipo son muy razonables (segundos). ¿Pero qué pasa cuando los datos sobrepasan los límites
permisibles para tener la información disponible?
Algunos de los factores causales de que las bases de datos se volvieran
poco operativas para consultas extensas son las fusiones, la
globalización, las alianzas, la diversificación de productos, el
crecimiento exponencial de las empresas y, en general, todas las
condiciones derivadas de la evolución natural de las
empresas que trajo consigo un aumento cuantitativo
de los datos que se necesitaba almacenar. A
esto hay que agregar que las
herramientas o software necesario para
obtener la información eran muy
especializados y rara vez una persona
que toma decisiones tenía el
background necesario para manipular
información.
Página 10
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Inteligencia de Negocios (BI) es un concepto que se asocia 100% con los niveles directivos, surge de
la necesidad de contar con información para dirigir el rumbo de la empresa por los altos mandos,
sin embargo, con el tiempo se ha ido ampliando el alcance de este término hasta llegar
prácticamente a toda la empresa.
A pesar de relacionar completamente el término con conceptos 100% computacionales, sobre todo
las herramientas utilizadas para lograr implementar un desarrollo de este tipo, la verdad es que el
concepto no se construye basándose en herramientas computacionales, sino de la formulación de
estrategias efectivas de negocios que respondieran a los nuevos tiempos y sus demandas. El énfasis
es en los requerimientos y de ahí se desprenden las aplicaciones, es decir, los hombres de negocio
dictan las necesidades y la gente técnica investiga y adapta la tecnología para resolver
favorablemente esos requerimientos con todos los medios a su alcance. BI se plantea una sinergia
entre los Tomadores de Decisiones y las herramientas que emplean, la tecnología está claramente
vinculada al management de las empresas, teniendo como resultado obtener ventajas
competitivas, producto de decisiones mejor informadas. En función de esta se puede entender a BI
como una combinación de tecnología y desarrollo de negocios (Bitam, 2002).
Según la empresa Abits (2005, http), la “Inteligencia de Negocios, es una alternativa tecnológica y
de administración de negocios, que permite manejar la información para la toma de decisiones
acertadas en todos los niveles de la organización, desde la extracción, depuración y transformación
de datos, hasta la explotación y distribución de la información mediante herramientas de fácil uso
para los usuarios”.
Según Nader J. (2006), "Es el conjunto de tecnologías que permiten a las empresas utilizar la
información disponible en cualquier parte de la organización para hacer mejores análisis, descubrir
nuevas oportunidades y tomar decisiones más informadas."
Página 11
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Hackney (2001) nos dice que el Business Intelligence se compone de todas las actividades
relacionadas a la organización y entrega de información así como el análisis del negocio. Esto
incluye Minería de Datos, Administración del Conocimiento, Aplicaciones Analíticas, Sistemas de
Reportes y principalmente Data Warehousing.
Michel (2000) afirma que el conjunto de tecnologías que usan Data Warehousing y OLAP (On-line
Analitic Procesing, procesamiento analítico en línea), combinado con herramientas de reporte, son
referidas como Business Intelligence, porque ayudan a las compañías a ganar inteligencia en
operaciones y desempeño.
Por último, el vicepresidente y director de investigaciones del Grupo Gartner, Howard Dresner,
citado en Hilson (2001) coincide con las anteriores definiciones, y el agrega: "Business Intelligence
es simplemente la habilidad de los usuarios finales para acceder y analizar tipos cuantitativos de
información y ser capaz de actuar en consecuencia".
Business Intelligence ha tomado la delantera en los últimos dos años, los proveedores de
soluciones cuentan con tecnología más amigable y presentan datos más fáciles de analizar,
apostando hacia la adopción masiva de dichos sistemas por parte de las organizaciones (Sullivan,
2001).
Las compañías actualmente usan una amplia gama de tecnologías y productos para saber qué es lo
que está pasando en la organización. Las herramientas más comunes (simple consulta y reporte de
datos, procesamiento analítico en línea, análisis estadístico, predicciones y minería de datos)
pueden ser usadas de una gran variedad de formas. El objetivo de todo esto es transformar las
montañas de datos en información útil para la empresa (McGeever, 2000).
El radical crecimiento de nuevas formas de "inteligencia" generada por computadora es una de las
dos revoluciones en materia de TI que se están dando en la actualidad. La segunda es el Internet,
del cual ya todo mundo conoce (Martín, 2001). Las dos revoluciones van a soportar y amplificar una
a la otra. El conjunto de ambas resultará en una radical reinvención de los negocios.
Como podemos observar, el punto en común que presentan las distintas definiciones es sin duda la
ventaja competitiva que una empresa adquiere con la implantación de un sistema inteligente de
negocio. Una ventaja competitiva que se adquiere utilizando una estrategia inteligente; esto es,
identificar qué información es de vital importancia para la empresa, identificar los factores clave de
rendimiento, es decir, aquello que la empresa cree que es importante medir y analizar.
Página 12
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
1.2.3 Objetivo
El objetivo primario del BI es ayudar a las personas a tomar decisiones que mejoren el
rendimiento de la compañía e impulsen su ventaja competitiva en el mercado. Pero es común una
larga brecha entre la información que los responsables en la toma de decisiones requieren, y las
grandes cantidades de datos que las organizaciones recopilan cada día. Para saltar esta brecha, las
organizaciones hacen significativas inversiones en desarrollar sistemas de BI para convertir los
datos originales en información de utilidad.
Fase 1 – Dirigir y Planear. En esta fase inicial es donde se deberán recolectar los sado en el
entendimiento del pasado. Requerimientos de información específicos de los diferentes
usuarios, así como en- tender sus diversas necesidades, para que luego en conjunto con
ellos se generen El usuario podrá consultar y analizar los datos de manera sencilla.
Efectivamente las preguntas que les ayudarán a alcanzar sus objetivos.
Fase 3 – Procesamiento de Datos. En esta fase es donde se integran y cargan los datos en
crudo en un formato utilizable para el análisis. Esta actividad puede realizarse mediante la
creación de una nueva base de datos, agregando datos a una base de datos ya existente o
bien consolidando la información.
Fase 4 – Análisis y Producción. Ahora, se procederá a trabajar sobre los datos ex- traídos e
integrados, utilizando herramientas y técnicas propias de la tecnología BI, para crear
inteligencia. Como resultado final de esta fase se obtendrán las respuestas a las preguntas,
mediante la creación de reportes, indicadores, etc.
Página 13
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Fase 5 – Difusión. Finalmente se les entregará a los usuarios que lo requieran las herramientas
necesarias, que les permitirán explorar los datos de manera veloz y sencilla.
1.2.4 Características
Este conjunto de herramientas y metodologías tienen en común las siguientes características:
Las empresas deben formular una estrategia de gestión de la información que sea la base de
la gestión del rendimiento empresarial, permitiendo el soporte de decisiones y satisfaciendo
los requisitos legales.
Proceso Orientación al Usuario Final: Un factor que incidió en la aparición del BI fue que el
usuario final no poseía conocimientos técnicos que le permitieran tener un acceso fácil y
directo a los datos operacionales. Por este motivo, el usuario final dependía de otras fuentes
para obtener la información que necesitaba y las consultas no definidas, que son las que
normalmente realiza un ejecutivo, eran ejecutadas por terceras personas, normalmente de
informática, con la dependencia consecuente. El BI incluye herramientas orientadas a usuario
final, para eliminar esta dependencia en terceros.
1.2.4 Beneficios
Una organización es altamente competitiva si aplica BI. Sin embargo, una situación muy común
es que los responsables del Área de Tecnología de las organizaciones pueden estar seguros de las
ventajas de una solución de este tipo, pero los que toman las decisiones, en muchos casos, no
comprenden los beneficios de esta inversión y piensan que es un gasto más en tecnología para su
Página 14
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
organización, más aun si ésta es una Pequeña o Mediana empresa (PyME). Entonces, ¿Cómo
plantear los beneficios del BI?
Uno de los objetivos básicos de los sistemas de información es que nos ayuden a la toma de
decisiones. Cuando un responsable tiene que tomar una decisión pide o busca información, que le
servirá para reducir la incertidumbre. Sin embargo, aunque todos la utilicen, no todos los
responsables recogen la misma información: depende de muchos factores, como pueden ser su
experiencia, formación, disponibilidad, etc. Del mismo modo, los responsables pueden necesitar
recoger más o menos información dependiendo que su mayor o menor aversión al riesgo.
A partir de los datos que nos proporciona el sistema de Business Intelligence podemos descubrir
conocimiento. Por ejemplo, en un concesionario de coches descubrimos la relación entre el número
de visitas al concesionario y el número de vehículos vendidos en el mes siguiente.
Parece claro que el número de visitas al concesionario parece un indicador clave, pero ¿todos los
concesionarios lo recogen? Como hemos visto, Business Intelligence nos servirá como ayuda para la
toma de decisiones y, posteriormente, para descubrir cosas que hasta ahora desconocíamos.
Los beneficios que se pueden obtener a través del uso de BI pueden ser de distintos tipos:
Algunos ejemplos concretos de cómo el Business Intelligence nos puede generar beneficios:
Generación de ingresos:
Página 15
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Reducción de costes:
Negociar mejores precios con los proveedores, identificar a los proveedores más
importantes, gestionar descuentos por cantidades de compra; permitir el análisis del
cumplimiento de los proveedores y asignar las compras de acuerdo con ello; medir el nivel de
calidad, servicio y precio.
Reducir o reasignar el personal necesario para llevar a cabo los procesos.
Incrementar la productividad con información más inmediata y mejor.
Aumentar el control de costes.
Disminuir los gastos.
Eliminar ineficiencias y reducir los costes operativos al generar “una sola versión de la
verdad”.
Menguar pérdidas detectando fraude.
Reducir los créditos incobrables.
Hacer bajar las reclamaciones (por ejemplo en el sector de seguros).
Eliminarlas sobreproducciones de productos.
Proveer inventarios “just-in-time”; gestionar los inventarios de productos acabados; mejorar
la gestión de materias primas y productos acabados; reducir los costes de mantenimiento del
stock.
Acortar los tiempos de respuesta a las peticiones de informes.
Analizar los problemas, reparaciones y defectos y proveerla información para hacer un
seguimiento y corregir los problemas recurrentes.
Reducir el tiempo para recoger la información para cumplir con las
normativas legales.
Evaluar el rendimiento de los activos y generar las
alertas cuando el mantenimiento preventivo se
debe llevar a cabo.
Proveer el suministro dentro del plazo.
Hacer un seguimiento de los problemas de los
productos desde el inicio de su vida hasta el fin.
Retirar los viejos equipos para disminuirlos costes de
actividad.
Reducir las devoluciones de
productos.
Analizar la productividad de los
empleados.
Dar soporte a las reclamaciones
de facturación.
Abaratar los costes de las acciones de marketing.
Hacer un mejor seguimiento de las acciones delictivas.
Página 16
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Muchas son las ventajas que aportan las herramientas Business Intelligence, sin embargo, las
factores de riesgo e inconvenientes de éstas también son importantes y deben tenerse en cuenta a
la hora de implantar una solución de estas características. Los proveedores de soluciones BI, como
profesionales del sector de la Tecnología de la
Información, han de identificar en cada implantación los riesgos y decidir qué solución es la más
adecuada para cada empresa.
Vitt E, Luckevich M, Misner S (2007) aseguran que los principales inconvenientes están
relacionados con la inversión económica que la empresas han de realizar y el cambio de mentalidad
que este tipo de soluciones originan.
Página 17
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
BI es mucho más que una actitud empresarial o una tecnología a disposición de las
organizaciones. De hecho, es un marco de referencia para la gestión de rendimiento
empresarial, un ciclo continuo por el cual las organizaciones de finen sus objetivos, analizan
sus progresos, adquieren conocimiento, toman decisiones, miden sus éxitos y comienzan el
ciclo nuevamente.
BI ayuda a los gerentes a tomar mejores decisiones más rápidamente en los niveles
estratégicos y operativos.
Análisis: Está basado en la compresión básica por las suposiciones de cómo nuestro
negocio opera incluyendo por ejemplo lo importante para el cliente, proveedores y
empleados (modelo mental).
Ideas: La idea es el producto del análisis amplio. Las ideas pueden ser operacionales y
estratégicas.
Acción: La acción es lo que sigue a una mejor y más rápida toma de decisiones
proporcionada por el BI. Las decisiones bien fundamentadas proporcionan una motivación
extra al que emprende la acción.
Página 18
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Los entes principales que contribuyen a facilitar el BI son: la tecnología, la gente y la cultura
corporativa.
Potencia de procesamiento.
Almacenamiento.
Tecnologías de redes.
Estándares.
Software BI.
Los sistemas informáticos pueden informar de lo que está pasando en la empresa, pero adquirir
conocimiento de estos acontecimientos requiere la motivación de la gente y las organizaciones. Y
para que esto suceda necesita a la gente entusiasmada con el cambio (otra forma de pensar).
Los sistemas BI sirven a los gerentes en gran medida, de la misma forma que los instrumentos de
navegación sirven a los pilotos. El grado en que la instrumentación es esencial, depende del tamaño
y complejidad de la organización y del papel del gerente.
Cultura Organizacional: La extensión para la cual la actitud BI florece en una organización depende
en gran medida de su cultura organizacional.
Las culturas que son exitosas en posibilitar el BI son aquellas que sistemáticamente tienen éxito en
lo siguiente:
Página 19
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
CAPÍTULO II
TECNOLOGÍA BUSINESS
INTELLIGENCE
Página 20
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
2.1. Introducción
Son muchos los conceptos, herramientas y tecnologías que se engloban dentro una solución
completa de Business Intelligence. Business Intelligence (la Inteligencia de Negocio) es
proporcionar la información adecuada, en el momento adecuado, para la persona adecuada y en el
formato adecuado. Los pasos para lograr estos cuatro objetivos es:
Página 21
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
y tecnologías que permiten reunir, depurar y transformar datos de los sistemas transaccionales e
información desestructurada (interna y externa a la compañía) en información estructurada, para
su explotación directa (reporting, análisis OLAP...) o para su análisis y conversión en conocimiento
soporte a la toma de decisiones sobre el negocio. (Ibermática, 2007)
Esta definición pretende abarcar y describir el ámbito integral del entorno Business Intelligence,
reflejado resumidamente en el gráfico de a continuación. Es importante considerar cualquier
proyecto Business Intelligence como un modelo objetivo integral. Algunas organizaciones han
desarrollado proyectos parciales, sin tener en cuenta esta visión global, comprometiendo la calidad
y efectividad de los resultados obtenidos.
Página 22
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Sistemas Fuentes. Los datos administrados por los sistemas de aplicación operacionales
son la fuente principal de datos para el data warehouse. Estos sistemas son los encargados
de recolectar información diaria de las tareas operativas de la organización. Estos datos
operacionales constituyen la base de todo sistema business Intelligence ya que de estos
dependen la calidad de información que se entregue al usuario final. En muchas ocasiones
también se requiere de datos externos para alimentar al sistema como hojas electrónicas,
archivos de texto, debido a que algunas áreas de la institución no se encuentran
automatizadas por lo que no cuentan con un sistema transaccional donde almacenar los
datos.
Según (Vitt, Luckevich, Misner. 2002), estos sistemas pueden ser aplicaciones de líneas de negocio
tales como el sistema de recursos humanos, el sistema de la cadena de suministro, las aplicaciones
de planificación de los recursos empresariales (ERP) o los sistemas de gestión de relaciones con los
clientes (CRM). Estos sistemas operacionales son extremadamente eficientes para dar soporte a
procesos transaccionales. Sin embargo, no son nada efectivos para desarrollar análisis de negocio,
especialmente cuando el análisis requiere recopilar datos registrados en distintas fuentes.
De acuerdo a Óscar Alonso (Alonso, 2006), Jefe de Proyectos en Lantares, el objetivo es generar
información que pueda ser trabajada y analizada de forma intuitiva, más o menos en tiempo real, y
con la posibilidad de integrar diferentes fuentes de datos para ofrecer una visión global que puede
ser compartida y distribuida por todos los departamentos de la empresa. No es que todo el mundo
tenga acceso a toda la información, se trata de que todo el mundo tenga acceso y genere la
información que necesita para que su trabajo sea los más eficiente posible. Para esto, es necesario
limpiar e integrar los datos almacenados en las distintas fuentes mediante las herramientas ETL;
Extracción, Transformación y Carga (Extract, Transform, Load) y construir un reporsitorio de datos
global: el datawarehouse.
Página 23
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
El concepto Data Warehouse proviene de finales de los años 80, cuando los investigadores de IBM
Barry Devlin y Paul Murphy desarrollaron el "Business Data Warehouse".
A continuación describiremos las características distintivas de un Data Warehouse, las cuales nos
ayudarán a comprender mejor su concepto.
Página 24
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Antes de ver las diferencias, es de gran utilidad introducir el término “data mart”. Este término es
base para comprender las diferencias existentes entre los dos paradigmas principales. Según
Página 25
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
(Ibermática, 2007) un data mart es: una base de datos especializada, departamental, orientada a
satisfacer las necesidades específicas de un grupo particular de usuarios (en otras palabras, un data
Warehouse departamental, normalmente subconjunto del corporativo con transformaciones
específicas para el área a la que va dirigido).
De acuerdo con (SIS KLE, Marzo 2009), las teorías de ambos especialistas de la Tecnología de la
Información son:
Bill Inmon: el Data Warehouse es una parte del todo que conforma a un sistema de inteligencia.
Una empresa tiene un Data Warehouse, y los data marts tienen como fuente de información
ese Data Warehouse. Ésta aproximación también es conocida como "Top-Down"
Ralph Kimball: bajo este paradigma, el Data Warehouse se compone por el conglomerado de
todos los Data Marts generados en una empresa. La información siempre se almacena en un
modelo dimensional. Otra forma forma de denominar ésta aproximación es como "Bottom-up".
Un reflejo de estas dos teorías puede verse en las dos figuras siguientes. La figura uno
representa la teoría de Bill Inmon, mientras que la segunda figura representa el paradigma de
Ralph Kimball. (Vitt, Luckevich, Misner. 2002).
Página 26
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Pese a las diferencias que se pueden apreciar de manera inmediata entre ambas arquitecturas,
también existen elementos en común. Todas las empresas requieren almacenar recursos, analizar
e interpretar la información que generan y acumulan con el fin de tomar decisiones críticas que
permitan su existencia pero sobre todo que maximicen su prosperidad; por lo que se vuelve
prioritario crear sistemas de análisis y retroalimentación para comprender su información (Data
Warehouse) y de esta manera contar con los elementos adecuados para la toma de decisiones.
Falta de integración de la información. Muchos de los datos de que disponen las empresas se
encuentra en diversos almacenes de datos porque han evolucionado como sistemas
independientes, en diferentes lenguajes, desarrollados por diferentes personas y en diferentes
momentos. Estos almacenes de datos son incapaces de ofrecer a la empresa una visión
consolidada ya que no poseen vinculación entre ellos.
Sobrecarga de información. En las últimas décadas, los sistemas operacionales han producido
una gran cantidad de datos, los que son difíciles de analizar para tomar decisiones de negocio. A
pesar de las grandes sumas invertidas en tecnología de la información, los distintos
departamentos dentro de las empresas todavía carecen de herramientas para explorar esos
datos de una manera ágil y eficaz.
Exceso de información genérica y despersonalizada. Por lo general, los informes producidos por
un sistema operacional contienen una gran cantidad de datos. Sin embargo, ofrecen muy poca
información que ayude a la toma de decisiones. Estos informes no tienen la capacidad de
adaptarse a las necesidades actuales de los usuarios, y carecen de información personalizada
y/o relevante para los distintos perfiles que existen en un negocio.
Aprendizaje del pasado. Proporciona la capacidad de aprender de los datos del pasado y de
predecir situaciones futuras en diversos escenarios.
Página 27
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Mayor flexibilidad ante el entorno. El Data Warehouse convierte los datos operacionales en
información relacionada y estructurada, que genera el conocimiento necesario para la toma de
decisiones. Esto permite establecer una base única del modelo de información de la
organización, que puede dar lugar a una visión global de la información en base a los conceptos
de negocio que tratan los usuarios. Además, aporta una mejor calidad y flexibilidad en el análisis
del mercado, y del entorno en general. Esta visión global puede conllevar también la obtención
de otras ventajas competitivas, al permitir el desempeño de tareas que en los sistemas
tradicionales sufrirían un costo adicional, por ejemplo:
Mejor servicio al cliente. Lo dicho en el punto anterior implica una importante mejora en la
calidad de gestión, lo que también repercute en la relación con el cliente. De hecho, el que un
Data Warehouse implique una mayor flexibilidad ante el entorno tiene una consecuencia directa
en una mayor capacidad para responder a las necesidades de los clientes.
El nivel competitivo alcanzado en las empresas les ha exigido desarrollar nuevas estrategias de
gestión. En el pasado, las organizaciones fueron típicamente estructuradas en forma piramidal con
información generada en su base fluyendo hacia lo alto; y era en el estrato de la pirámide más alto
donde se tomaban decisiones a partir de la información proporcionada por la base, con un bajo
aprovechamiento del potencial de esta información. Las empresas han reestructurado y eliminado
estratos de estas pirámides y han autorizado a los usuarios de todos los niveles a tomar mayores
decisiones y responsabilidades. Sin embargo, sin información sólida para ayudar y apoyar las
decisiones, la automatización no tiene sentido.
Esta necesidad de obtener información para una amplia variedad de individuos es la principal razón
de negocios que conduce al concepto de. El énfasis no está sólo en llevar la información hacia lo
alto sino a través de la organización, para que todos los empleados que la necesiten la tengan a su
disposición (Sperley, 1999). El DW (de ahora en adelante los términos Data warehouse,
Datawarehousing, Warehouse, Almacén de Datos y DW son utilizados en forma indistinta)
convierte entonces los datos operacionales de una organización en una herramienta competitiva,
por hacerlos disponibles a los empleados que lo necesiten para el análisis y toma de decisiones.
Página 28
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Así un data warehouse resulta ser un recipiente de datos transaccionales para proporcionar
consultas operativas, y la información para poder llevar a cabo análisis multidimensional. De esta
forma, dentro de un data warehouse existen dos tecnologías que se pueden ver como
complementarias, una relacional para consultas y una multidimensional para análisis (Sperley,
1999). Puede considerarse que el modelo relacional en el cual se basa OLTP - Procesamiento
Transaccional en Línea (OnLine Transational Procesing, en inglés), tiene como objetivo mantener la
integridad de la información (relaciones entre los datos) necesaria para operar un negocio de la
manera más eficiente. Sin embargo, este modelo no corresponde a la forma como el usuario
percibe la operación de un negocio.
DW está basado en un procesamiento distinto al utilizado por los sistemas operacionales, es decir,
este se basa en OLAP -Procesos de Análisis en Línea- (OnLine Analysis Process, en inglés), usado en
el análisis de negocios y otras aplicaciones que requieren una visión flexible del negocio.
Para ampliar los conceptos anteriores, en la Tabla se exponen las principales diferencias entre los
sistemas Transaccionales (OLTP) y los basados en Data warehouse.
Página 29
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
puede ser lento o impredecible, lo que causa formato adecuado para realizar el análisis sin
un servicio poco eficiente a los usuarios del interferir en la operatoria transaccional diaria.
proceso analítico en línea.
Los datos que se modifican con frecuencia Proporcionan datos estables que representan
interfieren en la coherencia de la información el historial de la empresa. Se actualizan
analítica. periódicamente con datos adicionales, no con
transacciones frecuentes.
3. Transformación de datos: procesos para sumarizar y realizar otros cambios en los datos
operacionales para reunir los objetivos de orientación a temas e integración principalmente.
Página 30
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Intentando analizar el trabajo hecho hasta el momento en el área del diseño, las propuestas
metodológicas pueden clasificarse en tres grupos: metodologías dirigidas por datos, metodologías
dirigidas por procesos y metodologías compuestas (datos-procesos). El objetivo de las
metodologías dirigidas por datos es obtener el esquema conceptual del DW a partir de la
descripción de las bases de datos operacionales de la organización, por el contrario, las
metodologías dirigidas por procesos derivan el esquema conceptual del DW a partir de los
requisitos de usuario. Finalmente, las metodologías compuestas realizan una combinación de las
dos aproximaciones anteriores, es decir, consideran los requisitos de usuario así como la
descripción de la base de datos operacional. A continuación se citan algunas:
Metodología de Kimball. Kimball fue quien determinó que un data warehouse no era más que:
"la unión de todos los Data marts de una entidad". Defiende por tanto una metodología
ascendente (bottom-up) a la hora de diseñar un almacén de datos.
Página 31
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Model Driven Architecture 2.0 (MDA 2.0).Desarrollado por “The Object Management Group”
(OMG). Consiste en un conjunto de estándares que asisten en la creación, implementación,
evolución y desarrollo de sistemas dirigido por modelos. Los estándares que constituyen MDA
son: Lenguaje Unificado de Modelado (UML), Meta-Object-Facility (MOF), Meta-Data
Interchange (XMI) y Common Warehouse Metamodel (CWM).
Multidimensional FactModel (DFM) propuesta por Golfarelly, M. y Dario. Permite hacer una
representación de los hechos y dimensiones con una notación gráfica propia, además proponen
una metodología semiautomática para obtener un esquema multidimensional a partir de un
diagrama Entidad Relación (ER). Un esquema en DFM se define como una colección de
esquemas de hechos, cuyos elementos básicos son los hechos, los atributos, las dimensiones y
las jerarquías.
Página 32
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
2.5 Datamining
Página 33
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
1. Selección del conjunto de datos, tanto en lo que se refiere a las variables objetivo (aquellas que
se quiere predecir, calcular o inferir), como a las variables independientes (las que sirven para
hacer el cálculo o proceso), como posiblemente al muestreo de los registros disponibles.
2. Análisis de las propiedades de los datos, en especial los histogramas, diagramas de dispersión,
presencia de valores atípicos y ausencia de datos (valores nulos).
Si el modelo final no superara esta evaluación el proceso se podría repetir desde el principio o, si el
experto lo considera oportuno, a partir de cualquiera de los pasos anteriores. Esta
retroalimentación se podrá repetir cuantas veces se considere necesario hasta obtener un modelo
válido.
Una vez validado el modelo, si resulta ser aceptable (proporciona salidas adecuadas y/o con
márgenes de error admisibles) éste ya está listo para su explotación.
Página 34
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Aunque en datamining cada caso concreto puede ser radicalmente distinto al anterior, el
proceso común a todos ellos se suele componer de cuatro etapas principales:
Determinación de los objetivos. Trata de la delimitación de los objetivos que el cliente desea
bajo la orientación del especialista en data mining.
Determinación del modelo. Se comienza realizando unos análisis estadísticos de los datos, y
después se lleva a cabo una visualización gráfica de los mismos para tener una primera
aproximación. Según los objetivos planteados y la tarea que debe llevarse a cabo, pueden
utilizarse algoritmos desarrollados en diferentes áreas de la Inteligencia Artificial.
Análisis de los resultados. Verifica si los resultados obtenidos son coherentes y los coteja con
los obtenidos por los análisis estadísticos y de visualización gráfica. El cliente determina si son
novedosos y si le aportan un nuevo conocimiento que le permita considerar sus decisiones.
En resumen, el datamining se presenta como una tecnología emergente, con varias ventajas:
por un lado, resulta un buen punto de encuentro entre los investigadores y las personas de
negocios; por otro, ahorra grandes cantidades de dinero a una empresa y abre nuevas
oportunidades de negocios. Además, no hay duda de que trabajar con esta tecnología implica
cuidar un sinnúmero de detalles debido a que el producto final involucra "toma de decisiones".
Página 35
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Un proyecto de minería de datos tiene varias fases necesarias que son, esencialmente:
La relación entre todas estas fases sólo es lineal sobre el papel. En realidad, es mucho más compleja
y esconde toda una jerarquía de subfases. A través de la experiencia acumulada en proyectos de
minería de datos se han ido desarrollando metodologías que permiten gestionar esta complejidad
de una manera más o menos uniforme.
o El Perceptrón
o El Perceptrón multicapa.
o Los Mapas Auto organizados, también conocidos como redes de Kohonen.
Regresión lineal.- Es la más utilizada para formar relaciones entre datos. Rápida y eficaz pero
insuficiente en espacios multidimensionales donde puedan relacionarse más de 2 variables.
o Algoritmo ID3.
o Algoritmo C4.5
Página 36
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
o Algoritmo K-means.
o Algoritmo K-medoids.
Todas las herramientas tradicionales de minería de datos asumen que los datos que usarán para
construir los modelos contienen la información necesaria para lograr el propósito buscado: obtener
suficiente conocimiento que pueda ser aplicado al negocio (o problema) para obtener un beneficio
(o solución).
El inconveniente es que esto no es necesariamente cierto. Además, existe otro problema mayor
aún. Una vez construido el modelo no es posible conocer si el mismo ha capturado toda la
información disponible en los datos. Por esta razón la práctica común es realizar varios modelos
con distintos parámetros para ver si alguno logra mejores resultados.
Un enfoque relativamente nuevo al análisis de datos soluciona estos problemas haciendo que la
práctica de la minería de datos se parezca más a una ciencia que a un arte.
En 1948 Claude Shannon publicó un trabajo llamado “Una eoría Matemática de la Comunicación”.
Posteriormente esta pasó a llamarse Teoría de la información y sentó las bases de la comunicación
Página 37
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
La capacidad de medir información contenida en los datos tiene otras ventajas importantes.
Al analizar los datos desde esta nueva perspectiva se genera un mapa de información que hace
innecesario la preparación previa de los datos, una tarea absolutamente imprescindible si se desea
buenos resultados, pero que lleva enorme cantidad de tiempo.
Es posible seleccionar un grupo de variables óptimo que contenga la información necesaria para
realizar un modelo de predicción.
Una vez que las variables son procesadas con el fin de crear el mapa de información y luego
seleccionadas aquellas que aportan la mayor información, la elección de la herramienta que se
usará para crear el modelo deja de tener importancia, ya que el mayor trabajo fue realizado en los
pasos previos.
2.5.8 Tendencias
La Minería de Datos ha sufrido transformaciones en los últimos años de acuerdo con cambios
tecnológicos, de estrategias de marketing, la extensión de los modelos de compra en línea, etc. Los
más importantes de ellos son:
La importancia que han cobrado los datos no estructurados (texto, páginas de Internet, etc.)
La necesidad de integrar los algoritmos y resultados obtenidos en sistemas operacionales,
portales de Internet, etc.
La exigencia de que los procesos funcionen prácticamente en línea (por ejemplo, que frente a
un fraude con una tarjeta de crédito).
Los tiempos de respuesta. El gran volumen de datos que hay que procesar en muchos casos
para obtener un modelo válido es un inconveniente; esto implica grandes cantidades de tiempo
de proceso y hay problemas que requieren una respuesta en tiempo real.
Página 38
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Página 39
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Recursos humanos: La minería de datos también puede ser útil para los departamentos de
recursos humanos en la identificación de las características de sus empleados de mayor éxito. La
información obtenida puede ayudar a la contratación de personal, centrándose en los esfuerzos
de sus empleados y los resultados obtenidos por éstos. Además, la ayuda ofrecida por las
aplicaciones para Dirección estratégica en una empresa se traducen en la obtención de ventajas
a nivel corporativo, tales como mejorar el margen de beneficios o compartir objetivos; y en la
mejora de las decisiones operativas, tales como desarrollo de planes de producción o gestión de
mano de obra.
Terrorismo: La minería de datos ha sido citada como el método por el cual la unidad Able
Danger del Ejército de los EE. UU. había identificado al líder de los atentados del 11 de
septiembre de 2001, Mohammed Atta, y a otros tres secuestradores del "11-S" como posibles
miembros de una célula de Al Qaeda que operan en los EE. UU. más de un año antes del ataque.
Se ha sugerido que tanto la Agencia Central de Inteligencia y su homóloga canadiense, Servicio
de Inteligencia y Seguridad Canadiense, también han empleado este método.
Ciencia e Ingeniería: En los últimos años la minería de datos se está utilizando ampliamente en
diversas áreas relacionadas con la ciencia y la ingeniería. Algunos ejemplos de aplicación en
estos campos son:
Página 40
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
o Análisis de gases: También se han aplicado técnicas de minería de datos para el análisis de
gases disueltos (DGA: Dissolved gas analysis) en transformadores eléctricos. El análisis de
gases disueltos se conoce desde hace mucho tiempo como la herramienta para diagnosticar
transformadores. Los mapas auto-organizativos (SOM) se utilizan para analizar datos y
determinar tendencias que podrían pasarse por alto utilizando las técnicas clásicas (DGA)
Página 41
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Como hemos mencionado, los procesos ETL son el corazón de una solución Business Intelligence.
Estos procesos combinan información proveniente de distintas fuentes de información y la
almacenan en el data Warehouse, permitiendo a los usuarios disponer de un almacén de datos
único, con la información integrada, limpia, estructurada, consistente y preparada para el análisis.
Como lo definen los autores en (Eckerson, White. 2002), el data warehouse ofrece una sóla versión
de la verdad.
Es sin duda, el punto más crítico de un proyecto de Business Intelligence, en el cual, las
herramientas empleadas juegan un papel fundamental. Una buena herramienta de transformación
de datos (ETL) en manos de un buen consultor BI, puede acelerar el proceso de creación y
consolidación del data warehouse.
• Extraer e integrar información: Una vez especificada la información que se quiere analizar e
identificadas las fuentes en donde se encuentra localizada dicha información (ERPs, CRMs, archivos
planos, aplicaciones corporativas, etc.), se lleva a cabo el proceso de integración. Esto es, construir
las tablas del data Warehouse para albergar los datos en bruto. Extraer la información útil de las
fuentes de datos e incorporar dichos datos al data Warehouse.
Figura8. Tipos de fuentes de datos que las herramientas ETL procesan. (Eckerson,
White. 2002)
• Limpieza de datos: Generalmente, tras la extracción en bruto de la información, hay datos que no
interesan mantener, o son datos duplicados. Es frecuente realizar procesos de limpieza o de filtrado
para eliminar información innecesaria, redundante o errónea.
Página 42
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Figura9. Importancia que dan las empresas a los beneficios de ETL (Eckerson, White. 2002)
• Carga de datos: Tras aplicar todos los procesos de transformación, se lleva a cabo la carga
consolidada de los datos. Es habitual disponer de dos bases de datos separadas físicamente una
para la preparación de los datos y otra para el data Warehouse en sí. El proceso de volcado sería
pues el paso de la primera de estas bases de datos (llamada staging area o interfaz) al data
Warehouse. Es habitual que este proceso requiera el borrado de algunos datos del data Warehouse
que van a ser refrescados.
Figura10. Frecuencia de carga (refresco de datos) y previsión futura (Eckerson, White. 2002)
En segundo lugar, el OLAP acelera la entrega de información a los usuarios finales que ven estas
estructuras de datos como cubos denominadas multidimensionales debido a que la información es
vista en varias dimensiones.
Página 43
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Esta entrega es optimizada ya que se prepararan algunos valores calculados en los datos por
adelantado, en vez de de realizar el cálculo al momento de la solicitud. La combinación de
navegación fácil y rápida le permite a los usuarios ver y analizar información más rápida y
eficientemente que lo que es posible con tecnologías de bases de datos relacionales solamente. El
resultado final: se pasa más tiempo analizando los datos y menos tiempo analizando las bases de
datos.
A pesar del proceso de almacenamiento de datos de preparar información para el consumo del
usuario final se debe facilitar la búsqueda de la información.
Generalmente, las estructuras de datos de las bases tienen cierta complejidad para el usuario final,
principalmente para responder a preguntas tales como:
"¿Quiénes fueron los mejores vendedores de cada región durante el año pasado, mensualmente?"
son complejas cuando se expresan en lenguaje SQL.
Estos retos son enfrentados con herramientas avanzadas de peticiones (queries), las cuáles ocultan
al usuario final la complejidad de las base de datos. Esta es la función de las herramientas OLAP.
Todas las organizaciones tienen datos multidimensionales y la complejidad no es necesariamente
una función del tamaño de la compañía. Aún a las más pequeñas compañías les gustaría poder
rastrear sus ventas por producto, vendedor, geografía, cliente y tiempo. Las organizaciones han
buscado durante mucho tiempo herramientas para acceder, navegar y analizar información
multidimensional de una manera fácil y natural.
Análisis: realiza análisis estadísticos y numéricos básicos de los datos, predefinidos por el
desarrollador de la aplicación o definido “ad hoc” por el usuario.
Página 44
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Dentro de cada dimensión de un modelo de datos OLAP, los datos se pueden organizar en una
jerarquía que represente niveles de detalle de los datos.
La funcionalidad de los sistemas OLAP se caracteriza por ser un análisis multidimensional de datos
corporativos, que soportan los análisis del usuario y unas posibilidades de navegación,
seleccionando la información a obtener.
Rotar (Swap): alterar las filas por columnas (permutar dos dimensiones de análisis)
Bajar (Down): bajar el nivel de visualización en las filas a una jerarquía inferior
Detallar (Drilldown): informar para una fila en concreto de datos a un nivel inferior
Expandir (Expand): ídem anterior sin perder la información a nivel superior para éste y el resto
de los valores.
La tecnología OLAP permite un uso más eficaz de los almacenes de datos para el análisis en línea, lo
que proporciona respuestas rápidas a consultas analíticas complejas e iterativas. Los modelos de
datos multidimensionales de OLAP y las técnicas de agregados de datos organizan y resumen
grandes cantidades de datos para que puedan ser evaluados con rapidez mediante el análisis en
línea y las herramientas gráficas. La respuesta a una consulta realizada sobre datos históricos a
menudo suele conducir a consultas posteriores en las que el analista busca respuestas más
concretas o explora posibilidades.
Los sistemas OLAP proporcionan la velocidad y la flexibilidad necesarias para dar apoyo al analista
en tiempo real. La figura 21 muestra la integración del data warehouse y los procesos OLAP, que
generalmente se implementan por medio de una aplicación servidora que accede al data
warehouse y realiza los procesos de análisis. A través de este servicio OLAP, los usuarios acceden a
la información residente en las bases de datos (Microsoft Corp, 2002).
Página 45
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
En la mayoría de las implementaciones de OLAP, se asume que los datos han sido preparados para
el análisis a través del almacenamiento de datos (data warehousing) y que la información se ha
extraído de sistemas operacionales, limpiado, validado y resumido antes de incorporarse en una
aplicación OLAP. Este es un paso vital en el proceso, que asegura que los datos que son vistos por el
usuario OLAP son correctos, consistentes y que llenan las definiciones organizacionales para los
datos.
Cada vez más, la información en un data warehouse se organiza en esquemas de estrella o de copo
de nieve. El esquema estrella, considerado como jerarquía de dimensiones lineal se basa en una
tabla de hechos central (las medidas) que se enlaza a las tablas de dimensiones relacionadas (las
categorías descriptivas de las medidas), mientras que el esquema copo de nieve, considerado como
estrella jerárquica o modelo no lineal , es una tabla de hechos central se enlaza a una tabla de
hechos contiene generalmente los valores o medidas que se quiere analizar, mientras las tablas de
dimensiones contienen las vistas en que se quiere analizar esas medidas.
Página 46
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Luego de analizar los dos tipos de esquemas, cabe una pregunta ¿Se puede recopilar toda la
información necesaria en un único esquema estrella o copo de nieve? La respuesta es NO.
Realmente se requiere de varios esquemas y cada uno de ellos se denomina data mart como se
ejemplifica en la figura.
La figura 9 muestra un ejemplo de esquema de estrella. En este tipo de base de datos, una tabla de
hechos central se enlaza a las tablas de dimensiones relacionadas.
Página 47
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
La figura muestra un ejemplo de esquema copo de nieve. Este tipo de esquema se caracteriza por
tener tablas dimensionales relacionadas con otras tablas dimensionales además de vincularse a la
tabla de hechos. A continuación se enumeran algunas de las principales ventajas del esquema
estrella:
Página 48
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Los esquemas de estrella y copo de nieve son aproximaciones relacionales del modelo de datos
OLAP y son un punto de partida excelente para construir definiciones de cubo OLAP. Pocos
productos OLAP han tomado ventaja de este hecho. Generalmente no han provisto herramientas
sencillas para mapear un esquema de estrella a un modelo OLAP y como resultado mantienen el
costo de construir el modelo OLAP extremadamente alto y el tiempo de desarrollo
innecesariamente largo.
Debido a la explosión de datos, las aplicaciones OLAP pueden sufrir aún más cuando los datos de
detalle o fuente están distribuidos dispersamente en todo lo amplio del cubo multidimensional. Los
valores faltantes o inválidos crean dispersión en el modelo de datos OLAP. En el peor caso, un
producto OLAP podría almacenar un valor vacío. Por ejemplo, una compañía podría no vender
todos los productos en todas las regiones, así que no aparecerían valores en la intersección donde
los productos no se venden en una región particular.
La dispersión de datos, un reto para las compañías de OLAP, se ha vencido con varios grados de
éxito. Las peores implementaciones resultan en bases de datos que almacenan valores vacíos, por
tanto teniendo baja densidad y desperdiciando espacio y recursos. Los servicios OLAP no
almacenan valores vacíos y como resultado, aún los cubos dispersamente poblados no se inflarán
de tamaño. Mientras que este asunto es frecuentemente subrayado como un factor decisivo de
arquitecturas OLAP, por algunos vendedores de OLAP, las diferencias entre las implementaciones
de las compañías en el manejo de la dispersión son mínimas comparadas a las más importantes
explosiones de datos causadas por precalcular demasiados agregados.
Página 49
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
2.7 KPI's
Medimos lo que creemos que es importante. El término empleado por el Business Intelligence
para designar las métricas importantes se denomina indicadores de gestión, KPI (Key Performance
Indicators). Los sistemas de Business Intelligence están específicamente diseñados para asimilar
grandes cantidades de datos complejos de diferentes fuentes y combinar estos datos utilizando
algoritmos complejos con el fin de asignar, agregar y, en definitiva, jugar con la información. El
resultado es la obtención sistemática de informes con las métricas, ratios e indicadores del negocio;
los auténticos KPI que los gerentes necesitan identificar, analizar y utilizar para tomar decisiones de
forma frecuente. (Vitt, Luckevich, Misner. 2002).
Lo que realmente es importante acerca de un indicador de gestión es que los datos de los que
dependa el indicador deben ser consistentes y correctos y que dichos datos deben estar
disponibles a tiempo.
A continuación se muestra una tabla con los KPIs más comunes empleados en distintas áreas
funcionales de una empresa:
Página 50
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
CAPÍTULO III
HERRAMIENTAS BUSINESS
INTELLIGENCE
Página 51
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Los reportes o las consultas son requeridos por cualquier persona dentro de la organización, de
hecho, no es una labor que esté limitada a un nivel jerárquico opuesto. Cuando un usuario con poca
preparación técnica (secretarias, ejecutivos, etc.) requiere de un reporte o consulta, lo hace vía
terceros, el tradicional entorno es hacer la solicitud de información a sistemas y obtenerla después
de cierto tiempo, el tiempo puede ser irrelevante o puede significar la pérdida de vigencia de la
información solicitada.
El usuario técnico realiza los reportes y para ello necesita conectarse a la base de datos,
posteriormente, diseñar el formato requerido y, al final, obtener los datos. Tanto la conexión a la
base de datos como la construcción del formato del reporte son tareas de sistemas, la obtención de
datos se comparte con el usuario final, con esta lógica se entiende que el usuario final no puede
manipular sus reportes en caso de necesitar modificaciones o adecuaciones al mismo, por lo tanto
continúa la dependencia, incluso, para modificaciones mínimas.
Los usuarios con algunas habilidades computacionales pueden hacer uso delas herramientas de
reportes orientadas a los usuarios de sistemas, pero solo para obtener reportes sencillos, no el
tradicional reporte complejo que es el más útil, además, la gente que toma decisiones no debe
perder su tiempo en procesarla información para después analizarla.
Integración
Los reportes complejos que necesitan de más de una fuente de información se realizan
extrayendo los datos en un primer momento y, posteriormente, procesándolos en una
herramienta que los integre (hojas de cálculo, archivos de texto, Access, etc.). Esto implica
preparar la información antes de que se encuentre lista para ser enviada al usuario y la
preparación normalmente llevan horas o hasta días con la consecuente pérdida de tiempo en
funciones secundarias improductivas.
Distribución
Los reportes se imprimen y posteriormente se distribuyen de forma manual o mediante fax.
También se generan en pantalla y, luego, se envían mediante fax o correo electrónico, con lo
Página 52
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
que hay dos actividades involucradas que generan pérdida de tiempo en su ejecución: la
publicación y la distribución.
Dependencias de sistemas
Las bases de datos se construyen en general para ser eficaces al almacenar datos no para
consultarlos. Los lenguajes de consulta se adaptan a la estructura de las bases de datos. En
función del conocimiento necesario, tanto de las bases de datos a consultar como de los
lenguajes técnicos necesarios, el usuario final no está en posibilidad real de obtener su propia
información, por tal motivo la dependencia de gente de sistemas es muy grande y provoca el
que se tengan los reportes cuando la gente de sistemas dispone de tiempo y recursos para
hacerlo, visto de otro modo, si la gente de sistemas no lo hace, el usuario final no los tendría a la
mano.
Seguridad
Al dejar en manos de terceros la generación de reportes se puede incurrir en que la información
valiosa para la empresa pueda ser filtrada y utilizada por personas que no son los directamente
interesados en utilizarla. Un reporte de sueldos y prestaciones de los empleados, solicitado por
Recursos Humanos, puede ser un detonante de conflictos en manos de inconformes.
Las herramientas de reportes orientadas al usuario final son software que aíslala compleja capa
técnica propia del lenguaje de sistemas, tal como lenguaje SQL, uniones de tablas y nombres
crípticos, al organizar los datos de la terminología de negocios. El resultado es que el usuario final o
intermedio tiene una vista mucho más parecida a su concepción del negocio, o al menos lo
suficiente como para poder generar sus propios reportes y publicación de los mismos, sin depender
delos usuarios técnicos.
Cierta duda ha surgido en cuanto a la verdadera posibilidad para que el usuario final realice sus
reportes y posteriormente los explote. Definitivamente depende del nivel en el cual ubiquemos al
usuario final y, evidentemente, del nivel de conocimientos en materia de computación que pueda
tener. Un usuario final puede ser cualquier persona que requiera hacer una consulta o reporte y
éste puede ir desde una secretaria, un asistente, un gerente o un director, cualquiera que necesite
información procesada de fuentes de datos es un usuario potencial.
Sin embargo, a pesar de que el manejo de una herramienta como Excel se ha considerado un
estándar que pueda utilizar cualquier administrativo de cualquier nivel, no todas las personas
pueden decir que verdaderamente saben utilizar, para fines prácticos, esa herramienta.
Página 53
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Precisamente, para ese tipo de usuarios, las herramientas de reportes no serán útiles más que para
explotar los reportes que previamente se hayan realizado, es decir, ejecutar reportes. Otro tipo de
usuario, con algunos conocimientos, si podrá construir sus propios reportes, que siguen siendo
tarea de gente de sistemas, pues requieren de un procesamiento de la información antes de que
sea "pintada" y, para ello, son necesarios procedimientos externos a los datos con lenguajes de
consulta altamente técnicos.
Dependiendo del nivel del usuario puede disminuirse o eliminarse la dependencia de sistemas y
pueden las herramientas de reportes mantener 3 niveles de dificultad:
Usuarios poco expertos (gerentes tácticos, directores ejecutivos) quienes solicitan la ejecución
de reportes o consultas predefinidas, según parámetros predeterminados.
Usuarios con cierta experiencia (asistentes, gerentes operativos, secretarias especializadas)
pueden generar consultas o reportes flexibles, apoyándose en una interfaz gráfica intuitiva.
Usuarios muy experimentados (sistemas) pueden crear e incluso escribir, total o parcialmente,
la consulta en un lenguaje de consulta.
Intuitivo
Como cualquier herramienta de BI, la característica común es su facilidad de uso e intuición. Con
apoyo en interfaces gráficas y visuales, un usuario con una formación estándar podrá hacer uso
de una herramienta de este tipo.
Seguridad
Deben brindar seguridad para el acceso a los reportes, tanto a nivel usuario como por grupos e,
incluso, en el grado de profundidad de cada usuario a la información. Esto con la idea de que la
información privada no sea accesible por cualquier persona.
Publicación y distribución.
Una función importante de las herramientas es eliminar la doble actividad de ejecutar y publicar
primero un reporte y, posteriormente, distribuirlo a quien lo necesita. La publicación de una
consulta normalmente se realiza mediante fax, correo electrónico, archivo e, incluso, de mano
en mano. El objetivo con las nuevas herramientas es facilitar estas actividades. En el momento
que un usuario pueda ejecutar, desde cualquier lugar, una consulta y mandarla imprimir on-site,
se está eliminando la doble función de publicación y distribución. Las herramientas de reportes
deben permitir realizar consultas desde su PC en modo Cliente / Servidor, Intranet o Internet e
imprimir cualquier consulta.
Página 54
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Según el informe de investigación “Magic Quadrant for Business Intelligence Platforms” presentado
por la empresa Gartner en enero del 2009 (ver Figura 13), se observa que las plataformas de BI
predominantes siguen siendo propietarias, destacándose Cognos de IBM, Microsoft, Oracle, SAP, SAS,
Micro Strategy e Information Builder.
Página 55
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
COGNOS
Según el informe de investigación “Magic Quadrant for Business Intelligence Platforms” presentado
por la empresa Gartner en enero del 2009, se observa que las plataformas de BI predominantes siguen
siendo propietarias, destacándose Cognos de IBM, Microsoft, Oracle, SAP, SAS, Micro Strategy e
Information Builder.
Página 56
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
MICROSOFT:
ORACLE BUSINESS INTELLIGENCE SUITE ENTERPRISE EDITION (OBIEE):
Página 57
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Arquitectura BI de OBIEE.
Página 58
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
MICROSTRATEGY
Provee soluciones a clientes de cualquier industria y/o área funcional con el fin de ayudarlos en la
obtención de un mayor conocimiento sobre la información manejada en su empresa.
Página 59
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
SAS
SAS provee una Plataforma de Inteligencia abierta y extensible que sirve de base para la creación y
entrega de inteligencia a la organización; incluye herramientas: ETL para extracción, transformación
y carga independiente a la plataforma; Intelligence Storage para distribuir información a
aplicaciones de BI y analíticas desde SAS o terceros; SAS Enterprise BI Server brinda acceso a la
información en diferentes formatos; SAS Analytic Technologies para manejo y modelación de
información analítica, algorítmica y matemática.
Página 60
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
En el informe de investigación “Magic Quadrant for Business Intelligence Platforms” presentado por
la empresa Gartner en enero del 2009, que trata de un estudio de mercado de las plataformas de
inteligencia de negocios a nivel mundial, dio seria consideración a la inclusión de proveedores de
código abierto de BI; pero aún no generan los suficientes ingresos para su visualización en el Magic
Quadrant; sin embargo, destacan la presencia en el mercado a Jasper Soft y Pentaho.
A continuación se describen los productos open source más relevantes para BI:
PENTAHO
Página 61
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
JASPERSOFT
Página 62
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
ECLIPSE BIRRT
Página 63
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
SPAGOBI
Página 64
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
PALO DE JEDOX
La firma alemana Jedox presenta Palo como una plataforma de código abierto para soluciones BI
basado en la planificación, análisis y presentación de informes. Las soluciones que provee PALO son:
Indicadores de rendimiento clave (KPI), Gestión de liquidez y Previsión, Presupuesto y Planificación y
Balanced Scorecards, Cockpits, Dash boards. Las herramientas que integran esta plataforma son: Palo
OLAP Server, Palo ETL Server, Palo Supervisión Server, Palo WorkSheet Server y Open-API
Página 65
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
OPENI.ORG
Openi es una aplicación de Inteligencia de Negocios, diseñado para el uso basado en
la web. Basado en J2EE y sus aplicaciones corren sobre Apache Tomcat, OpenI es una
solución para la construcción y publicación de informes de XMLA compatible con
fuentes de datos OLAP, como Microsoft Analysis Services o Mondrian. Su objetivo es
proporcionar análisis consolidado de los principales componentes de datos de una
aplicación inteligente, incluyendo: fuentes de datos OLAP, bases de datos relacionales,
modelos de datos estadísticos y modelos de minería de datos.
Página 66
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
A. INTEGRACIÓN
1. Infraestructura BI. Todas las herramientas en la plataforma deben utilizar las mismas normas
de seguridad, los metadatos, la administración, la integración del portal, el modelo de
objetos, el motor de consulta y deben poseer consistencia en el interfaz.
ETL. Es el proceso que permite a las organizaciones mover datos desde múltiples fuentes,
reformatearlos y limpiarlos, y cargarlos en otra base de datos, data mart, o data warehouse
para analizar, o en otro sistema operacional para apoyar un proceso de negocio.
Cubos de información (Data marts). Son subconjuntos de datos con el propósito de ayudar a
que un área específica dentro del negocio pueda tomar mejores decisiones. Los datos
existentes en este contexto pueden ser agrupados, explorados y propagados de múltiples
formas para que diversos grupos de usuarios realicen la explotación de los mismos de la
forma más conveniente según sus necesidades.
Página 67
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
B. PRESENTACIÓN DE LA INFORMACIÓN
7. Consultas específicas (Ad hoc query).Esto implica que el sistema permite al usuario personalizar
una consulta en la base de datos en tiempo real, en vez de estar atado a las consultas prediseñadas
para informes. En particular, las herramientas deben tener una sólida capa semántica o GUI que
permita a los usuarios navegar por las fuentes de datos disponibles. Además, estas herramientas de
consulta deberían ofrecer la capacidad de gestión y auditoría para asegurar que las consultas
funcionen bien.
C. ANÁLISIS
9. OLAP(On-Line Analytical Processing).Permite a los usuarios finales un uso más eficaz de los data
warehouse para el análisis de datos en línea, lo que proporciona respuestas rápidas a consultas
analíticas complejas e iterativas utilizadas generalmente para sistemas de ayuda para la toma de
decisiones; ofrece la capacidad de consultar y estudiar las diferentes dimensiones de un conjunto de
datos relacionales, multidimensionales o híbridos.
11. Modelado predictivo y data mining. Esta capacidad permite a las organizaciones clasificar por
categorías a las variables y estimar su continuidad utilizando avanzadas técnicas matemáticas e
inteligencia artificial.
Página 68
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Debido a que las 3 categorías y 12 capacidades definidas por Gartner corresponden a la Capa BI y
Capa Data Warehouse(según Rodríguez I.) y teniendo en consideración que la arquitectura de una
solución de inteligencia de negocios abarca también las: Fuente de Datos, entonces se ha visto
conveniente incluir la categoría de “Aprovisionamiento” y “Plataformas de soporte”.
D. APROVISIONAMIENTO
13. Fuentes de datos. Los datos administrados por los sistemas de aplicación operacionales son la
fuente principal de datos para el data warehouse. Estos sistemas son los encargados de recolectar
información diaria de las tareas operativas de la organización. Es posible dividir las fuentes de
información en las siguientes: (1) Información generada por los sistemas transaccionales, (2)
Información externa, (3) Información generada por los departamentos de la empresa que no
corresponden a un sistema transaccional oficial, (4) Datos tomados de bases de datos relacionales
que forman parte de los sistemas transaccionales. Estas fuentes pueden ser de varios tipos,
dependiendo del tamaño de la organización y de los niveles de tecnología y sistemas de información
que se utilicen en la empresa.
E. PLATAFORMAS DE SOPORTE
15. DBMS Servers para Data Warehouse. Sistemas manejadores de bases de datos que brinde
soporte a almacenes de datos.
16. Servidor web y/o aplicaciones web. Que las aplicaciones de BI corran en servidores web o
servidores de aplicaciones web.
Además de las categorías citadas se incluye el factor costo como un indicativo preponderante a la
hora de decidir por una u otra plataforma.
F. COSTO
Cano, J.L (2007) descarta en su libro “Business Intelligence: Competir con Información”, los aspectos
fundamentales discutidos en la conferencia mundial The Datawarehouse Institute en Boston (EEUU)
en Agosto de 2003. El primer componente a tener en cuenta sobre la selección de las herramientas
es a quién van dirigidas: a los usuarios de Business Intelligence. ¿Cuáles son las funcionalidades que
necesitan? ¿Lanzar consultas, OLAP, informes dinámicos, informes estáticos?
Página 69
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Y por último, pero no por ser menos importante, hay que tener en cuenta el coste que acarrea a la empresa
el contar con una solución Business Intelligence, y valorar la inversión.
Los precios:
Página 70
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Microsoft
JasperSoft
Business
Capacidades de
COGNOS
SpagoBI
(Oracle)
Microstr
Pentaho
Eclipse
Object
a-tegy
OBIEE
Jedox
Openi
BIRT
Comparación de
Palo
IBM
SAP
SAS
soluciones BI
A. INTEGRACIÓN
Business Microstra- Pentaho BI Jasper Eclipse
1. Infraestructura BI COGNOS MS BI OBIEE Object tegy SAS Suite Intelligence BIRT SpagoBI Palo BI Suite Openi
Página 71
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Studio Server
Service
Página 72
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
B, otras
SAP R/3,
SAP BW, XMLA, Oracle SAP Siebel, OLAP
SAP R/3 y OLAP Option, NetWeaver Oracle databases
ii. Multi-dimensional, Siebel SAP, Siebel MS Analysis BI, SAP BW, X applications, via XML/A X - - X -
ERP’s CRM Services, SAP otros PeopleSoft, and MDX
BW SAS OLAP standards,
cubes
ERP’s
SQLServer
2008:
Licencia $3900 x 5 OBIEE Plus:
por clientes ó $ 2000 x user
Usuario: $12000 x (min 5)
17. Costo de Licencia Consumido CPU ó $295.000 x $575 x CPU Versión
r: $1100. Office 2007 CPU $350 x user No publica ó $220 x Comunitari $0.00 $0.00 $0.00 $0.00 $0.00
BI profesional BI Server costos User min. 5 a: $0.00
Página 73
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Notación: Si se observa una (X) significa que posee la capacidad pero integrada a una herramienta. (-) No posee la capacidad.
Tabla 1. Estudio Comparativo Entre Herramientas de BI Propietarias Versus Open Source
Página 74
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
La mayoría de las herramientas BI open source son jóvenes, tienen máximo unos 5 0 6 años de haber
incursionado en el mercado, aún están en proceso de desarrollo y fusión. Por ejemplo Pentaho
apareció en el 2004.
De entre todas las herramientas BI open source la más importante es Pentaho, debido a que cumple
la mayoría de capacidades y sobre todo porque tiene muchos seguidores que han formado
comunidades de desarrollo y aprendizaje a nivel mundial. Se observa en el cuadro comparativo de
cumplimiento de capacidades que es la plataforma más destacada entre sus homólogas open source.
Pentaho tiene un promedio de 3.8/4 de cumplimiento y la menor desviación estándar (0.45); a este
análisis incluimos el costo de licencia comunitaria que es gratis lo que la convierte en una opción
viable y conveniente para implementar soluciones BI.
La mayoría de las herramientas BI open source se han desarrollado bajo plataforma Java tal es el
caso de Pentaho, JasperSoft, Eclipse BIRT, SpagoBI y Openi. Sólo Jedox Palo se evidencia su
desarrollo en plataforma .NET de Microsoft.
Pentaho, SpagoBI y Openi utilizan algunas herramientas comunes, tal es el caso de JPivot, el servidor
OLAP Mondrian y WorkBench. Así también ciertos componentes Jasper y Eclipse son
igualmentecompartidos.
Tanto Pentaho como las otras herramientas BI opensource no son 100% gratuitas; manejan
versiones de costo y una versión comunitaria, en la cual se limita sus capacidades y tanto el soporte
técnico como el documental es escaso.
Al proporcionarse escaso soporte técnico y documental de las versiones comunitarias, se elevan los
costos y el tiempo de aprendizaje, desarrollo e implementación y esto puede ser un factor decisivo al
momento de elegir.
Sin embargo las personas que deciden dedicar su tiempo al aprendizaje de estas herramientas BI
open source tienen grandes oportunidades debido a que la mayoría de las empresas existentes son
PYMES y es posible proporcionarles soluciones parciales y de bajo costo; de bajo costo porque solo
involucra el servicio técnico, más no a las licencias del producto.
A pesar de las conclusiones no tanto favorables para las herramientas BI open source se destaca su
importancia y su incursión en el mercado debido a que son una alternativa viable y quizá la única
para las pequeñas y medianas empresas (PYMES).
Página 75
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
BALLARD, C. HERREMAN, D. SCHAU, D. BELL, R. KIM, E. VALNCIC, A.:Data Modeling Techniques for Data Warehousing.
SG24-2238-00. IBM Red Book. 1998.
CABENA, Peter; HADJINIAN, Pablo; STADLER, Rolf; VERHEES, Jaap; ZANASI, Alessandro. Discovering Data Mining: From
Concept to Implementation. Prentice Hall. 1998. ISBN: 0-13-743980-6.
CANO, J. L. (2007). Business Intelligence: Competir con Información, ESADE Business School, Universidad Ramon Lluli,
España.
CARPANI, F.: CMDM: A conceptual multidimensional model for Data Warehouse. Master Thesis. Advisor: Ruggia. InCo -
Pedeciba, UdelaR, Uruguay, 2000.
ESTEVAS, R. (2012). Social Web Intelligence - SWI. Mánager Responsable de desarrollo SWI.
http://socialwebintelligence.com/. Consultado el 08 de junio de 2012.
FRANCONI, E. SATTLER, U.:A Data Warehouse Conceptual Data Model for Multidimensional Aggregation, DMDW’99,
Germany, 1999.
GOLFARELLI, M. MAIO, D. RIZZI, S.:Conceptual Design of Data Warehouses from E/R Schemes, HICSS’98, IEEE, Hawaii,
1998.
GROTH, Robert. Data Mining: A Hands On Approach for Business Professionals. Prentice Hall. 1998. ISBN: 0-13-756412-
0.
Página 76
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
HERNANDEZ, José. Análisis y Extracción de Conocimiento en Sistemas de Información: Data warehouse y Datamining.
Departamento de Sistemas Informáticos y Computación, Universidad Politécnica de Valencia. (URL.
http://www.dsic.upv.es/~jorallo/cursoDWDM/).
HÜSEMANN, B. LECHTENBÖRGER, J. VOSSEN, G.:Conceptual Data Warehouse Design. DMDW’00, Sweden, 2000.
INMON, W. H.; Hackathorn; Richard D. 1994. Using the Data Warehouse. New York: John Wiley & Sons. ISBN: 0-471-
05966-8.
Kenan Technologies:An Introduction to Multidimensional Databases. White Paper, Kenan Technologies, 1996.
KIMBALL, R.: The Data warehouse Toolkit. John Wiley & Son, Inc., 1996.
MOSS L., A. S. (2003). Business Intelligence Roadmap. The Complete Project Lifecycle for Decisión-Support Applications.
EE.UU.
OLSZAK C. M., ZIEMBA E. (2007). Approach to Building and Implementing Business Intelligence Systems,
Interdisciplinary Journal of Information, Knowledge, and Management, Volume 2.
OPENPYME. (2012). Catálogo de Software Libre, Oficina de Software Libre de la Universidad de La Laguna - España, bajo el
marco de colaboración científico-tecnológico entre la Agencia Canaria de Investigación, Innovación y Sociedad de la
Información del Gobierno de Canarias y la Universidad de La Laguna., http://openpyme.osl.ull.es/
PEÑA A., A. (2006). Inteligencia de Negocios: Una Propuesta para su Desarrollo en las Organizaciones. Instituto
Politécnico Nacional, Dirección de Publicaciones, México.
PICERNO, A. FONTAN, M.: Un editor para CMDM. Undergraduate Project. Advisor: Carpani. InCo, UdelaR, Uruguay. 2000.
PINEDA, O. & DÍAZ, C. (2006). Que hace que un proyecto de business intelligence sea exitoso. Memoria para optar al
Título en Maestría en administración, Universidad EAFIT, Medellín, Colombia.
RODRÍGUEZ, Ivonne.Soluciones Tecnológicas Integrales para las Empresas. Presentación electrónica .PPT.
SAPIA, C. BLASCHKA, M. HÖFLING, G. DINTER, B.: Extending the E/R Model for the Multidimensional Paradigm. DWDM’98,
Singapure, 1998.
Página 77
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
SCHLEGEL, K. (2006). Components of Business Intelligence — Rationalizing Your Business Intelligence Portfolio.
SHEN-HSIEH, A. (2008). A Fresh Perspective on Business Intelligence Systems Information Management Special Reports.
THOMSEN, E.:OLAP Solutions. Building Multidimensional Information. John Wiley & Sons, Inc. 1997.
VITT E., LUCKEVICH M. y MISNER S. (2002). “Business Intelligence Técnicas de análisis para la toma de decisiones
estratégicas”, España.
WILEY, John & SONS. Inmon W.H. Building the Data Warehouse., 3rd edition, 2002.
Página 78
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Glosario
Bajar (Drill-Down): Es una operación de acceso a datos en cubos multidimensionales que significa bajar el nivel de
visualización en las filas a una jerarquía inferior.
Balanced Scorecard: Término utilizado para expresar un sistema de medicióndel logro de objetivos de una empresa que
permite traducir la visión de la organización, expresada a través de su estrategia, en términos y objetivos específicos.
Colapsar (Collapse): Es una operación de acceso a datos en cubos multidimensionales que significa ocultar los detalles
hacia un nivel superior mostrando los resúmenes correspondientes.
Data mart: Conjunto de hechos y datos organizados para soporte decisional basados en la necesidad de un área o
departamento específico. Los datos son orientados a satisfacer las necesidades particulares de un departamento dado
teniendo sólo sentido para el personal de ese departamento y sus datos no tienen por qué tener las mismas fuentes que
los de otro Data mart.
Dataminig: Análisis de los datos para descubrir relaciones, patrones, o asociaciones desconocidas.
Data warehouse: Base de datos que almacena una gran cantidad de datos transaccionales integrados para ser usados
para análisis de gestión por usuarios especializados (tomadores de decisión de la empresa).
Dimensión: Entidad independiente dentro del modelo multidimensional de una organización, que sirve como llave de
búsqueda (actuando como índice), o como mecanismo de selección de datos.
Drill-Down: Es una operación de acceso a datos en cubos multidimensionales, que significa exponer progresivamente más
detalle (dentro de un reporte o consulta), mediante selecciones de ítems sucesivamente.
Drill-Up:Es una operación de accesos a datos en cubos multidimensionales, es el efecto contrario a drill-down. Significa
ver menos nivel de detalle. Sobre la jerarquía significa generalizar o sumarizar, es decir, subir en el árbol jerárquico.
DSS (Decisión Support System- Sistema de Soporte de Decisiones): Sistema de aplicaciones automatizadas que asiste a la
organización en la toma de decisiones mediante un análisis estratégico de la información histórica.
EIS (Executive Information System – Sistema de Información Ejecutiva): Se refiere a cualquier sistema de software que
muestre información ejecutiva delas diferentes áreas del negocio en un solo sistema, facilitando el monitoreo de la
empresa.
Esquema Constelación de Hechos: Es un esquema de base de datos en donde varias tablas de hechos se enlazan a las
tablas de dimensiones.
Esquema Copo de Nieve: Es un esquema de base de datos en donde una tabla de hechos central se enlaza a las tablas de
dimensiones relacionadas, pero éstas a su vez se enlazan con otras tablas dimensionales.
Esquema Estrella: Es un esquema de base de datos en donde una tabla de hechos central se enlaza a las tablas de
dimensiones relacionadas.
Página 79
Universidad Nacional Federico Villarreal-Inteligencia de Negocios
Página 80