Vous êtes sur la page 1sur 10

1.

Nuevas tendencias en Inteligencia de Negocios

1.1. CRM

CRM (Customer Relationship Management), se entiende como la Gestión sobre


la relación con los Consumidores. Pero, para su mejor comprensión
básicamente se refiere a una estrategia de negocios centrada en el cliente.

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016


Bajo este concepto el CRM consiste en 10 componentes que los mencionamos
a continuación:

• Funcionalidad de las ventas y su administración


• El telemarketing
• El manejo del tiempo
• El servicio y soporte al cliente
• El marketing
• El manejo de la información para ejecutivos
• La integración del ERP( Enterprise Resource Planning)
• La excelente sincronización de los datos
• El e-Commerce
• El servicio en el campo de ventas

Sin embargo la palabra lealtad, sintetiza prácticamente su significado, ya que


CRM se dedica a adquirir y mantener la lealtad del cliente, específicamente de
aquellas cuentas más valiosas. "Obtendrás más de la billetera de tus clientes,
cuando te tomes el tiempo de estar al pendiente de ellos"; así lo conceptualiza
Janice Anderson, vicepresidenta de CRM Solutions de Lucent Technologies.

Pero estos sistemas CRM no tendrían su utilidad sino se basan también en


tecnologías de inteligencia de negocios que permitan crear inteligentes
oportunidades de cross-selling y abrir la posibilidad a una rápida introducción
de nuevos productos o marcas.

En definitiva, lo que desean las empresas es reducir el costo de obtener nuevos


clientes e incrementar la lealtad de los que ya se acercaron. Estos últimos pasan
a conformar uno de los activos más valiosos de la empresa y esto es logrado
con el Business Intelligence.

1.2. Datamining

Data Mining es la extracción de información oculta y predecible de grandes


bases de datos. Esta es una poderosa tecnología con gran potencial que ayuda
a las compañías a concentrarse en la información más importante de sus Bases
de Información (Data Warehouse).

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016


Un Sistema Data Mining es una tecnología de soporte para usuario final cuyo
objetivo es extraer conocimiento útil y utilizable, a partir de la información
contenida en las bases de datos de las empresas.

Los pasos a seguir en un sistema Datamining son los siguientes:

• Filtrado de datos
El formato de los datos contenidos en la fuente de datos (Base de Datos o
Data Warehouse) nunca es el idóneo, y la mayoría de las veces no es posible
siquiera utilizar algún algoritmo de minería sobre los datos "en bruto".

Mediante el preprocesado, se filtran los datos de forma que se eliminan


valores incorrectos, no válidos, desconocidos, etc. según las necesidades y
el algoritmo a usar se obtienen muestras de los mismos (en busca de una
mayor velocidad de respuesta del proceso), o se reduce el número de valores
posibles mediante redondeo, clustering, etc.

• Selección de variables
Aún después de haber sido preprocesados, en la mayoría de los casos se
tiene una cantidad ingente de datos. La selección de características reduce
el tamaño de los datos eligiendo las variables más influyentes en el
problema, sin sacrificar la calidad del modelo de conocimiento obtenido del
proceso de minería.

Los métodos para la selección de características son básicamente dos.

a) Método basado en la elección de los mejores atributos del problema.

b) Método que busca variables independientes mediante tests de


sensibilidad, algoritmos de distancia o heurísticos.

• Extracción del conocimiento


Mediante una técnica de minería de datos, se obtiene un modelo de
conocimiento que representa patrones de comportamiento observados en
los valores de las variables del problema o relaciones de asociación entre
dichas variables. También pueden usarse varias técnicas a la vez para

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016


generar distintos modelos, aunque generalmente cada técnica obliga a un
preprocesado diferente de los datos.

• Interpretación y evaluación
Una vez obtenido el modelo, se debe proceder a su validación, comprobando
que las conclusiones que arroja sean válidas y suficientemente satisfactorias.
En el caso de haber obtenido varios modelos mediante el uso de distintas
técnicas, se deben comparar los modelos en busca de aquel que se ajuste
mejor al problema. Si ninguno de los modelos alcanza los resultados
esperados, debe alterarse alguno de los pasos anteriores para generar
nuevos modelos.

Los sistemas de Data Mining se distinguen principalmente porque hacen uso


de algoritmos especializados para encontrar patrones y tendencias, entre los
principales tenemos:

- Redes neuronales artificiales: modelos predecibles no-lineales que


aprenden a través del entrenamiento y semejan la estructura de una red
neuronal biológica.

- Árboles de decisión: estructuras de forma de árbol que representan


conjuntos de decisiones. Estas decisiones generan reglas para la
clasificación de un conjunto de datos. Métodos específicos de árboles de
decisión incluyen Árboles de Clasificación y Regresión (CART:
Classification And Regression Tree) y Detección de Interacción
Automática de Chi Cuadrado (CHAI: Chi Square Automatic Interaction
Detection)

- Algoritmos genéticos: técnicas de optimización que usan procesos tales


como combinaciones genéticas, mutaciones y selección natural en un
diseño basado en los conceptos de evolución.

- Método del vecino más cercano: es una técnica que clasifica cada
registro en un conjunto de datos basado en una combinación de las clases
del/de los K registro(s) más similar(es) a él en un conjunto de datos
históricos (donde k = 1). Algunas veces se llama la técnica del vecino k
más cercano.

- Regla de inducción: la extracción de reglas Si-Entonces (If-then) de


datos basados en significado estadístico.

Muchas de estas tecnologías han estado en uso por más de una década en
herramientas de análisis especializadas que trabajan con volúmenes de
datos relativamente pequeños. Estas capacidades están ahora
evolucionando para integrarse directamente con herramientas OLAP y de
Data Warehousing.

Las herramientas de Data Mining predicen futuras tendencias y


comportamientos, permitiendo en los negocios tomar decisiones proactivas
y conducidas por un conocimiento acabado de la información (knowledge-

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016


driven). De esta forma, nos proporciona un análisis prospectivo y
automatizado basado en eventos pasados de la empresa.

Las herramientas de Data Mining pueden responder a preguntas de negocios


que tradicionalmente consumen demasiado tiempo para poder ser resueltas.
Estas herramientas exploran las bases de datos en busca de patrones
ocultos, encontrando información predecible que un experto no puede llegar
a encontrar porque se encuentra fuera de su alcance.

Una vez que las herramientas de Data Mining fueron implementadas en


computadoras cliente servidor de alto performance o de procesamiento
paralelo, pueden analizar bases de datos masivas para brindar respuestas a
preguntas tales como, "¿Qué clientes tienen más probabilidad de responder
al próximo mailing promocional, y por qué?, y además presentar los
resultados en formas de tablas, con gráficos, reportes, texto, hipertexto, etc.

Las técnicas de Data Mining pueden ser implementadas rápidamente en


plataformas ya existentes de software y hardware para acrecentar el valor
de las fuentes de información existentes y pueden ser integradas con nuevos
productos y sistemas pues son traídas en línea (On-line).

Algunos ejemplos de las preguntas que se pueden responder con las


herramientas de Data Mining son:

- ¿Qué características tienen mis mejores clientes?


- ¿Qué características tienen los clientes que estoy perdiendo?
- ¿A quiénes debería dirigir mi campaña publicitaria?
- ¿Cuáles son los factores que inciden en que algunas máquinas tengan
mayores tasas de fallas que otras?
- ¿Es efectiva la aplicación de una droga medicinal? ¿Cuáles fueron los
cinco grupos que obtuvieron los mejores resultados?
- ¿A quiénes no debo venderles seguros contra todo riesgo?
- ¿Qué factores inciden en el aumento de la tasa de fallas?

1.3 Data Quality

Data Quality o Calidad de Datos se refiere a los procesos, técnicas, algoritmos


y operaciones encaminados a mejorar la calidad de los datos existentes en las
empresas. Gracias a la calidad de datos, los datos empresariales se vuelven
fiables y garantizan el éxito en iniciativas estratégicas clave.

La calidad de los datos se puede convertir en una prioridad de toda la empresa,


con lo que se reduce la dependencia de los escasos recursos de IT, al tiempo
que se potencia la obtención de mejores resultados de negocio.

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016


Entre las características de la calidad de datos tenemos:

• Supervisión y limpieza de forma proactiva de los datos de todas las


aplicaciones.
• Permite al negocio compartir la responsabilidad de la calidad y del gobierno
de datos.
• Impulsa mejores resultados con unos datos empresariales fiables.

Según Claudia Imhoff para conseguir una exitosa estrategia en la calidad de los
datos se necesita prestar atención a ciertos aspectos que podemos considerar
como críticos:

• Analizar e identificar los datos: es el punto de partida clave para el éxito. Se


trata de ver cómo de completos son los datos y cómo de ajustados y exactos
a la realidad de la compañía.
• Calidad de los datos: se trata de ver las técnicas que manejamos para
identificar los datos erróneos, cuánta información errónea existe y las causas
de esas deficiencias.
• Integración de los datos: Básicamente es recoger toda la información de
fuentes diversas e integrarlas en un único lugar común. El problema surge
cuando vemos que existe mucha información duplicada en diferentes lugares
o con nombres parecidos. Se hace preciso estandarizar todo el proceso.
• Enriquecer los datos: Aquí se trata de añadir información de fuera de los
actuales sistemas operacionales (de terceros, competencia, estudios de
mercado, no tabulados, etc.).
• Monitorización de los datos: Realizar una correcta gestión de la calidad de
los datos requiere un gran esfuerzo operativo y económico. Por ello, es
necesario establecer un sistema que nos identifique las mejoras, nos
establezca alertas y audite los resultados.

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016


1.4 Master Data

Actualmente, las empresas poseen sus datos maestros en diferentes sistemas,


así nuestros clientes pueden estar en un sistema CRM, en un ERP, en un
Sistemas de Ventas Web, en un archivo Excel, etc. La pregunta es ¿cómo
consolidamos toda esa información?

Una solución es aplicar una estrategia MDM (Master Data Management)


soportada por una solución tecnológica que permita a las organizaciones
gestionar y consolidar los datos maestros dispersos ofreciendo una visión única
de clientes, productos, etc.

MDM Consiste en un conjunto de procesos y herramientas que define y gestiona


de forma consistente las entidades de datos no transaccionales de una
organización.

Busca, por lo tanto, recopilar, agregar, identificar, asegurar la calidad y la


persistencia y distribuir los datos de forma uniforme en dicho contexto.
MDM se compone de tareas como las siguientes:

• Identificar las fuentes de origen de los datos.


• Identificar los productores y consumidores de datos maestros.
• Recopilar y analizar metadata sobre los datos maestros recopilados en el
primer paso.
• Determinar los responsables (administradores) de los datos maestros.
• Implementar un programa de data governance (y de forma consecuente
tener un grupo responsable de dicho programa).
• Desarrollar el modelo de metadatos maestros.

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016


• Escoger una solución o conjunto de soluciones como medio para mejorar la
calidad de datos.
• Diseñar la infraestructura necesaria.
• Generar y testear los datos maestros.
• Modificar los sistemas consumidores y productores de información.
• Implementar un proceso de mantenimiento.

Es un proceso complejo, pero que cada vez se vuelve más necesario, sobretodo
actualmente en el que el concepto tradicional de data Warehouse ha ido
evolucionando a estructuras más complejas y diversas y, por lo tanto, necesitan
de fuentes de mayor calidad y consistencia.

1.5 Big Data

Big Data se refiere a conjuntos de datos que crecen tan rápidamente que no
pueden ser manipulados por las herramientas de gestión de bases de datos
tradicionales. Sin embargo, el tamaño no es el único problema al que nos
enfrentamos si buscamos una solución: además de almacenarlo, es necesario
capturar, consultar, gestionar y analizar toda esta información.

Al margen del análisis de tendencias de negocio, para muchas compañías es


necesario mantener a lo largo de tiempo, ya sea por imposición legal o por pura
operatividad, un gran número de datos estructurados y no estructurados:
grandes masas de documentos, emails, y otras formas de comunicación
electrónica que es necesario almacenar o consultar y que no hacen otra cosa
que crecer de forma exponencial.

Sin embargo, el concepto de Big Data se extiende más allá de lo que estamos
acostumbrados a entender por “grandes volúmenes de información”. Siempre
que hagamos una búsqueda, enviemos un email, usemos un teléfono móvil,
actualicemos una red social, usemos una tarjeta de crédito, vayamos al
gimnasio, activemos el GPS, demos parte a un seguro o hagamos la compra en
el supermercado, dejamos detrás de nosotros una montaña de datos, huellas
digitales y registros que ofrecen una información muy valiosa y cuyo estudio es

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016


la ambición de todo analista. La enorme cantidad de datos que generan
empresas, usuarios y dispositivos, ha experimentado un crecimiento explosivo
que requiere su análisis para obtener ventajas competitivas.
El Big Data se está convirtiendo en el punto de inflexión de las empresas que
consiguen “dominarlo”, empresas que se han dado cuenta que la manera de
obtener ventaja es tener la capacidad de procesar uno de sus principales
activos: la información que la propia empresa genera.

El pionero en el uso y manejo de Big Data fue Google a través de sus


tecnologías MapReduce y Google File System (GFS), que fue evolucionando
hasta llegar a ser Hadoop que actualmente es desarrollado como framework por
Apache.

Sin embargo, no sería correcto olvidar otros retos, al margen de los tecnológicos
que nos encontraremos al llevar a cabo esta tarea. En primer lugar, los datos
por sí mismos son incapaces de producir un beneficio. Solo los humanos que
sepan explotarlos podrán hacerlo. Es por esto que además de la tecnología
necesaria para mover tal volumen de datos, es necesario afinar al máximo las
metodologías y procesos que se utilizan para acceder y explotar esta
información.

Por otro lado, privacidad. ¿Cómo se podrían garantizar los derechos


fundamentales de privacidad de los usuarios ante un escenario así? ¿Serán aún
aplicables o técnicamente viables algunos requisitos legales como el derecho
de acceso en unos años?

1.6 Cloud Data

Una tendencia actual es el uso del Cloud Computing (computación en la nube)


el mismo que provee una serie de servicios conocidos como SAAS, PAAS,
IAAS. Los datos también son proporcionados como servicios de
almacenamiento y distribución llamados Cloud Data. Estos datos pueden ser
consumidos desde MarketPlace que se ofrecen en forma gratuita o pagada.

Estos datos los podemos encontrar


almacenados tanto en forma estructurada
como no estructurada y en diferentes motores

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016


de base de datos como SQL Azure, Mongo
DB, etc.

Otra tecnología emergente del Cloud Data es


el Open Data.

Cibertec Perú S.A.C - Business Intelligence SQL Server 2016

Vous aimerez peut-être aussi