Vous êtes sur la page 1sur 32

Fragmento y adaptación de

“Dirección Estratégica de la Producción”


de Simonassi y Leiter
Editorial Nueva Librería – ISBN 987-1104-07-3

CAPITULO 9

PRONOSTICOS Y ESTIMACIONES
"Mi interés está en el futuro porque es donde pasaré el resto de mi vida."
Charles F. Kettering

9.1. Anticipación al Cambio.

En todo cambio siempre hay quien circunstancialmente puede ganar y quien puede perder,
en términos relativos. Acrecentar las posibilidades de ganar, o reducir los riesgos de perder
a futuro, implica que las empresas se deben preparar al cambio por venir, con la
anticipación suficiente para lograr comportamientos adecuados. Ese es el desafío de
cualquier empresa, y no parece que tenga sentido rehuirle.

El futuro es incierto por naturaleza y lo que ocurrirá será una consecuencia de infinitas
variables. Pero, se sabe que la toma de decisiones en el presente, y la subsiguiente
ejecución de las acciones relacionadas, influyen sobre los hechos futuros en cualquier
situación concreta y afectan los resultados a alcanzar. No es entonces una práctica ociosa
formular conjeturas o supuestos acerca del futuro, que se estima habrán de predominar, con
miras a imaginar posibles escenarios por venir, tanto al nivel local como global.
Usualmente, una hipótesis es un conjunto de proposiciones tentativas que tendría cierto
fenómeno. Especifica tentativamente relaciones entre variables, con el objeto de explicar
(por qué, cómo y cuándo ocurre) y también predecir dicho fenómeno. Existen hipótesis a
distintos niveles de generalidad, y no son necesariamente verdaderas "a priori"; pueden o
no serlo, pueden o no verificarse con los hechos. Cuando una hipótesis es confirmada
científicamente, pasa a la categoría de teoría; y cuando logra aceptación universal,
mediante una gran cantidad de pruebas, se eleva al rango de ley. En ambos casos, se
sistematiza el conocimiento en cuestión; o sea, se lo ordena.

En general, no se trata con ellas de describir el futuro, sino de definir un marco dentro del
cual se estima que pueden acontecer los futuros posibles. Toda empresa necesita evaluar
dicho marco para determinar cuáles y cómo la pueden afectar, y qué estrategias le conviene
elegir para triunfar. Para formular futuros escenarios de los negocios es necesario contar
con permanente información acerca de lo que ocurre en los mercados y en el ámbito de la
tecnología, en todo el mundo. Obviamente, los futuros escenarios no se hacen con una
"bola de cristal". A veces, la turbulencia del entorno de la empresa parece mostrarles a sus
directores que cualquier intento por describir escenarios futuros es en vano. Sin embargo,
siempre es mejor tener alguna visión, y contar con opciones ante hipotéticas oportunidades
y amenazas. En particular, acerca del comportamiento esperado de los mercados, puesto
que atañe a la supervivencia misma de la empresa.

Algunos supuestos acerca del futuro.

A comienzos del actual siglo, algunos supuestos corrientes acerca del futuro son:
 Aceleración del ritmo de cambio, con aumento de la incertidumbre y la complejidad.
 Mayor protagonismo de la gente y rescate de la identidad.
 Creciente integración de la gente a través de las comunicaciones.
 Aumento de la globalización de la economía y del comercio entre bloques de naciones.
 Explosivo desarrollo de los servicios.
 Mayor valorización de la calidad, del cuidado medio ambiental y de la ética de negocios.
 Creciente importancia estratégica de la "materia gris" y de la educación permanente.
 Mayor cuidado de la relación entre la vida laboral y la vida personal.
 Entrada plena a la edad de los sistemas.

9.1.1. Estudio de Mercados.

En general, el comportamiento de los mercados de libre competencia -de mayor o menor


grado de apertura y globalización- es influido por múltiples variables, independientes entre
sí, mayormente externas e incontrolables por alguna empresa en particular. En la práctica,
dado que intervienen variables tales como fenómenos meteorológicos, nuevos
productos+servicios de los competidores y/o nuevas expectativas de los clientes finales, es
bastante difícil predecir el comportamiento de dichos mercados.

La disciplina conocida como estudio de mercados de cierto producto+servicio,


habitualmente comprende la investigación de la demanda y la oferta del mismo. Puede
aportar información cualitativa y cuantitativa sobre ellas. Incluye el relevamiento de
numerosos aspectos vinculados, tales como preferencias y opiniones de los usuarios del
producto+servicio, alternativas sustitutas y competidoras, formas de envases y tamaños,
formas de comercialización y precios, elasticidad de la demanda al precio, penetración en el
mercado, etc. Se aplica tanto a productos+servicios nuevos como a los que han sido
lanzados en el pasado. Permite predecir la evolución de su demanda y oferta, con cierta
anticipación y calidad.

No está del todo claro que demanda y oferta (actuales y/o potenciales) de un
producto+servicio sean variables independientes entre sí (separables), y más bien parece
útil considerar su interacción. La predicción de las cualidades y de las cantidades de la
demanda y de la oferta es la base del planeamiento empresarial. Constituyen la base de
apoyo para proyectar la evolución del negocio (volumen de ventas esperado en el futuro a
determinados precios) y la asignación de los recursos. Cualquier empresa productora
necesita predecir cuánta demanda tendrá cada uno de sus productos+servicios, por zona
geográfica y por segmento de clientes finales, cuál será su participación en el mercado, a
qué precios podrá vender, etc. Y debe utilizar esas predicciones en el planeamiento, tanto
de su estrategia competitiva como de las necesidades de recursos. En la práctica, es
frecuente observar que las mayores improvisaciones en la gestión empresarial provienen de
la imprevisión acerca de la evolución de la demanda y la oferta. Por ejemplo, apelando
reiteradamente a recursos extraordinarios para paliar imprevistos (tal como una continua
utilización de horas extras de labor para compensar déficits crónicos de capacidad instalada
de producción).

¿Qué evolución siguió la venta de computadoras portátiles en el último decenio?


Usualmente, los estudios de mercados recopilan y analizan datos un período histórico, para
identificar patrones de desempeño de las variables a predecir y/o relaciones funcionales
entre las mismas. Generalmente, dichos patrones o relaciones se hacen visibles cuando se
observan los datos de manera formal, sistemática y continua. Por ejemplo, es posible
observar la evolución específica de los precios relativos de determinados
productos+servicios (ya sea de precios crecientes, en el caso de productos+servicios que se
obtienen de recursos naturales cada vez más escasos; o de precios decrecientes como
resultado del progreso tecnológico o la ampliación gradual de la oferta de producción). Los
estudios de mercados también evalúan la situación presente, como base para predecir el
desempeño en el futuro. En los mercados no son frecuentes los casos de cambio súbito, sin
advertencia. No obstante, la mayor dificultad de cualquier analista siempre radica en
anticipar esos posibles cambios súbitos o eventos que aún no han ocurrido (por ejemplo,
nueva tecnología, nuevo competidor, cambio abrupto de "reglas del juego").

Con frecuencia, se aplica la técnica de cuotas, que consiste en estratificar el mercado de


demanda en distintos segmentos de clientes finales (por ejemplo, por categorías de ingreso
o de especialidad laboral) y, luego, realizar encuestas por muestreo de cada uno de esos
estratos. Para obtener información de calidad (válida y confiable), sin necesidad de
entrevistar a todos los clientes potenciales, es crucial determinar correctamente el tamaño
de la muestra, al igual que preparar previamente las entrevistas, diseñar los cuestionarios y
definir el procesamiento de la información. Además, cuando las encuestas se realizan por
muestreo, es necesario seleccionar los entrevistados al azar. De dicha manera, por ejemplo,
es posible inferir ciertos parámetros del mercado de demanda, clasificar los potenciales
usuarios del producto+servicio según diversos criterios (tales como nivel de ingresos,
ocupación y lugar de residencia), y/o calcular estadísticas (tales como tendencias y
dispersiones).

Cambio de "reglas del juego".

No siempre el futuro está contenido en el pasado. Son esos momentos de ruptura los que
alumbran respuestas originales. Algo de eso pasó en Brasil, al cambiar abruptamente las
"reglas del juego" del mercado, en 1999. Con una fuerte devaluación de su moneda -el
Real- en enero de aquel año, después de una sangría de US$ 40.000.000.000, los analistas
de universidades y bancos extranjeros hicieron predicciones muy pesimistas. Basados en
las experiencias previas de México en 1995 y de Rusia en 1997, predijeron que la inflación
iba a superar el 35% y el PBI iba a caer 6%. Pero ninguna de esas plagas azotó a Brasil por
entonces. Al comenzar el año 2000, el cambio se había estabilizado, los precios no se
habían disparado (inflación menor al 6%) y el PBI había crecido levemente (1 %).

Lejos de amedrentar a los brasileños, la devaluación realizada por su gobierno fue bastante
aceptada, incluso con alivio. Para su idiosincrasia, se abrió una esperanza: se podían
recrear algunas industrias y haber nuevos empleos. Dicho comportamiento social fue
determinante para que Brasil pudiera recomponerse de la citada devaluación.

9.1.2. Monitoreo.

Para representar los datos de una variable a lo largo del tiempo (por ejemplo, determinados
resultados de un proceso), usualmente se recurre al denominado diagrama de desarrollo.
Permite monitorear la evolución de dicha variable, visualizando cómo se inscriben los
puntos representativos de los datos (medición o cantidad observada cada vez), unidos por
una línea según el orden en que se van obteniendo, a lo largo del tiempo. Precisamente, se
utiliza para identificar patrones de desempeño o cambios importantes de los mismos. Para
su construcción es fundamental mantener estrictamente el orden secuencial de los datos al
momento de ser recolectados, puesto que se trata de representar su evolución en el tiempo.

En general, los seres humanos pueden evaluar con relativa facilidad las consecuencias de
los cambios; sin embargo, suele costarles bastante más identificar o aceptar esos cambios.
Siempre que sea posible, los cambios se deben investigar tan pronto como ocurren, a
efectos de incorporarlos al sistema cuando son favorables, o eliminarlos si son
desfavorables. Así pues, es aconsejable monitorear las variables a predecir, como ayuda
para identificar los posibles cambios sistemáticos o no aleatorios a lo largo del tiempo.
Dicha medición periódica es fundamental para comprender lo que ocurre, evaluar el
impacto de eventuales cambios, ajustar las desviaciones y establecer prioridades. La
utilidad del monitoreo se parece a la de un radar, que permite detectar cambios y recibir
alertas tempranas; resulta medular para reaccionar con la mayor rapidez posible ante los
cambios.

¿Cómo es el desempeño actual de cierto proceso empresarial comparado con el


presupuesto? ¿Cómo es el desempeño de dicho proceso en comparación con otras
organizaciones? ¿Hay patrones visibles de desempeño? ¿Qué puede suceder si ocurre tal o
cual accidente? Para dirigir exitosamente una empresa, cualquiera sea, sus directores deben
poder percibir no sólo una imagen abarcativa de la misma, sino también una imagen más
amplia de todo el mercado y una aún más amplia de los acontecimientos mundiales y la
forma en que pueden afectar a su organización. Como mínimo, deben contar con medidas
de evaluación del desempeño de los procesos empresariales y del progreso de los proyectos
de mejora en curso, y monitorearlas periódicamente, como si se tratara de un tablero de
comando. Por ejemplo, el volumen de venta, el costo de operación y el monto de activo
circulante, son medidas de evaluación corrientes del desempeño empresarial. Los sistemas
de información antes referidos, usualmente brindan esa posibilidad de monitoreo que
necesitan los directores, y también les permiten simular diversos escenarios. Suelen
desplegar un panorama general y, a la vez, ofrecer la opción de profundizar [drill down]
para observar los datos que fundamentan determinados resultados. Además, ofrecen la
posibilidad de efectuar comparaciones contra magnitudes de referencia (por ejemplo, del
período anterior, o del presupuesto).

Como se dijo, la evolución de una variable a lo largo del tiempo (por ejemplo, la demanda
de un producto+servicio) está sometida a la influencia de diversas causas de variación, que
se pueden clasificar en A) comunes (aleatorias) y B) especiales (accidentales). Las
primeras influyen sobre la variable ocasionando en ella aumentos o disminuciones que
siguen algún patrón o relación. Son, por ejemplo, la cantidad de habitantes de un país, el
nivel de ingreso por habitante, y/o el nivel de actividad económica. La influencia de dichas
causas comunes es gradual, y sujeta a patrones o relaciones de variación continua. Actúan
aleatoriamente (se manifiestan con la misma probabilidad en uno y en otro sentido) y,
cuando el período considerado es suficientemente largo, tal aleatoriedad se anula o alcanza
magnitudes poco significativas. En cambio, las causas especiales no tienen patrón alguno,
ni relación preestablecida de variación. Pueden ser, por ejemplo, las conmociones sociales,
las guerras, las sequías, las huelgas, y/o las devaluaciones de la moneda.

La carta de control, antes vista, es simplemente un diagrama de desarrollo con límites de


control estadísticamente establecidos. Y también es posible realizar el monitoreo mediante
dicha técnica. Por ejemplo, es posible contrastar cada error de predicción (magnitud real
menos magnitud predicha) con los límites de control. Cuando los errores se mantienen
dentro de los límites de control, implica una variabilidad natural de la variable a predecir
(múltiples y pequeñas desviaciones, con una distribución normal de probabilidades),
originada en causas comunes o no asignables. En cambio, cuando un error de predicción
está fuera de los límites de control, implica que probablemente hubo alguna causa especial
(por ejemplo, una promoción por parte de un competidor o un aumento de precio de una
materia prima). Se denominan acciones especiales a aquellas contramedidas
[countermeasures] que adopta la empresa para influir sobre el entorno, en relación con
dichas causas especiales (hacer una campaña publicitaria o sustituir la materia prima). Los
efectos resultantes de esas interacciones (desviación más contramedida) sobre la variable a
pronosticar suelen ser de muy difícil consideración, por su naturaleza única.
Frecuentemente, dichos efectos son temporales y tienden a la neutralidad, por lo que es
práctica común su eliminación de los datos históricos (depuración de los puntos
aberrantes).

Sobrecarga de información.

La sobrecarga de información es una realidad de la vida actual. En comparación con el


comienzo de la última década del siglo pasado, la disponibilidad que se tiene de ella es
abismalmente mayor, y continua aumentando. Hoy se tiene un acceso a la información de
tal magnitud que, en doce meses, puede superar al volumen de toda una vida de las
generaciones inmediato anteriores. Una investigación del Instituto Reuters en 2002, acerca
de la información empresarial, ha encontrado que: A) el 25% de los directores de empresas
requiere una enorme cantidad de información, y otro 65% necesita mucha más información
de la que halla disponible; B) el 31% recibe una enorme cantidad de información que no le
es de utilidad; C) el 49% ya no es capaz de manejar toda la información que recibe; D) el
38% pierde mucho tiempo tratando de encontrar la información correcta; y E) el 50%
piensa que internet será la primera causa de sobrecarga de información en los próximos
años.

Los directores de empresas se encuentran entre los sectores sociales más ávidos de
información. Necesitan estar al día en un sinnúmero de temas, conocer las últimas
tendencias al detalle, responder a nuevas demandas y desafíos laborales, tener opinión
fundamentada sobre diversas cuestiones específicas, etc. A ellos les afecta un nuevo tipo
de "stress" por sobrecarga de información. Paralelamente, se observa una proliferación de
servicios -en línea y fuera de ella- especializados en suministrar información selectiva y
personalizada. El uso masivo del correo electrónico, la posibilidad de obtener informes
sobre cualquier asunto y el uso de buscadores en internet, conforman una realidad que, a
veces, es también inmanejable.

Lo anterior lleva a una curiosa paradoja: por un lado los directores sienten que no pueden
realizar correctamente su tarea sin alta cantidad de información; por otro lado, sienten que
una pesada carga de información, con frecuencia irrelevante, afecta su productividad y
amenaza colapsar su desenvolvimiento. Así, aparece una suerte de parálisis de su
competencia para analizar información. El síndrome de la fatiga informacional es ahora un
componente más de la vida de los directores de empresas. Otro aspecto derivado de esa
sobrecarga es la "adicción informativa", o necesidad compulsiva de consultar diversas
fuentes de información, que muchas veces hace perder la percepción de la calidad de los
contenidos. Tener demasiada información puede ser tan peligroso como tener muy poca.
Decididamente, los sistemas de información son fundamentales en las organizaciones
modernas.

9.2. Predicción de Corto y Medio Plazo.

Corrientemente, se define lo que va a suceder en el futuro mediante predicciones. Todo


tipo de planeamiento implica el uso de predicciones, obtenidas sobre la base de supuestos,
para facilitar la elección de las opciones más ventajosas para la empresa. La política de
predicción define las pautas para contar con información sistémica como base del
planeamiento corporativo. Trata de asegurar que las predicciones sean adecuadas para el
horizonte temporal y el nivel de desagregación o detalle del planeamiento que se maneje.
La calidad de las predicciones depende, en gran parte, de los supuestos básicos. No
obstante, a menudo su influencia específica suele ser de muy difícil detección. Por ello, se
aconseja hacer explícitos todos y cada uno de los supuestos, y dejar en claro los procesos de
predicción utilizados.

Hay ciertas consideraciones generales sobre el carácter predecible de los fenómenos de


mercado:
 Horizonte de predicción. Mientras más prolongada sea la extensión del tiempo futuro,
tanto mayor es la probabilidad de un cambio en los patrones de desempeño o en las
relaciones funcionales. En otras palabras, mientras más corto sea el horizonte, menor es
la variabilidad del error de predicción (desviación del resultado respecto a la predicción).
 Disponibilidad de datos. Mientras mayor sea la cantidad y la homogeneidad de los
datos, tanto menor es la variabilidad del error de predicción.
 Competencia. Mientras mayor sea el número de competidores, tanto mayor es la
dificultad para predecir sus acciones correctamente.

En dirección empresarial, la predicción de variables económicas tiene la mayor importancia


y utilización (por ejemplo, la evolución de precios y/o costos del producto+servicio, o las
tasas de crecimiento del mercado). No obstante, en economía, las variables pueden cambiar
de manera bastante difícil de predecir. Las dos causas principales de dichos cambios
provienen de la propia naturaleza humana: A) comportamiento caprichoso e irregular (por
ejemplo, cambios de conducta por modas o creencias); y B) habilidad para influir sobre los
sucesos futuros, a través de acciones en el presente (predicciones convertidas en profecías
autocumplidas, como es el caso del aumento de precio debido a la escasez provocada por
una excesiva demanda, motivada en la posibilidad de tal aumento).

Figura 9.a - Técnicas Clásicas de Predicción.

En el corto y el medio plazos, el desempeño de las variables se puede predecir utilizando


técnicas cuantitativas o técnicas cualitativas. Las primeras acentúan la medición y el
análisis de las relaciones entre las variables; en cambio, las segundas implican énfasis en
los procesos y significados que no son rigurosamente medidos en términos de cantidad,
intensidad o frecuencia. Ver la Figura 9.a. Los especialistas Spyros Makridakis y Steven
Wheelwrigth, autores del libro "Métodos de Pronósticos", han aconsejado el uso de más de
una técnica de predicción o más de un analista, complementariamente, combinando luego
sus predicciones. Es decir, las técnicas cuantitativas y cualitativas son complementarias, y
es conveniente utilizar ambas para lograr mejores predicciones. Se trata de aprovechar las
ventajas de unas y otras, y evitar sus desventajas. La ventaja primordial de las técnicas
cuantitativas reside en su objetividad; además, su empleo resulta económico cuando se
requieren muchos pronósticos a intervalos frecuentes. Ahora bien, puesto que con la
aplicación de dichas técnicas no es posible predecir los cambios futuros, ni distinguirlos ya
sea como temporarios o permanentes, es menester hacerlo cualitativamente, minimizando
tanto como sea posible la inconsistencia y la influencia del optimismo -o del pesimismo- en
los juicios de valor. Un juicio de valor es la expresión de un enunciado donde se afirma -o
niega- una cualidad de algo.

Catástrofes: ni tan inesperadas, ni tan inevitables.

Transcurría un día apacible del año 27, y más de 50.000 personas confluían para observar el
espectáculo que tendría lugar en el nuevo anfiteatro de Fidias. Se trataba de un combate
entre gladiadores. El anfiteatro era un enorme edificio de madera, que parecía majestuoso y
eterno. La gente aglomerada esperaba ansiosa. Por fin, el viejo ritual etrusco, que los
romanos copiaron, se inició. La exaltación, los gritos, la emotividad, impidieron que se
advirtiera el desplazamiento de la estructura. Un segundo después, fue inevitable la pérdida
de estabilidad del mismo: se derrumbó y sepultó a cientos de personas. Al decir del antiguo
historiador Cornelio Tácito: "La catástrofe inesperada tuvo más víctimas que una guerra
sangrienta." El Senado Romano concluyó que las causas del desastre fueron el
incumplimiento de las leyes de construcción y la insuficiente investigación de la resistencia
del suelo.

A lo largo de la historia, no han sido pocos los hechos de semejante naturaleza que ha
sufrido la humanidad. Por el contrario, han sucedido de manera continua, incluso hasta
hoy. Las razones han sido muy variadas. Pero, una cantidad importante de fallas
catastróficas -en cosas hechas por el ser humano- ha ocurrido por errores de diseño, falta de
previsión e irresponsabilidad. Sólo se trata de alertar sobre el peligro que implica no ser
consecuente con las buenas prácticas de ingeniería, ya sea por desprecio o por ignorancia.
Y es que en ambos casos da igual, pues cualquiera de las dos manifestaciones es
inadmisible, y frecuentemente cuestan vidas y daños materiales severos. Existen muchos
ejemplos. En 1938 se derrumbó el puente sobre el Canal Alberto, en Bélgica; en 1940 se
desplomó el puente del estrecho de Tacoma, en EE.UU. de América; y en 1962 cayó el
Puente Real en Melbourne, Australia. En las tres catástrofes, las investigaciones
posteriores arrojaron que su origen había residido en errores de los respectivos proyectos.

Especial significación tuvo el desastre del puente de Tacoma. Dicho caso trascendió por su
carácter "sui generis", al ser considerada la mayor calamidad en la historia de la
construcción de puentes en EE.UU. de América. Tuvo el privilegio de que se filmara su
derrumbe y la suerte de no provocar víctimas humanas. Recién construido, el puente tuvo
una excesiva sensibilidad al viento, tanto que al ser batido por éste vibraba con amplitudes
de hasta un metro y medio. Si bien había sido calculado para una carga estática generada
por un viento de 180 km/h, el puente comenzó a sufrir oscilaciones de flexión y torsión de
inusitada amplitud, cuando el viento apenas soplaba a una velocidad promedio de 70 km/h,
debido al fenómeno de resonancia. Después de vibrar durante una hora, se deshizo,
ahogándose así, en el mismo año de su construcción, el tercer puente mayor de la época.
Luego se supo que ello ocurrió porque en el diseño se habían omitido los cálculos de
resistencia con cargas variables.

Claramente, los errores de cálculo pueden provocar incalculables daños. Pero el resultado
puede ser peor aún, si a ellos se les une el mal funcionamiento. Cabe insistir en la enorme
importancia que tiene el mantenimiento adecuado, junto al correcto uso. Mantener es
conservar y salvaguardar a las instalaciones, al medio ambiente y al propio ser humano. En
estos tiempos de impetuoso progreso tecnológico, de la era nuclear, de la conquista del
cosmos, de la informática y la biotecnología, tanto un error de diseño como un mal
mantenimiento o un uso incorrecto pueden significar una enorme catástrofe, implicando
incluso a seres humanos. Algo así ya se vivió en 1986, cuando explotó el bloque energético
número cuatro de la Central Electronuclear de Chernobyl, Ucrania. Con anterioridad,
habían ocurrido desperfectos que requerían detener el reactor, pero nadie tomó esa decisión.
Indagaciones posteriores determinaron que la causa inmediata del accidente radicó en
tareas mal hechas por el personal de operaciones. Sin embargo, las causas de fondo fueron
serias insuficiencias en el diseño. La potencia desarrollada por el reactor resultó ser en
realidad muy superior a la prevista. Constituyó el mayor accidente ocurrido en una planta
electronuclear, causó graves daños a la población, y al ecosistema en general, e hizo
necesario poner en juego recursos cuantiosos para controlar la energía desbordada. En
conclusión, el desastre fue consecuencia de errores de diseño y de operación.

9.3. Técnicas Cuantitativas.

Básicamente, las técnicas cuantitativas permiten definir magnitudes futuras de la variable a


predecir, denominadas pronósticos; a partir de patrones observados o relaciones detectadas
en los datos existentes, más alguna influencia aleatoria. Los patrones o las relaciones
sugieren determinados desempeños o funcionamientos de la variable a predecir, y permiten
calcular teóricamente los pronósticos. Además, debido a que los fenómenos de la realidad
son probabilísticos, y no determinísticos, es necesario considerar la aleatoriedad. Aún
cuando se identifique algún patrón o relación de tipo sistemático, siempre hay algún error
entre cada dato real y el correspondiente pronóstico teórico. Una vez relevada la
aleatoriedad histórica de un proceso estable, es posible pronosticar su desempeño futuro
mediante la técnica de cartas de control, antes vista.

La identificación de patrones de desempeño se vincula con el análisis de series temporales


(datos obtenidos a lo largo del tiempo), mientras que la detección de relaciones
funcionales se asocia con el principio de causa y efecto (explicación de los efectos
causados por ciertas acciones). Siempre que se mantengan los supuestos, en ambos casos
los pronósticos teóricos resultan de una calidad aceptable para el planeamiento empresarial.
O sea, siempre que esos patrones o relaciones establecidos permanezcan sin cambio durante
largos períodos, o cambien muy lentamente, o cuando suceda que los cambios drásticos se
eliminen. No obstante, en la realidad, tales patrones y relaciones pueden cambiar y, de
hecho, cambian a menudo. Además, no existe forma de asegurar si lo harán drásticamente
o no, durante el horizonte de predicción.

Conocer para qué pueden servir los pronósticos obtenidos mediante técnicas cuantitativas
es tan importante como su cálculo. Entender tales limitaciones ayuda a desarrollar
expectativas más realistas, con respecto a las situaciones a decidir, en cuanto al desempeño
futuro. En general, se pueden predecir bastante bien: los patrones estacionales y cíclicos
promedios, las corrientes tecnológicas emergentes, la continuidad de situaciones generales
(por ejemplo, en los ámbitos social, económico y financiero), etc. Por otra parte, son de
muy difícil predicción mediante estas técnicas: los sucesos especiales (incendio,
inundación, huelga prolongada), las acciones o reacciones competitivas (crisis petrolera,
campaña de publicidad, reducción de precios), la aparición de nuevos productos+servicios
o sucedáneos, el inicio y la profundidad de las recesiones (depresión económica, inflación),
la duración y la fortaleza de los auges, los cambios de patrones o relaciones (accidentes en
plantas nucleares de generación eléctrica), los cambios de actitudes, las innovaciones
tecnológicas (crecimiento e importancia de las PCs), el descubrimiento de nuevas fuentes
de materias primas, la desaparición repentina de un competidor dominante, etc.

En suma, la lección más importante a extraer tal vez sea que no es difícil predecir con
técnicas cuantitativas la continuación de algún patrón de desempeño o relación funcional.
Mientras que predecir el momento, la intensidad y las consecuencias de cualquier cambio
súbito de tal patrón o relación pertenece más al campo de las técnicas cualitativas. El
monitoreo de la variable a pronosticar puede advertir cuándo deja de ser apropiado un
cierto patrón o una relación en particular. Obviamente, ninguna de las técnicas
cuantitativas brinda pronósticos certeros, y sólo son un complemento del juicio del analista.
Ningún pronóstico es substituto del buen juicio, ni puede eliminar la incertidumbre. Las
técnicas cuantitativas de predicción sólo brindan una manera sistemática de enfrentar al
futuro, para entender y tomar en cuenta la incertidumbre, y los riesgos asociados.

Entre la teoría y la realidad.

Hace 5 años, una localidad tenía 10.000 habitantes y su población venía creciendo a una
tasa del 2% anual. Entonces, se pronosticaron los siguientes guarismos: 10.200 habitantes
al cabo de un año, 10.404 al cabo de dos años, 10.612 luego de tres, 10.824 luego de cuatro
y 11.041 al cabo de cinco años. Los censos realizados "a posteriori" arrojaron los
siguientes datos de la realidad: 10.180, 10.420, 10.630, 10.805 y 11.070 habitantes,
respectivamente. En consecuencia, los errores entre las magnitudes reales y los respectivos
pronósticos teóricos son: -20, -16, +18, -19 y +29. Si bien el patrón de desempeño resultó
adecuado, fue imposible predecir el crecimiento de manera exacta y precisa.

9.3.1. Modelo de Series Temporales.

Las técnicas cuantitativas de predicción, basadas en el modelo de series temporales,


consisten en identificar patrones de desempeño a lo largo del tiempo de las variables a
pronosticar, a partir de series de datos históricos equiespaciados. Se supone que existe
algún patrón -o combinación compleja de subpatrones simples- recurrente o constante a
través del tiempo. Permiten pronosticar mediante extrapolación el desempeño esperado de
las variables en cuestión, para los períodos futuros subsecuentes, sin tomar en
consideración el impacto de las acciones decididas en el horizonte considerado. Son
adecuadas para cubrir las necesidades de predicción en el medio y corto plazos de empresas
pequeñas, medianas y aún grandes. Cuando el aumento de la demanda está ligado al
crecimiento de la población o de la actividad económica en general, cubren dichas
necesidades de predicción a costo aceptable.

Una manera de identificar los patrones de desempeño consiste en tratarlos como si fueran
alguna combinación compleja de los siguientes patrones simples:
 Horizontal. Se refiere a una serie de datos estable a través del tiempo. Describe
fenómenos o procesos estables, por ejemplo, de volumen de venta o de porcentaje de
objetos defectuosos. Es, más que nada, válido en el corto plazo.
 Estacional. Cuando una serie de datos fluctúa cíclicamente a través del tiempo, con
longitud de onda constante. Habitualmente, acompaña a las estaciones o a los meses del
año; también puede acompañar a las horas del día, a los días de la semana o a los días
del mes. Puede obedecer a causas diversas, que van desde los procedimientos
operacionales utilizados para operar los procesos (estacionalidad interna), hasta factores
como el clima o la marea (estacionalidad externa). Por ejemplo, el vencimiento de
cobro de servicios públicos, el pago de sueldos, el consumo de bebidas gaseosas o de gas
para calefacción.
 Cíclico. Es semejante al anterior, pero la duración del ciclo de fluctuación de la serie de
datos es generalmente mayor a un año y no se repite a intervalos fijos de tiempo. Como
el anterior, el ciclo sigue la evolución de una ola, al pasar de una magnitud grande a una
pequeña y regresar nuevamente a una magnitud grande. Pero es más difícil de predecir,
porque su duración no es uniforme. Los ciclos macroeconómicos se pueden explicar
con este subpatrón (por ejemplo, el producto bruto nacional o la superficie construida de
viviendas nuevas). Hay numerosas teorías acerca de las causas de tales ciclos de
actividad económica en general, que van desde posibles hechos aleatorios hasta diversos
reajustes para mantener eficiente un sistema económico.
 Tendencial. Se da cuando existe un aumento o disminución regular de la variable a
pronosticar, en el largo plazo. Frecuentemente, la tendencia puede ser aproximada por
una línea recta, aunque en ciertos fenómenos también puede existir una curva
exponencial o en forma de curva S. La mayoría de las series de datos económicos
suelen seguir este tipo de subpatrón, incluso en combinación con otros subpatrones (por
ejemplo, los precios, las tasas de interés o los índices de producción industrial).

En la Figura 9.b se representan dichos patrones simples, en sendos diagramas de desarrollo


de series temporales. En el eje de abscisas se representan sucesivos períodos de tiempo, al
cabo de los cuales se tomaron los datos, que a la vez se representan por puntos en escala de
ordenadas. Dichos puntos están unidos con curvas, lo cual no tiene más sentido que dar
una impresión de continuidad, para facilitar la detección de los respectivos patrones. En
rigor, sólo son válidos los puntos representativos de las mediciones, y no tienen sentido
teórico los puntos intermedios.

Figura 9.b - Patrones de Comportamiento.

Los patrones simples descriptos se pueden encontrar individualmente o juntos; de hecho,


algunas series temporales combinan una tendencialidad, una estacionalidad y una
ciclicidad. La técnica de descomposición permite separar los patrones simples que
componen el patrón complejo en una serie temporal. La base de dicha separación es
empírica y consiste en remover primero la estacionalidad, luego la tendencialidad y
finalmente la ciclicidad. Además, ya que es posible identificar lo que sobra (aunque, no se
pueda explicar ni controlar, y por lo tanto tampoco predecir), supone que cualquier residuo
de tal separación es aleatorio. Habitualmente, en el corto plazo, el patrón simple más
importante de identificar es el estacional. En términos relativos, las tendencias son
pequeñas y dominadas por la estacionalidad; además, es difícil distinguir entre las
fluctuaciones aleatorias y las debidas a alguna tendencia. En cambio, en el medio plazo, el
patrón simple más importante de identificar es el tendencial. El patrón cíclico también lo es
en el medio plazo, más que en el corto plazo; excepto durante períodos de transición (de
auge a recesión, o viceversa). Casi siempre, la identificación de patrones cíclicos resulta
bastante inexacta e imprecisa, a efectos de determinar los pronósticos necesarios para el
planeamiento, pero no hacer nada al respecto puede conducir a peores resultados.

Luego de obtenidos los sucesivos datos de una serie temporal, es posible extrapolar
gráficamente el desempeño futuro esperado, aunque sea en forma aproximada. No obstante
el margen de error y arbitrariedad que implica esta técnica descripta, denominada de
proyección gráfica, resulta aceptable en gran parte de los casos, y sustituye
ventajosamente a otras técnicas basadas en fórmulas matemáticas. El uso de estas últimas
suele dejar la falsa impresión de una mayor calidad (exactitud y precisión) en los
pronósticos, respecto a la extrapolación gráfica por medio de una línea "ajustada" a la serie
de puntos sobre el diagrama de desarrollo. Sin embargo, considerando en profundidad los
supuestos implícitos y los efectos accidentales que pueden afectar a las series temporales,
se llega a la conclusión de que no necesariamente los pronósticos obtenidos por fórmulas
matemáticas resultan de mayor calidad que los obtenidos gráficamente.

Por caso, luego de lanzado un producto+servicio y vendido durante determinado tiempo,


entonces es posible contar con una serie temporal de datos de volumen de venta. Si se
representa gráficamente tal secuencia de datos a través del tiempo, es posible visualizar su
desempeño pasado, y extrapolar su futuro. De tal manera, es posible pronosticar el
volumen de venta, luego de identificar la estacionalidad (por ejemplo, mayor demanda en
verano que en invierno, o viceversa), la tendencialidad (aumento o disminución regular de
la demanda a través del tiempo), la ciclicidad (aumento o disminución de la demanda por el
nivel de actividad económica general), y hasta dónde la aleatoriedad ha afectado los
volúmenes de venta en el pasado. No obstante, como se dijo, lo anterior sólo es válido en
la medida en que se mantenga la situación que, en el pasado, generó tal patrón de
desempeño. La dinámica de los mercados puede hacer que un patrón del pasado pierda su
vigencia. Abundan los casos en que el progreso tecnológico ha alterado los patrones de los
mercados. Por ejemplo, luego de una década de explosivo crecimiento, la utilización del
fax comenzó a disminuir dejando el lugar al correo electrónico vía internet. Por años, el
helado fue consumido exclusivamente en época estival, y hoy tiene apenas una tenue
estacionalidad.

La técnica numérica de suavizamiento [smoothing method] permite pronosticar en forma


masiva, en el corto plazo. Se supone que el patrón de desempeño es horizontal, y que se
puede atenuar la fluctuación aleatoria de la serie si se suavizan (promedian) los datos
observados. Los pronósticos más comunes son:
 Promedio móvil. Consiste en utilizar el promedio de los últimos datos (observaciones
más recientes) como pronóstico del siguiente período. La cantidad de datos de la serie
temporal, adoptada para el cálculo del promedio móvil, debe permanecer constante (por
ejemplo, tres, seis o doce). Conforme se incorpora cada nuevo dato, se elimina el dato
más antiguo, y se calcula un nuevo promedio como pronóstico del siguiente período. Es
decir, se asigna igual ponderación (peso, importancia o significación) a cada uno de los
datos de la serie elegida, y no se tienen en cuenta los observados con anterioridad.
Cuando la variable a pronosticar contiene una aleatoriedad considerable, es necesario
adoptar una serie temporal larga, con una cantidad grande de datos; cuanto mayor es esa
cantidad, también es mayor el efecto de suavizamiento en el pronóstico. Una serie
anual, o de ciclo completo, permite eliminar cualquier estacionalidad de los datos al
calcular el promedio móvil.
 Promedio móvil ponderado. Similar al anterior, excepto que se asigna mayor peso a
los datos más recientes, mediante sendas ponderaciones. Se aplica un conjunto de
coeficientes de ponderación desiguales, cuya sumatoria debe ser la unidad. Se considera
que los datos más recientes de la serie contienen información más actualizada y, por lo
tanto, de mayor ponderación para predecir lo que acontecerá en el futuro. Este
pronóstico también se conoce como exponencial único, cuando la serie de datos declina
de manera exponencial desde el dato más reciente hacia el más alejado.

En principio, como se dijo, la técnica de suavizamiento es aplicable cuando el patrón de


desempeño es horizontal. Si la serie de datos históricos contiene alguna tendencia fuerte y
consistente, los pronósticos van detrás de la tendencia (se retrasan). En tal caso, para
evitarlo, es necesario remover previamente la tendencia (por ejemplo, tomando las
sucesivas diferencias entre datos). Entonces, es posible aplicar la referida técnica, y a
continuación corregir el pronóstico reincorporando la tendencia antes identificada y
medida. Del mismo modo, si la serie de datos contiene algún patrón estacional, es
necesario "desestacionalizar" primero, utilizar a continuación la referida técnica para
pronosticar, y finalmente "reestacionalizar" los pronósticos. Todo ello se utiliza con éxito
en el planeamiento de los requerimientos de materiales y de la distribución física.

9.3.2. Modelo Explicativo.

Las técnicas cuantitativas de predicción, basadas en el modelo explicativo, consisten en


detectar relaciones funcionales entre variables, a partir de series de pares de datos
históricos. Se supone que existe alguna relación funcional, recurrente o constante a través
del tiempo, entre la variable a pronosticar -denominada dependiente (depende de)- y otras
llamadas independientes. Y, por lo tanto, esa relación se puede expresar mediante alguna
función matemática, lo que permite desarrollar una gama de pronósticos, en
correspondencia a un espectro de magnitudes posibles para las variables independientes.
Con este modelo, no es necesario que la variable a pronosticar sea dependiente del tiempo,
como en el caso del modelo anterior. La variable dependiente representa un fenómeno a
explicar, y las independientes la explicación del mismo. Son las variables explicativas, y
las que siempre figuran en una relación funcional. Por ejemplo, relación funcional entre la
demanda de un producto+servicio y algunas de sus características y/o propiedades. El uso
de las técnicas basadas en el modelo explicativo suele ser bastante más costoso que las
antes vistas, ya que requiere del conocimiento y la experiencia de especialistas. No
obstante, facilita una mejor comprensión de los procesos y permite experimentar con
diversas combinaciones de factores, para determinar los pronósticos.

¿Tiene relación el consumo de combustible con la carga de un camión? ¿Y con su


velocidad? ¿Influye su resistencia aerodinámica en dicho consumo? ¿Qué otras variables
pueden influir? ¿Hay alguna relación entre la resistencia aerodinámica y la velocidad? ¿O
entre la resistencia aerodinámica y la carga? Con frecuencia, para detectar y comprender el
alcance de relaciones funcionales entre dos variables, se recurre a la representación gráfica
conocida como diagrama de dispersión. Permite visualizar la existencia -o no- de
relaciones funcionales lineales entre pares de variables, entre las cuales se imagina que
pueda existir tal posibilidad. Ya sea, relaciones entre factores causales (por ejemplo, entre
tiempo de ciclo y cantidad de horas hombre), o entre efectos (aceleración de un automóvil y
consumo de combustible), o entre factores causales y efectos (cantidad de empleados y
tiempo de espera de atención).
Figura 9.c - Relación Funcional.

El diagrama de dispersión consiste en una nube de puntos, que representa gráficamente a


una serie de pares de datos provenientes de sendas variables posiblemente correlacionadas.
Ver la Figura 9.c. En un gráfico cartesiano, la variable independiente se representa en el
eje de abscisas y la que se supone relacionada -variable dependiente, a pronosticar- en el eje
de ordenadas. En la práctica, se requiere contar con no menos de treinta pares de datos, y
conforme aumenta el tamaño "n" de dicha serie pareada, también puede mejorar la calidad
del pronóstico. Por otra parte, se debe elegir la escala de los ejes cartesianos de manera tal
que los puntos representativos de los pares de datos se inscriban aproximadamente en un
área cuadrangular. Una misma serie de pares de datos puede denotar la existencia de
alguna relación lineal entre las dos variables o no, según la nube de puntos se ajuste o no a
un cuadrado (se comprima o expanda la escala de un eje con relación a la del otro).

Si bien las relaciones lineales suponen un modelo de la realidad harto sencillo, resultan
sumamente útiles en la práctica. Además, muchas relaciones no lineales se pueden
convertir en lineales, cambiando la escala de una o ambas variables. La mayoría de las
variables económicas y demográficas tienen tasa constante de crecimiento anual
acumulativo (por ejemplo, población, producto bruto, consumo, producción agropecuaria e
industrial); es decir, responden a funciones de tipo exponencial. Por lo tanto, cuando
intervienen dichas variables, es posible reducir las relaciones a lineales utilizando escala
logarítmica en el correspondiente eje cartesiano, lo que aumenta aún más la aplicabilidad
del diagrama de dispersión.

La técnica de regresión simple permite identificar posibles relaciones lineales entre pares
de variables. Precisamente, se denomina línea de regresión a la recta que mejor promedia
a la nube de puntos del diagrama de dispersión, y describe lo que tiende a sucederle a la
variable dependiente "y" cuando varía la variable independiente "x". Gráficamente, dicha
recta se puede trazar por tanteos sucesivos, tratando de que finalmente queden a ambos
lados de la misma igual cantidad de puntos, a distancias similares. Además, esta cuestión
acepta un planteo matemático. La ecuación de la recta es:

y = a + bx

Donde, la constante "a" expresa la magnitud de la ordenada en el origen (y = a cuando x =


0) y la constante "b" representa la pendiente de la recta (constante de incremento o
disminución). Dichas constantes se pueden calcular por cuadrados mínimos; ello es
minimizando la suma de las diferencias, elevadas al cuadrado, entre los datos reales de la
serie y la línea de regresión buscada.

¿Qué grado de correlación hay entre la cantidad de animales en una parcela y su consumo
diario de granos? La dirección y la unión de la nube de puntos en el diagrama de dispersión
expresa una idea del grado de correlación entre las dos variables. Por correlación entre dos
variables se entiende que éstas varían juntas de un modo recurrente. Precisamente, el
coeficiente de correlación "r" es una medida del ajuste de la línea de regresión teórica a la
serie pareada real, o sea, del grado de correlación entre las dos variables. Mide el sentido y
la intensidad de la correlación lineal. Su signo es igual al de la pendiente de la línea de
regresión, y su magnitud: 1  r  +1. Donde, r = +1 es la máxima intensidad de una
correlación de sentido positivo (cuando aumenta la magnitud de una variable, también
tiende a aumentar la otra) y r = 1 es la máxima intensidad de una correlación de sentido
negativo; cuando r  0 indica que las dos variables no están correlacionadas entre sí (no
importa qué le suceda a una, nada se puede decir sobre lo que pasa con la otra). Ver la
Figura 9.d. Un grado de correlación intenso sólo permite afirmar que: A) las variables
están relacionadas, si bien no implica que una variable sea causal de la otra, y B) la relación
cuenta solamente dentro del rango de los datos disponibles, como interpolación. No
obstante, con frecuencia es dable observar que la línea de regresión se utiliza para
pronosticar mediante extrapolación. Normalmente, la generalización de una hipótesis se
permite siempre que las muestras obtenidas sean representativas de una determinada
población; pero nunca fuera de ella.

Figura 9.d - Correlación Simple.

Esta técnica también se usa para investigar la autocorrelación entre datos sucesivos de una
serie temporal (por ejemplo, flujo de fondos de un negocio a lo largo del tiempo). Como se
dijo, con el modelo de series temporales, se supone que la variable independiente es el
tiempo. El coeficiente de autocorrelación es similar al anterior; es decir, es una medida
de la correlación entre datos sucesivos de una misma variable, provenientes de distintos
momentos o lapsos de tiempo. En una serie temporal, si los datos son aleatorios, el
coeficiente de autocorrelación es cercano a cero; en cambio, si los datos siguen algún
patrón lineal recurrente, el coeficiente de autocorrelación mide el sentido y la intensidad de
tal patrón.

En muchas situaciones de toma de decisiones es necesario emplear más de una variable


independiente, desde "x1" hasta "xn", para explicar el desempeño de una variable
dependiente "y", a pronosticar. Por ejemplo, para pronosticar la demanda de un nuevo
periódico (del cual, obviamente, no hay historia de demanda previa), es posible relacionar
su futura evolución con variables tales como el desempeño histórico de la circulación
verificada de otros periódicos, la población, el poder adquisitivo, la presencia de algunos
sustitutos (radio, TV, internet), etc. En el caso de sólo dos variables independientes, la
regresión se puede representar con la ayuda de tres ejes cartesianos y se ajusta a un plano
(en lugar de una recta). Y, en general, es posible aplicar la técnica de regresión múltiple
extendiendo los mismos supuestos básicos de la regresión simple, con la siguiente ecuación
de relación entre las variables:

y = a + b1x1 + b2x2 + ... + bnxn.

Así, es posible tratar más de una variable independiente, calculando las constantes de la
ecuación de regresión mediante cuadrados mínimos. Además, es posible calcular el
coeficiente de correlación "ri" para cada par de variables "y" e "xi". En la práctica, se
aconseja usar variables independientes no muy correlacionadas entre sí (0,5  ri  0,7),
para evitar información redundante que no incrementa efectivamente la fuerza explicativa
de la regresión múltiple.
¿Cómo explicar que la cantidad de pasajes vendidos por una empresa aérea guarda relación
con el cumplimiento de las frecuencias anunciadas de vuelo? ¿Cómo explicar que el
aumento de fallas de funcionamiento de una máquina guarda relación con la disminución
de horas empleadas en mantenimiento? Actualmente, las aplicaciones informáticas
corrientes para uso estadístico permiten calcular las constantes de las ecuaciones de
regresión y los coeficientes de correlación, de manera muy fácil y rápida. Una vez que se
encuentra una regresión válida, ésta es utilizable para hacer cualquier cantidad de
pronósticos, simplemente asignando magnitudes a las variables independientes (para los
cuales se desea pronosticar la variable relacionada), lo que constituye una ventaja muy
importante.

¿Aumenta el aprovechamiento con la superficie?

Para obtener ciertas piezas de madera se utilizan placas de tamaño irregular. Luego de
haber utilizado 30 placas, se investigó la relación entre la superficie original de las mismas
"x" (en metros cuadrados) y la superficie realmente aprovechada "y" (en porcentaje). Los
datos fueron:

Pieza "x" "y" Pieza "x" "y" Pieza "x" "y"


1 17,4 88,7 11 17,2 88,9 21 17,4 89,6
2 18,4 91,1 12 17,8 88,4 22 16,6 88,1
3 19,2 91,2 13 17,6 87,4 23 17,8 90,8
4 18,4 89,5 14 16,8 87,4 24 17,8 88,6
5 17,4 89,6 15 17,6 89,1 25 18,6 92,8
6 17,4 89,2 16 16,8 89,4 26 17,4 87,2
7 17,0 87,7 17 16,4 86,4 27 18,2 92,5
8 18,4 88,5 18 18,4 92,2 28 17,4 91,2
9 17,0 86,6 19 17,4 90,9 29 17,4 88,2
10 18,6 89,6 20 18,8 90,5 30 17,8 90,4

El diagrama de dispersión corresponde al representado en la Figura 9.c, donde se puede


apreciar una débil correlación positiva. Luego de analizar dicha relación, se decidió utilizar
solamente placas de superficie mayor a 19 m2.

9.3.3. Modelo Econométrico.

Como se dijo, los modelos son valiosos auxiliares para ordenar el pensamiento, ya que
facilitan enfocar la atención en el desempeño de la variable a pronosticar. Las técnicas
cuantitativas de predicción más elaboradas se basan en el modelo econométrico, ya que
puede incluir cualquier número de ecuaciones simultáneas de regresión, cada una con
diversas variables independientes, interactuando en forma simultánea. Por ejemplo, se
puede usar para pronosticar el monto de venta de una empresa, como resultado del nivel de
precios y/o la publicidad y/o las promociones y/o determinadas acciones de los
competidores principales.
Hasta aquí, con los modelos antes vistos, se ha supuesto que la variable dependiente no
influía sobre las independientes, que eran sólo determinadas por factores externos al
sistema (variables externas). Sin embargo, en los procesos económicos y empresariales, tal
supuesto no siempre responde satisfactoriamente a la realidad. Por ejemplo, para una
compañía, es posible suponer:

monto de venta = f{producto bruto nacional; precio; publicidad}

Donde, parece poco probable que la variable independiente "producto bruto nacional" sea
influida por la variable dependiente "monto de venta" de la empresa. En cambio, es mucho
más probable que las otras dos supuestas variables independientes lo sean; ya que es
posible obtener un "monto de venta" distinto al variar el "precio" y, al incrementar la
"publicidad", aumentar el costo e influir sobre el "precio". Es decir, dichas posibilidades
plantean una interdependencia mutua entre las variables, que excede a la ecuación anterior.
Por cierto, más apropiadamente, es posible pronosticar la misma variable dependiente
mediante un sistema de ecuaciones, como ser:

monto de venta = f{producto bruto nacional; precio; publicidad}


ganancia = f{costos unitarios de producción, de venta y de administración;
precio}
costo de producción = f{volumen de producción; inventario; costo laboral; costo de
materiales}
publicidad = f{monto de ventas; ganancia; acciones de los competidores}

Figura 9.e - Variables Interdependientes.

¿Hasta dónde considerar tales interdependencias? ¿Qué tanto detalle conviene incluir?
Para desarrollar un sistema de ecuaciones, previamente es necesario elaborar una estructura
básica con las variables más importantes en juego. Ver la Figura 9.e. Los sistemas de
ecuaciones más complejos suelen proporcionar una mayor fuerza explicativa, frente a los
simples. Sin embargo, a menudo, tal complejidad, al igual que el refinamiento estadístico,
no necesariamente significa una mejora en la calidad de predicción. En la práctica, las
limitaciones del modelo econométrico provienen de la recopilación de datos y del volumen
de cómputos. Debido al costo asociado, su utilización suele estar fuera del alcance de las
pequeñas y medianas empresas. No obstante, es muy útil para comprender el
funcionamiento de los sistemas económicos, cómo se comportan los sectores industriales o
hasta qué punto decisiones diversas pueden afectar a las empresas (cómo los factores más
importantes pueden afectar cierta variable). En suma, el mayor atractivo proviene de su
competencia para simular y evaluar políticas alternativas, y determinar la influencia de las
mismas sobre las variables más importantes. Se usan más frecuentemente para el mediano
plazo, donde se debe poner mayor énfasis en entender las variables que se van a pronosticar
y los factores que más las influyen.

Proyecto de investigación.
En general, en un proyecto de investigación se deben exponer claramente las siguientes
cuestiones: A) delimitación del problema a investigar (fundamentación de los objetivos y
de la hipótesis de trabajo, viabilidad de la solución del problema y sus posibles
consecuencias); B) elaboración del marco teórico (revisión de la bibliografía, especialmente
la más reciente debido al paso agigantado del progreso en todas las ciencias, y adopción de
una perspectiva teórica); C) especificación del tipo de investigación y del diseño (según se
trate de exploratoria, descriptiva, correlacional, experimental o cualitativa); D)
explicitación de la metodología (definición operacional de las variables independiente y
dependiente, neutralización de las posibles variables extrañas, niveles de medición
implícitos en las variables, formulación de la hipótesis, diseño muestral); y E) instrumentos
para la medición de las variables (especificar su confiabilidad y validez, recolección de los
datos según se trate de entrevistas, encuestas, "tests" o técnicas especificas de las distintas
especialidades).

Usualmente, el protocolo de un proyecto de investigación sigue el siguiente esquema:


 Título. Autor y colaboradores. Resumen.
 Planteo del problema. Objetivos generales y específicos. Hipótesis.
 Antecedentes y fundamentación teórica. Bibliografía.
 Tipo de investigación.
 Metodología: técnicas, instrumentos, universo de variables, categorías de variables y
forma de control, población y muestra, registro de datos, elaboración estadística, etc.
 Cronología de las etapas y actividades en cada una de ellas.
 Recursos necesarios.
 Resultados esperados e importancia de los mismos.

9.3.4. Elección del Modelo.

¿Qué técnica elegir? ¿Acaso se trata de predecir la continuación de un patrón de


desempeño, o la continuación de una relación funcional, o un punto de inflexión? ¿Cuán
valiosa es la predicción? ¿Vale lo que cuesta? Las técnicas antes vistas están en su mayor
parte dirigidas hacia predicciones empresariales de mercado, economía y finanzas,
centrados en el medio y corto plazos. Para elegir una técnica cuantitativa en particular es
necesario entender cada necesidad específica. El eventual uso de la denominada técnica
ingenua simple puede ofrecer un punto de referencia contra el cual comparar otras
alternativas, para facilitar la elección. Por ejemplo, adoptar la observación real más
reciente para pronosticar el siguiente período futuro; lo que se conoce como pronóstico
ingenuo.

Ahora bien, ningún pronóstico resulta de mayor calidad que la de los datos en que se basa.
Además, de nada sirve a menos que se lo utilice para mejorar la toma de decisiones y el
planeamiento. Una dificultad frecuente suele ser la falta de datos específicos suficientes
para iniciar la preparación de pronósticos. El armado de bases de datos lleva tiempo. Las
mejoras en predicción llegan lentamente, con la experiencia y a medida que se generan
mejores bases de datos. En cada caso, es menester ubicar las fuentes de información. En
general, es posible obtener una considerable información de datos publicados, tales como
las estadísticas de censos y los estudios de oportunidades o de recursos (por regiones o
sectores, realizados por organismos oficiales o entidades privadas, como las cámaras
empresariales). Aunque dichos datos rara vez vienen completos o suficientemente
desglosados, por lo común sirven como punto de partida. Investigar acerca de la
información existente es decisivo. Todo ello motivado por una convicción: entender el
pasado es primordial para predecir y mejorar el futuro.

¿Cuánto cuesta recolectar datos adicionales? En general, es necesario considerar la


cantidad y la adecuación de los datos disponibles, así como el tiempo con que se cuenta
para preparar los pronósticos. Como se dijo, algunas técnicas cuantitativas requieren de
recursos mucho mayores que otras menos refinadas. A la hora de elegir una en particular,
las consideraciones comunes giran en torno de:
 Horizonte temporal o espacio de tiempo en el futuro.
 Nivel de detalle requerido y calidad del pronóstico.
 Patrón de desempeño o relación funcional encontrada.
 Disponibilidad de aplicaciones informáticas.
 Costo de desarrollo y de operación.
 Facilidad de aplicación.

¿Cuáles técnicas cuantitativas se usan más frecuentemente? ¿Por qué? En la práctica, sólo
parecen útiles aquellas técnicas de fácil comprensión, cuyos resultados se pueden
interpretar con rapidez y confianza. El atractivo intuitivo se debe tomar en cuenta para
elegir una técnica cuantitativa de predicción. Además, se ha demostrado con estudios
empíricos que la simplicidad de las técnicas no perjudica necesariamente la calidad de los
pronósticos, aunque sí baja el costo. Por ejemplo, para pronosticar gran número de ítems
de inventario parece conveniente usar una técnica basada en el modelo de series
temporales, pues requiere limitados datos históricos y poco tiempo de cálculo por
pronóstico. En cambio, tiene sentido utilizar una técnica basada en el modelo explicativo
para complementar esas predicciones. Por lo general, se tratan de utilizar los pronósticos
tanto como sea posible: A) para verificar la viabilidad y solidez de los planes, y/o B) como
un conjunto de supuestos básicos en el que se puedan fundamentar los planes, y/o C) como
componentes propiamente dichos de los planes (para fijar metas más sensatas y realistas).
Obviamente, pronósticos de mayor calidad permiten desarrollar planes de mayor calidad.

En términos generales, la toma de decisiones empresariales se puede mejorar a través del


uso de reglas sencillas de discernimiento (por caso, fundamentar las decisiones de
planeamiento en el promedio de las tres decisiones tomadas más recientemente). La
consistencia que resulta de la aplicación de una misma regla sencilla de decisión sobrepasa
con creces a las desventajas de tal mecánica, en aquellos casos rutinarios con cambios
pequeños. Hoy, las computadoras permiten guardar grandes cantidades de datos, y es
posible tomar mejores decisiones cuando se cuenta con la manera de acceder a ellos y se
utilizan reglas sencillas de decisión.

Con la tecnología de procesamiento de imágenes se puede digitalizar documentos


[scanning] y, de esa forma, transmitir y almacenar grandes volúmenes de datos. Por otro
lado, las llamadas neurocomputadoras se pueden entrenar para explorar grandes
cantidades de datos de archivo y buscar patrones complejos que conduzcan a un resultado
particular (son fundamentalmente distintas de las computadoras convencionales y no se
pueden programar para ejecutar una secuencia de instrucciones). También, actualmente
hay disponible una variedad de aplicaciones informáticas para explosión de datos y
visualización, que brindan un acceso amistoso a la información. Las aplicaciones de
almacenaje de datos [data warehouse] facilitan la gestión de las bases de datos, ya que
permiten consolidar información de varias fuentes y utilizarla en un contexto de apoyo para
la toma de decisiones. Eso sí, no sólo importa la cantidad de datos, sino también la rapidez
con que se convierten esos datos en información de apoyo para la toma de decisiones. Por
dicho motivo, también se han comenzado a utilizar aplicaciones informáticas para minería
de datos [data mining].

Información básica para la construcción de modelos.

A fines de 2001, algunos indicadores de evaluación a nivel macro en el ámbito del


Mercosur, eran:

PBI PBI Exporta- Importa- Población Población


Salario
total per cápita ciones ciones total urbana
medio
MM US$ US$ MM US$ MM US$ MM %
US$/mes
Argentina 335,2 9.280 26,2 30,3 37,0 89 262
Brasil 813,0 4.920 52,2 63,2 160,0 78 108
Chile 179,0 5.500 16,8 18,2 14,4 83 151
Paraguay 7,8 1.500 2,6 4,0 4,8 53 190
Uruguay 19,9 6.200 2,7 3,7 3,2 91 92

La correcta información macroeconómica resulta vital para la construcción de modelos


econométricos. El desconocimiento de las asimetrías y las particularidades del entorno
puede llevar a predicciones erróneas. Luego de la devaluación practicada en la Argentina a
comienzos de 2002, y el cambio de gobierno en Brasil a fines del mismo año, las cifras
antes indicadas se modificaron dramáticamente.

9.4. Técnicas Cualitativas.

Las técnicas discrecionales o cualitativas se utilizan para hacer predicciones basadas en


juicios de valor, denominadas estimaciones. En especial, cuando se carece de datos
adecuados o están sucediendo cambios respecto de los patrones de desempeño o las
relaciones funcionales conocidas. Por lo general, consideran tres componentes en mutua
interacción: A) las personas que emiten juicios de valor, B) el contexto donde lo hacen y C)
las acciones generadas a partir de dichos juicios, y que posteriormente pueden afectar tanto
a las personas como al entorno.

Las técnicas más comunes de este tipo son:


 Junta de opinión ejecutiva. Los integrantes de equipos de trabajo humano deciden su
estimación de la variable a predecir.
 Delphi. Es una variante de la técnica anterior, en la cual cada integrante del equipo de
trabajo humano expresa primeramente su opinión, de manera individual y anónima, y
luego se busca el consenso. Se evitan así las influencias cruzadas.
 Combinación de opiniones. Es otra variante de la primera técnica, en la que se busca
un efecto opuesto al anterior. Por ejemplo, los vendedores y el gerente de ventas dan sus
puntos de vista simultáneamente.
 Encuesta anticipativa. Las expectativas de una muestra de la población determinan la
estimación de la variable a predecir.
 Evaluación de probabilidad de ocurrencia de sucesos diversos e inciertos. Se
identifica una cantidad finita de resultados individuales posibles de la variable a
predecir, y se asigna una probabilidad asociada a cada uno de ellos. Se elige el resultado
de mayor probabilidad, o bien alguna mezcla de ellos, como estimación.

En la práctica, las tres primeras son las más ampliamente usadas de todas las técnicas de
predicción, en forma pareja a través de todos los horizontes temporales. Ahora bien, cada
ser humano es en sí mismo un sujeto multicultural. Tiene una historia, tradiciones,
conceptos sobre sí mismo y sobre los otros, y siempre -aunque a veces no aparezca
claramente- tiene una ética y conceptos políticos. Vivir es actuar con algún tipo de ética.
Además, todos los seres humanos están guiados por principios altamente abstractos (por
ejemplo, son constructivistas, postpositivistas, feministas, etc.; o tienen modelos étnicos,
sociales, culturales, etc.). Ante tal complejidad, es claro que no se deben despreciar las
dificultades provenientes de la interpretación de la realidad y de la comunicación entre las
personas. Además, cuenta la influencia de los estados anímicos y emocionales; por
ejemplo, el exceso de confianza puede introducir sesgos considerables en las estimaciones.

Para reducir esos sesgos y otras pérdidas, son usuales algunas técnicas auxiliares, que
permiten organizar el trabajo humano en equipos y facilitar el logro de consensos. Aún así,
son muchas las dificultades provenientes del uso de estas técnicas. La principal de todas en
ponderar correctamente cada estimación individual, según la información y el conocimiento
de cada persona, y/o su pericia para predecir el futuro. Claramente, explicar el pasado es
muy distinto a predecir el futuro. Debido a la disposición humana para dominar y controlar
el entorno donde actúa, la mayoría de las personas se suele equivocar percibiendo patrones
o relaciones ilusorias, que en realidad no existen. Otra dificultad reside en que las juntas
tienden a tomar decisiones con más riesgo que las personas a título individual, al disiparse
la responsabilidad. Con frecuencia, los miembros de los equipos de trabajo humano
tienden a apoyarse mutuamente y a unirse contra las amenazas externas, lo que también
afecta la calidad de la toma de decisiones de esas juntas, puesto que reduce la evaluación
crítica y limita la consideración de alternativas extrañas.
El experto estadounidense Nicholas Negroponte, autor del libro "Ser Digital", ha dicho:
"¿De dónde vienen las buenas ideas? Muy simple... de la diversidad. La creatividad surge
de las yuxtaposiciones más increíbles. La mejor forma de maximizar la diversidad es
mezclar edades, culturas y disciplinas." Hasta donde se sabe, el florentino Leonardo da
Vinci fue el último erudito que conoció toda la ciencia y el arte de una época, como pintor,
escultor, músico, escritor, y también como arquitecto, físico e ingeniero. Hoy, más que
nunca antes, se requiere de la multiculturalidad y de la multidisciplinariedad para tratar la
complejidad de cualquier situación real. Se considera que cada miembro de una junta de
opinión puede aportar un nuevo enfoque, una mirada distinta de la realidad, desde otra
perspectiva; por lo tanto, las ideas no se excluyen las unas a las otras, sino que es posible
integrarlas. Particularmente, los puntos de vista filosóficos están muy ligados a cada
persona, a su humanidad, a su manera de experimentar la vida. Vale precisar que la ciencia
se demuestra; mientras que la filosofía se vive. La ciencia explica; mientras que la filosofía
busca un sentido para la vida, para la ciencia y para todo lo que hacen los seres humanos.
Por medio de la filosofía se aclaran las proposiciones; por medio de la ciencia, se verifican.
Filosofar es la actividad que consiste en estudiar las proposiciones, para distinguir aquellas
con sentido (que puedan ser experimentadas, para comprobar su veracidad o falsedad).

Actualmente, para extraer al máximo las oportunidades de mejora que ofrecen los
problemas, es primordial su consideración de manera grupal. También, las mejores
estimaciones provienen de la combinación de más de un juicio u opinión individual.
Surgen de mezclas creativas y sinérgicas de varias posibilidades, alcanzadas a través de la
consulta, la interpretación y la combinación de distintos juicios individuales. Cuando ello
se logra hacer sistemáticamente, entonces es posible desarrollar estimaciones sobre bases
firmes. Para conseguirlo, los miembros de las juntas de opinión deben centrar su atención
en las distinciones, hasta lograr una completa comprensión de todas las posiciones (antes
que pretender imponer alguna en particular). Así, la diversidad de opiniones puede servir
para estimular el raciocinio crítico, a la vez que aumentar la comprensión y vigorizar el
tratamiento de las situaciones. Como contrapartida, también pueden surgir grupos
polarizados, o alianzas en apoyo de distintas posiciones, dando lugar a nocivas
consecuencias, con eventuales ganadores y perdedores. Sobre todo si los miembros de las
juntas utilizan esas ocasiones para tratar antagonismos personales, antes que ocuparse
objetivamente de los temas en cuestión, con más predisposición al conflicto que al acuerdo.
La confrontación a ultranza atenta contra la creatividad.

En las juntas de opinión importa discutir sobre los diversos juicios y, aún más, sobre los
intereses afectados por esas opiniones, o vinculados con las mismas. Claro que siempre
surgen juicios individuales divergentes; igualmente, siempre hay intereses divergentes. En
cualquier caso, tiene más sentido comprenderlos y absorber su aporte, que refutarlos. En
muchas empresas japonesas es usual la toma de decisiones por consenso, y raramente
someten las decisiones a votación, con la finalidad de evitar ganadores y perdedores. La
toma de decisiones por consenso es posible a partir de cierta preparación previa del terreno,
donde los componentes puedan acercar posiciones. Es lo que se denomina preparar el
terreno [[nemawashi]]; expresión que proviene de la jardinería y alude al cuidado
necesario para evitar que las plantas sufran daño en el trasplante. A su semejanza, es
posible desarrollar consensos entre muchos componentes, afectados por múltiples intereses.
Negociando uno a uno; realizando múltiples y sucesivas reuniones, de manera de allanar los
disensos iniciales, hasta obtener los acuerdos previos que posibilitan alcanzar un consenso
final. No se trata de "arreglar" las decisiones, sino de una manera de discernimiento
gradual que le permite a cada miembro de la junta ir modificando su postura individual en
beneficio de alguna posición más compartida, hasta que todos la puedan aceptar, aunque
sea mínimamente. Por lo común, dicha preparación es realizada por el responsable de la
junta, quien escucha a los distintos miembros, y les acerca ideas unificadoras hasta
encontrar un principio de consenso. Tampoco se trata meramente de que cada miembro
ceda algo para alcanzar el consenso, sino de abrir la mente a ideas distintas.

Del disenso y del debate siempre surgen nuevas ideas (el disenso, lo mismo que la negación
o la contradicción, ayuda a desarrollar las personas, no las anula, sino que las hace crecer).
El consenso se descubre cuando los miembros de la junta están dispuestos a explorar y
entender las diversas ideas, a aceptar y apoyar las opciones comunes. Por ejemplo, cuando
todos los miembros pueden decir "mi opinión ha sido escuchada; personalmente, tal vez no
prefiera esta decisión, pero puedo apoyarla". En cambio, no es consenso un acuerdo total o
unánime, ni cuando cada uno de los miembros de la junta obtiene todo lo que desea, ni
tampoco cuando predomina la opinión de un miembro y se le exige al resto su acuerdo.
Disentir es casi siempre lo más fácil. Captar a fondo la raíz de un pensamiento ajeno,
usualmente cuesta mucho más esfuerzo. Cada pensamiento responde a algún interés,
persigue una finalidad, se orienta en una dirección. Y eso es lo que se debe preguntar cada
miembro.

En los equipos de trabajo humano altamente efectivos, los intereses comunes prevalecen
sobre los intereses individuales. Ante cada situación, cada miembro contribuye con el
conocimiento que posee, y así todos pueden ampliar su comprensión. Para alcanzar los
beneficios potenciales y reducir los riesgos asociados en la búsqueda de consensos, es
necesario una cuidadosa gestión de la diversidad de opiniones, teniendo en cuenta: A)
aclarar todos los puntos de vista, B) respetar todas las opiniones y valorar las distinciones,
C) identificar los tópicos donde haya acuerdos, D) también identificar aquellos donde
existan desacuerdos, E) encontrar las causas de fondo de dichos desacuerdos, F) referir
hechos y usar datos de la realidad, siempre que sea posible, y G) dar tiempo suficiente para
el análisis y la reflexión. En las decisiones por consenso se trata de preservar la
individualidad e integrarla en el grupo. Se entiende que es equivocado demandar que las
personas se subordinen al grupo o que disuelvan su singularidad en él, porque es a través de
sus individuos más maduros que los equipos de trabajo humano progresan, y aquellos sólo
pueden avanzar si son libres, si pueden elegir libremente. No obstante, también es
necesario que prevalezca un cierto sentido del todo y de la armonía.

Se ha demostrado las personas cometen a menudo los mismos errores, tanto en el modo en
que buscan información para formular hipótesis acerca de alguna regla generadora, como
en la manera en que intentan confirmar las mismas. Parece ser que la mayoría de las veces
sólo buscan evidencias para confirmar sus hipótesis, que antes han formulado
prejuiciosamente, en lugar de buscar evidencias para desaprobarlas (única manera de
asegurar que una hipótesis es correcta). En general, las personas tienden a:
 Confiar más en los datos que están más a mano o son de más fácil comprensión.
 Recordar y ponderar más aquellos casos vividos más intensa o recientemente (a
veces, un sólo evento negativo inmediato oculta toda una trayectoria).
 Ignorar la información inconsistente con el pensamiento existente (hipótesis
anteriores), soslayando o ignorando cualquier dato que no "encaje".
 Confiar más en la evidencia puntual concreta (como ser la opinión de un cliente
valioso) que en la información abstracta, aún cuando pueda ser más completa y
representativa.
 Pasar por alto los supuestos en gráficos o cuadros de datos.
 No percibir omisiones en cosas o fenómenos importantes (dificultad para ver lo
que no está).
 Considerar más probables aquellos resultados preferidos o esperados.

En suma, las técnicas cualitativas de predicción no están exentas de dificultades. Hay


pruebas abrumadoras de que no mejoran la exactitud de las técnicas cuantitativas y, a
menudo, degradan la precisión cuando concurre la rutina. Es decir, no necesariamente
mejoran la calidad de las predicciones. En términos generales, en situaciones repetitivas
donde los datos se pueden recopilar de manera sistemática, las técnicas cuantitativas suelen
brindar mejores predicciones que las técnicas cualitativas. La mente humana no procesa
datos de manera consistente, y la memoria falla cuando se trata de recordar datos. No
obstante, valga remarcar, en todos los casos se utiliza el mismo principio, conformado por
la identificación de patrones y/o de relaciones existentes. Cuando tal identificación no
existe, la predicción no es posible.

Aprovechamiento del tiempo.

La vastedad y multidisciplinariedad de los temas abordados en las reuniones de trabajo


humano suele exigir el aporte de varios sectores de la empresa. Cualquiera de las técnicas
cualitativas utilizadas para estimar el desempeño futuro de variables presupone coordinar,
asociar, moderar, resumir y concretar tales aportes. Las reuniones de trabajo permiten
acercar físicamente a quienes están en condiciones de presentar sus opiniones,
constituyendo un instrumento de uso cada vez más frecuente en las organizaciones para
evaluar el funcionamiento pasado, y en la toma de decisiones. La productividad de esas
reuniones influye decididamente en la marcha de las empresas, ya que de ellas se esperan
conclusiones útiles, a la vez que consume el tiempo de quienes intervienen.

Con frecuencia, se soslayan aspectos importantes que hacen al éxito de las reuniones de
trabajo, tales como:
 Lista de asistencia, indicando quiénes deben concurrir y, eventualmente, las suplencias.
 Agenda previa, detallando el lugar de reunión, la hora de comienzo y de finalización, y
los temas a tratar. En ocasiones, se acompaña una breve reseña o "ayudamemoria"
acerca del tratamiento de los temas.
 Coordinación, frecuentemente ejercida por quien convoca, compatibilizando horarios y
posibilidades de los asistentes. El coordinador es también quien ordena el debate,
asignando el uso de la palabra y regulando los tiempos y la secuencia de temas tratados.
 Preparación previa, por parte de cada asistente, en cuanto a los temas objeto de
tratamiento. En principio, una reunión se justifica cuando la actividad ejercida requiere
de la presencia conjunta y simultánea de todos los asistentes, y no se debe emplear en
tareas que cada uno, individualmente, pueda realizar antes de la misma.
 Puntualidad, como valor respetuoso del tiempo del prójimo y de la empresa, tanto en el
inicio como en la finalización de la reunión.
 Logística, proveyendo con antelación los elementos de trabajo necesarios: espacio
necesario, papeles, copias, referencias, rotafolio, pizarra, proyector, etc.
 Minuta o acta, elaborada luego de la reunión por el coordinador y dada a conocer
posteriormente a quienes han asistido, para su conformidad. En este informe se
consignan las diferentes opiniones, intervenciones y aportes de los asistentes, seguidas
de las conclusiones y/o decisiones tomadas.

Además, cada uno de los asistentes debe estar dispuesto a escuchar sin prejuicios al
prójimo, comprendiendo sus razones y asumiendo como propio el esquema presentado.
Sólo luego de interpretar cabalmente cada una de las ideas, es posible asociarlas,
combinarlas y/o resumirlas en una única, mejor que aquellas en forma aislada.

9.4.1. Algunas Técnicas Auxiliares.

¿Cómo es posible interconectar ideas y opiniones diversas? No siempre se cuenta con


hechos y datos de la realidad para describir las cosas o los fenómenos. A veces, sólo
existen presunciones, experiencias particulares o consideraciones relativas. Tal es el caso
del diseño de un nuevo tablero de automóvil, cuando por un lado se cuenta con algunas
opiniones de los clientes potenciales (que son consultados acerca de los relojes, las
botoneras y la consola) y, por otro lado, se tienen ciertas opciones tecnológicas para cada
uno de esos componentes. Es decir, no hay datos específicos para resolver un problema
determinado, ni un proceso estandarizado de toma de decisiones, constituido por sucesivas
acciones rutinarias. Solamente hay opiniones, presunciones, recomendaciones, etc. Como
siempre, lo primero es reunir toda la información disponible, y luego encarar su análisis.
No obstante, como se dijo, la mente humana sólo puede enfocar su atención en una
reducida cantidad de asuntos a la vez. Frente a ello, algunas técnicas auxiliares permiten
que ideas aparentemente disímiles -o desconectadas- pueden tomar identidad más concreta
y reunirse en enunciados unificados.

Figura 9.f - Selección de Temas Afines.

El diagrama de afinidades fue desarrollado por el antropólogo japonés Jiro Kawakita, y


por ello se lo conoce también como técnica KJ. Sus connacionales Yoshinobu Nayatani,
Toru Eiga, Ryoji Futami y Hiroyuki Miyagawa, autores del libro "The Seven New QC
Tools", han explicado la construcción del diagrama. Se parte de las posibilidades surgidas
en sesiones de tormenta de ideas, escribiendo cada idea en una "tarjeta de idea", de manera
sencilla y concisa (frases cortas, con sujeto y predicado, que tengan sentido en sí mismas).
Eventualmente, puede ocurrir que dos o más ideas sean muy parecidas en contenido, en
cuyo caso se las vuelve a escribir en una única "tarjeta de idea". Luego, se mezclan todas,
y se ubican sobre una superficie amplia (pizarra, tablero o mesa), de manera que se puedan
leer detenidamente, una y otra vez. A continuación, se agrupan en subconjuntos según la
proximidad conceptual de sus respectivas ideas. Encabezando cada subconjunto, se redacta
una "tarjeta de afinidad", cuyo enunciado englobe a todas las ideas del respectivo grupo.
Así se conforman típicamente cuatro o cinco subconjuntos, cada uno de ellos con una
"tarjeta de afinidad" que lo resume. Se completa el diagrama dibujando los bordes
alrededor de cada subconjunto, y eventualmente trazando las flechas de interrelación. Todo
ello ayuda a la organización mental del equipo de trabajo humano, en cuanto a los temas de
afinidad conceptual. Permite tratar problemas a partir de situaciones caóticas, y generar
estrategias de solución. En la Figura 9.f se representa un ejemplo de utilización de este
diagrama en un caso de caída de volumen de venta (cambio de tendencia), como paso
previo para estimar el volumen de venta en el próximo período.

Figura 9.g - Causas Relacionadas.

El denominado diagrama de relaciones ayuda a encontrar las causas de problemas


complejos. Se utiliza en los casos en que las causas del problema son altamente
interrelacionadas, demasiado como para aplicar el diagrama de causa y efecto.
Primeramente, se enuncia el problema, preguntando por las razones por las cuales no se
alcanza un determinado resultado. Se escribe una "tarjeta de problema", preguntando por
qué sucede algo adverso e inesperado, y se la ubica en el centro de una pizarra o una mesa.
A continuación, cada miembro de la junta de opinión debe pensar y escribir una "tarjeta de
causa primaria", ubicándola en derredor de la primera. Luego, se vuelve a cuestionar de
igual manera el por qué de cada una de las causas primarias, consignando las respuestas en
sendas "tarjetas de causa secundaria". Y así siguiendo con las causas terciarias,
cuaternarias, etc. Se ligan entonces las causas con flechas. Pueden aparecer relaciones
cruzadas; por ejemplo, entre una causa secundaria de una rama y una terciaria de otra.
Finalmente, se señalan las causas de fondo o de raíz, o bien se estiman sus pesos relativos
[ranking] de contribución al problema. Es decir, para dar con el problema a resolver, se
utiliza la técnica conocida como cuestionario de los cinco por qué, antes vista. Por
ejemplo, cuando una máquina se detiene repetidamente, la respuesta al primer por qué
(causa primaria) puede ser "el fusible del motor se quema", al segundo por qué (causa
secundaria) "los cojinetes del motor se recalientan y ofrecen mucha resistencia", al tercer
por qué (causa terciaria) "la lubricación de los cojinetes es defectuosa", al cuarto "el aceite
está sucio" y al quinto "falta el filtro de aceite del lubricador", y concluir que esta última es
la causa de raíz o de fondo (si la acción de ajuste se limitara a cambiar el fusible, es claro
que persistirían las dificultades). En la Figura 9.g se representa un ejemplo de utilización
de este diagrama ante un problema de mal funcionamiento de una PC.

Figura 9.h - Arbol de Medios.

El diagrama árbol permite visualizar las estrategias (concebidas con distintos grados de
detalle, o atinentes a distintos ámbitos) para lograr un objetivo determinado. La técnica,
también llamada dendrograma, fue originalmente desarrollada para el análisis de valor. Al
comienzo, se escribe el objetivo sobre una "tarjeta de objetivo" (por ejemplo, alcanzar el
10% de rentabilidad, terminar el estudio antes de fin de año) y, también, se listan las
restricciones u observaciones especiales. Dicha tarjeta se ubica en un borde de la pizarra o
la mesa utilizada. A continuación, se generan unas pocas (usualmente, dos a cuatro)
estrategias para alcanzar tal objetivo. Se consignan en sendas "tarjetas de medio primario",
y se ubican cerca de la primera, vinculadas mediante líneas. Luego, se generan las
estrategias necesarias para obtener cada medio primario, y se consignan en sendas "tarjetas
de medio secundario", también vinculadas mediante líneas con las anteriores. Así, se
prosigue con los niveles de medio terciario, medio cuaternario, etc., obteniendo finalmente
un conjunto de estrategias a desarrollar para alcanzar el objetivo originalmente planteado.
En la Figura 9.h se representa un ejemplo de utilización de este diagrama ante un objetivo
de aumentar la venta.

9.5. Predicción de Largo Plazo.

De acuerdo con la experiencia, la única forma de detectar los patrones de largo plazo es
empleando datos provenientes de largo plazo. Si no se dispone de series temporales largas,
no es posible hablar de largo plazo, ya que no es posible detectar si hay algún componente
cíclico en el patrón. Como se dijo, para identificar cambios en la tendencia es necesario
eliminar previamente la ciclicidad. En el caso de fenómenos económicos, tales datos
deberían abarcar un período de más de cien años, de manera de incluir al menos dos ciclos
de Kondratieff. Además, identificada una tendencia de largo plazo, no implica que no
pueda cambiar, lo que plantea otra dificultad adicional: estimar cualitativamente cómo y
cuándo podría cambiar. Por ejemplo, a pesar de contar con censos de decenios, y aún de
siglos en algunos países, hoy es imposible determinar con certeza la tasa de crecimiento de
la población en una región. Sequías prolongadas, plagas o cataclismos, pueden provocar
hambre, mortandad o emigración, con el consecuente quiebre de tendencias.

El estudio de tendencias en la historia de la humanidad enseña que la tecnología viene


desempeñando un importante y creciente papel, y ello es improbable que cambie. La tasa
del progreso tecnológico ha aumentado considerablemente en los últimos doscientos años.
Primero como consecuencia de la revolución industrial, que permitió utilizar la energía y
los mecanismos para complementar, sustituir y/o amplificar el trabajo humano manual.
Luego, por la revolución informática iniciada a mediados del siglo pasado, que está
permitiendo complementar, sustituir y/o amplificar el trabajo humano mental, acelerando
mucho más aún la tasa de cambio. Los derivados de dichas revoluciones afectan y seguirán
afectando todas las áreas de la vida, cambiando algunas tendencias históricas (por ejemplo,
en patrones de empleo). No obstante, tanto en el campo de la ciencia como en el de la
tecnología, han abundado predicciones erróneas, y las evaluaciones posteriores hacen que
muchas parezcan grandes despropósitos. Por ejemplo, la teoría acerca del crecimiento
geométrico de la población mundial, frente a la proporción aritmética de la producción de
alimentos, indujo a predecir erróneamente una insuficiencia alimenticia a partir de
mediados del siglo pasado. La razón de esa dificultad para predecir a largo plazo es simple:
el futuro toma su forma específica a partir de nuevas concepciones que no siempre se
pueden divisar "a priori".

¿Qué nuevos descubrimientos y avances se harán en un área específica? ¿Qué otros


cambios surgirán en un área que ya está sufriendo cierto cambio primordial? ¿Cuándo un
nuevo concepto de proceso o de producto+servicio llegará a ser adoptado ampliamente por
el mercado? Claramente, las respuestas más aptas a preguntas de ese tipo resultan del
estudio y la investigación. A menudo, la principal limitación para hacer predicciones a
largo plazo es la insuficiente comprensión de los factores dinámicos que se predicen. En
general, se requiere de un profundo conocimiento de los mismos, en cada fenómeno
específico. Predecir a largo plazo no sólo quiere decir predecir el futuro con cierta calidad;
es igualmente importante aprender tanto como sea posible acerca del mismo, con el
propósito de generar las competencias necesarias para hacer frente a los cambios que traerá,
inevitablemente. La predicción a largo plazo permite entender mejor el cambio por venir, y
tomar las acciones para anticiparlo.

La técnica analógica se utiliza con frecuencia en el estudio de proyectos de largo plazo.


Permite predecir la evolución futura de determinado fenómeno o proceso por analogía con
otro semejante del pasado, y es particularmente interesante cuando no hay datos suficientes
para identificar patrones de largo plazo. Por ejemplo, la demanda esperada de un nuevo
producto+servicio se puede asimilar al patrón seguido por el predecesor, que será
reemplazado. También, en el caso de un nuevo proceso, el costo de operación se puede
obtener mediante comparación con otros procesos semejantes en funcionamiento,
simplemente teniendo en cuenta las diferencias propias de las nuevas condiciones, tales
como clima (costo diferencial del aire acondicionado), leyes y reglamentos (costo
diferencial de cumplimiento o incumplimiento), etc. En un supuesto de analogía entre la
revolución industrial y la revolución informática, se confirma un escenario para el futuro
mostrando una abundante oferta de todo tipo de manufacturas, y una fuerte competencia
entre las empresas que las producen (como ya lo es entre los productores de
"commodities"). Las ventajas competitivas entre los diversos productores serán cada vez
más escasas, porque un mismo alto nivel tecnológico estará disponible para todos. Las
diferenciaciones serán cada vez más pequeñas, o inexistentes, porque muchos productores
estarán produciendo las mismas manufacturas con las mismas tecnologías.

La técnica exploratoria constituye otra opción para desarrollar predicciones de largo plazo.
Parte del conocimiento de las políticas y los patrones históricos, y luego busca predecir qué
sucederá hacia adelante, y cuándo. Por caso, la teoría social de la invención, de William
Ogburn, establece que la necesidad de satisfacer funciones sociales condiciona la
orientación de la tecnología. O sea, debido a que las necesidades de alimentos de la
humanidad son finitas, entonces se puede predecir que a la larga serán satisfechas. Ello
atenuará el crecimiento de la demanda de mercaderías agroindustriales, y traerá como
consecuencia un exceso de capacidad instalada de producción, semejante al existente hoy
en el sector agrícola primario. Mayormente, se podrán ganar ventajas competitivas
desarrollando nuevos productos+servicios, satisfaciendo nuevas necesidades y deseos.
Ante tal perspectiva, la identificación de nuevos mercados y la introducción de novedades
serán cruciales para evitar la saturación de dicho negocio. Es probable que las actividades
relacionadas requieran grandes presupuestos de investigación y desarrollo, fuertes
inversiones en sistemas de producción de alta tecnología y grandes gastos en publicidad,
estimulando -según esa perspectiva- una mayor presencia de grandes productores capaces
de controlar esos recursos y dispuestos a correr los riesgos futuros. Ante tal globalización y
concentración, se plantea un gran dilema: los grandes productores, y su creciente entropía,
contra la iniciativa y agilidad de los pequeños productores, capaces de vencer más
fácilmente las dificultades de las grandes estructuras.

Tabla 9.a - Criterios de Predicción.


La técnica normativa, en cambio, parte evaluando las políticas futuras de tipo deseable, y
luego trata de identificar -hacia atrás- las nuevas tecnologías que más probablemente
conducirán a su logro. En particular, la conocida teoría prospectiva, de los franceses B.
Jouvenel y G. Berger, tiene una concepción radicalmente distinta de la clásica. Argumenta
que el futuro no está determinado, y sostiene que las acciones presentes resultan de las
expectativas hacia el futuro. Por ejemplo, los empresarios no inician nuevos negocios
analizando la demanda y los precios del pasado, sino que evalúan el futuro. Esta teoría se
corresponde con la concepción moderna de la calidad, que construye la satisfacción del
mercado a partir de la detección de sus expectativas. En la Tabla 9.a, se listan algunos
contrastes entre los criterios clásicos, antes descriptos, y estos últimos.

El científico Ilya Prigogine, ganador del Premio Nobel de Química en 1997, también ha
afirmado: "El futuro no está determinado, porque habrá acontecimientos cuyos resultados
no se pueden predecir." La discontinuidad de la historia enseña que el concepto de
acontecimiento ha sido fundamental (por ejemplo, la destrucción de las Torres Gemelas en
Nueva York, EE.UU. de América, en 2001, o el "cacerolazo" popular a fines del mismo año
en Buenos Aires, Argentina, constituyeron rupturas en el curso de la historia). La ciencia
moderna ha permitido una comprensión más profunda del mecanismo de los
acontecimientos. En física o química, están asociados a las bifurcaciones. Según parece, es
la forma de elección de la naturaleza: dentro de ciertos límites el futuro puede ir por un
camino o por otro. Al observar un ecosistema a lo largo del tiempo, pueden aparecer
situaciones en las que su trayectoria se vuelve cada vez más inestable y, finalmente, se
descompone en una multiplicidad de trayectorias nuevas. Cuál de esas ramas resulta
elegida es una cuestión de probabilidades. También la historia humana puede ser vista
como una sucesión de bifurcaciones. Y, según el citado científico, la especie humana se
está acercando a una bifurcación relacionada con la explosión de la tecnología de la
información.

¿Se comportará la "sociedad interconectada" como una gran colonia de hormigas o como
una civilización de personas libres? Al crecer la población mundial, aumentan las
posibilidades de fluctuaciones no lineales -elecciones individuales- porque cada vez hay
más actores. Pero, por otra parte, conforme la población se interconecta más y más, se
puede generar el efecto contrario: hay más posibilidades de que los imperativos de la
sociedad interconectada se impongan sobre la facultad individual de hacer elecciones.
Cuanto más se entiende la conformación del Universo, se encuentran más aspectos
comunes con las sociedades humanas. En la Naturaleza, hasta las partículas más diminutas
se organizan desde un aparente desorden, y una sola partícula puede modificar todo un
metasistema. Así como en la Naturaleza, a pesar de la globalización, la concentración y la
revolución informática, el comportamiento individual sería la explicación de la evolución
de toda la especie humana.

Según el filólogo y pensador italiano Umberto Eco: "El progreso tecnológico, al hacer el
Mundo una gran aldea intercomunicada, no engendra más moral, pero sí bastante más
responsabilidad. Tengo información, datos precisos, imágenes, testimonios, sobre el
hambre y las muertes en algún recóndito lugar y me siento responsable, pero no tengo
eficacia, no puedo hacer nada, o casi nada. Eso me hace sentir mal. Me siento impotente
y angustiado frente a la dicotomía entre la responsabilidad y la posibilidad de reacción
eficaz sobre los acontecimientos más remotos del Mundo... El progreso tecnológico ha
agudizado, pues, mi sensibilidad moral, ha ampliado mi responsabilidad, ha aumentado
mis posibilidades, ha dramatizado mi impotencia." Se entiende que el libre albedrío de los
seres humanos ha tenido, tiene y tendrá un papel primordial en la historia de la humanidad.
Nadie está predeterminado. Las conductas humanas no son tanto provocadas por fuerzas
instintivas, ni por fuerzas externas (normas culturales y estructuras sociales), sino que son
principalmente el resultado de la reflexión interpretativa personal -íntima- de los
significados derivados socialmente. Los seres humanos están continuamente interpretando
y reinterpretando todas las situaciones que viven, conceptualizando y reconceptualizando, y
consecuentemente su percepción va cambiando. La interacción es crucial en dicho proceso.

El futuro que se espera.

El investigador japonés Atsushi Ogasawara, del Instituto Nacional de Política Científica y


Tecnológica del Ministerio de Educación y Cultura del Japón, ha sumarizado los cambios
más significativos que se espera sean realidad durante el primer cuarto del presente siglo:

Campo Tema
Año
Naturaleza Desarrollo de tecnología capaz de prever, con una antelación
de varios días, la ocurrencia de grandes terremotos.
2024
Servicios Avances para desechar materiales en desuso, capaces de
reducir al 10% el volumen de vertido final de desechos.
2015
Energía Disposición de manera segura de residuos sólidos altamente
radiactivos.
2021
Salud Identificación y clasificación por etiología molecular de los
genes relacionados con la arteroesclerosis, la hipertensión y
la diabetes.
2013
Medios efectivos para prevenir la metástasis del cáncer.
2017
Comunicaciones Expansión de una red de comunicaciones de alta fiabilidad,
apropiada para proteger la privacidad.
2010
Entorno para la utilización ilimitada de redes de alta
circulación (150 Mbps) a costo accesible.
2009
Biotecnología Desarrollo de técnicas para descubrir nuevas funciones de la
secuencia del ADN.
2009
Espacio Expedición tripulada a Marte.
2025
Transporte Conducción automática en autopistas y rutas, prefijando
el destino deseado.
2017
Robótica Desarrollo de robots con funciones pseudohumanas y
competencia de decisión.
2025
Electrónica Uso práctico de la tecnología para producir en masa
circuitos electrónicos, con dimensiones de patrón mínimo
unos 10nm.
2015

Vous aimerez peut-être aussi