Académique Documents
Professionnel Documents
Culture Documents
CAPITULO 9
PRONOSTICOS Y ESTIMACIONES
"Mi interés está en el futuro porque es donde pasaré el resto de mi vida."
Charles F. Kettering
En todo cambio siempre hay quien circunstancialmente puede ganar y quien puede perder,
en términos relativos. Acrecentar las posibilidades de ganar, o reducir los riesgos de perder
a futuro, implica que las empresas se deben preparar al cambio por venir, con la
anticipación suficiente para lograr comportamientos adecuados. Ese es el desafío de
cualquier empresa, y no parece que tenga sentido rehuirle.
El futuro es incierto por naturaleza y lo que ocurrirá será una consecuencia de infinitas
variables. Pero, se sabe que la toma de decisiones en el presente, y la subsiguiente
ejecución de las acciones relacionadas, influyen sobre los hechos futuros en cualquier
situación concreta y afectan los resultados a alcanzar. No es entonces una práctica ociosa
formular conjeturas o supuestos acerca del futuro, que se estima habrán de predominar, con
miras a imaginar posibles escenarios por venir, tanto al nivel local como global.
Usualmente, una hipótesis es un conjunto de proposiciones tentativas que tendría cierto
fenómeno. Especifica tentativamente relaciones entre variables, con el objeto de explicar
(por qué, cómo y cuándo ocurre) y también predecir dicho fenómeno. Existen hipótesis a
distintos niveles de generalidad, y no son necesariamente verdaderas "a priori"; pueden o
no serlo, pueden o no verificarse con los hechos. Cuando una hipótesis es confirmada
científicamente, pasa a la categoría de teoría; y cuando logra aceptación universal,
mediante una gran cantidad de pruebas, se eleva al rango de ley. En ambos casos, se
sistematiza el conocimiento en cuestión; o sea, se lo ordena.
En general, no se trata con ellas de describir el futuro, sino de definir un marco dentro del
cual se estima que pueden acontecer los futuros posibles. Toda empresa necesita evaluar
dicho marco para determinar cuáles y cómo la pueden afectar, y qué estrategias le conviene
elegir para triunfar. Para formular futuros escenarios de los negocios es necesario contar
con permanente información acerca de lo que ocurre en los mercados y en el ámbito de la
tecnología, en todo el mundo. Obviamente, los futuros escenarios no se hacen con una
"bola de cristal". A veces, la turbulencia del entorno de la empresa parece mostrarles a sus
directores que cualquier intento por describir escenarios futuros es en vano. Sin embargo,
siempre es mejor tener alguna visión, y contar con opciones ante hipotéticas oportunidades
y amenazas. En particular, acerca del comportamiento esperado de los mercados, puesto
que atañe a la supervivencia misma de la empresa.
A comienzos del actual siglo, algunos supuestos corrientes acerca del futuro son:
Aceleración del ritmo de cambio, con aumento de la incertidumbre y la complejidad.
Mayor protagonismo de la gente y rescate de la identidad.
Creciente integración de la gente a través de las comunicaciones.
Aumento de la globalización de la economía y del comercio entre bloques de naciones.
Explosivo desarrollo de los servicios.
Mayor valorización de la calidad, del cuidado medio ambiental y de la ética de negocios.
Creciente importancia estratégica de la "materia gris" y de la educación permanente.
Mayor cuidado de la relación entre la vida laboral y la vida personal.
Entrada plena a la edad de los sistemas.
No está del todo claro que demanda y oferta (actuales y/o potenciales) de un
producto+servicio sean variables independientes entre sí (separables), y más bien parece
útil considerar su interacción. La predicción de las cualidades y de las cantidades de la
demanda y de la oferta es la base del planeamiento empresarial. Constituyen la base de
apoyo para proyectar la evolución del negocio (volumen de ventas esperado en el futuro a
determinados precios) y la asignación de los recursos. Cualquier empresa productora
necesita predecir cuánta demanda tendrá cada uno de sus productos+servicios, por zona
geográfica y por segmento de clientes finales, cuál será su participación en el mercado, a
qué precios podrá vender, etc. Y debe utilizar esas predicciones en el planeamiento, tanto
de su estrategia competitiva como de las necesidades de recursos. En la práctica, es
frecuente observar que las mayores improvisaciones en la gestión empresarial provienen de
la imprevisión acerca de la evolución de la demanda y la oferta. Por ejemplo, apelando
reiteradamente a recursos extraordinarios para paliar imprevistos (tal como una continua
utilización de horas extras de labor para compensar déficits crónicos de capacidad instalada
de producción).
No siempre el futuro está contenido en el pasado. Son esos momentos de ruptura los que
alumbran respuestas originales. Algo de eso pasó en Brasil, al cambiar abruptamente las
"reglas del juego" del mercado, en 1999. Con una fuerte devaluación de su moneda -el
Real- en enero de aquel año, después de una sangría de US$ 40.000.000.000, los analistas
de universidades y bancos extranjeros hicieron predicciones muy pesimistas. Basados en
las experiencias previas de México en 1995 y de Rusia en 1997, predijeron que la inflación
iba a superar el 35% y el PBI iba a caer 6%. Pero ninguna de esas plagas azotó a Brasil por
entonces. Al comenzar el año 2000, el cambio se había estabilizado, los precios no se
habían disparado (inflación menor al 6%) y el PBI había crecido levemente (1 %).
Lejos de amedrentar a los brasileños, la devaluación realizada por su gobierno fue bastante
aceptada, incluso con alivio. Para su idiosincrasia, se abrió una esperanza: se podían
recrear algunas industrias y haber nuevos empleos. Dicho comportamiento social fue
determinante para que Brasil pudiera recomponerse de la citada devaluación.
9.1.2. Monitoreo.
Para representar los datos de una variable a lo largo del tiempo (por ejemplo, determinados
resultados de un proceso), usualmente se recurre al denominado diagrama de desarrollo.
Permite monitorear la evolución de dicha variable, visualizando cómo se inscriben los
puntos representativos de los datos (medición o cantidad observada cada vez), unidos por
una línea según el orden en que se van obteniendo, a lo largo del tiempo. Precisamente, se
utiliza para identificar patrones de desempeño o cambios importantes de los mismos. Para
su construcción es fundamental mantener estrictamente el orden secuencial de los datos al
momento de ser recolectados, puesto que se trata de representar su evolución en el tiempo.
En general, los seres humanos pueden evaluar con relativa facilidad las consecuencias de
los cambios; sin embargo, suele costarles bastante más identificar o aceptar esos cambios.
Siempre que sea posible, los cambios se deben investigar tan pronto como ocurren, a
efectos de incorporarlos al sistema cuando son favorables, o eliminarlos si son
desfavorables. Así pues, es aconsejable monitorear las variables a predecir, como ayuda
para identificar los posibles cambios sistemáticos o no aleatorios a lo largo del tiempo.
Dicha medición periódica es fundamental para comprender lo que ocurre, evaluar el
impacto de eventuales cambios, ajustar las desviaciones y establecer prioridades. La
utilidad del monitoreo se parece a la de un radar, que permite detectar cambios y recibir
alertas tempranas; resulta medular para reaccionar con la mayor rapidez posible ante los
cambios.
Como se dijo, la evolución de una variable a lo largo del tiempo (por ejemplo, la demanda
de un producto+servicio) está sometida a la influencia de diversas causas de variación, que
se pueden clasificar en A) comunes (aleatorias) y B) especiales (accidentales). Las
primeras influyen sobre la variable ocasionando en ella aumentos o disminuciones que
siguen algún patrón o relación. Son, por ejemplo, la cantidad de habitantes de un país, el
nivel de ingreso por habitante, y/o el nivel de actividad económica. La influencia de dichas
causas comunes es gradual, y sujeta a patrones o relaciones de variación continua. Actúan
aleatoriamente (se manifiestan con la misma probabilidad en uno y en otro sentido) y,
cuando el período considerado es suficientemente largo, tal aleatoriedad se anula o alcanza
magnitudes poco significativas. En cambio, las causas especiales no tienen patrón alguno,
ni relación preestablecida de variación. Pueden ser, por ejemplo, las conmociones sociales,
las guerras, las sequías, las huelgas, y/o las devaluaciones de la moneda.
Sobrecarga de información.
Los directores de empresas se encuentran entre los sectores sociales más ávidos de
información. Necesitan estar al día en un sinnúmero de temas, conocer las últimas
tendencias al detalle, responder a nuevas demandas y desafíos laborales, tener opinión
fundamentada sobre diversas cuestiones específicas, etc. A ellos les afecta un nuevo tipo
de "stress" por sobrecarga de información. Paralelamente, se observa una proliferación de
servicios -en línea y fuera de ella- especializados en suministrar información selectiva y
personalizada. El uso masivo del correo electrónico, la posibilidad de obtener informes
sobre cualquier asunto y el uso de buscadores en internet, conforman una realidad que, a
veces, es también inmanejable.
Lo anterior lleva a una curiosa paradoja: por un lado los directores sienten que no pueden
realizar correctamente su tarea sin alta cantidad de información; por otro lado, sienten que
una pesada carga de información, con frecuencia irrelevante, afecta su productividad y
amenaza colapsar su desenvolvimiento. Así, aparece una suerte de parálisis de su
competencia para analizar información. El síndrome de la fatiga informacional es ahora un
componente más de la vida de los directores de empresas. Otro aspecto derivado de esa
sobrecarga es la "adicción informativa", o necesidad compulsiva de consultar diversas
fuentes de información, que muchas veces hace perder la percepción de la calidad de los
contenidos. Tener demasiada información puede ser tan peligroso como tener muy poca.
Decididamente, los sistemas de información son fundamentales en las organizaciones
modernas.
Transcurría un día apacible del año 27, y más de 50.000 personas confluían para observar el
espectáculo que tendría lugar en el nuevo anfiteatro de Fidias. Se trataba de un combate
entre gladiadores. El anfiteatro era un enorme edificio de madera, que parecía majestuoso y
eterno. La gente aglomerada esperaba ansiosa. Por fin, el viejo ritual etrusco, que los
romanos copiaron, se inició. La exaltación, los gritos, la emotividad, impidieron que se
advirtiera el desplazamiento de la estructura. Un segundo después, fue inevitable la pérdida
de estabilidad del mismo: se derrumbó y sepultó a cientos de personas. Al decir del antiguo
historiador Cornelio Tácito: "La catástrofe inesperada tuvo más víctimas que una guerra
sangrienta." El Senado Romano concluyó que las causas del desastre fueron el
incumplimiento de las leyes de construcción y la insuficiente investigación de la resistencia
del suelo.
A lo largo de la historia, no han sido pocos los hechos de semejante naturaleza que ha
sufrido la humanidad. Por el contrario, han sucedido de manera continua, incluso hasta
hoy. Las razones han sido muy variadas. Pero, una cantidad importante de fallas
catastróficas -en cosas hechas por el ser humano- ha ocurrido por errores de diseño, falta de
previsión e irresponsabilidad. Sólo se trata de alertar sobre el peligro que implica no ser
consecuente con las buenas prácticas de ingeniería, ya sea por desprecio o por ignorancia.
Y es que en ambos casos da igual, pues cualquiera de las dos manifestaciones es
inadmisible, y frecuentemente cuestan vidas y daños materiales severos. Existen muchos
ejemplos. En 1938 se derrumbó el puente sobre el Canal Alberto, en Bélgica; en 1940 se
desplomó el puente del estrecho de Tacoma, en EE.UU. de América; y en 1962 cayó el
Puente Real en Melbourne, Australia. En las tres catástrofes, las investigaciones
posteriores arrojaron que su origen había residido en errores de los respectivos proyectos.
Especial significación tuvo el desastre del puente de Tacoma. Dicho caso trascendió por su
carácter "sui generis", al ser considerada la mayor calamidad en la historia de la
construcción de puentes en EE.UU. de América. Tuvo el privilegio de que se filmara su
derrumbe y la suerte de no provocar víctimas humanas. Recién construido, el puente tuvo
una excesiva sensibilidad al viento, tanto que al ser batido por éste vibraba con amplitudes
de hasta un metro y medio. Si bien había sido calculado para una carga estática generada
por un viento de 180 km/h, el puente comenzó a sufrir oscilaciones de flexión y torsión de
inusitada amplitud, cuando el viento apenas soplaba a una velocidad promedio de 70 km/h,
debido al fenómeno de resonancia. Después de vibrar durante una hora, se deshizo,
ahogándose así, en el mismo año de su construcción, el tercer puente mayor de la época.
Luego se supo que ello ocurrió porque en el diseño se habían omitido los cálculos de
resistencia con cargas variables.
Claramente, los errores de cálculo pueden provocar incalculables daños. Pero el resultado
puede ser peor aún, si a ellos se les une el mal funcionamiento. Cabe insistir en la enorme
importancia que tiene el mantenimiento adecuado, junto al correcto uso. Mantener es
conservar y salvaguardar a las instalaciones, al medio ambiente y al propio ser humano. En
estos tiempos de impetuoso progreso tecnológico, de la era nuclear, de la conquista del
cosmos, de la informática y la biotecnología, tanto un error de diseño como un mal
mantenimiento o un uso incorrecto pueden significar una enorme catástrofe, implicando
incluso a seres humanos. Algo así ya se vivió en 1986, cuando explotó el bloque energético
número cuatro de la Central Electronuclear de Chernobyl, Ucrania. Con anterioridad,
habían ocurrido desperfectos que requerían detener el reactor, pero nadie tomó esa decisión.
Indagaciones posteriores determinaron que la causa inmediata del accidente radicó en
tareas mal hechas por el personal de operaciones. Sin embargo, las causas de fondo fueron
serias insuficiencias en el diseño. La potencia desarrollada por el reactor resultó ser en
realidad muy superior a la prevista. Constituyó el mayor accidente ocurrido en una planta
electronuclear, causó graves daños a la población, y al ecosistema en general, e hizo
necesario poner en juego recursos cuantiosos para controlar la energía desbordada. En
conclusión, el desastre fue consecuencia de errores de diseño y de operación.
Conocer para qué pueden servir los pronósticos obtenidos mediante técnicas cuantitativas
es tan importante como su cálculo. Entender tales limitaciones ayuda a desarrollar
expectativas más realistas, con respecto a las situaciones a decidir, en cuanto al desempeño
futuro. En general, se pueden predecir bastante bien: los patrones estacionales y cíclicos
promedios, las corrientes tecnológicas emergentes, la continuidad de situaciones generales
(por ejemplo, en los ámbitos social, económico y financiero), etc. Por otra parte, son de
muy difícil predicción mediante estas técnicas: los sucesos especiales (incendio,
inundación, huelga prolongada), las acciones o reacciones competitivas (crisis petrolera,
campaña de publicidad, reducción de precios), la aparición de nuevos productos+servicios
o sucedáneos, el inicio y la profundidad de las recesiones (depresión económica, inflación),
la duración y la fortaleza de los auges, los cambios de patrones o relaciones (accidentes en
plantas nucleares de generación eléctrica), los cambios de actitudes, las innovaciones
tecnológicas (crecimiento e importancia de las PCs), el descubrimiento de nuevas fuentes
de materias primas, la desaparición repentina de un competidor dominante, etc.
En suma, la lección más importante a extraer tal vez sea que no es difícil predecir con
técnicas cuantitativas la continuación de algún patrón de desempeño o relación funcional.
Mientras que predecir el momento, la intensidad y las consecuencias de cualquier cambio
súbito de tal patrón o relación pertenece más al campo de las técnicas cualitativas. El
monitoreo de la variable a pronosticar puede advertir cuándo deja de ser apropiado un
cierto patrón o una relación en particular. Obviamente, ninguna de las técnicas
cuantitativas brinda pronósticos certeros, y sólo son un complemento del juicio del analista.
Ningún pronóstico es substituto del buen juicio, ni puede eliminar la incertidumbre. Las
técnicas cuantitativas de predicción sólo brindan una manera sistemática de enfrentar al
futuro, para entender y tomar en cuenta la incertidumbre, y los riesgos asociados.
Hace 5 años, una localidad tenía 10.000 habitantes y su población venía creciendo a una
tasa del 2% anual. Entonces, se pronosticaron los siguientes guarismos: 10.200 habitantes
al cabo de un año, 10.404 al cabo de dos años, 10.612 luego de tres, 10.824 luego de cuatro
y 11.041 al cabo de cinco años. Los censos realizados "a posteriori" arrojaron los
siguientes datos de la realidad: 10.180, 10.420, 10.630, 10.805 y 11.070 habitantes,
respectivamente. En consecuencia, los errores entre las magnitudes reales y los respectivos
pronósticos teóricos son: -20, -16, +18, -19 y +29. Si bien el patrón de desempeño resultó
adecuado, fue imposible predecir el crecimiento de manera exacta y precisa.
Una manera de identificar los patrones de desempeño consiste en tratarlos como si fueran
alguna combinación compleja de los siguientes patrones simples:
Horizontal. Se refiere a una serie de datos estable a través del tiempo. Describe
fenómenos o procesos estables, por ejemplo, de volumen de venta o de porcentaje de
objetos defectuosos. Es, más que nada, válido en el corto plazo.
Estacional. Cuando una serie de datos fluctúa cíclicamente a través del tiempo, con
longitud de onda constante. Habitualmente, acompaña a las estaciones o a los meses del
año; también puede acompañar a las horas del día, a los días de la semana o a los días
del mes. Puede obedecer a causas diversas, que van desde los procedimientos
operacionales utilizados para operar los procesos (estacionalidad interna), hasta factores
como el clima o la marea (estacionalidad externa). Por ejemplo, el vencimiento de
cobro de servicios públicos, el pago de sueldos, el consumo de bebidas gaseosas o de gas
para calefacción.
Cíclico. Es semejante al anterior, pero la duración del ciclo de fluctuación de la serie de
datos es generalmente mayor a un año y no se repite a intervalos fijos de tiempo. Como
el anterior, el ciclo sigue la evolución de una ola, al pasar de una magnitud grande a una
pequeña y regresar nuevamente a una magnitud grande. Pero es más difícil de predecir,
porque su duración no es uniforme. Los ciclos macroeconómicos se pueden explicar
con este subpatrón (por ejemplo, el producto bruto nacional o la superficie construida de
viviendas nuevas). Hay numerosas teorías acerca de las causas de tales ciclos de
actividad económica en general, que van desde posibles hechos aleatorios hasta diversos
reajustes para mantener eficiente un sistema económico.
Tendencial. Se da cuando existe un aumento o disminución regular de la variable a
pronosticar, en el largo plazo. Frecuentemente, la tendencia puede ser aproximada por
una línea recta, aunque en ciertos fenómenos también puede existir una curva
exponencial o en forma de curva S. La mayoría de las series de datos económicos
suelen seguir este tipo de subpatrón, incluso en combinación con otros subpatrones (por
ejemplo, los precios, las tasas de interés o los índices de producción industrial).
Luego de obtenidos los sucesivos datos de una serie temporal, es posible extrapolar
gráficamente el desempeño futuro esperado, aunque sea en forma aproximada. No obstante
el margen de error y arbitrariedad que implica esta técnica descripta, denominada de
proyección gráfica, resulta aceptable en gran parte de los casos, y sustituye
ventajosamente a otras técnicas basadas en fórmulas matemáticas. El uso de estas últimas
suele dejar la falsa impresión de una mayor calidad (exactitud y precisión) en los
pronósticos, respecto a la extrapolación gráfica por medio de una línea "ajustada" a la serie
de puntos sobre el diagrama de desarrollo. Sin embargo, considerando en profundidad los
supuestos implícitos y los efectos accidentales que pueden afectar a las series temporales,
se llega a la conclusión de que no necesariamente los pronósticos obtenidos por fórmulas
matemáticas resultan de mayor calidad que los obtenidos gráficamente.
Si bien las relaciones lineales suponen un modelo de la realidad harto sencillo, resultan
sumamente útiles en la práctica. Además, muchas relaciones no lineales se pueden
convertir en lineales, cambiando la escala de una o ambas variables. La mayoría de las
variables económicas y demográficas tienen tasa constante de crecimiento anual
acumulativo (por ejemplo, población, producto bruto, consumo, producción agropecuaria e
industrial); es decir, responden a funciones de tipo exponencial. Por lo tanto, cuando
intervienen dichas variables, es posible reducir las relaciones a lineales utilizando escala
logarítmica en el correspondiente eje cartesiano, lo que aumenta aún más la aplicabilidad
del diagrama de dispersión.
La técnica de regresión simple permite identificar posibles relaciones lineales entre pares
de variables. Precisamente, se denomina línea de regresión a la recta que mejor promedia
a la nube de puntos del diagrama de dispersión, y describe lo que tiende a sucederle a la
variable dependiente "y" cuando varía la variable independiente "x". Gráficamente, dicha
recta se puede trazar por tanteos sucesivos, tratando de que finalmente queden a ambos
lados de la misma igual cantidad de puntos, a distancias similares. Además, esta cuestión
acepta un planteo matemático. La ecuación de la recta es:
y = a + bx
¿Qué grado de correlación hay entre la cantidad de animales en una parcela y su consumo
diario de granos? La dirección y la unión de la nube de puntos en el diagrama de dispersión
expresa una idea del grado de correlación entre las dos variables. Por correlación entre dos
variables se entiende que éstas varían juntas de un modo recurrente. Precisamente, el
coeficiente de correlación "r" es una medida del ajuste de la línea de regresión teórica a la
serie pareada real, o sea, del grado de correlación entre las dos variables. Mide el sentido y
la intensidad de la correlación lineal. Su signo es igual al de la pendiente de la línea de
regresión, y su magnitud: 1 r +1. Donde, r = +1 es la máxima intensidad de una
correlación de sentido positivo (cuando aumenta la magnitud de una variable, también
tiende a aumentar la otra) y r = 1 es la máxima intensidad de una correlación de sentido
negativo; cuando r 0 indica que las dos variables no están correlacionadas entre sí (no
importa qué le suceda a una, nada se puede decir sobre lo que pasa con la otra). Ver la
Figura 9.d. Un grado de correlación intenso sólo permite afirmar que: A) las variables
están relacionadas, si bien no implica que una variable sea causal de la otra, y B) la relación
cuenta solamente dentro del rango de los datos disponibles, como interpolación. No
obstante, con frecuencia es dable observar que la línea de regresión se utiliza para
pronosticar mediante extrapolación. Normalmente, la generalización de una hipótesis se
permite siempre que las muestras obtenidas sean representativas de una determinada
población; pero nunca fuera de ella.
Esta técnica también se usa para investigar la autocorrelación entre datos sucesivos de una
serie temporal (por ejemplo, flujo de fondos de un negocio a lo largo del tiempo). Como se
dijo, con el modelo de series temporales, se supone que la variable independiente es el
tiempo. El coeficiente de autocorrelación es similar al anterior; es decir, es una medida
de la correlación entre datos sucesivos de una misma variable, provenientes de distintos
momentos o lapsos de tiempo. En una serie temporal, si los datos son aleatorios, el
coeficiente de autocorrelación es cercano a cero; en cambio, si los datos siguen algún
patrón lineal recurrente, el coeficiente de autocorrelación mide el sentido y la intensidad de
tal patrón.
Así, es posible tratar más de una variable independiente, calculando las constantes de la
ecuación de regresión mediante cuadrados mínimos. Además, es posible calcular el
coeficiente de correlación "ri" para cada par de variables "y" e "xi". En la práctica, se
aconseja usar variables independientes no muy correlacionadas entre sí (0,5 ri 0,7),
para evitar información redundante que no incrementa efectivamente la fuerza explicativa
de la regresión múltiple.
¿Cómo explicar que la cantidad de pasajes vendidos por una empresa aérea guarda relación
con el cumplimiento de las frecuencias anunciadas de vuelo? ¿Cómo explicar que el
aumento de fallas de funcionamiento de una máquina guarda relación con la disminución
de horas empleadas en mantenimiento? Actualmente, las aplicaciones informáticas
corrientes para uso estadístico permiten calcular las constantes de las ecuaciones de
regresión y los coeficientes de correlación, de manera muy fácil y rápida. Una vez que se
encuentra una regresión válida, ésta es utilizable para hacer cualquier cantidad de
pronósticos, simplemente asignando magnitudes a las variables independientes (para los
cuales se desea pronosticar la variable relacionada), lo que constituye una ventaja muy
importante.
Para obtener ciertas piezas de madera se utilizan placas de tamaño irregular. Luego de
haber utilizado 30 placas, se investigó la relación entre la superficie original de las mismas
"x" (en metros cuadrados) y la superficie realmente aprovechada "y" (en porcentaje). Los
datos fueron:
Como se dijo, los modelos son valiosos auxiliares para ordenar el pensamiento, ya que
facilitan enfocar la atención en el desempeño de la variable a pronosticar. Las técnicas
cuantitativas de predicción más elaboradas se basan en el modelo econométrico, ya que
puede incluir cualquier número de ecuaciones simultáneas de regresión, cada una con
diversas variables independientes, interactuando en forma simultánea. Por ejemplo, se
puede usar para pronosticar el monto de venta de una empresa, como resultado del nivel de
precios y/o la publicidad y/o las promociones y/o determinadas acciones de los
competidores principales.
Hasta aquí, con los modelos antes vistos, se ha supuesto que la variable dependiente no
influía sobre las independientes, que eran sólo determinadas por factores externos al
sistema (variables externas). Sin embargo, en los procesos económicos y empresariales, tal
supuesto no siempre responde satisfactoriamente a la realidad. Por ejemplo, para una
compañía, es posible suponer:
Donde, parece poco probable que la variable independiente "producto bruto nacional" sea
influida por la variable dependiente "monto de venta" de la empresa. En cambio, es mucho
más probable que las otras dos supuestas variables independientes lo sean; ya que es
posible obtener un "monto de venta" distinto al variar el "precio" y, al incrementar la
"publicidad", aumentar el costo e influir sobre el "precio". Es decir, dichas posibilidades
plantean una interdependencia mutua entre las variables, que excede a la ecuación anterior.
Por cierto, más apropiadamente, es posible pronosticar la misma variable dependiente
mediante un sistema de ecuaciones, como ser:
¿Hasta dónde considerar tales interdependencias? ¿Qué tanto detalle conviene incluir?
Para desarrollar un sistema de ecuaciones, previamente es necesario elaborar una estructura
básica con las variables más importantes en juego. Ver la Figura 9.e. Los sistemas de
ecuaciones más complejos suelen proporcionar una mayor fuerza explicativa, frente a los
simples. Sin embargo, a menudo, tal complejidad, al igual que el refinamiento estadístico,
no necesariamente significa una mejora en la calidad de predicción. En la práctica, las
limitaciones del modelo econométrico provienen de la recopilación de datos y del volumen
de cómputos. Debido al costo asociado, su utilización suele estar fuera del alcance de las
pequeñas y medianas empresas. No obstante, es muy útil para comprender el
funcionamiento de los sistemas económicos, cómo se comportan los sectores industriales o
hasta qué punto decisiones diversas pueden afectar a las empresas (cómo los factores más
importantes pueden afectar cierta variable). En suma, el mayor atractivo proviene de su
competencia para simular y evaluar políticas alternativas, y determinar la influencia de las
mismas sobre las variables más importantes. Se usan más frecuentemente para el mediano
plazo, donde se debe poner mayor énfasis en entender las variables que se van a pronosticar
y los factores que más las influyen.
Proyecto de investigación.
En general, en un proyecto de investigación se deben exponer claramente las siguientes
cuestiones: A) delimitación del problema a investigar (fundamentación de los objetivos y
de la hipótesis de trabajo, viabilidad de la solución del problema y sus posibles
consecuencias); B) elaboración del marco teórico (revisión de la bibliografía, especialmente
la más reciente debido al paso agigantado del progreso en todas las ciencias, y adopción de
una perspectiva teórica); C) especificación del tipo de investigación y del diseño (según se
trate de exploratoria, descriptiva, correlacional, experimental o cualitativa); D)
explicitación de la metodología (definición operacional de las variables independiente y
dependiente, neutralización de las posibles variables extrañas, niveles de medición
implícitos en las variables, formulación de la hipótesis, diseño muestral); y E) instrumentos
para la medición de las variables (especificar su confiabilidad y validez, recolección de los
datos según se trate de entrevistas, encuestas, "tests" o técnicas especificas de las distintas
especialidades).
Ahora bien, ningún pronóstico resulta de mayor calidad que la de los datos en que se basa.
Además, de nada sirve a menos que se lo utilice para mejorar la toma de decisiones y el
planeamiento. Una dificultad frecuente suele ser la falta de datos específicos suficientes
para iniciar la preparación de pronósticos. El armado de bases de datos lleva tiempo. Las
mejoras en predicción llegan lentamente, con la experiencia y a medida que se generan
mejores bases de datos. En cada caso, es menester ubicar las fuentes de información. En
general, es posible obtener una considerable información de datos publicados, tales como
las estadísticas de censos y los estudios de oportunidades o de recursos (por regiones o
sectores, realizados por organismos oficiales o entidades privadas, como las cámaras
empresariales). Aunque dichos datos rara vez vienen completos o suficientemente
desglosados, por lo común sirven como punto de partida. Investigar acerca de la
información existente es decisivo. Todo ello motivado por una convicción: entender el
pasado es primordial para predecir y mejorar el futuro.
¿Cuáles técnicas cuantitativas se usan más frecuentemente? ¿Por qué? En la práctica, sólo
parecen útiles aquellas técnicas de fácil comprensión, cuyos resultados se pueden
interpretar con rapidez y confianza. El atractivo intuitivo se debe tomar en cuenta para
elegir una técnica cuantitativa de predicción. Además, se ha demostrado con estudios
empíricos que la simplicidad de las técnicas no perjudica necesariamente la calidad de los
pronósticos, aunque sí baja el costo. Por ejemplo, para pronosticar gran número de ítems
de inventario parece conveniente usar una técnica basada en el modelo de series
temporales, pues requiere limitados datos históricos y poco tiempo de cálculo por
pronóstico. En cambio, tiene sentido utilizar una técnica basada en el modelo explicativo
para complementar esas predicciones. Por lo general, se tratan de utilizar los pronósticos
tanto como sea posible: A) para verificar la viabilidad y solidez de los planes, y/o B) como
un conjunto de supuestos básicos en el que se puedan fundamentar los planes, y/o C) como
componentes propiamente dichos de los planes (para fijar metas más sensatas y realistas).
Obviamente, pronósticos de mayor calidad permiten desarrollar planes de mayor calidad.
En la práctica, las tres primeras son las más ampliamente usadas de todas las técnicas de
predicción, en forma pareja a través de todos los horizontes temporales. Ahora bien, cada
ser humano es en sí mismo un sujeto multicultural. Tiene una historia, tradiciones,
conceptos sobre sí mismo y sobre los otros, y siempre -aunque a veces no aparezca
claramente- tiene una ética y conceptos políticos. Vivir es actuar con algún tipo de ética.
Además, todos los seres humanos están guiados por principios altamente abstractos (por
ejemplo, son constructivistas, postpositivistas, feministas, etc.; o tienen modelos étnicos,
sociales, culturales, etc.). Ante tal complejidad, es claro que no se deben despreciar las
dificultades provenientes de la interpretación de la realidad y de la comunicación entre las
personas. Además, cuenta la influencia de los estados anímicos y emocionales; por
ejemplo, el exceso de confianza puede introducir sesgos considerables en las estimaciones.
Para reducir esos sesgos y otras pérdidas, son usuales algunas técnicas auxiliares, que
permiten organizar el trabajo humano en equipos y facilitar el logro de consensos. Aún así,
son muchas las dificultades provenientes del uso de estas técnicas. La principal de todas en
ponderar correctamente cada estimación individual, según la información y el conocimiento
de cada persona, y/o su pericia para predecir el futuro. Claramente, explicar el pasado es
muy distinto a predecir el futuro. Debido a la disposición humana para dominar y controlar
el entorno donde actúa, la mayoría de las personas se suele equivocar percibiendo patrones
o relaciones ilusorias, que en realidad no existen. Otra dificultad reside en que las juntas
tienden a tomar decisiones con más riesgo que las personas a título individual, al disiparse
la responsabilidad. Con frecuencia, los miembros de los equipos de trabajo humano
tienden a apoyarse mutuamente y a unirse contra las amenazas externas, lo que también
afecta la calidad de la toma de decisiones de esas juntas, puesto que reduce la evaluación
crítica y limita la consideración de alternativas extrañas.
El experto estadounidense Nicholas Negroponte, autor del libro "Ser Digital", ha dicho:
"¿De dónde vienen las buenas ideas? Muy simple... de la diversidad. La creatividad surge
de las yuxtaposiciones más increíbles. La mejor forma de maximizar la diversidad es
mezclar edades, culturas y disciplinas." Hasta donde se sabe, el florentino Leonardo da
Vinci fue el último erudito que conoció toda la ciencia y el arte de una época, como pintor,
escultor, músico, escritor, y también como arquitecto, físico e ingeniero. Hoy, más que
nunca antes, se requiere de la multiculturalidad y de la multidisciplinariedad para tratar la
complejidad de cualquier situación real. Se considera que cada miembro de una junta de
opinión puede aportar un nuevo enfoque, una mirada distinta de la realidad, desde otra
perspectiva; por lo tanto, las ideas no se excluyen las unas a las otras, sino que es posible
integrarlas. Particularmente, los puntos de vista filosóficos están muy ligados a cada
persona, a su humanidad, a su manera de experimentar la vida. Vale precisar que la ciencia
se demuestra; mientras que la filosofía se vive. La ciencia explica; mientras que la filosofía
busca un sentido para la vida, para la ciencia y para todo lo que hacen los seres humanos.
Por medio de la filosofía se aclaran las proposiciones; por medio de la ciencia, se verifican.
Filosofar es la actividad que consiste en estudiar las proposiciones, para distinguir aquellas
con sentido (que puedan ser experimentadas, para comprobar su veracidad o falsedad).
Actualmente, para extraer al máximo las oportunidades de mejora que ofrecen los
problemas, es primordial su consideración de manera grupal. También, las mejores
estimaciones provienen de la combinación de más de un juicio u opinión individual.
Surgen de mezclas creativas y sinérgicas de varias posibilidades, alcanzadas a través de la
consulta, la interpretación y la combinación de distintos juicios individuales. Cuando ello
se logra hacer sistemáticamente, entonces es posible desarrollar estimaciones sobre bases
firmes. Para conseguirlo, los miembros de las juntas de opinión deben centrar su atención
en las distinciones, hasta lograr una completa comprensión de todas las posiciones (antes
que pretender imponer alguna en particular). Así, la diversidad de opiniones puede servir
para estimular el raciocinio crítico, a la vez que aumentar la comprensión y vigorizar el
tratamiento de las situaciones. Como contrapartida, también pueden surgir grupos
polarizados, o alianzas en apoyo de distintas posiciones, dando lugar a nocivas
consecuencias, con eventuales ganadores y perdedores. Sobre todo si los miembros de las
juntas utilizan esas ocasiones para tratar antagonismos personales, antes que ocuparse
objetivamente de los temas en cuestión, con más predisposición al conflicto que al acuerdo.
La confrontación a ultranza atenta contra la creatividad.
En las juntas de opinión importa discutir sobre los diversos juicios y, aún más, sobre los
intereses afectados por esas opiniones, o vinculados con las mismas. Claro que siempre
surgen juicios individuales divergentes; igualmente, siempre hay intereses divergentes. En
cualquier caso, tiene más sentido comprenderlos y absorber su aporte, que refutarlos. En
muchas empresas japonesas es usual la toma de decisiones por consenso, y raramente
someten las decisiones a votación, con la finalidad de evitar ganadores y perdedores. La
toma de decisiones por consenso es posible a partir de cierta preparación previa del terreno,
donde los componentes puedan acercar posiciones. Es lo que se denomina preparar el
terreno [[nemawashi]]; expresión que proviene de la jardinería y alude al cuidado
necesario para evitar que las plantas sufran daño en el trasplante. A su semejanza, es
posible desarrollar consensos entre muchos componentes, afectados por múltiples intereses.
Negociando uno a uno; realizando múltiples y sucesivas reuniones, de manera de allanar los
disensos iniciales, hasta obtener los acuerdos previos que posibilitan alcanzar un consenso
final. No se trata de "arreglar" las decisiones, sino de una manera de discernimiento
gradual que le permite a cada miembro de la junta ir modificando su postura individual en
beneficio de alguna posición más compartida, hasta que todos la puedan aceptar, aunque
sea mínimamente. Por lo común, dicha preparación es realizada por el responsable de la
junta, quien escucha a los distintos miembros, y les acerca ideas unificadoras hasta
encontrar un principio de consenso. Tampoco se trata meramente de que cada miembro
ceda algo para alcanzar el consenso, sino de abrir la mente a ideas distintas.
Del disenso y del debate siempre surgen nuevas ideas (el disenso, lo mismo que la negación
o la contradicción, ayuda a desarrollar las personas, no las anula, sino que las hace crecer).
El consenso se descubre cuando los miembros de la junta están dispuestos a explorar y
entender las diversas ideas, a aceptar y apoyar las opciones comunes. Por ejemplo, cuando
todos los miembros pueden decir "mi opinión ha sido escuchada; personalmente, tal vez no
prefiera esta decisión, pero puedo apoyarla". En cambio, no es consenso un acuerdo total o
unánime, ni cuando cada uno de los miembros de la junta obtiene todo lo que desea, ni
tampoco cuando predomina la opinión de un miembro y se le exige al resto su acuerdo.
Disentir es casi siempre lo más fácil. Captar a fondo la raíz de un pensamiento ajeno,
usualmente cuesta mucho más esfuerzo. Cada pensamiento responde a algún interés,
persigue una finalidad, se orienta en una dirección. Y eso es lo que se debe preguntar cada
miembro.
En los equipos de trabajo humano altamente efectivos, los intereses comunes prevalecen
sobre los intereses individuales. Ante cada situación, cada miembro contribuye con el
conocimiento que posee, y así todos pueden ampliar su comprensión. Para alcanzar los
beneficios potenciales y reducir los riesgos asociados en la búsqueda de consensos, es
necesario una cuidadosa gestión de la diversidad de opiniones, teniendo en cuenta: A)
aclarar todos los puntos de vista, B) respetar todas las opiniones y valorar las distinciones,
C) identificar los tópicos donde haya acuerdos, D) también identificar aquellos donde
existan desacuerdos, E) encontrar las causas de fondo de dichos desacuerdos, F) referir
hechos y usar datos de la realidad, siempre que sea posible, y G) dar tiempo suficiente para
el análisis y la reflexión. En las decisiones por consenso se trata de preservar la
individualidad e integrarla en el grupo. Se entiende que es equivocado demandar que las
personas se subordinen al grupo o que disuelvan su singularidad en él, porque es a través de
sus individuos más maduros que los equipos de trabajo humano progresan, y aquellos sólo
pueden avanzar si son libres, si pueden elegir libremente. No obstante, también es
necesario que prevalezca un cierto sentido del todo y de la armonía.
Se ha demostrado las personas cometen a menudo los mismos errores, tanto en el modo en
que buscan información para formular hipótesis acerca de alguna regla generadora, como
en la manera en que intentan confirmar las mismas. Parece ser que la mayoría de las veces
sólo buscan evidencias para confirmar sus hipótesis, que antes han formulado
prejuiciosamente, en lugar de buscar evidencias para desaprobarlas (única manera de
asegurar que una hipótesis es correcta). En general, las personas tienden a:
Confiar más en los datos que están más a mano o son de más fácil comprensión.
Recordar y ponderar más aquellos casos vividos más intensa o recientemente (a
veces, un sólo evento negativo inmediato oculta toda una trayectoria).
Ignorar la información inconsistente con el pensamiento existente (hipótesis
anteriores), soslayando o ignorando cualquier dato que no "encaje".
Confiar más en la evidencia puntual concreta (como ser la opinión de un cliente
valioso) que en la información abstracta, aún cuando pueda ser más completa y
representativa.
Pasar por alto los supuestos en gráficos o cuadros de datos.
No percibir omisiones en cosas o fenómenos importantes (dificultad para ver lo
que no está).
Considerar más probables aquellos resultados preferidos o esperados.
Con frecuencia, se soslayan aspectos importantes que hacen al éxito de las reuniones de
trabajo, tales como:
Lista de asistencia, indicando quiénes deben concurrir y, eventualmente, las suplencias.
Agenda previa, detallando el lugar de reunión, la hora de comienzo y de finalización, y
los temas a tratar. En ocasiones, se acompaña una breve reseña o "ayudamemoria"
acerca del tratamiento de los temas.
Coordinación, frecuentemente ejercida por quien convoca, compatibilizando horarios y
posibilidades de los asistentes. El coordinador es también quien ordena el debate,
asignando el uso de la palabra y regulando los tiempos y la secuencia de temas tratados.
Preparación previa, por parte de cada asistente, en cuanto a los temas objeto de
tratamiento. En principio, una reunión se justifica cuando la actividad ejercida requiere
de la presencia conjunta y simultánea de todos los asistentes, y no se debe emplear en
tareas que cada uno, individualmente, pueda realizar antes de la misma.
Puntualidad, como valor respetuoso del tiempo del prójimo y de la empresa, tanto en el
inicio como en la finalización de la reunión.
Logística, proveyendo con antelación los elementos de trabajo necesarios: espacio
necesario, papeles, copias, referencias, rotafolio, pizarra, proyector, etc.
Minuta o acta, elaborada luego de la reunión por el coordinador y dada a conocer
posteriormente a quienes han asistido, para su conformidad. En este informe se
consignan las diferentes opiniones, intervenciones y aportes de los asistentes, seguidas
de las conclusiones y/o decisiones tomadas.
Además, cada uno de los asistentes debe estar dispuesto a escuchar sin prejuicios al
prójimo, comprendiendo sus razones y asumiendo como propio el esquema presentado.
Sólo luego de interpretar cabalmente cada una de las ideas, es posible asociarlas,
combinarlas y/o resumirlas en una única, mejor que aquellas en forma aislada.
El diagrama árbol permite visualizar las estrategias (concebidas con distintos grados de
detalle, o atinentes a distintos ámbitos) para lograr un objetivo determinado. La técnica,
también llamada dendrograma, fue originalmente desarrollada para el análisis de valor. Al
comienzo, se escribe el objetivo sobre una "tarjeta de objetivo" (por ejemplo, alcanzar el
10% de rentabilidad, terminar el estudio antes de fin de año) y, también, se listan las
restricciones u observaciones especiales. Dicha tarjeta se ubica en un borde de la pizarra o
la mesa utilizada. A continuación, se generan unas pocas (usualmente, dos a cuatro)
estrategias para alcanzar tal objetivo. Se consignan en sendas "tarjetas de medio primario",
y se ubican cerca de la primera, vinculadas mediante líneas. Luego, se generan las
estrategias necesarias para obtener cada medio primario, y se consignan en sendas "tarjetas
de medio secundario", también vinculadas mediante líneas con las anteriores. Así, se
prosigue con los niveles de medio terciario, medio cuaternario, etc., obteniendo finalmente
un conjunto de estrategias a desarrollar para alcanzar el objetivo originalmente planteado.
En la Figura 9.h se representa un ejemplo de utilización de este diagrama ante un objetivo
de aumentar la venta.
De acuerdo con la experiencia, la única forma de detectar los patrones de largo plazo es
empleando datos provenientes de largo plazo. Si no se dispone de series temporales largas,
no es posible hablar de largo plazo, ya que no es posible detectar si hay algún componente
cíclico en el patrón. Como se dijo, para identificar cambios en la tendencia es necesario
eliminar previamente la ciclicidad. En el caso de fenómenos económicos, tales datos
deberían abarcar un período de más de cien años, de manera de incluir al menos dos ciclos
de Kondratieff. Además, identificada una tendencia de largo plazo, no implica que no
pueda cambiar, lo que plantea otra dificultad adicional: estimar cualitativamente cómo y
cuándo podría cambiar. Por ejemplo, a pesar de contar con censos de decenios, y aún de
siglos en algunos países, hoy es imposible determinar con certeza la tasa de crecimiento de
la población en una región. Sequías prolongadas, plagas o cataclismos, pueden provocar
hambre, mortandad o emigración, con el consecuente quiebre de tendencias.
La técnica exploratoria constituye otra opción para desarrollar predicciones de largo plazo.
Parte del conocimiento de las políticas y los patrones históricos, y luego busca predecir qué
sucederá hacia adelante, y cuándo. Por caso, la teoría social de la invención, de William
Ogburn, establece que la necesidad de satisfacer funciones sociales condiciona la
orientación de la tecnología. O sea, debido a que las necesidades de alimentos de la
humanidad son finitas, entonces se puede predecir que a la larga serán satisfechas. Ello
atenuará el crecimiento de la demanda de mercaderías agroindustriales, y traerá como
consecuencia un exceso de capacidad instalada de producción, semejante al existente hoy
en el sector agrícola primario. Mayormente, se podrán ganar ventajas competitivas
desarrollando nuevos productos+servicios, satisfaciendo nuevas necesidades y deseos.
Ante tal perspectiva, la identificación de nuevos mercados y la introducción de novedades
serán cruciales para evitar la saturación de dicho negocio. Es probable que las actividades
relacionadas requieran grandes presupuestos de investigación y desarrollo, fuertes
inversiones en sistemas de producción de alta tecnología y grandes gastos en publicidad,
estimulando -según esa perspectiva- una mayor presencia de grandes productores capaces
de controlar esos recursos y dispuestos a correr los riesgos futuros. Ante tal globalización y
concentración, se plantea un gran dilema: los grandes productores, y su creciente entropía,
contra la iniciativa y agilidad de los pequeños productores, capaces de vencer más
fácilmente las dificultades de las grandes estructuras.
El científico Ilya Prigogine, ganador del Premio Nobel de Química en 1997, también ha
afirmado: "El futuro no está determinado, porque habrá acontecimientos cuyos resultados
no se pueden predecir." La discontinuidad de la historia enseña que el concepto de
acontecimiento ha sido fundamental (por ejemplo, la destrucción de las Torres Gemelas en
Nueva York, EE.UU. de América, en 2001, o el "cacerolazo" popular a fines del mismo año
en Buenos Aires, Argentina, constituyeron rupturas en el curso de la historia). La ciencia
moderna ha permitido una comprensión más profunda del mecanismo de los
acontecimientos. En física o química, están asociados a las bifurcaciones. Según parece, es
la forma de elección de la naturaleza: dentro de ciertos límites el futuro puede ir por un
camino o por otro. Al observar un ecosistema a lo largo del tiempo, pueden aparecer
situaciones en las que su trayectoria se vuelve cada vez más inestable y, finalmente, se
descompone en una multiplicidad de trayectorias nuevas. Cuál de esas ramas resulta
elegida es una cuestión de probabilidades. También la historia humana puede ser vista
como una sucesión de bifurcaciones. Y, según el citado científico, la especie humana se
está acercando a una bifurcación relacionada con la explosión de la tecnología de la
información.
¿Se comportará la "sociedad interconectada" como una gran colonia de hormigas o como
una civilización de personas libres? Al crecer la población mundial, aumentan las
posibilidades de fluctuaciones no lineales -elecciones individuales- porque cada vez hay
más actores. Pero, por otra parte, conforme la población se interconecta más y más, se
puede generar el efecto contrario: hay más posibilidades de que los imperativos de la
sociedad interconectada se impongan sobre la facultad individual de hacer elecciones.
Cuanto más se entiende la conformación del Universo, se encuentran más aspectos
comunes con las sociedades humanas. En la Naturaleza, hasta las partículas más diminutas
se organizan desde un aparente desorden, y una sola partícula puede modificar todo un
metasistema. Así como en la Naturaleza, a pesar de la globalización, la concentración y la
revolución informática, el comportamiento individual sería la explicación de la evolución
de toda la especie humana.
Según el filólogo y pensador italiano Umberto Eco: "El progreso tecnológico, al hacer el
Mundo una gran aldea intercomunicada, no engendra más moral, pero sí bastante más
responsabilidad. Tengo información, datos precisos, imágenes, testimonios, sobre el
hambre y las muertes en algún recóndito lugar y me siento responsable, pero no tengo
eficacia, no puedo hacer nada, o casi nada. Eso me hace sentir mal. Me siento impotente
y angustiado frente a la dicotomía entre la responsabilidad y la posibilidad de reacción
eficaz sobre los acontecimientos más remotos del Mundo... El progreso tecnológico ha
agudizado, pues, mi sensibilidad moral, ha ampliado mi responsabilidad, ha aumentado
mis posibilidades, ha dramatizado mi impotencia." Se entiende que el libre albedrío de los
seres humanos ha tenido, tiene y tendrá un papel primordial en la historia de la humanidad.
Nadie está predeterminado. Las conductas humanas no son tanto provocadas por fuerzas
instintivas, ni por fuerzas externas (normas culturales y estructuras sociales), sino que son
principalmente el resultado de la reflexión interpretativa personal -íntima- de los
significados derivados socialmente. Los seres humanos están continuamente interpretando
y reinterpretando todas las situaciones que viven, conceptualizando y reconceptualizando, y
consecuentemente su percepción va cambiando. La interacción es crucial en dicho proceso.
Campo Tema
Año
Naturaleza Desarrollo de tecnología capaz de prever, con una antelación
de varios días, la ocurrencia de grandes terremotos.
2024
Servicios Avances para desechar materiales en desuso, capaces de
reducir al 10% el volumen de vertido final de desechos.
2015
Energía Disposición de manera segura de residuos sólidos altamente
radiactivos.
2021
Salud Identificación y clasificación por etiología molecular de los
genes relacionados con la arteroesclerosis, la hipertensión y
la diabetes.
2013
Medios efectivos para prevenir la metástasis del cáncer.
2017
Comunicaciones Expansión de una red de comunicaciones de alta fiabilidad,
apropiada para proteger la privacidad.
2010
Entorno para la utilización ilimitada de redes de alta
circulación (150 Mbps) a costo accesible.
2009
Biotecnología Desarrollo de técnicas para descubrir nuevas funciones de la
secuencia del ADN.
2009
Espacio Expedición tripulada a Marte.
2025
Transporte Conducción automática en autopistas y rutas, prefijando
el destino deseado.
2017
Robótica Desarrollo de robots con funciones pseudohumanas y
competencia de decisión.
2025
Electrónica Uso práctico de la tecnología para producir en masa
circuitos electrónicos, con dimensiones de patrón mínimo
unos 10nm.
2015