Vous êtes sur la page 1sur 15

INTRODUCCION

La estadística y la probabilidad son materias que al hombre le han interesado por su


importancia en diferentes campos como la ciencia, el azar, etc.

En la Ingeniería Civil, la probabilidad y la estadística influyen considerablemente, puesto


que debemos tomar las mejores decisiones si no que la mejor, ya que de nosotros
dependen muchas vidas, por lo que es necesario tener las herramientas necesarias para
saber el comportamiento o saber que es más probable al hacer o no hacer determinada
acción dentro de la construcción, o saber hacia donde tienden algunos comportamientos
que son comunes cuando se desea hacer una construcción y poder interpretar lo que éstos
nos arroja para saber el comportamiento de los datos que tengamos después de hacer una
investigación.

En el campo de la informática, robótica o redes, que son temas principales en Tecnologías


de Información o Ingeniería en Computación y Sistemas, la probabilidad nos puede
ayudar a saber el comportamiento de una red, por ejemplo, ya que mediante un análisis
del flujo de los datos en la red (datos) podemos darnos cuenta que es lo que pasa y que es
lo más probable que llegara a pasar si pasara determinado evento.

Es por eso que hemos decidido hacer una herramienta que nos ayude a resolver
problemas sencillos en base a los temas vistos en clase como proyecto final para ésta
materia y poder unir los conocimientos que hasta ahora tenemos de cada una de nuestras
carreras, Probabilidad y Estadística.

Este proyecto nos permitirá reforzar mejor nuestros conocimientos en cada una de las
áreas de conocimiento que atañe a nuestras respectivas carreras, y al finalizar nos
permitirá reflexionar si es o no importante para nosotros en nuestras futuras y actuales
vidas como profesionales y estudiantes.
OBJETIVO

El objetivo principal del proyecto es, mediante conocimientos de programación y de la


materia que estamos cursando, desarrollar un software que implemente herramientas de
Probabilidad y Estadística para que se puedan resolver problemas sencillos de cualquier
área, y lo enfocaremos en un problema que se objeto de análisis de un ingeniero civil, con
lo que podremos demostrar una situación cotidiana de la oferta que puede dar un
ingeniero en computación en sistemas o un licenciado en tecnologías de información a
cualquier persona que desee resolver cualquier problema como un ingeniero civil,
dirigido a algún problema cotidiano que sea objeto de análisis para un ingeniero civil. Y
con esto nuestro compañero de Ingeniería Civil resolverá como manera de ejemplo un
problema que él considere propio de se ámbito de trabajo.

A grandes rasgos nuestros objetivos son:


 Resolver problemas de Estadística Descriptiva
 Resolver problemas de Probabilidad
 Nos proporcionará información básica de la materia en estudio.
 El programa desde un principio está dirigido a resolver problemas de Estadística
Descriptiva mediante el estudio de datos que serán dados por el usuario, por lo
que como un objetivo extra nos hemos propuesto que resuelva problemas
sencillos de Probabilidad, pero que quedará a cargo del usuario hacer sus debidas
interpretaciones.
 Otro objetivo del proyecto incluye un problema de ingeniería civil que puede ser
resuelto por el software para que se pueda poner a prueba el funcionamiento del
programa y se pueda resolver el problema en el día de exposición en la clase.
 Un punto importante del proyecto es incluir un manual de usuario para que
cualquier persona pueda hacer uso del programa sin ninguna complicación
 Y que puede ser implementado en cualquier problema de cualquier área de
estudio.
MARCO TEORICO

La Estadística es mucho más que sólo números apilados y gráficas bonitas. Es una
ciencia con tanta antigüedad como la escritura, y es por sí misma auxiliar de todas las
demás ciencias. Los mercados, la medicina, la ingeniería, los gobiernos, etc. Se nombran
entre los más destacados clientes de ésta.

La ausencia de ésta conllevaría a un caos generalizado, dejando a los administradores y


ejecutivos sin información vital a la hora de tomar decisiones en tiempos de
incertidumbre.

La Estadística que conocemos hoy en día debe gran parte de su realización a los trabajos
matemáticos de aquellos hombres que desarrollaron la teoría de las probabilidades, con la
cual se adhirió a la Estadística a las ciencias formales.

En este breve material se expone los conceptos, la historia, la división así como algunos
errores básicos cometidos al momento de analizar datos Estadísticos.

Definición de Estadística

La Estadística es la ciencia cuyo objetivo es reunir una información cuantitativa


concerniente a individuos, grupos, series de hechos, etc. y deducir de ello gracias al
análisis de estos datos unos significados precisos o unas previsiones para el futuro.

La estadística, en general, es la ciencia que trata de la recopilación, organización


presentación, análisis e interpretación de datos numéricos con e fin de realizar una toma
de decisión más efectiva.

Otros autores tienen definiciones de la Estadística semejantes a las anteriores, y algunos


otros no tan semejantes. Para Chacón esta se define como “la ciencia que tiene por
objeto el estudio cuantitativo de los colectivos”; otros la definen como la expresión
cuantitativa del conocimiento dispuesta en forma adecuada para el escrutinio y análisis.
La más aceptada, sin embargo, es la de Minguez, que define la Estadística como “La
ciencia que tiene por objeto aplicar las leyes de la cantidad a los hechos sociales para
medir su intensidad, deducir las leyes que los rigen y hacer su predicción próxima”.

Historia de la Estadística

Los comienzos de la estadística pueden ser hallados en el antiguo Egipto, cuyos faraones
lograron recopilar, hacia el año 3050 antes de Cristo, prolijos datos relativos a la
población y la riqueza del país. De acuerdo al historiador griego Heródoto, dicho registro
de riqueza y población se hizo con el objetivo de preparar la construcción de las
pirámides. En el mismo Egipto, Ramsés II hizo un censo de las tierras con el objeto de
verificar un nuevo reparto.
En el antiguo Israel la Biblia da referencias, en el libro de los Números, de los datos
estadísticos obtenidos en dos recuentos de la población hebrea. El rey David por otra
parte, ordenó a Joab, general del ejército hacer un censo de Israel con la finalidad de
conocer el número de la población.

También los chinos efectuaron censos hace más de cuarenta siglos. Los griegos
efectuaron censos periódicamente con fines tributarios, sociales (división de tierras) y
militares (cálculo de recursos y hombres disponibles). La investigación histórica revela
que se realizaron 69 censos para calcular los impuestos, determinar los derechos de voto
y ponderar la potencia guerrera.

Pero fueron los romanos, maestros de la organización política, quienes mejor supieron
emplear los recursos de la estadística. Cada cinco años realizaban un censo de la
población y sus funcionarios públicos tenían la obligación de anotar nacimientos,
defunciones y matrimonios, sin olvidar los recuentos periódicos del ganado y de las
riquezas contenidas en las tierras conquistadas. Para el nacimiento de Cristo sucedía uno
de estos empadronamientos de la población bajo la autoridad del imperio.

Durante los mil años siguientes a la caída del imperio Romano se realizaron muy pocas
operaciones Estadísticas, con la notable excepción de las relaciones de tierras
pertenecientes a la Iglesia, compiladas por Pipino el Breve en el 758 y por Carlomagno
en el 762 DC. Durante el siglo IX se realizaron en Francia algunos censos parciales de
siervos. En Inglaterra, Guillermo el Conquistador recopiló el Domesday Book o libro del
Gran Catastro para el año 1086, un documento de la propiedad, extensión y valor de las
tierras de Inglaterra. Esa obra fue el primer compendio estadístico de Inglaterra.

Durante el siglo XVII y principios del XVIII, matemáticos como Bernoulli, Francis
Maseres, Lagrange y Laplace desarrollaron la teoría de probabilidades. No obstante
durante cierto tiempo, la teoría de las probabilidades limitó su aplicación a los juegos de
azar y hasta el siglo XVIII no comenzó a aplicarse a los grandes problemas científicos.

Godofredo Achenwall, profesor de la Universidad de Gotinga, acuñó en 1760 la palabra


estadística, que extrajo del término italiano statista (estadista). Creía, y con sobrada
razón, que los datos de la nueva ciencia serían el aliado más eficaz del gobernante
consciente. La raíz remota de la palabra se halla, por otra parte, en el término latino
status, que significa estado o situación; Esta etimología aumenta el valor intrínseco de la
palabra, por cuanto la estadística revela el sentido cuantitativo de las más variadas
situaciones. Entretanto, en el período del 1800 al 1820 se desarrollaron dos conceptos
matemáticos fundamentales para la teoría Estadística; la teoría de los errores de
observación, aportada por Laplace y Gauss; y la teoría de los mínimos cuadrados
desarrollada por Laplace, Gauss y Legendre. A finales del siglo XIX, Sir Francis Gaston
ideó el método conocido por Correlación, que tenía por objeto medir la influencia relativa
de los factores sobre las variables. De aquí partió el desarrollo del coeficiente de
correlación creado por Karl Pearson y otros cultivadores de la ciencia biométrica como J.
Pease Norton, R. H. Hooker y G. Udny Yule, que efectuaron amplios estudios sobre la
medida de las relaciones.
Los progresos más recientes en el campo de la Estadística se refieren al ulterior desarrollo
del cálculo de probabilidades, particularmente en la rama denominada indeterminismo o
relatividad, se ha demostrado que el determinismo fue reconocido en la Física como
resultado de las investigaciones atómicas y que este principio se juzga aplicable tanto a
las ciencias sociales como a las físicas.

Etapas de Desarrollo de la Estadística

La historia de la estadística está resumida en tres grandes etapas o fases.

1.- Primera Fase: Los Censos:


Desde el momento en que se constituye una autoridad política, la idea de
inventariar de una forma más o menos regular la población y las riquezas
existentes en el territorio está ligada a la conciencia de soberanía y a los primeros
esfuerzos administrativos.

2.- Segunda Fase: De la Descripción de los Conjuntos a la Aritmética Política:


Las ideas mercantilistas extrañan una intensificación de este tipo de investigación.
Colbert multiplica las encuestas sobre artículos manufacturados, el comercio y la
población: los intendentes del Reino envían a París sus memorias. Vauban, más
conocido por sus fortificaciones o su Dime Royale, que es la primera propuesta de
un impuesto sobre los ingresos, se señala como el verdadero precursor de los
sondeos. Más tarde, Bufón se preocupa de esos problemas antes de dedicarse a la
historia natural.

La escuela inglesa proporciona un nuevo progreso al superar la fase puramente


descriptiva. Sus tres principales representantes son Graunt, Petty y Halley. El
penúltimo es autor de la famosa Aritmética Política.

Chaptal, ministro del interior francés, publica en 1801 el primer censo general de
población, desarrolla los estudios industriales, de las producciones y los cambios,
haciéndose sistemáticos durantes las dos terceras partes del siglo XIX.

3.- Tercera Fase: Estadística y Cálculo de Probabilidades:


El cálculo de probabilidades se incorpora rápidamente como un instrumento de
análisis extremadamente poderoso para el estudio de los fenómenos económicos y
sociales y en general para el estudio de fenómenos “cuyas causas son demasiados
complejas para conocerlos totalmente y hacer posible su análisis”.

División de la Estadística

La Estadística para su mejor estudio se ha dividido en dos grandes ramas: la Estadística


Descriptiva y la Inferencial.
Estadística Descriptiva: consiste sobre todo en la presentación de datos en forma de
tablas y gráficas. Esta comprende cualquier actividad relacionada con los datos y está
diseñada para resumir o describir los mismos sin factores pertinentes adicionales; esto es,
sin intentar inferir nada que vaya más allá de los datos, como tales.

Estadística Inferencial: se deriva de muestras, de observaciones hechas sólo acerca de una


parte de un conjunto numeroso de elementos y esto implica que su análisis requiere de
generalizaciones que van más allá de los datos. Como consecuencia, la característica más
importante del reciente crecimiento de la estadística ha sido un cambio en el énfasis de
los métodos que describen a métodos que sirven para hacer generalizaciones. La
Estadística Inferencial investiga o analiza una población partiendo de una muestra
tomada.

Método Estadístico

El conjunto de los métodos que se utilizan para medir las características de la


información, para resumir los valores individuales, y para analizar los datos a fin de
extraerles el máximo de información, es lo que se llama métodos estadísticos. Los
métodos de análisis para la información cuantitativa se pueden dividir en los siguientes
seis pasos:
1. 1. Definición del problema.
2. 2. Recopilación de la información existente.
3. 3. Obtención de información original.
4. 4. Clasificación.
5. 5. Presentación.
6. 6. Análisis.

Errores Estadísticos Comunes

Al momento de recopilar los datos que serán procesados se es susceptible de cometer


errores así como durante los cómputos de los mismos. No obstante, hay otros errores que
no tienen nada que ver con la digitación y que no son tan fácilmente identificables.
Algunos de estos errores son:
Sesgo: Es imposible ser completamente objetivo o no tener ideas preconcebidas antes de
comenzar a estudiar un problema, y existen muchas maneras en que una perspectiva o
estado mental pueda influir en la recopilación y en el análisis de la información. En estos
casos se dice que hay un sesgo cuando el individuo da mayor peso a los datos que apoyan
su opinión que a aquellos que la contradicen. Un caso extremo de sesgo sería la situación
donde primero se toma una decisión y después se utiliza el análisis estadístico para
justificar la decisión ya tomada.

Datos no comparables: el establecer comparaciones es una de las partes más importantes


del análisis estadístico, pero es extremadamente importante que tales comparaciones se
hagan entre datos que sean comparables.
Proyección descuidada de tendencias: la proyección simplista de tendencias pasadas
hacia el futuro es uno de los errores que más ha desacreditado el uso del análisis
estadístico.

Muestreo Incorrecto: en la mayoría de los estudios sucede que el volumen de información


disponible es tan inmenso que se hace necesario estudiar muestras, para derivar
conclusiones acerca de la población a que pertenece la muestra. Si la muestra se
selecciona correctamente, tendrá básicamente las mismas propiedades que la población
de la cual fue extraída; pero si el muestreo se realiza incorrectamente, entonces puede
suceder que los resultados no signifiquen nada.

Lenguaje C

C es un lenguaje de programación de propósito general que ofrece economía sintáctica,


control de flujo y estructuras sencillas y un buen conjunto de operadores. No es un
lenguaje de muy alto nivel y más bien un lenguaje pequeño, sencillo y no está
especializado en ningún tipo de aplicación. Esto lo hace un lenguaje potente, con un
campo de aplicación ilimitado y sobre todo, se aprende rápidamente. En poco tiempo, un
programador puede utilizar la totalidad del lenguaje.

Este lenguaje ha sido estrechamente ligado al sistema operativo UNIX, puesto que fueron
desarrollados conjuntamente. Sin embargo, este lenguaje no está ligado a ningún sistema
operativo ni a ninguna máquina concreta. Se le suele llamar lenguaje de programación de
sistemas debido a su utilidad para escribir compiladores y sistemas operativos, aunque de
igual forma se puede desarrollar cualquier tipo de aplicación.

La base del C proviene del BCPL, escrito por Martin Richards, y del B escrito por Ken
Thompson en 1970 para el primer sistema UNIX en un DEC PDP-7. Estos son lenguajes
sin tipos, al contrario que el C que proporciona varios tipos de datos. Los tipos que ofrece
son caracteres, números enteros y en coma flotante, de varios tamaños. Además se
pueden crear tipos derivados mediante la utilización de punteros, vectores, registros y
uniones. El primer compilador de C fue escrito por Dennis Ritchie para un DEC PDP-11
y escribió el propio sistema operativo en C.

C trabaja con tipos de datos que son directamente tratables por el hardware de la mayoría
de computadoras actuales, como son los caracteres, números y direcciones. Estos tipos de
datos pueden ser manipulados por las operaciones aritméticas que proporcionan las
computadoras. No proporciona mecanismos para tratar tipos de datos que no sean los
básicos, debiendo ser el programador el que los desarrolle. Esto permite que el código
generado sea muy eficiente y de ahí el éxito que ha tenido como lenguaje de desarrollo de
sistemas. No proporciona otros mecanismos de almacenamiento de datos que no sea el
estático y no proporciona mecanismos de entrada ni salida. Ello permite que el lenguaje
sea reducido y los compiladores de fácil implementación en distintos sistemas. Por
contra, estas carencias se compensan mediante la inclusión de funciones de librería para
realizar todas estas tareas, que normalmente dependen del sistema operativo.
Estructura básica de un programa en C

La mejor forma de aprender un lenguaje es programando con él. El programa más


sencillo que se puede escribir en C es el siguiente:

main( )

Como nos podemos imaginar, este programa no hace nada, pero contiene la parte más
importante de cualquier programa C y además, es el más pequeño que se puede escribir y
que se compile correctamente. En el se define la función main, que es la que ejecuta el
sistema operativo al llamar a un programa C.

Un programa C puede estar formado por diferentes módulos o fuentes. Es conveniente


mantener las fuentes de un tamaño no muy grande, para que la compilación sea rápida.
También, al dividirse un programa en partes, puede facilitar la legibilidad del programa y
su estructuración. Las diferentes fuentes son compiladas de forma separada, únicamente
las fuentes que han sido modificados desde la última compilación, y después combinados
con las librerías necesarias para formar el programa en su versión ejecutable.

Tipos básicos y variables

Los tipos de datos básicos definidos por C son caracteres, números enteros y números en
coma flotante. Los caracteres son representados por char, los enteros por short, int, long y
los números en coma flotante por float y double. Los tipos básicos disponibles y su tamaño son:

Char Carácter (normalmente 8 bits)

Short Entero corto con signo (normalmente 16 bits)

Int Entero con signo (depende de la implementación)

Unsigned Entero sin signo (depende de la implementación)

Long Entero largo con signo (normalmente 32 bits)

Float Flotante simple (normalmente 32 bits)

Double Flotante doble (normalmente 64 bits)


Las variables son definidas utilizando un identificador de tipo seguido del nombre de la
variable.

Funciones

Un programa C está formado por un conjunto de funciones que al menos contiene la


función main. Una función se declara con el nombre de la función precedido del tipo de
valor que retorna y una lista de argumentos encerrados entre paréntesis. El cuerpo de la
función está formado por un conjunto de declaraciones y de sentencias comprendidas
entre llaves. Veamos un ejemplo de utilización de funciones:

Expresiones y operadores

Los distintos operadores permiten formar expresiones tanto aritméticas como lógicas. Los
operadores aritméticos y lógicos son:

+, - suma, resta

++, -- incremento, decremento

*, /, % multiplicación, división, módulo

>>, << rotación de bits a la derecha, izquierda.

& AND booleano

| OR booleano

^ EXOR booleano

~ complemento a 1

! complemento a 2, NOT lógico

==, != igualdad, desigualdad

&&, || AND, OR lógico

<, <= menor, menor o igual


>, >= mayor, mayor o igual

Conversión de tipos

Cuando escribimos una expresión aritmética a+b, en la cual hay variables o valores de
distintos tipos, el compilador realiza determinadas conversiones antes de que evalúe la
expresión. Estas conversiones pueden ser para 'aumentar' o 'disminuir' la precisión del
tipo al que se convierten los elementos de la expresión. Un ejemplo claro, es la
comparación de una variable de tipo int con una variable de tipo double. En este caso, la

Una variable o expresión de un tipo se puede convertir explícitamente a otro tipo,


anteponiéndole el tipo entre paréntesis.

Control de flujo

Sentencia if

La sentencia de control básica es if (<e>) then <s> else <t>. En ella se evalúa una
expresión condicional y si se cumple, se ejecuta la sentencia s; si no, se ejecuta la
sentencia t. La segunda parte de la condición, else <t>, es opcional.

En el caso que <e> no sea una expresión condicional y sea aritmética, se considera falso
si vale 0; y si no, verdadero. Hay casos en los que se deben evaluar múltiples condiciones
y únicamente se debe evaluar una de ellas.

Sentencia switch

Se puede programar con un grupo de sentencias if then else anidadas, aunque ello puede
ser farragoso y de complicada lectura. Para evitarlo nos puede ayudar la sentencia switch.

Sentencia while

Otras sentencias de control de flujo son las que nos permiten realizar iteraciones sobre un
conjunto de sentencias. En C tenemos tres formas principales de realizar iteraciones. La
sentencia while (<e>) <s> es seguramente la más utilizada. La sentencia, o grupo de

Una variación de la sentencia while es: do <s> while ( <e> ); En ella la sentencia se
ejecuta al menos una vez, antes de que se evalúe la expresión condicional.

Sentencia for

Otra sentencia iterativa, que permite inicializar los controles del bucle es la sentencia for
( <i>; <e>; <p> ) <s>. La sentencia for se puede escribir también como:

Break y Continue
Otras sentencias interesantes, aunque menos utilizadas son break y continue. break
provoca que se termine la ejecución de una iteración o para salir de la sentencia switch,
como ya hemos visto. En cambio, continue provoca que se comience una nueva iteración,
evaluándose la expresión de control.

Definición y prototipos de funciones

Los programas sencillos, como los ejemplo planteados hasta ahora, normalmente no
necesitan un nivel de estructuración elevado. Pero cuando éstos crecen un poco
necesitamos estructurarlos adecuadamente para mantenerlos legibles, facilitar su
mantenimiento y para poder reutilizar ciertas porciones de código. El mecanismo C que
nos permite esto son las funciones. Con los compiladores, los fabricantes nos
proporcionan un conjunto importante de funciones de librería. A veces, nos puede
interesar construir nuestras propias librerías. Ya hemos utilizado funciones, pero veamos
cómo debemos definirlas.

Los prototipos de funciones son una característica clave de la recomendación ANSI del
C. Un prototipo es una declaración que toma la forma:

Observando el prototipo de una función podemos decir exactamente que tipo de


parámetros necesita y que resultado devuelve. Si una función tiene como argumento void,
quiere decir que no tiene argumentos, al igual que si el resultado es void, no devuelve
ningún valor.

Construcción de tipos

Un vector es una porción de memoria que es utilizada para almacenar un grupo de


elementos del mismo tipo Un vector se declara: tipo nombre [tamaño]

Cada elemento de un vector es accedido mediante un número de índice y se comporta


como una variable del tipo base del vector. Los elementos de un vector son accedidos por
índices que van desde 0 hasta N-1 para un vector de N elementos. Los elementos de un

También podemos definir vectores multidimensionales. C no impone ninguna limitación


al número de dimensiones de un vector. Existe, en cambio, la limitación del tamaño de
memoria que podamos utilizar en nuestro ordenador. Por ejemplo, para la declaración de
un vector multidimensional podemos escribir:

Un tipo vector muy utilizado es la cadena de caracteres (string). Si queremos asignar


espacio para un string podemos hacer:

Un registro agrupa distintos tipos de datos en una misma estructura.

Ámbito de funciones y variables.


En C, el ámbito de las variables depende de dónde han sido declaradas y si se les ha
aplicado algún modificador. Una variable definida en una función es, por defecto, una
variable local. Esto es, que sólo existe y puede ser accedida dentro de la función. Para
que una variable sea visible desde una función cualquiera de la misma fuente debe
declararse fuera de cualquier función. Esta variable sólo será visible en las funciones
definidas después de su declaración. Por esto, el lugar más común para definir las
variables globales es antes de la definición de ninguna función. Por defecto, una variable
global es visible desde otra fuente. Para definir que existe una variable global que está
definida en otra fuente tenemos que anteponer la palabra extern a su declaración. Esta
declaración únicamente indica al compilador que se hará referencia a una variable
declarada en un módulo distinto al que se compila.

Punteros

Cada variable de un programa tiene una dirección en la memoria del ordenador. Esta
dirección indica la posición del primer byte que la variable ocupa. En el caso de una
estructura es la dirección del primer campo. En los ordenadores actuales la dirección de
inicio se considera la dirección baja de memoria. Como en cualquier caso las variables
son almacenadas ordenadamente y de una forma predecible, es posible acceder a estas y
manipularlas mediante otras variables que contenga su dirección. A este tipo de variables
se les denomina punteros.

Los punteros C son el tipo más potente y seguramente la otra clave del éxito del lenguaje.
La primera ventaja que obtenemos de los punteros es la posibilidad que nos dan de poder
tratar con datos de un tamaño arbitrario sin tener que moverlos por la memoria. Esto
puede ahorrar un tiempo de computación muy importante en algunos tipos de
aplicaciones. También permiten que una función reciba y cambie el valor de una variable.
Recordemos que todas las funciones C únicamente aceptan parámetros por valor.
Mediante un puntero a una variable podemos modificarla indirectamente desde una
función cualquiera.

Funciones de entrada/salida.

En este apartado y los siguientes vamos a ver algunas de las funciones más importantes
que nos proporcionan las librerías definidas por ANSI y su utilización. Como hemos visto
hasta ahora, el lenguaje C no proporciona ningún mecanismo de comunicación ni con el
usuario ni con el sistema operativo. Ello es realizado a través de las funciones de librería
proporcionadas por el compilador.

El fichero de declaraciones que normalmente más se utiliza es el stdio.h. Vamos a ver


algunas funciones definidas en él.

Una función que ya hemos utilizado y que, ella y sus variantes, es la más utilizadas para
la salida de información es printf. Esta permite dar formato y enviar datos a la salida
estándar del sistema operativo.
Otra función similar a printf pero para la entrada de datos es scanf. Esta toma los datos de
la entrada estándar del sistema operativo. En este caso, la lista de argumentos debe estar
formada por punteros, que indican dónde depositar los valores.

CONCLUSIÓN

La Estadística es la ciencia que más aporta en la toma de decisiones en todos los ámbitos
gerenciales. Desde el poder ejecutivo hasta los “draft’s” deportivos, la Estadística juega
su papel a la hora de hacer cualquier movimiento.

Las Estadística, por otro lado, si no se sabe manejar con cautela puede generar resultados
falaces que podrían a su vez llevar a la toma de decisiones erradas. Por consiguiente se
recomienda un estudio pleno y científico de la materia a fin de que quien utilice sus
servicios pueda hacerlo de manera objetiva y con resultados satisfactorios.

Hoy en día es imposible pensar en instituciones que manejan ciertos volúmenes de datos
e informaciones y que no utilicen sus herramientas para verificación, planeación y
seguimiento de políticas, estudios de factibilidades, etc.

Otras conclusiones que llegamos a lo largo de este periodo de clases y muy


particularmente en cada uno de los integramos este equipo que de una u otra forma
nuestras carreras se encuentran relacionadas a este tema, y por lo que se pudo demostrar
en este proyecto.

En el caso de Ingeniería Civil, es muy importante, ya que necesitamos conocer como se


comportan por ejemplo las estructuras y para eso se necesita hacer una recaudación de
datos, analizarlos y ver como es su comportamiento para que en un determinado
momento sepamos tomar la mejor decisión ya que sabemos que en nuestras manos están
las vidas de muchas personas y que si se hace un análisis erróneo o simplemente
manipulamos los datos a nuestra conveniencia podemos hacer que pase un desastre, es
por eso la importancia que tiene la materia en la interpretación de lo que por experiencia
o por investigación se sabe que puede suceder.

En el caso de Tecnologías de Información y la carrera de Ingeniería en Computación y


Sistemas al ser carreras que comparten gran parte de su plan de estudio y que comparten
gran parte del campo laboral, esta materia es sumamente relevante, ya que como se sabe
en la informática se manejan una gran cantidad de datos por lo que es indispensable saber
que hacer y como reaccionar ante determinado problema para saber decidir analizando lo
que está pasando y que es lo que pudiera pasar.

En el caso del programa, quisimos demostrar que en el campo laborar se nos pueden
presentar infinidad de tareas, ya sea de cualquier ciencia o materia, y que por medio de
los conocimientos de programación se pueden resolver, pero que esto solo es quizá
menos del 50% del trabajo, ya que el resto se debe al conocimiento del tema para saber
que es lo que quiere el cliente o que es lo que se quiere desarrollar, como por ejemplo
nuestro proyecto, el 50% del trabajo fue el código y las técnicas utilizadas para
desarrollar el software, pero esto no tendría ningún valor sino se tiene el concepto de lo
que se quiere hacer, y para el programa el o los conceptos fueron los de Probabilidad y
Estadística para desarrollar un software que pueda ayudarnos a resolver problemas tanto
estadísticos como de probabilidad.
BIBLIOGRAFIA

Freud, John E. Estadística Elemental


Simon, Gary A. Octava Edición
Prentice Hall Los Ángeles
1994
320 páginas

Hines, William H. Probability And Statistics in Engineering And


Montgomery, Douglas C. Management Science
2da.. Edición
John Wiley & Sons
New York, N.Y.
1980
634 páginas

Huntsberger, David V. Elementos de Estadística Inferencial


Compañía Editorial Continental
México
1983
404 páginas.

Levin, Richard I. Estadística para Administradores


2da. Edición
Prentice Hall Los Ángeles
1988
940 páginas

Enciclopedia Ilustrada Cumbre


Tomo V, 2da. Edición
Editorial Cumbre, S.A.
México
1975
320 páginas

Pequeño Larousse Ilustrado


Dinamarca No. 81, México
1ra. Edición.
1996
1792 páginas

Vous aimerez peut-être aussi