Vous êtes sur la page 1sur 4

Ciencias de la computación

large capital lambda Representación gráfica de


del algoritmo de ordenamiento quicksort

Tetera de Utah representando los gráficos por


computadora Ratón Microsoft Tastenma

Las Ciencias de la computación estudian los


fundamentos teóricos de la información y el
cómputo, junto con técnicas prácticas para la
implementación y aplicación de estos
fundamentos teóricos.

El estudio de la teoría, experimentación e ingeniería que forman las bases para el diseño y uso
de las computadoras.123 El cuerpo de conocimiento de las ciencias de la computación es
frecuentemente descrito como el estudio sistemático de los procesos algorítmicos que
describen y transforman información: su teoría, análisis, diseño, eficiencia, implementación,
logaritmos sistematizados y aplicación.

Es el estudio sistemático de la factibilidad, estructura, expresión y mecanización de


procedimientos metódicos (o algoritalmacenamiento, comunicación y acceso a la información
si dicha información está codificada en forma de bits en una memoria de computadora o
especificada en una estructura de genes y proteínas en una célula biológica.

Existen diversas ramas o disciplinas dentro de las ciencias de la computación o ciencias


computacionales; algunos resaltan los resultados específicos del cómputo (como los gráficos por
computadora), mientras que otros (como la teoría de la complejidad computacional) se
relacionan con propiedades de los algoritmos usados al realizar cómputo y otros se enfocan en
los un cómputo, mientras que la programación de computadoras aplica lenguajes de
programación específicos para desarrollar una solución a un problema computacional
específico. Un computólogo se especializa en teoría de la computación y en el diseño e
implementación de sistemas de computacionales.

HISTORIA DE LA COMPTUACI.

La historia de la ciencia de la computación antecede a la invención del computador digital


moderno. Antes de la década de 1920, el término computador se refería a un ser humano que
realizaba cálculos.8 Los primeros cimientos de lo que se convertiría en ciencias de la
computación son anteriores a la invención de la computadora digital moderna. Se trataba de
máquinas para el cálculo de las tareas numéricas fijas, como el ábaco han existido desde la
antigüedad, ayudando en cálculos tales como la multiplicación y la división. Además, los
algoritmos para realizar cálculos han existido desde la antigüedad, incluso antes de que se
crearan equipos de computación sofisticados. Los antiguos sánscritos tratadistas Shulba Sutras,
o "Reglas de la cuerda", es un libro de algoritmos escritos en 800 a. C. para la construcción de
objetos geométricos como altares utilizando una clavija y cuerda, un precursor temprano del
campo moderno de la geometría computacional.

Blaise Pascal diseñó y construyó la primera calculadora mecánica de trabajo, la Pascalina, en


1642.9 En 1673 Gottfried Leibniz creó una calculadora mecánica digital, llamada el 'Stepped
Reckoner'.10 Él puede ser considerado el primer computólogo y teórico de la información, entre
otras razones, porque fue el primero en documentar el sistema numérico binario. En 1820,
Charles Xavier Thomas de Colmar lanzó la calculadora mecánica industrial11 cuando lanzó su
simplificado aritmómetro, que fue la primera máquina de calcular lo suficientemente fuerte y lo
suficientemente confiable para ser usada a diario en un entorno industrial. Charles Babbage
inició el diseño de la primera calculadora automática mecánica, su máquina diferencial, en 1822,
que finalmente le dio la idea de la primera calculadora mecánica programable, su máquina
analítica.12 Él comenzó a desarrollar esta máquina en 1834 y "en menos de dos años que había
esbozado muchas de las características más destacadas del moderno equipo. Un paso
fundamental fue la adopción de un sistema de tarjetas perforadas derivado del telar de
Jacquard"13 haciéndolo infinitamente programable.14 En 1843, durante la traducción de un
artículo francés sobre la máquina analítica, Ada Lovelace escribió, en una de las muchas notas
que incluye el artículo, un algoritmo para calcular los números de Bernoulli, que es considerado
como el primer programa de ordenador.15 Alrededor de 1885, Herman Hollerith inventó la
máquina tabuladora, que usaba tarjetas perforadas para procesar información estadística;
finalmente, su compañía se convirtió en parte de IBM. En 1937, cien años después del sueño
imposible de Babbage, Howard Aiken convencidos por IBM, que estaban manufacturando todo
tipo de equipos de tarjetas perforadas y así como la calculadora de negocio 16 para desarrollar
su calculadora programable gigante, el ASCC/Harvard Mark I, se basó en la máquina analítica de
Babbage, que a su vez utiliza las tarjetas perforadas y una unidad central de cálculo. Cuando se
terminó de construir la máquina, algunas personas lo aclamaron como "el sueño de Babbage
hecho realidad".

Durante la década de 1940, conforme se desarrollaban las nuevas y más poderosas máquinas
para computar, el término computador se comenzó a utilizar para referirse a las máquinas y ya
no a sus antecesores humanos.18 Cuando se hizo evidente que las computadoras no solamente
podrían utilizarse para realizar cálculos matemáticos, el campo de las ciencias de la computación
se amplió para estudiar cómputo en general. Las ciencias de la computación empezaron a
establecerse como una disciplina académica distinta de las demás en la década de 1950 y
principios de 1960.719 Entonces surgió el primer programa de grado universitario mundo, el
Cambridge Diploma in Computer Science, se inició en la Universidad de Cambridge en el
Cambridge Computer Lab (departamento de ciencias de la computación) en 1953. El primer
programa de grado universitario en ciencias de la computación en los Estados Unidos se formó
en Universidad de Purdue en 1962.20 Desde que se dispone ordenadores prácticos, muchas
aplicaciones la de las ciencias de la computación convirtieron en diferentes áreas de estudio en
sus propios términos.
Aunque inicialmente muchos creyeron que era imposible que las computadoras en sí mismas
podrían constituir en realidad un campo científico de estudio, a finales de los años cincuenta se
fue volviendo gradualmente aceptada entre la población mayor académica.2122 Es la marca
IBM que a 2015 es muy conocida la que formó parte de la revolución de las ciencias de la
computación durante este tiempo. IBM (abreviación de International Business Machines) lanzó
el IBM 70423 y más tarde las computadoras de IBM 70924 que fueron ampliamente utilizadas
durante el período de exploración de este tipo de dispositivos. "Sin embargo, el trabajo con las
IBM [computadoras] fue frustrante ... si hubieras perdido tanto como una letra en una
instrucción, el programa chocaría, y usted tendría que empezar todo el proceso otra vez".21
Durante a finales de 1950, la disciplinas de las ciencias de la computación estaban en sus etapas
de desarrollo más primordiales, y tales cuestiones eran comunes.22

La disciplina científica de las ciencias de la computación nace a principios de 1940 con la


confluencia de la teoría de algoritmos, lógica matemática y la invención del programa
almacenado en una computadora electrónica.4 Ejemplos de esto son los trabajos de Alan Turing,
Alonzo Church y Kurt Gödel en 1930 acerca de los algoritmos y su trabajo en sistemas de reglas
(véase Cálculo Lambda, Máquina de Turing y Problemas Indecidibles), los algoritmos creados
por Augusta la computadora analógica construida por Vannevar Bush en 1920 y las
computadoras eléctricas construidas por Howard Aiken y Konrad Zuse en 1930. Los escritos de
John Von Neumann dieron una profundidad intelectual considerable a esta disciplina emergente
a mediados de la década de 1940.

En 1960, había suficientemente cuerpo de conocimiento que ameritaba la creación de


departamentos académicos y programas de grado universitario para esta disciplina.4 IBM es
reconocida como la marca que formó parte de la revolución de las ciencias de la computación
durante ese tiempo. IBM (abreviación de International Business Machines) lanzó la IBM 70425
y más tarde la IBM 70926 computadoras, que fueron ampliamente utilizadas durante el período
de exploración de este tipo de dispositivos. "Sin embargo, el trabajo con la IBM [equipo] era si
te equivocas en una letra de alguna instrucción, el programa se arruinaría, y se tendría que
empezar todo el proceso otra vez".21 Durante la década de 1950, la disciplina de las ciencias de
la computación estaba en su etapa de desarrollo, y estos problemas eran algo común.

El tiempo ha dado mejoras significativas en la capacidad de uso y la eficacia de la tecnología de


la computación. La sociedad moderna ha presenciado un cambio significativo en los usuarios de
la tecnología en cómputo, de ser utilizada únicamente por expertos, profesionales y científicos,
a una base de usuarios que es casi omnipresente a la teoría con la cual se desarrolló y funciona
este tipo de tecnología. Inicialmente, las computadoras eran bastante costosas, y era necesario
un cierto grado de ayuda humana para el uso eficiente - en parte de operadores de
computadoras profesionales. Como la adopción equipo se hizo más generalizado y asequible, se
necesitaba menos asistencia humana en el uso común.

Mayores logros

El ejército alemán uso la máquina enigma durante la Segunda Guerra Mundial; su sistema de
cifrado fue finalmente descubierto por Alan Turing, considerado el padre de la Computación. La
lectura de la información que contenían los mensajes supuestamente encriptados son
considerados, a veces, como la causa de haber podido concluir la Segunda Guerra Mundial al
menos dos años antes de lo que hubiera acaecido sin su descifrado. El descifrado a gran escala
del tráfico de Enigma en Bletchley Park fue uno de los factores más importantes que
contribuyeron a la victoria Aliada.27

A pesar de su corto tiempo de ser una disciplina científica formal, las ciencias de la computación
han hecho un gran número de contribuciones importantes a la ciencia y la sociedad –de hecho,
junto con la electrónica, es una ciencia fundacional de la época actual de la historia humana
llamada Era de la información y la Revolución de la Información, visto como el tercer gran salto
en el progreso tecnológico humano después de la Revolución Industrial (1750-1850) y la
revolución neolítica (8000-5000 a. C.)–.

Vous aimerez peut-être aussi