Vous êtes sur la page 1sur 20

Tecnología de la Información y la Comunicación

Avellaneda – Santa Fe
4to Año - 2018
Unidad Nº I: Introducción a la Informática:
La computadora. Generaciones de computadoras. Informática. Datos e Información. La
importancia de la información. Obtención de información. La evolución en el procesamiento
de datos.

Que es una computadora?


Una computadora (del inglés computer), (y éste del latín computare -calcular-), también denominada
ordenador o computador, es una máquina electrónica que recibe y procesa datos para convertirlos en
información útil.
Una computadora es una colección de circuitos integrados y otros componentes relacionados que
puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por
otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas,
organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente
determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza
se le llama programador.
La característica principal que la distingue de otros dispositivos similares, como la calculadora no
programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas,
de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.

Vista expandida de una computadora personal


1: Monitor 7: Fuente eléctrica
2: Placa base 8: Unidad de almacenamiento óptico
3: Procesador 9: Disco duro
4: Puertos ATA 10: Teclado
5: Memoria principal (RAM) 11: Ratón
6: Placas de expansión

Pagina 1/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
Evolución (Generacion) de las computadoras electrónicas

Video Explicativo : http://www.youtube.com/watch?v=7akFs81xsF4

Se denomina Generación de computadoras a cualquiera de los períodos en que se divide la historia de


las computadoras. Esta se debe a la tecnología utilizada para crear el elemento lógico principal (el
componente electrónico utilizado para almacenar y procesar la información), utilizado en las
computadoras de cada periodo.
En el año 1.946, el doctor Jonh Mauchl y J. Presper Eckart, docentes de la Escuela de Ingeniería
Moore de la universidad de Pennsylvania, E.E.U.U., finalizaron la construcción de lo que se considera
la primera computadora programable, que se llamaron ENIAC (Electronic Numerical Integrator And
Calculador). Pesaba aproximadamente 30 toneladas, y ocupaba un espacio de 150 m 2. Su
mantenimiento resultaba costoso, pues para que sus 18.800 válvulas no se recalentaran, necesitaban un
ambiente con refrigeración y además, la corrección de averías que se producían cada siete minutos.
Esta máquina podía realizar 5.000 cálculos por segundo con diez dígitos decimales, velocidad
equivalente a la de una calculadora de bolsillo actual.
En años posteriores, en ámbitos científicos continuaron las investigaciones y se construyeron diversos
prototipos hasta que, en el año 1.951 se produjo en serie la primera computadora comercial, llamada
UNIVAC I. A partir de ese momento, y con el paso del tiempo, las computadoras se fueron
transformando constantemente.
En esta evolución se distinguen varias generaciones, que se diferencian perfectamente por dos factores
principales: la tecnología empleada y la arquitectura de los sistemas.
Desde el punto de vista tecnológico, para el pasaje de una generación a otra se tienen en cuenta las
siguientes características:
 Miniaturización: Un conjunto de componentes electrónicos de una generación es
sustituido por un nuevo componente en la generación siguiente. Por ejemplo, los seis
transistores que cumplían una función determinada fueron remplazados por un solo chip.
 Fiabilidad: Se refiere a la calidad de funcionamiento y se expresa como el tiempo de
trabajo sin averías.
 Velocidad: Hace alusión a la rapidez con que se lleva a cabo el procesamiento de los
datos.

Primera generación (1946-1958)


En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto
que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el
mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la
década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las
siguientes características:
• Usaban tubos al vacío para procesar información.
• Usaban tarjetas perforadas para entrar los datos y los programas.
• Usaban cilindros magnéticos para almacenar información e instrucciones internas.
• Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de
calor y eran sumamente lentas.
• Se comenzó a utilizar el sistema binario para representar los datos.

En esta generación las máquinas son grandes y costosas (costo aproximado 10,000 dólares).
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios
cientos.
Segunda generación (1959-1964)

Pagina 2/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
Estas computadoras comenzaron a utilizar transistores. Se comunicaban mediante lenguajes de alto
nivel. En esta generación las computadoras se reducen de tamaño y son de menor costo. Algunas
computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.
Características de está generación:
• Usaban transistores para procesar información.
• Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
• 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
• Se mejoraron los programas de computadoras que fueron desarrollados durante la primera
generación.
• Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales
eran comercialmente accsesibles.
• Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico
aéreo y simulaciones de propósito general.
• La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
• Se comenzó a disminuir el tamaño de las computadoras. Surgieron las minicomputadoras y
los terminales a distancia.

Tercera generación (1965-1970)


Son las computadoras que comienzan a utilizar circuitos integrados . La IBM 360 es el símbolo de
esta generación.
Circuitos integrados : Pastillas de silicio en las que se colocan miles de componentes electrónicos en
una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas,
desprendían menos calor y eran energéticamente más eficientes. El ordenador IBM-360 dominó las
ventas de la tercera generación de ordenadores desde su presentación en 1965.
Características de está generación:
• Se desarrollaron circuitos integrados para procesar información.
• Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza
de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
• Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas
eléctricas.
• Surge la multiprogramación.
• Emerge la industria del "software".
• Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
• Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
• Consumían menos electricidad, por lo tanto, generaban menos calor.
• En este periodo se estandarizan los lenguajes Fortran, Algol y Cobol y se crean los lenguajes
Basic, Pascal y Logo.

Cuarta Generación (1971-1988)


Se caracteriza por la integración a gran escala de circuitos integrados y transistores. (más circuitos
por unidad de espacio)
Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos
integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en
estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado
industrial. Aquí nacen las computadoras personales que han influido en la sociedad en general sobre la
llamada "revolución informática".

Características de está generación:


• Se desarrolló el microprocesador.
• Se colocan más circuitos dentro de un "chip".
• Cada "chip" puede hacer diferentes tareas.

Pagina 3/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
• Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica.
El tercer componente, la memoria primaria, es operado por otros "chips".
• Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
• Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
• Se desarrollan las supercomputadoras.

Quinta Generación (1989-2010)


Las computadoras de quinta generación son computadoras basados en inteligencia artificial, usando lo
que se puede denominar micro chip inteligente.
Se desarrollaron el software (Sistemas operativos y lenguajes de programación) y las computadoras
continuaron ocupando menos espacio y aumentando su potencia (Pc de escritorio, portatiles)
Inteligencia artíficial:
La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento
humano usados en la solución de problemas a la computadora.
Robótica:
La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de
computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo diseñados
con inteligencia artificial, para que puedan responder de manera más efectiva a situaciones no
estructuradas.
Sistemas expertos:
Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la
experiencia humana para ayudar a la resolución de problemas.
Redes de comunicaciones:
Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes
de comunicaciones; todo el "hardware" que soporta las interconexiones y todo el "software" que
administra la transmisión.

Momentos importantes de la informatica

Siglo XVII (17)


El matemático e ingeniero Muhammad ibn Musa al-Khwarizmi, inventó el algoritmo, es decir, la
resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida,
ordenada y finita de operaciones a fin de hallar la solución al problema que se plantea.

Siglo XIX (19)


1801 : El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para
controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas
plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener
una diversidad de tramas y figuras. Inspirado por instrumentos musicales que se programaban usando
papel agujereado, la máquina se parecía a una atadura del telar que podría controlar automáticamente
los dibujos usando una línea de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de
seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación

Pagina 4/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
1843 : Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de
manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia
algunos consideran a Lady Lovelace la primera programadora.
1854 : El desarrollo del Álgebra de Boole fue publicado por el lógico inglés George Boole. El sistema
de Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y, o, y
no. A causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de
la teoría de la informática.
1879 : A los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del
censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los
agujeros representaban el sexo, la edad, raza, entre otros. Gracias a la máquina tabuladora de Hollerith
el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.Se tardaba tanto en
hacer el censo debido a la llegada masiva de inmigrantes.
Siglo XX (20)
1906 : El primer tubo de vacío (Valvula) fue inventado por el estadounidense, Lee De Forest. El
"Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. El tubo
al vacío encontraría uso en varias generaciones tempranas de 5 computadoras, a comienzos de 1930.

1945 : El primer caso de malfuncionamiento en la computadora causado por la intrusión de una polilla
al sistema fue documentado por los diseñadores del Mark II. Se cree que de allí proviene el uso del
término "bug", que significa insecto o polilla en inglés.

1946 - ENIAC
Se construye en la Universidad de Pennsylvania la ENIAC (Electronic
Numerical Integrator And Calculator), que fue la primera computadora
electrónica de propósito general. Esta máquina ocupaba todo un sótano
de la Universidad, tenía más de 18.000 tubos de vacío, consumía
200kW de energía eléctrica y requería todo un sistema de aire
acondicionado; tenía la capacidad para realizar cinco mil operaciones
aritméticas por segundo.

1947 : Se inventa el transistor, en Laboratorios Bell por John Bardeen, Walter H. Brattain, y William
Shockley.
1949 : Fue desarrollada la primera memoria, por Jay Forrester, la cual reemplazó los no confiables
tubos al vacío como la forma predominante de memoria por los próximos diez años.
1953 : IBM fabricó su primera computadora escala industrial, la IBM 650
1957 : Es puesta a la venta por parte de IBM la primera impresora de matriz de puntos.
1958 • Comienza la segunda generación de computadoras, caracterizados por usar
circuitos transistorizados en vez de válvulas al vacío.
• El primer circuito integrado se construyó por Jack S. Kilby.

1960 : Se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre
modelos diferentes de computadoras.

Pagina 5/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
1964 : La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito
impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos
integrados.
1967 : Es inventado el diskette (disco flexible) en IBM por David Noble.
1968 : Robert Noyce y Gordon Moore fundan la corporación Intel.
1970 : El primer cable de fibra óptica fue comercialmente producido por Corning Glass Works, Inc.
1972 • Aparecen los disquetes de 5 1/4 pulgadas.
• Se reconoce el primer virus informático, creado por Robert Thomas Morris. Atacó a
una máquina IBM Serie 360 y fue llamado Creeper.

1975 : Se funda la empresa Microsoft.


1979 : Aparece el juego Pacman creado por Toru Iwatani de la empresa Namco.
1981 • Se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría
una revolución en el campo de la computación personal y definiría nuevos estándares.
• Sony crea los disquetes de 3 1/2 pulgadas.

1983 • Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS.
• ARPANET se separa de la red militar que la originó, de modo que, ya sin fines
militares, se puede considerar esta fecha como el nacimiento de Internet.

1984 • IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y 6
Mhz de velocidad. Tenía hasta 512 KB de memoria RAM, un disco duro de 20 MB y
un monitor monocromático. Su precio en ese momento era de 5.795 dólares.
• Las compañías Philips y Sony crean los CD-Roms para computadores.
• Hewlett-Packard lanza su popular impresora LaserJet.

1985 : El ruso Alexey Pazhitnov crea el juego Tetris.


1986 : Se registra la primera patente base de codificación de lo que hoy conocemos como MP3.
1989 : Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster.
1990 • Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva
manera de interactuar con Internet. También creó las bases del protocolo de
transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
• Guido van Rossum crea el lenguaje de programación Python.

1991 : Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
1992 : Microsoft lanza Windows 3.1.
1995 • Lanzamiento de Windows 95 por parte de Microsoft.
• Se especifica la versión 1.5 del DVD, base actual del DVD.

1996 : Sabeer Bhatia y Jack Smith fundan HotMail.


1997 : Es creado Winamp, cuya distribución es realizada gratuitamente.
1998 • Es lanzado al mercado el sistema Windows 98 por parte de Microsoft.

Pagina 6/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
• Larry Page y Sergey Brin fundan Google Inc.

1999 : Se publica la primera versión de MSN Messenger.


2000 : Es lanzado el sistema operativo Windows 2000 y Windows Me por Microsoft.

Siglo XXI
2001 • Larry Sanger y Jimmy Wales fundan Wikipedia
• Se lanza el sistema operativo Windows XP por parte de Microsoft.

2002 : Lanzamiento del navegador web Mozilla Firefox, llamado en un primer momento Phoenix.
2005 • Los usuarios de Internet con conexión de banda ancha superan a los usuarios de
internet con conexión vía módem en la mayoría de países desarrollados.
• Se lanza el programa Google Earth.
• Creación de YouTube.

2006 : Lanzamiento del sistema operativo de Microsoft Windows Vista


2007 : La empresa Dell lanza al mercado la primera computadora portátil (laptop) con la distribución
Linux Ubuntu preinstalada.
2008 • Apple lanza el móvil más revolucionario de la historia en toda Europa y América, el
iPhone 3G.
• Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para
móviles.
• Lanzamiento del navegador Google Chrome.

2009 : El 22 de octubre se lanza el sucesor de Windows Vista, el Windows 7.

Sistema informático

La palabra “informática” es de origen francés, y proviene de dos términos: información y automática.


Se puede decir que la informática implica el tratamiento de información mediante recursos
automáticos.

Pagina 7/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018

Hardware y Software
Los elementos físicos se agrupan bajo la denominación de hardware. La palabra “hardware” es un
término inglés cuyo significado es ferretería, conjunto de accesorios metálicos. Por extensión, se
emplea dicha palabra para englobar a todas las partes mecánicas y electrónicas que constituyen una
computadora, como los dispositivos externos, los circuitos, las teclas del teclado etc., todos aquellos
elementos de naturaleza física y tangible.

El conjunto de todos los elementos lógicos recibe el nombre de software. El término “software”
proviene del inglés soft, que significa flexible, maleable, y ware, conjunto de elementos. Corresponde
a la parte intangible o lógica de la computadora, es decir los programas que rigen su funcionamiento.

Hardware
Hardware corresponde a todas las partes físicas y tangibles de una computadora: sus componentes
eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes o cajas. Normalmente se
dice que Hardware es todo lo que se puede tocar de una computadora.

Componentes principales
• Tarjeta madre
• CPU o microprocesador
• BIOS
• Memoria RAM, memoria ROM
• Bus
• Entrada/salida
• Fuente eléctrica o fuente de alimentación

Estructura funcional de la computadora


Con el fin de simplificar el estudio del funcionamiento de una computadora, analizaremos algunos de
sus componentes físicos básicos, organizándolos en torno de la función que desempeñan.
Consideramos, entones, diversas unidades.: centrales de procesamiento; de entrada; de salida; de
almacenamiento masivo o secundario. Las tres últimas reciben el nombre de unidades periféricas, o
simplemente periféricos.

Se puede decir que el funcionamiento de la computadora se basa en la captura de los datos para ser
procesados por medio de alguna unidad de entrada, su almacenamiento en la unidad central de
procesamiento, la ejecución de un programa que transforma esos datos de entrada en resultados y su
comunicación al exterior por medio de una unidad de salida. Tanto la obtención de los datos como la
emisión de información pueden gestionarse a partir de una unidad de almacenamiento secundario.

Unidad central de procesamiento


La unidad central de procesamiento, también llamada CPU, se encarga de administrar el sistema. La
cpu dispone la realización de cada tarea.
La CPU es un conjunto de circuitos electrónicos integrados en una diminuta pastilla de silicio o chip,
llamado microprocesador, que se encuentra en la placa madre o motherboard, básicamente, la CPU
esta formada por la unidad de control, la memoria central y la unidad aritmético-lógica.

 Unidad de control: regula la instrucción de las instrucciones, controla el acceso del


procesador a la memoria principal, sincroniza las operaciones que ejecuta el procesador; envía
y recibe señales de control desde los periféricos.
 Memoria central o principal: almacena los datos y el programa activo que se
necesita para realizar un proceso. La memoria está desarrollada basándose en pastillas de

Pagina 8/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
silicio. Existen dos tipos de pastillas que se diferencia respecto de las permanencia y el modo
de almacenamiento de datos:
 Memoria RAM (del inglés Randon Access Memory, o memoria de acceso aleatorio)
localiza cualquier posición de memoria, ya sea para leer o grabar los datos. Almacena los datos en
forma volátil, es decir mientras se suministre energía eléctrica. En ella residen el programa que se
halla en ejecución y los datos a procesar.

 Memoria ROM (del inglés Read Only Memory, o memoria sólo lectura) almacena
en forma permanente programas básicos o microprogramas que se ocupan de funciones primarias.
Esta característica de almacenamiento no volátil asegura que los microprogramas de control
permanezcan almacenados aun cuando se interrumpe la corriente eléctrica. Le contenido de esta
memoria se graba en fábrica y no admite modificaciones por parte del usuario.

 Unidad aritmético-lógica o ULA (del inglés Arithmetic and Logia Unit) se realizan
los cálculos aritméticos (sumas, restas, multiplicaciones, divisiones) y operaciones lógicas
(comparaciones) definidas en los programas.

Unidades periféricas
Ya hemos visto que el tratamiento de los datos lo realiza la unidad central de procesamiento. Los datos
y los programas deben poder introducirse en ella, a la vez que los resultados del proceso deben
transferirse para presentación al exterior o su almacenamiento ulterior. Las unidades periféricas, o
periféricos, se encargan de estas operaciones.

Las unidades periféricas se clasifican en:


 Unidades de entrada: permiten el ingreso de datos y programas a la CPU para su
tratamiento.
 Unidades de salida: distribuyen los datos provenientes de la CPU al exterior por
medio de una unidad de representación visual o auditiva.
 Unidades de Entrada/salida: Permiten en forma simultanea ingresar y distribuir los
datos de la CPU.
 Unidades de almacenamiento masivo: tienen como función característica lograr el
mantenimiento de la información en un soporte físico externo a la computadora. Según la
orden que ejecuten en un momento determinado, pueden realizar una operación de entrada
(recuperar un archivo) o de salida (grabar un archivo).

Entrada : Todo lo que permite introducir informacion a la computadora.


• Teclado ALFANUMERICO,
• Raton (Mouse) – Con bolilla que giraba, ahora los opticos.
• TouchPad. Mueve el puntero por la presion del dedo sobre membrana,.
• Lapiz Optico – Para dibujar en la pantalla.
• Lector de codigo de barra – Para leer los codigos de barra.
• Pantalla Tactil. Para ingresar tipo los celulares.
• Scaner – Para subir informacion a la computadora. Texto y fotos.
• Joistick – Para ingresar datos. Normalmente para los juegos.

Salida : Por donde sale la informacion.


• Monitor. Tubo de rayos catodicos. Los primeros fosforos verde (80x40), ambar y blanco.
Despues Vga y SVGA. LCD
• Impresoras. Matriz de punto, (inyeccion) chorro de tinta y Laser.
• Tarjeta de Sonido.
• Tarjeta de Video, VGA, Super VGA.

Entrada / Salida : Dispositivos que permiten ingresar y sacar la informacion.

Pagina 9/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
• Puerto Serie. Datos uno atrás de otro, grandes distancias.
• Puerto Paralelo. Datos uno a la par de otro, hasta 4 o 6 metros.
• PS/2 (donde se enchufa el teclado y el raton)
• USB - Bluetooth. Comunican la computadora con los perifericos.
• Tarjega de Red. Interconecta computadoras por cable o por aire (Wifi).
• Modem.

Dispositivos de Almacenamiento.
• Tarjetas Perforadas.
• Cinta Magnetica.
• Discos rigidos – IDE y SATA.
• Discos Magneticos (Flexibles) 5 Pulgadas, 360 hasta 1,2 Mb
• 3 y 1/2, 1,44 Mb los duritos.
• Pendrive se almacena en chips, mp3s celulares, etc.
• Discos Opticos. Cd y Dvd

Periféricos de entrada más importantes

Teclado: es compuesto por un teclado principal (letras,


números y símbolos), teclas de función (según el programa
que se ejecute cada tecla tendrá una función específica) y un
teclado numérico empaquetado (las teclas se disponen como
en una calculadora para facilitar la introducción rápida de datos
numéricos)

Mouse o ratón: El Mouse es un periférico de entrada, cuyo fin principal consiste en señalar puntos
concretos de la interfaz de usuario de los programas. Esto se traduce en convertir los movimientos de
la mano -deslizando el ratón sobre una superficie plana- en información digital que el ordenador puede
procesar. Esta información se convierte en el movimiento de un puntero en pantalla, que refleja el
movimiento de la mano.
Existen dos tipos:

Mouse a bola Mouse óptico

El Mouse óptico se diferencia del de bola, porque el movimiento respecto de la alfombrilla lo capta un
censor óptico, y no una bolilla.

Los elementos esenciales del mouse óptico son,


básicamente, una pequeña cámara (que toma unas
1.500 imágenes por segundo), un diodo emisor de
luz roja (LED) y un software de procesamiento
digital de imagen en tiempo real (DSP).
El LED ilumina la superficie sobre la que se
arrastra el ratón. Esta luz es reflejada sobre la

Pagina 10/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
superficie y es capturada por el censor CMOS. Este censor envía cada imagen a un procesador digital
de señales (DSP) para que las analice.

El mouse a bola posee en su parte inferior una esfera suspendida sobre cojinetes,
y en la superior, dos o más botones. Al moverlo, apoyado sobre una superficie
plana, se transmite la dirección de esos desplazamientos al cursor o a un puntero
ubicado en la pantalla, lo cual permite la ejecución de comandos, la selección de
texto, la creación de dibujos, etc.

Escáner: permite capturar información disponible en papel (textos,


dibujos, fotografías, etc.). Su principio de funcionamiento se basa en la
iluminación del texto o la imagen. A través de una serie de espejos, la luz
reflejada es capturada por censores que procesan esta información y la
traducen a lenguaje digital para ser tratada por la computadora.

Unidades periféricas de salida

Los principales periféricos de salida son las impresoras y el monitor o pantalla.

La impresora permite la salida de la información (textos, gráficos, etc.) y usa papel como
soporte.
 La velocidad de impresión se expresa en páginas por minutos (ppm), se refiere a la
impresión de textos con un tipo de letra simple (por ejemplo, arial o times)
 La resolución de impresión se mide en puntos por pulgada (dpi). La expresión 720 x
360 significa 720 puntos en forma horizontal y 360 en forma vertical. La resolución con que
se pretenda trabajar también influye en la velocidad de impresión. A mayor definición, mayor
será el tiempo de demora por casa página.
Existen dos tipos principales: las impresoras de impacto y las impresoras sin impacto. Las primeras
mas conocidas como de matriz de puntos, basan su funcionamiento caracteres preformados que dejan
una marca sobre el papel golpeando sobre una cinta entintada. Son usadas casi exclusivamente para
imprimir texto. Estas impresoras son muy ruidosas, utilizan formularios continuos y son las únicas que
permiten imprimir copias en papel carbónico, ya que golpean el papel. Poseen la característica de
poder trabajar muchas horas sin perder su rendimiento y, además son económicas.
Las segundas –como las impresoras a inyección de tinta o chorro de tinta y las láser-
utilizan diversas tecnologías y permiten imprimir en color; son adecuadas para la impresión de textos
y gráficos, por lo cual la calidad de los impresos supera la obtenida por las de impacto.
Las impresoras de inyección de tinta o chorro de tinta cuentan con una cabeza de impresión
que expulsa, por medio de un atomizador, un flujo de minúsculas gotas de tinta que son guiadas por
unas placas a la posición adecuada en el papel. La resolución varía desde 360 a 1.440 dpi. Las más
veloces imprimen 7 ppm en color y 8 en blanco y negro.
En las impresoras láser, un rayo láser atrae partículas de tinta en polvo a un tambor giratorio
para reproducir en él la imagen de salida. La tinta entra en contacto con el papel y, se
funde sobre éste en forma permanente formando la imagen de salida. Tienen su propia memoria RAM,
y llegan a imprimir hasta 20 ppm.

Pagina 11/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018

Matriz de punto Inyección o chorro Láser


de tinta

Monitor de rayos catódicos


El monitor representa la información en una pantalla mediante distintas
configuraciones de puntos iluminados, llamados pixels. Su resolución (nitidez de la
imagen) está relacionada con la tarjeta gráfica que lo controla, y corresponde a la
calidad de pixels verticales por la cantidad de pixels horizontales que se muestran en
pantalla.

Monitores LCD
LCD son las siglas de “Liquid Cristal Display”, pantalla de cristal líquido. Fue descubierto por
Fredeich Rheinizer en 1888.
A mediados de los años 60, con la técnica más avanzada, los científicos llegaron a dominar esta
tecnología al comprobar que, gracias a un estímulo externo, cambiaba las
propiedades de la luz al atravesarlo.
Estos cristales comenzaron a utilizarse en las calculadoras, relojes digitales
y posteriormente en ordenadores portátiles.
El funcionamiento es relativamente sencillo: en la pantalla LCD hay dos
filtros polarizantes, con filas de cristales líquidos que forman 90º entre ellas.
Según apliquemos o no una corriente eléctrica, la luz pasará o no a través de
ellos (siendo el segundo filtro el que permitirá el paso de la luz que haya
filtrado previamente el primero de ellos: dos filtros de este tipo colocados
perpendicularmente no permiten el paso de la luz, así que el segundo debe girar para permitir el paso
de la luz en las zonas necesarias). Para conseguir color, además se emplean tres filtros adicionales
(rojo, verde y azul) y las diferentes variedades de los colores se obtienen aplicando diferentes voltajes
a los filtros.
La técnica más utilizada en los monitores es TFT “Thin Film Transistor”. Se basa en transistores
individuales (conmutadores) que gobiernan cada píxel del display. La luz es emitida por los
transistores y, mediante el bloqueo de unos filtros RGB activos colocados de forma lineal sobre las
superficies mencionadas, se consigue el tono del color del punto.

Ventajas
Espacio: Los monitores TFT no utilizan el tubo de rayos catódicos, necesario en los CRT, por los que
su profundidad se reduce a unos pocos centímetros.
Consumo: El consumo de los monitores TFT es inferior al de los convencionales. Si tomáramos una
referencia en el tiempo de 5 años, el ahorro es significativo, el consumo de electricidad en un 80%.
Como las emisiones de calor del monitor TFT son casi nulas, el ahorro de aire acondicionado oscilaría
en torno al 75% (datos basados en jornadas de uso del monitor de 5 horas y 4 horas de reposo al día
con una media de 20 días al mes de trabajo).
Confortabilidad: Dado que en un TFT el refresco de la pantalla no es necesario se evita el constante
parpadeo de la pantalla y las emisiones electromagnéticas, lo que unido a los reflejos reducidos y el
poco calor que desprenden mejora apreciablemente de las condiciones de trabajo.
Geometría: A diferencia de un monitor de rayos catódicos CRT, en un TFT está asegurada la
ortogonalidad de la pantalla.
Área de visión: Una pantalla LCD de 15” permite trabajar con la misma resolución y tamaño práctico
que un monitor de 17” tradicional: el área visible abarca la totalidad de la pantalla y desaparecen los
márgenes negros tradicionales en os CRT. De este modo un monitor TFT de 15” equivale a un CRT de
17” y un TFT de 17” casi a un 20” tradicional.

Foco: El enfoque es uniforme en toda la superficie de la pantalla TFT y la definición de línea es muy
superior a la que se consigue en los CRT.

Pagina 12/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
Color: Esta es otra característica demoledora a favor de los TFTs. Los colores que se consiguen son
de una pureza tal que es imposible conseguirlos en un CRT.

Unidad periférica de entrada y de salida


Existen periféricos que permiten la entrada y la salida de datos, entre ellos el módem.
El módem (contracción de las palabras modulador-demodulador) es un dispositivo de transferencia de
datos. Para ello se utiliza la línea telefónica, por lo que los datos digitales de la computadora, antes de
ser transferidos, son transformados (modulados) en señales analógicas audibles, que son empleadas en
las comunicaciones telefónicas. Cuando se recibe información, se remodulan las señales analógicas en
digitales. La velocidad de transferencia de un módem se mide en bits por segundo (bps). Puede ser
interno o externo, según se instale en el interior del gabinete o no.

Unidades periféricas de almacenamiento masivo


La memoria central guarda los datos y los programas en forma temporaria, lo cual hace necesario
contar con elementos que permitan mantener la información para su uso posterior. Para almacenar los
datos en forma permanente se requiere un medio o soporte los mas comunes son los disquetes, los
discos rígidos, discos ópticos, etc.

Discos magnéticos
Los soportes mas usados para el almacenamiento de datos son los discos magnéticos. Se trata de
láminas metálicas o plásticas con forma de corona circular, recubiertas por partículas magnetizables. A
partir de cambios en la magnetización de esas partículas en ambas caras del disco, tiene lugar el
almacenamiento de los datos.
Los discos magnéticos son reutilizables, ya que es posible borrar los datos que se almacenan y, en su
lugar, grabar otros. Además, el acceso a la información es en forma directa.
Existen dos tipos de discos magnéticos: Flexibles (disquete o Floppy disk) y rígidos (discos duros, o
hard disk).

Discos flexibles
Son uno de los componentes más delicados del sistema informático, debido a que la portabilidad,
precisamente su mayor ventaja, implica que sean muy vulnerables a los malos tratos por una
manipulación descuidada cuando se encuentran fuera de la disquetera de la computadora.
Los discos flexibles son generalmente de plástico, y están protegido con una funda rígida o semirigida
del mismo material. En la actualidad, las computadora cuentan con unidades de disquete, o disquetera,
de 3.5”(pulgada) de alta intensidad.
Actualmente existen dos formatos de discos flexibles que se diferencian según la longitud de su
diámetro: los de 5 ¼ pulgadas que ya a desaparecido del mercado. Y los de 3 ½ pulgadas. Es este
formato el que se impuso en estos momentos por su mayor seguridad y facilidad de manejo.

Fiabilidad del Soporte


Los discos flexibles con formato de 3 ½ pulgadas están mucho mejor protegidos por un plástico rígido
y un escudo, plástico o metálico, que protege una ranura existente en la superficie del material
protector del disco (la ventana de lectura).

Facilidad de Manejo y Almacenamiento


La mejor protección de los discos que tienen formato de 3 ½ pulgadas, su facilidad para el manejo
habitual y las menores restricciones para su almacenamiento, mientras no sea utilizado el soporte e
físico, le dan importantes ventajas sobre los discos de 5 ¼
pulgadas.
El material sobre el que se construyen los discos flexibles es
un plástico, mientras que, en los discos duros, el soporte físico
es una base de aluminio.

Pagina 13/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
La lectura de la información grabada en los discos flexibles se realiza mediante una cabeza lectora
que, todavía en la actualidad, entra en contacto directo con la superficie del disco a través de la ranura
de la funda de protección.
Se deben de seguir unas normas de precaución para su manejo:
1. Nunca debe tocarse la superficie magnética de los discos.
2. Los discos se deben de insertar con cuidado en las disqueteras y esperar a que se apague la luz de la
misma para evitar que se dañe la superficie del disquete.
3. No deben acercarse a fuertes campos magnéticos come imanes o teléfonos ni tampoco atravesar con
ellos arcos de seguridad como los de los aeropuertos.
4. Los aparatos de rayos X también pueden ser muy perjudiciales debido que pueden alterar la
información almacenada en los discos.
5, Se debe procurar guardar les discos en fundas o cajas cuando no se utilicen para evitar que se
adhiera polvo o un golpe los dañe.
6. No se deben doblar ni forzar los discos cuando se manipulen.
7. Los discos se deben mantener almacenados en unas condiciones ambientales donde no existan ni
excesivo calor ni demasiada humedad. Tampoco debe dejarse que la luz solar incida directamente
sobre ellos.

Disco rígido
Los discos rígidos son de aluminio y están recubiertos por oxido magnetizable, la razón de que se
utilice una base metálica es que tiene muy poca deformación con los cambios de temperatura, por lo
que permite una mayor densidad de pistas donde se va a grabar la información.
Se presentan como único disco, como un paquete de disco, que contiene varios
discos conectados en el eje central, en este caso, las pistas reciben el nombre de
cilindro. La parte externa de la carcasa de un disco duro tiene adosado una placa
de circuitería electrónica que sirve para controlar todas las funciones de manejo de
cabezales. La carcasa es de un material rígido, metálico o plástico de gran dureza
que sirve para proteger físicamente los discos y cabezales situados en el interior
del subsistema.
A la cantidad de pistas en la que se almacena la información se le denomina densidad y,
evidentemente, se almacenará mayor cantidad de información cuanto más alta sea la densidad de
pistas en la superficie del disco.
Las unidades pueden ser fijas o removibles. Las fijas son mas frecuentes y se instalan en el interior del
gabinete. Su funcionamiento se basa en la rotación del disco a una velocidad constante por la acción
de un dispositivo de arrastre. La entrada de los datos y la salida de la información tiene lugar mediante
varias cabezas una para cada cara, montada de a pares en los brazos del acceso.

Discos ópticos

Los discos ópticos presentan una capa interna protegida, donde se guardan los bits mediante distintas
tecnologías, siendo que en todas ellas dichos bits se leen merced a un rayo láser
incidente Un sistema óptico con lentes encamina el haz luminoso, y lo enfoca
como un punto en la capa del disco que almacena los datos.

Los discos ópticos, además de ser medios removibles con capacidad para
almacenar masivamente datos en pequeños, son portables y seguros en la
conservación de los datos (que también permanecen si se corta la energía
eléctrica). El hecho de ser portables deviene del hecho de que son removibles de
la unidad. Así mismo, tienen bajo costo por byte almacenado. Los CD-ROM se copian (producen)
masivamente.
La mayor capacidad de los discos ópticos frente a los magnéticos se debe al carácter puntual del haz
láser incidente, y a la precisión del enfoque óptico del láser. Ello permite que en una pista los bits
estén más juntos (mayor densidad lineal), y que las pistas estén más próximas (más t.p.i).

Pagina 14/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018

CD-ROM: Los CD son más seguros en la conservación de los datos, dado que la capa que los
almacena es inmune a los campos magnéticos caseros, y está protegida de la corrosión ambiental,
manoseo, etc., por constituir un "sandwich" entre dos capas transparentes de policarbonato.
Por otra parte, la cabeza móvil -que porta la fuente láser y la óptica asociada- por estar separada a 1
mm de la superficie del disco, nunca puede tocarla. Por ello no produce en ella desgaste por
rozamiento, ni existe riesgo de "aterrizaje", como en el disco rígido con cabezas flotantes. Tampoco el
haz láser que incide sobre la información puede afectarla, dada su baja potencia.
Puede estimarse entre 10 y 15 años la permanencia de la información en un CD ROM común, dado
que la superficie de aluminio que contiene la información se oxida muy lentamente en ese lapso, salvo
que sea sometida a una protección anti-óxido especial, o sea de oro. En un CD-R este tiempo será
mucho mayor, por presentar oro la fina capa metálica interior.

DVD-ROM: Son físicamente, análogos a los CD−ROM, pero su capacidad es muchísimo mayor. Esta
capacidad la consiguen aumentando la densidad de escritura, grabando en las dos caras del CD y
almacenando, en cada una de ellas, varias capas de información, una encima de otras. Aunque la
tecnología utilizada en estos discos es análoga a la de los CD−ROM, su láser es distinto. Este hecho ha
que una misma unidad no pueda ser utilizada para leer ambos tipos de discos, sin embargo, la mayoría
de los fabricantes incorporan a sus unidades DVD un segundo láser, lo que permite utilizarlas para leer
los CD−ROM.

Memoria USB: Memoria USB con lector de tarjetas incorporado.


Una memoria USB (de Universal Serial Bus, en inglés pendrive o USB flash drive) es un pequeño
dispositivo de almacenamiento que utiliza memoria flash para guardar
la información que puede requerir o no baterías (pilas), en los últimos
modelos la batería no es requerida, la batería era utilizada por los
primeros modelos. Estas memorias son resistentes a los rasguños
(externos) al polvo -y algunos al agua- que han afectado a las formas
previas de almacenamiento portátil, como los disquetes, discos
compactos y los DVD.
Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de datos más
utilizado, desplazando en este uso a los tradicionales disquetes, y a los CD. Se pueden encontrar en el
mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64, 128 GB o más (esto supone, como mínimo, el
equivalente a 180 CD de 700MB o 91.000 disquetes de 1.44 MB aproximadamente). Su gran
popularidad le ha supuesto infinidad de denominaciones populares relacionadas con su pequeño
tamaño y las diversas formas de presentación, sin que ninguna haya podido destacar entre todas ellas.
El calificativo USB o el propio contexto permite identificar fácilmente el dispositivo informático al
que se refieren.

Los sistemas operativos actuales pueden leer y escribir en las memorias sin más que enchufarlas a un
conector USB del equipo encendido, recibiendo la energía de alimentación a través del propio
conector. En equipos algo antiguos (como por ejemplo los equipados con Windows 95) se necesita
instalar un controlador de dispositivo (driver) proporcionado por el fabricante. Los sistemas
GNU/Linux también tienen soporte para dispositivos de almacenamiento USB.

Unidades de medidas
Sistema Binario:
Sirve para representar los dos estados que la computadora entiende, encendido (1) y apagado (0), la
combinacion de esos encendidos y apagados (con codigo binario) es lo que forman las letras y
numeros que finalmente utilizamos.

Pagina 15/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
Como solo existen estos dos estados es imposible representar muchas opciones ya que solo se pueden
representar dos (0,1), es por eso que cada uno de esos estados (bit) se agruparon en grupos de 8 (byte)
para poder asi representar un numero que va entre 000 y 255, y utilizando el codigo ascii es como se
llegan a representar todas las letras y numeros que utilizamos.

AscII es un standard mundial que se utiliza para conventir de codigos (entre 000 y 255) a letras,
numeros y caracteres especiales, este codigo ascii es una tabla donde cada numero tiene un
significado, por ejemplo @ => 064, o sea, el arroba tiene el codigo 64 en la tabla Ascii.

Asi se puede representar cualquier numero o letra usando la conversion de binario a ascii y a las letras
que conocemos, la letra a por ejemplo es:

Letra Ascii Binario (byte)


a => 097 => 01100001

Si quisieramos escribir ar seria:

Letras Ascii Binario (bytes)


ar => 097 114 => 01100001 01110010

Conceptos:
Bit: Es la abreviación de dígito binario (0 ó 1), la parte más pequeña de información que puede haber
en una computadora. Se trata de dos posiciones: el uno implica que está encendido y el 0 que está
apagado.
Byte: es la unidad de información fundamental de las computadoras y corresponden a ocho bits
continuos. Representa un carácter de datos o instrucción.
Kilobyte (Kb): corresponde a alrededor de mil bytes (1024 bytes).
Megabyte (Mb): indica mil kilobytes, es decir alrededor de un millón de bytes.
Gigabyte (Gb): señala mil megabytes o unos mil millones de bytes.
Terabyte (Tb): equivale a mil gigas o a algo más de un billón de bytes.

Para poder sacar cálculos precisos casi todas estas cifras se redondean.
Un bit se define como la cantidad más pequeña de información representada en una computadora. Un
bit no puede más de dos valores posibles, 0 y 1. De ahí la expresión que un bit es una información
binaria (de dos estados). Sin embargo, en muchos casos, el bit es una información muy pequeña de
información para ser útil. Por tal razón es necesario utilizar el byte, cuyo valor es equivalente a una
serie consecutiva de 8 bits. Como cada bit permite codificar dos informaciones diferentes, un byte
puede contener una información de entre 256 estados posibles.
De tal suerte que es posible guardar en un byte el código binario de un carácter, es decir, un símbolo
alfabético, (a, A, b,...), un numero (0, 1, 2,...) o cualquier otro símbolo.
El sistema binario de codificación de caracteres mas utilizado lleva por nombre código ASCII. Así, los
términos byte y carácter con frecuencia se emplean como sinónimos.
La característica más importante de la unidad de memoria es una capacidad, es decir, la cantidad de
información que esta puede contener. La capacidad de almacenamiento se mide en bytes o en k
(kilobytes).
En esta nomenclatura, k representa el número de 1024 (o 2 a la décima potencia), bajo la potencia de 2
más próxima a 1000 (un kilo).
De modo que para medir la capacidad de memoria usara 4k, 16k, 32k, 128k, etc., y para los sistemas
mas grandes será necesario recurrir a M (millones de bytes), como 4 M, 10 M, etc. Por otro lado, la
unidad principal de memoria se divide en dos partes: RAM (Memoria de Acceso Aleatorio) y ROM
(memoria de solo lectura).
Podemos decir que la memoria de un computador está constituida por un gran número de unidades
elementales, llamadas Bits, que contienen unos ó ceros. Un Bit aislado tiene muy escasa utilidad; un
conjunto adecuado de Bits puede almacenar casi cualquier tipo de información. Para facilitar el acceso

Pagina 16/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
y la programación, casi todos los ordenadores agrupan los bits en conjuntos de 8, que se llaman bytes
u octetos. La memoria se suele medir en Kbytes (1024 bytes), Mbytes o simplemente los “megas”
(1024 Kbytes) y Gbytes o “gigas” (1024 Mbytes).

Software
Etimología : Software es una palabra proveniente del inglés (literalmente: partes blandas o suaves),
que en español no posee una traducción, por lo cual se la utiliza sin traducir y así fue admitida por la
Real Academia Española (RAE).

Software, Programas de computadoras: Son las instrucciones responsables de que el hardware (la
máquina) realice su tarea. La definición formal de software es: Es el conjunto de los programas de
cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las
operaciones de un sistema de computación.
Por lo tanto, el software del sistema procesa tareas tan esenciales, aunque a menudo invisibles, como
el mantenimiento de los archivos del disco y la administración de la pantalla, mientras que el software
de aplicación lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y similares.

El software, como programa, consiste en un código en un lenguaje máquina específico para un


procesador individual.
El código es una secuencia de instrucciones ordenadas que cambian el estado del hardware de una
computadora.
El software se suele escribir en un lenguaje de programación de alto nivel, que es más sencillo de
escribir (pues es más cercano al lenguaje natural humano), pero debe convertirse a lenguaje máquina
(bajo nivel) para ser ejecutado.

Clasificación del software


El software puede dividirse en varias categorías basadas en el tipo de trabajo realizado, las dos
categorías primarias de software son:

Se clasifican en tres grandes tipos:

• Software de base (Sistema): Su objetivo es ayudar a funcionar al hardware y a la


computadora. Incluye el sistema operativo, controladores de dispositivos, herramientas de
diagnóstico,servidores, sistema de ventanas, utilidades y más. Su propósito es evitar lo más
posible los detalles complejos de la computación, especialmente la memoria y el hardware.
Incluye entre otros:
• Sistemas operativos
• Controladores de dispositivos
• Herramientas de diagnóstico, Corrección y Optimización
• Servidores
• Utilidades

• Software de programación: Es el conjunto de herramientas que permiten al programador


desarrollar programas informáticos, usando diferentes alternativas y lenguajes de
programación, de una manera práctica. Incluye entre otros:
• Editores de texto (Para programar)
• Compiladores
• Intérpretes
• Depuradores

Pagina 17/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
• Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas,
usualmente en un entorno visual, de forma tal que el programador no necesite
introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente
cuentan con una avanzada interfaz gráfica de usuario (GUI).

• Software de aplicación: Permite a los usuarios finales hacer determinadas tareas. Incluye
entre otros:
• Aplicaciones para Control de sistemas y automatización industrial
• Aplicaciones ofimáticas
• Software educativo
• Software empresarial
• Bases de datos
• Telecomunicaciones (p.ej. internet y toda su estructura lógica)
• Videojuegos
• Software médico
• Software de Diseño Asistido (CAD)

Que es un programa?
Un ejemplo de lo que es un programa puede ser los pasos necesarios para lavarse los dientes o prender
la television y poner un x canal, el ejemplo para prender la television seria:
1. Verificar que el televisor ya no este encendido.
2. Buscar el control remoto
3. Apuntar el control hacia el televisor.
4. Pulsar el boton de encendido.
5. Verificar que el televisor se halla enciendido
6. En que canal esta?, Esta en el canal que queremos mirar?
7. Pulsar el numero de canal en el control remoto y verificar que cambie el canal.
8. Disfrutar del programa.

Realizar los mismos pasos pero para realizar una llamada telefonica.
1. Levantar el tubo
2. Ver si tiene tono
3. Marcar el numero destino
4. Llama o da ocupado? (ocupado, colgar y volver a hacer el proceso)
5. Llama...
6. Atienden o no atienden? (Si no atienden.. colgar y volver a empezar el proceso)
7. Hablar...
8. Cortar

Definicion:

Pagina 18/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
Un programa informático es un conjunto de instrucciones que una vez ejecutadas realizarán una o
varias tareas en una computadora. Sin programas, estas máquinas no pueden funcionar
correctamente. Al conjunto general de programas, se lo denomina software y así, se refiere al
equipamiento lógico o soporte lógico de una computadora digital.
Para que la computadora pueda funcionar necesita ser programada, por eso en un programa se le va
diciendo a la computadora paso por paso que hacer.
Una vez que el programa fue escrito en un lenguaje entendible por los humanos debe ser “convertido”
a lenguaje de maquina o entendible por la computadora, ese proceso de pasarlo se llama compilar.
Cuando el programa es compilado tambien se aprovecha para sacarle los errores, ese proceso se llama
depuracion.
Una vez terminado este programa queda listo para ser usado por el sistema operativo y queda en forma
de 0 y 1 o sea en lenguaje de maquina.
Generalmente el código fuente lo escriben profesionales conocidos como programadores. Se escribe
en un lenguaje que sigue uno de los siguientes dos paradigmas: imperativo o declarativo y que
posteriormente puede ser convertido en una imagen ejecutable por un compilador. Cuando se pide que
el programa sea ejecutado, el procesador ejecuta instrucción por instrucción.
En los computadores actuales, al hecho de ejecutar varios programas de forma simultánea y eficiente,
se le conoce como multitarea.
Aplicación Informatica
En informática, una aplicación es un tipo de programa informático diseñado como herramienta para
permitir a un usuario realizar uno o diversos tipos de trabajo. Esto lo diferencia principalmente de
otros tipos de programas como los sistemas operativos (que hacen funcionar al ordenador), las
utilidades (que realizan tareas de mantenimiento o de uso general), y los lenguajes de
programación(con el cual se crean los programas informáticos).
Suele resultar una solución informática para la automatización de ciertas tareas complicadas como
pueden ser la contabilidad, la redacción de documentos, o la gestión de un almacén. Algunos ejemplos
de programas de aplicación son los procesadores de textos, hojas de cálculo, y base de datos.
Sistema Operativo:
Un Sistema operativo (SO) es un software que actúa de interfaz entre los dispositivos de hardware
y los programas usados por el usuario para manejar un computador. Es responsable de gestionar,
coordinar las actividades y llevar a cabo el intercambio de los recursos y actúa como estación para
las aplicaciones que se ejecutan en la máquina.
Uno de los más prominentes ejemplos de sistema operativo, es el núcleo Linux, el cual junto a las
herramientas GNU, forman las llamadas distribuciones Linux.
Uno de los propósitos de un sistema operativo como programa estación principal, consiste en
gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los
programadores de aplicaciones de tener que tratar con éstos detalles. Se encuentran en la mayoría de
los aparatos electrónicos que utilizan microprocesadores para funcionar. (teléfonos móviles,
reproductores de DVD, computadoras, radios, etc.)

Qué es el Software Libre?


Software Libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar
y mejorar el software. De modo más preciso, se refiere a cuatro libertades de los usuarios del software:
• La libertad de usar el programa, con cualquier propósito (libertad 0).
• La libertad de estudiar cómo funciona el programa, y adaptarlo a tus necesidades (libertad 1).
El acceso al código fuente es una condición previa para esto.
• La libertad de distribuir copias, con lo que puedes ayudar a tu vecino (libertad 2).

Pagina 19/20
Tecnología de la Información y la Comunicación
Avellaneda – Santa Fe
4to Año - 2018
• La libertad de mejorar el programa y hacer públicas las mejoras a los demás, de modo que
toda la comunidad se beneficie. (libertad 3). El acceso al código fuente es un requisito previo
para esto.
Un programa es software libre si los usuarios tienen todas estas libertades. Así pues, deberías tener la
libertad de distribuir copias, sea con o sin modificaciones, sea gratis o cobrando una cantidad por la
distribución, a cualquiera y a cualquier lugar. El ser libre de hacer esto significa (entre otras cosas) que
no tienes que pedir o pagar permisos.
También deberías tener la libertad de hacer modificaciones y utilizarlas de manera privada en tu
trabajo u ocio, sin ni siquiera tener que anunciar que dichas modificaciones existen. Si publicas tus
cambios, no tienes por qué avisar a nadie en particular, ni de ninguna manera en particular.
La libertad para usar un programa significa la libertad para cualquier persona u organización de usarlo
en cualquier tipo de sistema informático, para cualquier clase de trabajo, y sin tener obligación de
comunicárselo al desarrollador o a alguna otra entidad específica.
La libertad de distribuir copias debe incluir tanto las formas binarias o ejecutables del programa como
su código fuente, sean versiones modificadas o sin modificar (distribuir programas de modo ejecutable
es necesario para que los sistemas operativos libres sean fáciles de instalar). Está bien si no hay
manera de producir un binario o ejecutable de un programa concreto (ya que algunos lenguajes no
tienen esta capacidad), pero debes tener la libertad de distribuir estos formatos si encontraras o
desarrollaras la manera de crearlos.
Para que las libertades de hacer modificaciones y de publicar versiones mejoradas tengan sentido,
debes tener acceso al código fuente del programa. Por lo tanto, la posibilidad de acceder al código
fuente es una condición necesaria para el software libre.
Para que estas libertades sean reales, deben ser irrevocables mientras no hagas nada incorrecto; si el
desarrollador del software tiene el poder de revocar la licencia aunque no le hayas dado motivos, el
software no es libre.
Son aceptables, sin embargo, ciertos tipos de reglas sobre la manera de distribuir software libre,
mientras no entren en conflicto con las libertades centrales. Por ejemplo, copyleft es la regla que
implica que, cuando se redistribuya el programa, no se pueden agregar restricciones para denegar a
otras personas las libertades centrales. Esta regla no entra en conflicto con las libertades centrales, sino
que más bien las protege.
'Software libre' no significa 'no comercial'. Un programa libre debe estar disponible para uso
comercial, desarrollo comercial y distribución comercial. El desarrollo comercial del software libre ha
dejado de ser inusual; el software comercial libre es muy importante.
Pero el software libre sin `copyleft' también existe. Creemos que hay razones importantes por las que
es mejor usar 'copyleft', pero si tus programas son software libre sin ser 'copyleft', los podemos utilizar
de todos modos.
Cuando se habla de software libre, es mejor evitar términos como: `regalar' o `gratis', porque esos
téminos implican que lo importante es el precio, y no la libertad.

Pagina 20/20

Vous aimerez peut-être aussi