Vous êtes sur la page 1sur 39

UNIDAD 1: FUNDAMENTOS DE INFORMÁTICA

ORIENTACIÓN AL ESTUDIANTE (Pedro Reina)

Aprender informática es un proceso en el que resulta necesario conjugar teoría y práctica,


como en tantas otras cosas en la vida. No sirve de nada saber teoría si no se sabe cómo llevarlo
a la práctica, así como tampoco sirve de nada aprender a pulsar unas cuantas teclas, si no se
sabe en qué redundarán dichas pulsaciones.

Un buen consejo para todos los principiantes es leer primero la información de este escrito. Si
en una primera lectura, algo no está claro, hay que volver a leerlo. Es necesario usar la lógica y
el sentido común. Las cosas están pensadas para que sean sencillas y funcionen bien. En
general, esto ocurre así. Se aprende más cuando se piensa individualmente que cuando se
pregunta sin más.

Es normal no comprender perfectamente todos los conceptos la primera vez que se leen. Hay
que repetir su lectura comprensivamente. El trabajo personal del estudiante no se puede
reemplazar por ningún otro método. Si bien el proceso de aprendizaje exige algo de tiempo
para apreciar cómo encajan todas las partes, es sin embargo muy gratificante. Así, al final del
curso, llegar a tener la interna convicción de poder realizar más tareas informáticas y seguir
avanzando en el conocimiento sin ayuda externa, es uno de las competencias más buscadas y
apreciadas en cualquier trabajador.

INFORMÁTICA. ORIGEN. OBJETIVO. CONCEPTO. FUNCIONES

El término Informática se creó en el año 1962, en Francia, bajo la denominación


INFORMATIQUE, la cual involucra parte de dos palabras: INFORmation y autoMATIQUE.

La Informática tiene como objetivo fundamental ayudar al hombre en los trabajos rutinarios y
repetitivos, generalmente de cálculo y de gestión, donde es frecuente la repetición de tareas.
De esta forma, una máquina puede realizarlos mejor, de manera más prolija, pero por sobre
todas las cosas más rápidamente, siempre bajo la supervisión humana. Si este no es el caso, de
nada nos sirve la informática.

La Real Academia Española define Informática como:

El conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento


automático de la información por medio de ordenadores.

1
La definición que más se ha extendido es la siguiente: Es la ciencia que estudia el tratamiento
automático (máquinas que capturan, procesan y presentan la información) y racional
(programas que siguen el razonamiento humano) de la información.

La informática abarca posee cuatro funciones principales:

 El desarrollo de nuevas máquinas.


 El desarrollo de nuevos métodos de trabajo.
 La construcción de nuevas aplicaciones informáticas.
 El mejoramiento de los métodos y aplicaciones existentes.

COMPUTACIÓN. ORIGEN. CONCEPTO. DIFERENCIA RESPECTO DE LA INFORMÁTICA

Si bien el origen del término Computación (Ciencias de la Computación), surge cuando se


comienzan a inventar las primeras máquinas de cálculo, es importante asociar el término a
procesos de cálculo múltiples y no sólo de tipo matemático. Estos equipos comienzan a
aparecer en la década del ’40.

La Universidad de Massey (Nueva Zelandia) define Computación como:

El estudio de todos los fenómenos asociados a las computadoras, contemplando no sólo las
máquinas o hardware de las mismas, sino incluyendo además los procedimientos y software
que permiten su funcionamiento.

La diferencia entre Informática y Computación radica en que la primera, al estar directamente


relacionada con el tratamiento de la información y sus usos, resulta más cercana a las
personas, en tanto que el segundo, tiene más que ver con las computadoras y sus aspectos
internos.

Sin embargo, y a pesar de que la Computación es anterior a la Informática, una no puede


convivir sin la otra. De hecho, actualmente, toda la informática se lleva a cabo con
computadoras, es por ello que ambos términos están tan ligados entre sí.

Los cambios tecnológicos producidos hasta el momento, han hecho posible una clasificación
de las computadoras según diferentes generaciones:

Primera generación (1940-1952): La constituyen todas aquellas computadoras diseñadas a


base de válvulas de vacío como principal elemento de control y cuyo uso fundamental fue la
realización de aplicaciones en los campos científico y militar.

Segunda generación (1952-1964): Al sustituirse la válvula de vacío por el transistor, las


máquinas ganaron potencia y fiabilidad, perdiendo tamaño y precio, lo que las hizo mucho más

2
prácticas y accesibles. Los campos de aplicación fueron, además del científico y militar, el
administrativo y de gestión.

Tercera generación (1964-1971): En este caso aparece el circuito integrado, que consistía en el
encapsulamiento de una gran cantidad de componentes discretos (resistencias,
condensadores, diodos y transistores), conformando uno o varios circuitos con una función
determinada, sobre una pastilla de silicona o plástico. De esta forma la miniaturización se
extendió a todos los circuitos de computadoras.

Cuarta generación (1971-1981): Aquí aparece el microprocesador, consistente en la


integración de la Unidad Central de Procesamiento (CPU) en un solo circuito. Esto posibilitó la
fabricación de microcomputadoras y computadoras personales.

Quinta generación (1991-actualidad): Estados Unidos y Japón anuncian en esta etapa una
nueva generación de computadoras basadas en los siguientes avances tecnológicos:

 Uso de componentes a muy alta escala de integración.


 Inteligencia artificial.
 Uso del lenguaje natural.
 Interconexión entre todo tipo de computadoras, dispositivos y redes.
 Integración de datos, imágenes y voz.

Las computadoras digitales, por su potencia de cálculo, capacidad de almacenamiento interno


y número de periféricos que pueden soportar, se clasifican a su vez en cuatro grupos:

Supercomputadora: Es una máquina especialmente diseñada para realizar cálculos que


precisan una gran velocidad de proceso. Generalmente poseen un gran número de
procesadores en paralelo.

Computadora: Es una máquina diseñada principalmente para dar servicio a grandes empresas
y organizaciones. Su velocidad de proceso es inferior a la anterior, aunque una de sus
características principales es la de soportar un gran número de terminales.

Minicomputadora: Son máquinas de tipo medio, es decir, su velocidad de proceso es inferior a


la anterior y por lo tanto pueden controlar un menor número de terminales.

Microcomputadora: Se trata de una máquina cuyo funcionamiento interno se basa en el uso


de un microprocesador, y con él, se consigue una serie de prestaciones, que en potencia,
manejabilidad, portabilidad, precio y otras características, cubren la gama más baja de
necesidades en el mundo de la informática. Dentro de este segmento se distinguen dos
grupos:

3
Computadora personal (PC): Es fácil de usar y con grandes prestaciones. Actualmente la
mayor gama de equipos de hardware y software que existen en el mercado, pertenecen a este
segmento. A su vez, dentro del mismo, existe una clasificación según el tamaño, prestaciones,
precio, etc:

 Portátil: Se trata de una computadora de características físicas tales que permiten


fácilmente su transporte de un sitio a otro, sin perder ninguna de las cualidades de una
computadora personal clásica.
 Laptop: Consiste en una computadora personal, portátil y de pequeño tamaño, gran
potencia y muy manejable en todos los sentidos. Su característica principal es su peso,
que oscila entre 1 y 2 kilogramos.
 Notebook: Es similar a la anterior, pero aún más pequeña, de menor peso y más
especializada.
 Pocket-PC (palmtop): Es una pequeña computadora personal de mano.

Estación de trabajo: De gran potencia, utilizada para trabajos de ingeniería o similares y


permite la conexión a través de una red con una computadora de mayor potencia.

PC Y MACINTOSH (Pedro Reina)

Las computadoras personales pueden ser del tipo PC (la mayor parte del mercado) o bien
Macintosh (Mac). No son compatibles entre sí. Los componentes de hardware y software de
uno no pueden ser usados en el otro (aunque cada vez hay más excepciones).

Llamamos PC a cualquier computadora compatible con el modelo Personal Computer de IBM,


que apareció en el año 1981, sea de la marca que sea. Las computadoras Mac, sin embargo,
son fabricadas por Apple. A pesar de la mencionada compatibilidad entre ambas, las empresas
que desarrollan software presentan sus programas en varias versiones (de acuerdo al sistema
operativo de los equipos), para MacOS, Windows y GNU/Linux, de modo que trabajar con PC o
Mac cada vez es más parecido. Además, es muy fácil conectarlos entre sí para compartir
información.

LA LÓGICA DE LA COMPUTADORA

Una computadora, debido a su origen electrónico, maneja interiormente señales eléctricas


digitales, de tal forma que todos sus códigos internos se basan en el sistema binario. Esto hace
que, para que puedan ser procesados, los datos y las instrucciones de los distintos programas,
deban utilizarse métodos de codificación basados en este sistema.

4
El sistema binario es un sistema de numeración que utilizan internamente los circuitos
digitales que configuran el hardware de las computadoras. Un sistema de numeración, es un
conjunto de símbolos y reglas que se utilizan para la representación de datos numéricos, y su
principal característica es la base o número de símbolos utilizados por el mismo. La base o
número de símbolos que utiliza el sistema binario es “2”, siendo estos “0” y “1”.

Cada dígito de un número representado en este sistema se denomina BIT (contracción de


BInary digIT).

El conjunto de 8 bits constituyen 1 byte, considerado como la unidad básica de medida de la


información representada en este sistema.

De esta forma, la lógica de la computadora suele ser presencia de pulso eléctrico y ausencia de
pulso eléctrico, por lo que suele representarse con “1” y “0” respectivamente.

LA INFORMÁTICA COMO DISCIPLINA Y TECNOLOGÍA

La inserción de la informática en el ámbito académico, demuestra ser todavía bastante débil,


debido a que se privilegian alguno de los dos últimos paradigmas, mencionados en el apartado
anterior, para su abordaje.

La Informática, de este modo, se percibe como proveedora de herramientas para abordar


problemas de diversa índole. De esta forma, al ser tomada como un recurso, las
preocupaciones didácticas no giran en torno a los saberes disciplinares de Informática, sino
que su sentido es dar al estudiante un recurso que facilite su aprendizaje, promueva una
determinada forma de acercamiento al objeto de estudio, etc. Existe cierto consenso en
suponer que el empleo de estos recursos deja en los estudiantes, un residuo cognitivo de
conocimiento informático que no se puede sustentar desde la práctica, en primer lugar,
porque son pocas las experiencias escolares que hacen que los estudiantes enfrentan
situaciones cotidianas o de la vida real, que tengan que ver con apropiación tecnológica, y en
segundo lugar, como el mejor de los casos, si dichas situaciones se dan, son pocas aquellas que
entrañan conocimientos informáticos relevantes para la Informática tomada como disciplina.
Por último, pasan inadvertidos, para los profesores, los eventuales aprendizajes que tienen
lugar en interacción con la computadora, sin necesidad incluso de hacer previsiones acerca de
las competencias requeridas para el uso del recurso y en la mayor parte de los casos no se
propone como uno de los fines del uso del recurso que los alumnos aprendan contenidos
informáticos. Tal es así que muchas veces, los alumnos que toman la responsabilidad de llevar
a cabo las tareas que requieren el uso de tecnología informática son aquellos que han logrado,
fuera de ámbito escolar, cierta autonomía en el uso de la computadora. Estas situaciones

5
llevan a profundizar las diferencias respecto de la apropiación de la tecnología y generan
mayor desigualdad en las oportunidades educativas de los alumnos.

Esto no hace más que poner de manifiesto la necesidad que exista un espacio curricular en
donde se aborde la Informática como objeto de estudio. Pero ello implica también pensar en
una didáctica específica para la enseñanza de la Informática, con un marco teórico adecuado,
metodologías propias, problemas de investigación apropiados para el área en cuestión, etc.

El campo de estudio de la Informática, que implica indagar acerca del estado de arte de la
Informática, presenta un primer inconveniente, ser un campo en constante cambio. Surgen
entonces espontáneamente los siguientes interrogantes: La Informática, ¿Es una ciencia? ¿Es
una tecnología? ¿Es una metodología? ¿Es un conjunto de sistemas de información? ¿Es algo
más?

En sentido amplio, podemos definir Informática como cualquier actividad que involucre las
computadoras. Informática incluye: diseño y construcción de hardware y sistemas de software
para cualquier propósito, procesamiento, organización y tratamiento de diversos tipos de
información, estudios científicos usando computadoras, sistemas de inteligencia artificial,
creación y aplicación de medios de comunicación y entretenimiento, búsqueda y recopilación
de información para propósitos específicos, etc. La lista virtualmente no tiene fin y las
posibilidades son muy vastas. La Informática también adopta otros significados más específicos
según el contexto en el cual el término es utilizado. En cualquier contexto, el quehacer
informático puede ser complejo y dificultoso. La sociedad necesita personas que desarrollen
estas tareas, por eso debemos pensar la Informática no sólo como una profesión sino también
como una disciplina.

En la delimitación del campo de estudio al que hacíamos referencia, encontramos una


variedad de perspectivas que plantean distintas visiones de la Informática. Optar por una,
implica llevar a cabo una elección epistemológica y obtener reconocimiento social.

Tanto la elección epistemológica como la legitimación social, suponen una contextualización


del lugar, del aquí y el ahora. La conjugación de ellas se verá afectada por el contexto mismo.

En líneas generales, se pueden identificar dos visiones sociales: Informática asociada a las
competencias profesionales o Informática como una disciplina científica.

La Informática como competencia profesional, se ve inmersa en una gran cantidad de


profesiones, algunas de ellas nuevas (analista de sistemas, ingeniería en Informática, etc) y
otras con modificaciones respecto de las formas de trabajo tradicionales (diseño gráfico y

6
dibujo asistido por computadora). Esta es la visión social predominante: "Informática como
herramienta para...".

Respecto de la perspectiva científica de la Informática, puede considerarse como la dimensión


más débil.

Muy poco se piensa, en la enseñanza de la Informática, en términos de invariantes


disciplinares. En la práctica, el vacío conceptual genera la búsqueda incesante de nuevos
desarrollos como objetos para enseñar. La seducción ejercida por las supuestas virtudes de los
nuevos desarrollos comerciales parecería marcar un imperativo en relación a perseguir la
actualización como fin en sí mismo.

Existen variados obstáculos que interfieren a la hora de pensar sobre invariantes disciplinares,
tales como:

 La creencia social fomentada desde la publicidad que hacen las empresas, sobre la
transparencia de manejo de la computadora, sin reconocer la diversidad de programas
existentes y la gran variabilidad respecto a su complejidad.
 La percepción social de que lo único asequible de la Informática es lo que aportan sus
propias representaciones, inconsistente con una voluntad real de pasar esa frontera.

Desde lo ideológico, esta postura encierra una imagen de usuario/consumidor incapaz de


sortear límites que le permitan posicionarse desde otro lugar en relación a la tecnología,
aprovechando las potencialidades que la computadora y sus programas brindan.

La organización de los contenidos de la Informática, se realiza en torno a tres ejes


conceptuales: Las técnicas informáticas para el tratamiento de problemas, las herramientas
informáticas y su manejo operativo, la computadora y su manejo operativo.

Si bien el enfoque pretende una inserción con rastro disciplinar, como también se desprende
de su organización de contenidos, la presencia de la Informática en el ámbito educativo es
sumamente lábil, tanto en espacios curriculares como en su existencia real.

De esta forma, el abordaje de la Informática en la mayor parte de las instituciones educativas,


en líneas generales, responde a una visión fragmentada de la misma, teniendo así un sesgo
muy marcado hacia un recorte de ella misma, de modo que existe poca o nula cohesión con
otros aspectos de la disciplina.

PARADIGMAS DE ABORDAJE DE LA INFORMÁTICA

7
Teniendo en cuenta que en nuestro país, la Informática comienza a incorporarse en las
instituciones educativas a partir de la década del ’80, las propuestas didácticas para abordarla
refieren a tres formas y momentos diferentes.

Paradigma de la programación (década del ’80): La propuesta didáctica de ese entonces,


implicaba el desarrollo de programas en un lenguaje de programación (generalmente BASIC).
Debido a que la Informática se incorpora como recurso para la enseñanza de la matemática,
ello significó una gran exigencia profesional, dado que debía enseñar dos objetos de
conocimiento correspondientes a disciplinas diferentes, a la vez que debía aprender el
lenguaje de programación que debía enseñar, ya que en su formación de base, estos
conocimientos eran inexistentes. Además, debía encontrar propuestas didácticas que
legitimaran el uso de la computadora como recurso tecnológico para la enseñanza de la
matemática. El proyecto no dio los resultados esperados y dejó como huella para la enseñanza
de la Informática la idea de "recurso para ...".

Paradigma de las herramientas (década del ’90): El desarrollo de las computadoras personales
permitió a las instituciones educativas, acceder a dispositivos de mayor capacidad de
almacenamiento y procesamiento, e incorporar herramientas destinadas a la producción, no
pensadas, en principio, para el ámbito académico. Asimismo, se produjo un cambio
significativo en relación al lugar que la tecnología ocuparía en dichas instituciones, pues de ser
receptora o consumidora, centrada en el libro impreso como soporte mediador de la
información, pasó a integrar como tecnología educativa a las herramientas informáticas de
producción.

Este paradigma generó una tensión extrema entre la enseñanza del manejo de herramientas
informáticas y el empleo de las mismas en contextos de otras disciplinas. Las situaciones
académico-didácticas que involucraban a estas herramientas, por lo general respondían a una
de dos alternativas, centrar el propósito exclusivamente en la operatoria de las herramientas
"habilitando" entonces actividades totalmente descontextualizadas, o bien, desarrollar
propuestas pensadas para trabajar contenidos de otras disciplinas y que por consiguiente no
tenían en cuenta a los conocimientos informáticos como objeto de enseñanza, es decir, sólo
interesaba el producto elaborado por los estudiantes.

Paradigma de las redes extendidas e Internet (2000-actualidad): Hacia fines del siglo XX, la
representación social de la Informática da un importante giro, motivado por la expansión
acelerada de las redes informáticas, asociadas a la comunicación a distancia. Se masifica el uso
del correo electrónico y el acceso a fuentes de información a través de Internet. La era de las
autopistas informáticas, de la sociedad de la información y del conocimiento, genera un fuerte
cambio de paradigma social en torno de la Informática.

8
El anterior modelo suponía la tecnología al servicio del tratamiento de la información, que,
poco a poco, pierde peso para centrar el espíritu en la tecnología al servicio del acceso y
transmisión de la información. A la Informática se la valora más por la posibilidad que brinda
de enviar de manera rápida y por múltiples canales información digitalizada, que por las
técnicas y herramientas de procesamiento.

En este paradigma los conocimientos informáticos se reducen a realizar unas pocas tareas
básicas, tales como búsquedas en Internet, comunicarse por correo electrónico, chatear, etc.
La Informática como objeto de estudio queda básicamente desplazada, dado que las
habilidades se adquieren paulatinamente por estar inmersos en un contexto tecnológico.

Esta visión social de la Informática es la que está más lejos de lo que realmente es la
Informática, ya que sólo enfatiza un recorte de ella. A quienes preocupa la enseñanza de la
Informática, la consideran como una señal de alerta y, quizás, también como una oportunidad
para repensar los fundamentos de esta disciplina.

ELEMENTOS FUNDAMENTALES DE LA INFORMÁTICA

Tres son los pilares de la informática:

1. Elemento físico (hardware).

Se trata del hardware y comprende todo lo visible, es decir, la computadora propiamente


dicha, los cables, todos los dispositivos externos, etc.

En cuanto a los componentes, podemos dividir el hardware en cinco categorías:

Unidad Central de Procesamiento (CPU):

Es el cerebro de la computadora y tiene la función de coordinar y realizar todas las


operaciones del sistema informático. Está compuesta por:

 Microprocesador: Es el encargado de controlar y ejecutar las operaciones y está


formado por:
 Unidad de control: Es la parte encargada de gobernar al resto de las unidades,
además de interpretar y ejecutar las instrucciones, controlando su secuencia.
 Unidad aritmético-lógica: Es la parte encargada de realizar todas las
operaciones elementales de tipo aritmético y lógico.
 Memoria Central: También denominada memoria interna o principal. Es la
parte encargada de almacenar los programas y los datos necesarios para que

9
el sistema informático realice un determinado trabajo. Está constituida por
dos clases de memorias de acceso directo:
 Random Access Memory (RAM): Es una memoria de escritura-lectura
cuyas posiciones pueden ser escritas y leídas cuantas veces quiera el
usuario.
 Read Only Memory (ROM): Es una memoria de solo lectura, cuyas
posiciones fueron escritas por el fabricante.

Memoria Auxiliar:

También denominada memoria externa o secundaria. Son los dispositivos de almacenamiento


masivos de información, que se utilizan para guardar datos y programas para su posterior
utilización (discos rígidos, discos ópticos, pen drives, tarjetas de memoria, etc).

Elementos de Entrada:

También denominados periféricos (los cuales pueden ser locales o remotos, según estén
situados próximos o distantes respecto de la computadora) o unidades de entrada, son los
dispositivos encargados de introducir los datos desde el exterior a la memoria central para su
utilización, además de prepararla para que la máquina pueda entenderla en forma correcta.
Como elemento de entrada estándar podemos mencionar al teclado. El teclado más utilizado
es el tipo QWERTY, con un conjunto de 104 teclas físicas. Desde el punto de vista lógico, se
puede convertir en una gran variedad de teclados (americano, inglés, español, etc) a través de
programas de configuración. Lleva una memoria local denominada buffer del teclado, que
permite almacenar una serie de líneas escritas en el mismo. Otro dispositivo de entrada es el
ratón (mouse), el cual está constituido por una pequeña caja de aristas redondeadas y de
forma más o menos ergonómica para su adaptación a la mano, con una o varias teclas de
control en su parte superior y una bola o censor óptico en su parte inferior. Otro es el lápiz
óptico que se utiliza, según la aplicación de que se trate, por ligeros contactos sobre la propia
pantalla. Su funcionamiento se basa esencialmente en la detección de luminosidades en la
pantalla. Otro lo constituyen los escáner, cuya misión es la de digitalizar gráficos, textos,
fotografías, etc, para su posterior proceso mediante una computadora.

Elementos de salida:

También denominados periféricos (los cuales pueden ser locales o remotos según estén
situados próximos o distantes de la computadora) o unidades de salida, son los dispositivos
que tienen la misión de recoger y proporcionar al exterior los resultados de los procesos que
se realizan en el sistema informático. Como elementos de salida estándar podemos mencionar

10
a los monitores cuya pantalla consiste en un sistema de representación mediante
configuraciones de puntos luminosos denominados píxeles. Se denomina resolución de la
pantalla al número de píxeles que posee. Existen pantallas de muchos tipos y con diferentes
resoluciones, entre las que destacamos la monocromática y las de color de baja y alta
resolución. A veces las pantallas se distinguen por la tarjeta gráfica que las controla y que está
directamente relacionada con su resolución (VGA, SVGA, etc). Tienen una pequeña memoria
local denominada buffer de pantalla, que almacena toda la información reflejada en ella y la
mantiene mientras no aparezca información nueva u orden de borrado. A través de un
dispositivo llamado “eco”, todos los datos que se introducen con el teclado se reflejan
automáticamente en la pantalla. Otro dispositivo, es el denominado “enrollamiento”, que
permite visualizar más datos de los que caben en la pantalla, eliminando la línea superior y
desplazando las restantes un lugar hacia arriba.

Otro dispositivo lo constituyen las impresoras, que pueden ser de matriz de puntos
(impresoras con impacto), las cuales constan de una cabeza de impresión en la que, por medio
de unos electroimanes que llevan en su interior unos punzones, se configura el carácter a
imprimir. Las velocidades que se obtienen oscilan entre los 80 y 400 caracteres por segundo.
Su principal desventaja es el ruido producido por el golpeteo. Otra es la de chorro de tinta
(impresoras sin impacto), las cuales utilizan tinta líquida que sale por una boquilla en forma de
gotitas. La tinta se carga eléctricamente y está guiada hacia el papel por medio de placas de
desviación, para formar el carácter deseado. La calidad de impresión es muy buena y se
consiguen velocidades de hasta 88000 caracteres por segundo. Por último, las láser, utilizan un
mecanismo de impresión xerográfico con una fuente de luz producida por un rayo láser. Este,
carga eléctricamente una superficie fotoconductora a la que se adhiere un polvo especial
(tóner) que al fundirse por la aplicación de calor forma los caracteres deseados. En impresoras
pequeñas la velocidad se mide en páginas por minuto, llegando a valores entre 6 y 12.

Un caso particular es el de los trazadores gráficos o plotters, que son dispositivos capaces de
realizar, como salida de un proceso, un gráfico o dibujo. La impresión puede hacerse de tal
forma que el trazo puede tener uno o varios grosores y en uno o varios colores, utilizando
plumas de dibujo como elemento de escritura o la técnica del chorro de tinta.

Elementos de entrada y salida:

También denominados periféricos (locales o remotos según estén situados próximos o


distantes de la computadora) o unidades de entrada y salida, son los dispositivos que realizan
ambas funciones. Entre ellos podemos mencionar, los soportes de información, que
constituyen medios físicos que permiten almacenar datos de forma tal que una computadora

11
pueda manejarlos o proporcionarlos a las personas de manera inteligible. Dichos soportes
deben cumplir con dos objetivos:

 Servir como medio de comunicación eficaz entre el usuario y la computadora, de


modo tal que los datos de entrada sean comprensibles a la computadora y los de
salida a las personas.
 Permitir el almacenamiento de información necesaria para ser procesada o que
interesa guardar durante un cierto período de tiempo.

Los soportes se pueden clasificar de acuerdo a su naturaleza física en:

 Soportes magnéticos: Son los que codifican y mantienen la información en algún


medio magnetizable, el cual está compuesto por una base de plástico o metal
(aluminio), recubierta de una fina capa de material magnético (óxido de hierro), donde
se registra la información en puntos magnetizables que se configuran según el tipo de
soporte.
 Cinta magnética: Existen dos tipos, la cinta magnética en casete (cinta
encapsulada en una pequeña caja de plástico) y cinta magnética universal
(cinta de ½ pulgada de ancho, soportada por un carrete de plástico de hasta 27
cm de diámetro).
 Discos magnéticos: Son los conocidos discos rígidos (disco de aluminio
recubierto de una película de óxido magnetizable). Pueden ser de dos tipos:
discos únicos (un solo disco con las dos caras magnetizables, protegido por
una funda exterior de plástico o metal en caso de ser extraíble) o paquete de
discos, también llamado diskpack (eje central al que van adheridos varios
discos, en este caso las caras exteriores de los discos extremos no suelen ser
magnetizables, en este tipo de soporte, al conjunto de pistas de todos los
discos que ocupan una misma posición se le denomina “cilindro”) y disquete
(protegido por una funda de plástico en la que aparecen tres orificios, uno
para el arrastre del disco, otro para el sincronismo y el último para lectura y
grabación, debido a su alta manipulación requieren de una serie de cuidados
especiales).
 Soportes ópticos: Son aquellos basados en propiedades ópticas, generalmente
relacionadas con la reflexión de la luz. Los elementos reconocedores de estas
propiedades son los dispositivos basados en rayos láser.
 Disco óptico: También denominado disco compacto. La información se
registra, en el más general de los casos, en una sola de las caras, en la cual se
generan minúsculas perforaciones denominadas “pits”, capaces de ser

12
detectadas mediante la incidencia sobre ellas de un rayo láser, que se refleja
de distinta forma según existe o no dicha perforación.

Otros elementos de entrada y salida muy comunes hoy día, son las pantallas táctiles, similares
a un monitor convencional, en el que se ha incluido un dispositivo capaz de reconocer la zona
de la misma donde se realiza un pequeño contacto con el dedo.

Por último, los generadores-reconocedores de voz, son dispositivos capaces de producir una
entrada o salida audible por el hombre, mediante un sintetizador de voz.

2. Elemento lógico (software).

El software es la parte lógica que dota al elemento físico, para realizar cualquier tipo de
trabajo. Es decir, que el software actúa como intermediario entre el hardware y el
humanware.

Al software se lo puede clasificar de la siguiente manera:

 Software de sistema: También llamado software de base. Son aquellos programas que
se utilizan para poder trabajar con la PC. Si bien existen diferentes sistemas
operativos, todos ellos son los encargados de controlar el funcionamiento del
elemento físico y facilitando el uso del mismo al elemento humano. El sistema
operativo está formado por programas de control (de gestión de información, de
gestión de memoria, de entrada y salida, etc) y programas de utilidad (partición de
discos, desfragmentación de discos, gestión de archivos, etc).
 Software de aplicación: Son los que sirven para trabajar en forma directa con la
computadora. Generalmente, existen dos tipos:
 Software enlatado: Son aquellos que están diseñados para ser adaptados a
una gran cantidad de usuarios (procesadores de texto, planillas de cálculo,
etc).
 Software a medida: Son aquellos que se desarrollan específicamente para un
determinado usuario.

En el mundo del software conviven personas y entidades con filosofías muy distintas respecto
a lo que debe ser la informática. Hay empresas tremendamente competitivas, que buscan
maximizar sus beneficios a costa de los usuarios. Otras compañías, buscan legitimar sus
beneficios, aunque con programas correctos, útiles y un buen trato al usuario. También hay
pequeñas empresas que sólo buscan sobrevivir con pequeñas aplicaciones que desempeñen

13
correctamente su misión. Por último, hay bastantes personas que desean que los programas
se distribuyan y usen libremente, sin obtener beneficio económico alguno por ello.

Todas estas filosofías conviven en un mismo terreno y en cierto modo intentan imponerse
unas a las otras. Las licencias de software, son las distintas maneras que tienen las empresas,
organizaciones y personas de autorizar el uso de sus programas. Una licencia, es un contrato
privado de cesión de derechos entre particulares. Cada una elige la que le parece más
conveniente, sea por motivos éticos o simplemente comerciales.

Software en propiedad: Es el más conocido por el gran público. A veces se usan erróneamente
los términos software comercial o cerrado, pero no son sinónimos. Por el dinero que se paga,
el usuario (cliente) recibe el programa y la garantía de que funcionará. Si no lo hace, se podrá
consultar al servicio técnico de la compañía, que, en el mejor de los casos, resolverá los
problemas surgidos. Una situación muy común, es que la compañía no solucione
inmediatamente los errores de sus programas, sino que lance al mercado nuevas versiones
con mejoras y arreglos y comunique a sus clientes anteriores que pueden actualizarse por un
precio algo inferior al del nuevo producto. En ningún caso puede el usuario modificar el
software.

Shareware: Es el software que primero se prueba y luego se paga, es decir, los usuarios
pueden comprobar si el software les resulta de utilidad antes de desembolsar ninguna
cantidad de dinero. La garantía, por tanto, es absoluta y el riesgo nulo. Si después del período
de prueba, el usuario decide quedarse el programa, deberá registrarse, o sea, comunicarse con
los propietarios y pagar el dinero establecido, que generalmente es una cantidad muy
razonable. A veces los autores entregan a los usuarios registrados un manual o una versión
más completa del programa, con más características que la versión sin registrar.

Programas de demostración: Aunque no comparten la misma filosofía que los programas


shareware, son muy similares por sus efectos. El usuario puede usar libremente una versión
reducida del programa, pero si desea la versión completa, debe pedirla y pagarla. Muchos
juegos distribuyen versiones de demostración.

Freeware: Son los de distribución y uso gratuito. Sus autores los distribuyen por los canales
que consideren más adecuados, conocidos y útiles. Los usuarios no pagan nada y a cambio
tampoco reciben garantía alguna, es decir, si el software no funciona, no se puede reclamar
legalmente nada. Sin embargo, lo habitual, en caso de problemas, es contactar directamente
con el autor y explicar la situación. Si el autor es una compañía, suele tener un sitio en
Internet, con información adicional. Si el autor es una persona, casi siempre es amable y
procura resolver en poco tiempo el inconveniente.

14
Software libre: Son los programas que se distribuyen incluyendo el código fuente, es decir, los
listados a partir de los cuales se crean los programas. De esta manera, además de poder
aprender cómo están construidos, el propio usuario puede reparar errores y adaptar el
programa a sus propias necesidades. Naturalmente, es necesario tener algún conocimiento de
programación para poder hacer esto, pero hay una gran comunidad de personas dedicadas a
desarrollar y usar, simultáneamente, estos programas.

Es importante dejar en claro que el término “freeware” es ambiguo, ya que “free” significa
gratuito y libre. Para resaltar que el término se interpreta como sinónimo de libertad, se
explica que se usa con el significado que tiene la frase “free speech” (discurso libre), por
oposición al que tiene “free beer” (cerveza gratis). Cuando sólo importa el hecho tecnológico
de disponer del código fuente, se habla de software “open source”. Las personas que
participan en este tipo de actividades, suelen ser muy comunicativas, de mente abierta y
activos intelectualmente. El sentido del humor suele aparecer sutilmente en los programas,
documentación y discusiones free.

Dentro del software libre existen distintos tipos de licencias, que difieren a veces en términos
muy técnicos. Las más importantes son:

 General Public License (GPL): La escribió la Free Software Fundation, con ayuda de un
equipo de expertos en leyes, para el proyecto GNU. Permite que el código fuente se
modifique y se distribuya, pero siempre manteniendo la licencia. No se puede
convertir a software en propiedad.
 Berkeley Software Distribution (BSD): La diferencia con la anterior, es que se admite
que los cambios realizados en el código dejen de ser libres. Cualquier empresa puede
registrar sus cambios y hacerlos suyos.
 Licencia artística: El autor del programa tiene claro, en todo momento, la diferencia
entre su trabajo original y las modificaciones que se van produciendo.
 Mozilla Public Licence (MPL): Es en todo igual a la primera, pero la empresa que
aporta el código se reserva ciertos derechos sobre las modificaciones.

Dominio público: Los programas de este tipo no pertenecen a nadie. Naturalmente, han sido
escritos por personas, pero estas han renunciado a cualquier derecho sobre dicho software. Se
distribuyen con código fuente, que puede ser modificado y usado de cualquier forma, incluso
sin citar al autor original. Este último caso, suele ser considerado de mal gusto.

Uso ilegal de software: Consiste en copiar o usar software en propiedad y/o utilizar shareware
sin pagarlo. Esta actividad es éticamente reprobable, ya que las personas y empresas que han
utilizado su tiempo, conocimientos y esfuerzo para desarrollar dichos programas, no obtienen

15
beneficio económico por ello. Legalmente está perseguida en todo el planeta, aunque es
especialmente en el primer mundo donde se desarrollan campañas para evitarla, ya que es
donde las compañías de software en propiedad pierden más dinero. Estas compañías
denominan vulgarmente a esta actividad “piratería”, aunque el término no se ajusta a la
realidad, ya que no se usurpa la propiedad a nadie. Es obvio que si se usa y fomenta el
software libre, el término piratería ni siquiera es aplicable, y en su lugar se hablaría de
“camaradería”, “cooperación”, “libertad”, “humanidad”, etc. Existe gran cantidad de
programas gratuitos que presentan características muy similares a las de muchos programas
en propiedad.

3. Elemento humano (humanware).

Es el más importante, ya que sin personas estas máquinas serían totalmente inútiles. Se
clasifica de la siguiente manera:

 Personal de dirección: Es el encargado de dirigir y coordinar un departamento,


división, área o proyecto, para obtener un rendimiento adecuado de los recursos
disponibles.
 Personal de análisis: Es el encargado del desarrollo de aplicaciones, así como de
analizar las posibles utilidades y modificaciones necesarias para los sistemas
operativos, a fin de obtener una mayor eficacia y dar apoyo técnico a los usuarios de
las aplicaciones existentes.
 Personal de programación: Es el encargado de transcribir, en un determinado
lenguaje de programación, los algoritmos diseñados en el análisis de una aplicación de
usuario o del propio sistema, así como realizar la traducción de estos programas al
lenguaje nativo de la máquina y ponerlos a punto.
 Personal de explotación y operación: Es el encargado de ejecutar los programas o
aplicaciones existentes, distribuyendo los resultados obtenidos y realizando el
mantenimiento diario de los equipos y sistemas existentes.

DATO E INFORMACIÓN. CONCEPTO Y DIFERENCIA

Si bien ambos conceptos están, en cierta forma relacionados, debe distinguirse


conceptualmente uno de otro e interpretarse de manera correcta.

El Dato es el componente mínimo de una información mayor. Es necesario para llegar al


conocimiento exacto de una cosa o hecho, que describe objetos, situaciones, etc.

La Información es el conjunto de datos procesados en forma significativa, ordenados y con una


secuencia lógica sobre algún suceso o hecho de importancia. Tiene valor real para la toma de
decisiones. En la medida que se dispone de más información, más fácil resultará tomar
decisiones correctas. Esa es la función de la información, disminuir la incertidumbre o
aumentar el conocimiento, incrementando además la probabilidad de éxito. A su vez, el

16
entendimiento obtenido a partir del razonamiento en base a la información disponible da
lugar al Conocimiento.

Cuando una persona solicita un crédito, completa un formulario con sus datos, tales como,
nombre y apellido, DNI, domicilio, ingresos mensuales, situación laboral, etc. Al ser estos datos
evaluados por un analista, dichos datos resultan procesados y se convierten en información
valiosa, que da paso al conocimiento, capaz de indicar si dicha persona puede ser considerada
confiable para el otorgamiento de un crédito o no.

REPRESENTACIÓN DE LA INFORMACIÓN

Existen distintos métodos para representar los datos que se introducen a una computadora,
según sean:

 Caracteres numéricos: {0, 1, ..., 9}.


 Caracteres alfabéticos: {a,b, ..., z, A, B, ..., Z}.
 Caracteres especiales: {(, ), *, +, -, ?, ...}.
 Caracteres de control: {suprimir, escape, ...}.
 Imágenes: {mapa de bits, vectores}.

La computadora, sólo entiende secuencias de 0 y 1, por lo tanto, la codificación es el proceso


de asignación de secuencias de ceros y unos a cada uno de los caracteres. Para ello existen
códigos normalizados.

Para la representación de caracteres numéricos, se utilizan los sistemas de numeración


posicional en base b. Si bien puede utilizarse cualquier base b, los más comunes son:

 Base 2 (b = 2): Sistema binario {0, 1}.


 Base 8 (b = 8): Sistema octal {0 ... 7}.
 Base 10 (b = 10): Sistema decimal {0 ... 9}.
 Base 16 (b = 16): Sistema hexadecimal {0 ... 9, A ... F}.

En este curso sólo analizaremos la representación de números por medio de los dos primeros
sistemas y las conversiones de uno a otro. Los dos últimos, se denominan códigos intermedios
y se utilizan para abreviar las secuencias de ceros y unos.

Ejemplos de números binarios de tres cifras y sus equivalentes decimales:

17
Para convertir un número de binario a decimal, procedemos como sigue:

Deseamos convertir el siguiente número 101110)2 a 101110)10.

Tomamos cada dígito y lo multiplicamos por 2, con su exponencial posicional correspondiente,


contando desde cero, de derecha a izquierda:

(1x25)+(0x24)+(1x23)+(1x22)+(1x21)+(0x20)=

Resolviendo la ecuación anterior nos queda:

32+0+8+4+2+0=46

Es decir:

101110)2=46)10

Supongamos ahora el siguiente caso: 101110,110)2 a 101110,110)10.

Para la parte entera, se procede de la misma manera que en el caso anterior (46).

Para la parte fraccionaria, tomamos cada dígito y lo multiplicamos por 2 con su exponencial
posicional correspondiente, contando desde menos uno, de izquierda a derecha. En este caso,
el exponencial será negativo:

(1x2-1)+(1x2-2)+(0x2-3)=

Resolviendo la ecuación anterior nos queda:

0,5+0,25+0=0,75

Ahora, sumamos las conversiones resultantes de la parte entera y fraccionaria:

46+0,75=46,75)10

Es decir:

101110,110)2=46,75)10

18
Para convertir un número de decimal a binario, procedemos como sigue:

En el caso de números enteros, se divide por 2 y, sucesivamente, los cocientes que se van
obteniendo. Los restos de cada división y el último cociente, son las cifras binarias. El último
cociente es el bit más significativo y el primer resto el menos significativo.

En el caso de números fraccionarios, se multiplica por 2 la parte fraccionaria y, sucesivamente,


las partes fraccionarias de los números obtenidos. El número binario se forma con las partes
enteras que se van obteniendo.

Para la representación de caracteres alfabéticos, especiales y de control, existen dos códigos


normalizados: ASCII (American Standard Code for Information Interchange) y Unicoide.

El primero es de los más usados y utiliza 7 bits y 1 bit adicional para control de errores,
caracteres gráficos y extensiones de determinados idiomas.

19
El segundo, fue diseñado para cubrir los lenguajes escritos en uso (árabe, cirílico, etc) de modo
universal, uniforme y único (objetivos del estándar) y también las lenguas muertas. Cada
carácter Unicode está representado por 16 bits y en este caso, no se contemplan caracteres de
control. Es un estándar compatible con ISO-Latin1 (los 256 primeros caracteres en cualquier
codificación Unicode coinciden con los del ISO-Latin1).

Para la representación de imágenes, hay que tener en cuenta si se trata de una imagen de
mapa de bits o una vectorial.

Las primeras están compuestas por infinitos puntos. Cada punto tiene un nivel de gris o un
color.

Para codificar una imagen, hay que determinar cuántos puntos vamos a considerar, ya que no
podemos almacenar y procesar infinitos puntos. Además, hay que asociarles un nivel de color
o de gris. Dicho nivel asociado, será la media de los puntos representados.
20
Normalmente se considera que una imagen está formada por una matriz de puntos (píxeles),
que son los elementos de imagen (picture elements).

La resolución de una imagen se obtiene a haciendo el producto entre el número de elementos


por línea y el número de elementos por columna.

La representación de una imagen es sencilla y funciona con cualquier imagen, almacenándose


sucesivamente los atributos de los píxeles. Esto se produce de izquierda a derecha y de arriba
abajo.

Las segundas, están compuestas por una colección de objetos (líneas, polígonos, textos). Cada
uno de estos objetos, se modela mediante vectores y ecuaciones. Al visualizar la imagen en
pantalla, se evalúan las ecuaciones y se escalan los vectores para generar la imagen. Las
imágenes vectoriales son adecuadas para gráficos geométricos, pero no para imágenes reales,
ideales para aplicaciones de diseño por computadora (CAD) y en comparación con los mapas
de bits, los archivos de imágenes vectoriales suelen ocupar mucho menos espacio. Es más
sencillo procesar o escalar las imágenes a cualquier tamaño, pero, la fidelidad o calidad de la
imagen respecto a la realidad suele ser peor.

Respecto de la representación del color, las imágenes pueden representarse en escala de


grises o en color. En la primera, cada píxel tiene asociado un valor medio de gris. Normalmente
cada píxel puede tomar 256 valores distintos (1 byte).

Las representaciones más comunes del color de una imagen son: RGB (Red, Green, Blue) y
CYMK (Cyan, Magenta, Yellow, Key).

En el primer modelo, la intensidad media de los colores primarios rojo (R), verde (G) y azul (B)
se codifica por separado. Una gran calidad de colores se consigue con 8 bits por cada color, es
decir, se necesitarían 3 bytes por cada píxel (28*3= más de 16 millones de colores distintos). Se
trata de un modelo aditivo, o sea, la suma de los colores genera el color blanco y se utiliza
principalmente para la visualización en pantalla.

21
En el segundo modelo, el color se representa mediante el celeste (C), amarillo (Y), magenta
(M) y negro (K).Se trata de un modelo sustractivo, o sea, la suma de colores genera el negro y
se utiliza principalmente para la impresión con tinta.

Las conversiones RGB CYMK no son equivalentes y pueden ser irreversibles.

Los formatos de representación de imágenes para mapa de bits son:

 BMP (BitMap), usado en aplicaciones Windows.


 PICT (PICTure), usado en Machintosh.
 PPM (Portable PixMap), de codificación sencilla y posibilidad de uso en ASCII.
 JPEG (Joint Photographic Experts Group), permite lograr buena calidad para imágenes
naturales. Incluye compresión la cual puede ser con o sin pérdida. Esta última, elimina
sólo información que el ojo humano no puede ver.

Los formatos de representación de imágenes para mapa de vectores son:

 DXF (Document eXchange Format), es un formato normalizado para imágenes CAD


(AutoCAD, Corel Draw, etc).
 EPS (Encapsulated Postscript), es el caso de imágenes del lenguaje Postscript
(inventado por adobe para documentos con texto y gráficos).
 TRUE TYPE, es una alternativa de Apple y Microsoft para archivos EPS. Se utiliza
principalmente en fuentes.

TEORÍA GENERAL DE SISTEMAS. ENFOQUE SISTÉMICO

El enfoque sistémico es una manera de abordar y formular problemas con vistas a una mayor
eficacia en la acción, que se caracteriza por concebir a todo objeto (material o inmaterial)
como un sistema o componente de un sistema, entendiendo por sistema una agrupación de
partes entre las que se establece alguna forma de relación que las articule en la unidad que es
precisamente el sistema.

Un sistema es una agrupación de elementos en interacción dinámica organizados en función


de un objetivo. Todo sistema posee cuatro componentes:

Los elementos de un sistema forman un todo y pueden ser conceptos, objetos o sujetos. Estos
elementos pueden ser vivientes, no vivientes o ambos simultáneamente, así como también
ideas, sean estas del campo del conocimiento ordinario, científico, técnico o humanístico. Las
ideas no pueden concebirse como sueltas o independientes del contexto o sistema en el que
están insertas.

22
La interacción entre los elementos y la organización de los mismos es lo que posibilita el
funcionamiento del sistema.

En los conceptos de interacción y organización está implícito el concepto de estructura. Lo que


diferencia a un sistema de un mero agregado o conjunto, es la estructura, esto es, un
conjunto de relaciones entre componentes del sistema.

Los sistemas, que pueden ser naturales o artificiales, tienen una finalidad (objetivo), en otras
palabras cumplen una función.

Todo sistema forma o puede formar parte de un sistema más grande, al que podemos llamar
supersistema, metasistema, o estar compuesto de subsistemas, estos no son otra cosa que
sistemas más pequeños, los que a su vez pueden estar compuestos de otros más pequeños
aún, y así podríamos seguir hasta llegar a los componentes más elementales de todo lo que
existe en el universo.

Los sistemas pueden estar asociados o ser sustento de procesos, entendiendo por proceso un
conjunto de acciones que tienden hacia un fin determinado. Estos procesos implican
producción, transformación y/o transporte de materia, energía y/o información y tienen por
resultado un producto (material o inmaterial). Los procesos pueden ser físicos, químicos,
económicos, biológicos, etc, y los productos objetos, bienes, energía, procedimientos, etc.

A los sistemas se los suele representar simbólicamente por medio de diagramas,


genéricamente llamados "diagramas de bloques". En un diagrama de bloques, se presentan de
manera esquemática, "las unidades" o "las fases del proceso" (producción, transformación,
transporte y/o almacenamiento), del cual el sistema es sustento, por medio de bloques o
rectángulos.

En estos diagramas se indican mediante flechas las interrelaciones que hay entre los diversos
bloques.

23
Las flechas representan los flujos, que pueden ser de materia, de energía o de información, tal
como fue dicho en apartados anteriores. Para una mejor comprensión de los diagramas de
bloques, se suelen señalar en forma diferente las flechas correspondientes a los flujos de
materia, de energía y de información.

Las ventajas de representar un sistema mediante un diagrama de bloques son, entre otras, la
facilidad de esquematizar el sistema total colocando simplemente los bloques de los
elementos componentes acorde a los flujos, y la posibilidad de evaluar la contribución de cada
unidad al funcionamiento global del sistema.

En general, se puede ver más fácilmente el funcionamiento de un sistema analizando el


diagrama de bloques que analizando el sistema en sí. Un diagrama de bloques tiene la ventaja
de mostrar de manera sencilla los flujos a través del sistema real, y permite poner en evidencia
los aspectos que interesan, con independencia de la forma en que se materialicen. Los flujos
(de materia, energía e información) que llegan a cada bloque (entradas) se indican con flechas
entrantes, mientras que los flujos que salen (salidas) se indican con flechas salientes del
bloque.

En el enfoque sistémico interesa fundamentalmente lo que el sistema recibe y lo que el


sistema entrega.

Desde el punto de vista de su vinculación con el entorno, podemos clasificar a los sistemas en:
Abiertos, que son los que están vinculados con su entorno (medio que lo rodea), con el que
mantienen un permanente intercambio, intercambio que puede ser tanto de energía, de
materia, de información, etc, como de residuos, de contaminación, de desorden, etc.

24
Los cerrados, son aquellos que están totalmente aislados del mundo exterior, con el que, en
consecuencia, no tienen ningún tipo de intercambio. Un sistema cerrado es un sistema que no
tiene medio externo. Ahora bien, un sistema cerrado es una abstracción que no tiene vigencia
en la vida real (salvo el universo como un todo, que no está conectado con otras cosas), pero
debido a la simplificación que significa manejarse con datos que están limitados dentro del
sistema, estos han permitido establecer leyes generales de la ciencia.

Los límites de un sistema, son las fronteras que enmarcan al mismo y lo separan del mundo
exterior. Los límites se fijan por las entradas y salidas del sistema. La fijación de los límites es
un punto clave en el enfoque sistémico, pues delimita el campo de estudio.

Se entiende por realimentación al hecho de reinyectar a la entrada de un sistema una parte (o


una función) de la salida, por medio de la señal de realimentación. La señal de realimentación
es una información de salida, que introducida a la entrada del sistema permite corregir errores
en la salida.

En un sistema se dice que hay realimentación o retroalimentación (feed back), cuando, a


través de un circuito llamado lazo o bucle de realimentación, la salida actúa sobre la entrada.

La realimentación es un mecanismo de control que poseen los sistemas para su correcto


funcionamiento. Existen dos tipos de realimentación: La positiva, ocurre cuando un aumento
de la señal de realimentación provoca un aumento de la salida del sistema. La realimentación
positiva aumenta la divergencia y generalmente conduce a la inestabilidad del sistema
(bloqueo o destrucción), y la negativa, sucede cuando un aumento de la señal de
realimentación provoca una disminución de la salida del sistema. La realimentación negativa
favorece la convergencia hacia un fin, y conduce a la estabilidad, en otras palabras tiende a
mantener el equilibrio de los sistemas, sean éstos artificiales, o naturales.

25
La realimentación negativa es la base de la mayoría de los sistemas automáticos de control,
tanto naturales como artificiales, que buscan la estabilidad del sistema que integran.

Casi todos los procesos biológicos incluyen la realimentación, así como también está presente
en muchos sistemas hechos por el hombre. La realimentación en sistemas ingenieriles puede
estar basada en mecanismos eléctricos, electrónicos, mecánicos, hidráulicos, neumáticos o
químicos.

En general, los sistemas tienden a mantenerse en equilibrio, y para que este equilibrio tenga
lugar es necesario contar con mecanismos que permitan modificar su comportamiento cuando
los resultados se alejan de los valores esperados. Los lazos de realimentación negativa son, en
estos casos, los mecanismos idóneos.

TRATAMIENTO DE LA INFORMACIÓN EN UNA COMPUTADORA

La computadora es un sistema electrónico rápido que manipula datos, los cuales procesa para
obtener resultados que constituyen la información requerida.

 Información: Todo aquello que permite adquirir cualquier tipo de conocimiento.


 Datos: Informaciones no elaboradas ni procesadas.
 Resultados: Datos que fueron procesados.
 Entrada: Conjunto de operaciones cuya misión es tomar datos del exterior y enviarlos
a la computadora.
 Proceso: Conjunto de operaciones que elaboran los datos de entrada para obtener los
resultados.
 Salida: Conjunto de operaciones que proporcionan los resultados de un proceso.

ORGANIZACIÓN DE LA INFORMACIÓN

La función fundamental de todo sistema informático es la gestión de gran cantidad de datos.


Es muy importante pues, conocer de qué manera se almacenan y organizan.

Los datos que gestiona una PC han de estar previamente cargados en su memoria RAM. Estos
datos, se pierden cuando se apaga el sistema. Por tal motivo, existen dispositivos físicos que

26
permiten guardar los datos de manera permanente, son las unidades de almacenamiento.
Cuando se utiliza un procesador de textos, el texto que se va tipeando, se guarda en la
memoria RAM. Si se sale del procesador o apaga el sistema, sin ejecutar la acción de guardado
en la memoria auxiliar, el texto se perderá.

Las unidades de almacenamiento son dispositivos físicos integrados o no al sistema


informático. Una PC con una disquetera y un disco duro tiene dos unidades físicas.

Un sistema operativo, no operará nunca sobre las unidades físicas, sino que lo hará sobre
unidades lógicas. Una unidad lógica es la representación que el sistema operativo hace de una
unidad física. El nombre que utiliza para referenciar cada unidad, es una letra seguida de dos
puntos (C:, A:, D:, E:). Por lo tanto, cada unidad física tiene su correspondiente unidad lógica:

 Unidad A: Corresponde a la primera unidad física de disquete.


 Unidad B: Corresponde a la segunda unidad física de disquete.
 Unidad C: Corresponde a la primera unidad física de disco duro.

En un disco duro se pueden crear diferentes particiones, en este caso a cada partición le
corresponderá una unidad lógica. Una partición, como su nombre lo indica, es una parte del
disco duro. Aunque lo más usual es tener una única partición que incluya todo el disco duro, se
puede optar por utilizar el 60% del disco para instalación de programas y el 40% restante para
almacenar archivos de datos. Para crear una partición en un disco duro se ha de utilizar un
programa especial o bien un administrador de discos (Windows 10).

Los conceptos de unidad física y unidad lógica son de poca relevancia para el usuario, no así
para los programadores. Debe quedar claro es que las unidades A: y B: hacen referencia a
unidades de disquete, y a partir de C: hacen referencia a unidades de disco duro. En algunos
casos D: y otras unidades lógicas se asignan a unidad de CD-ROM, pen drives, tarjetas de
memoria, etc.

ARCHIVOS O FICHEROS

Al trabajar con un procesador de textos y ejecutar la acción “Guardar como”, cabría


preguntarse: ¿de qué manera se guardará el documento? Los datos que se guardan en una
unidad de almacenamiento se agrupan en archivos (ficheros en DOS o Windows 3.1). Cada
archivo tiene un nombre que lo diferencia del resto y guarda una determinada información.

Ahora bien, en un archivo se pueden guardar diferentes tipos de información. Muy


genéricamente podemos establecer una clasificación en tres categorías:

27
 Archivos ejecutables: Guardan instrucciones para el sistema y están formados por
grupos de órdenes que el sistema interpreta y ejecuta. Por ejemplo, un procesador de
textos, un juego, una hoja de cálculo, son archivos que contienen instrucciones que
hacen que el sistema actúe de una determinada forma. Este tipo de archivos recibe el
nombre de programa o aplicación.
 Archivos complementarios: Guardan datos o instrucciones que utilizan los
ejecutables. Por ejemplo, en un programa de juegos de gran complejidad, es común
guardar los escenarios por donde transcurre el mismo en archivos de este tipo, de
forma tal que estos se carguen sólo cuando sean necesarios.
 Archivos de datos y documentos: Son archivos que guardan los datos que se crean por
medio de un programa, por ejemplo, un documento creado en un procesador de
textos. Hay muchas clases de archivos de este tipo, dado que cada aplicación
acostumbra a utilizar un formato propio para guardar los mismos.

CARPETAS

Una carpeta es un elemento que se crea en una unidad de almacenamiento y sirve para
agrupar y organizar los archivos. Si no existieran estos elementos, todos los archivos se
tendrían que guardar juntos en una unidad, lo cual dificultaría mucho su gestión. A su vez,
cada carpeta puede contener otras (subcarpetas). Una carpeta se denomina directorio en el
sistema operativo DOS y en Windows 3.1.

NOMBRES DE ARCHIVOS Y CARPETAS

En el sistema operativo DOS y en Windows 3.1, los nombres de los archivos estaban
compuestos por un nombre con una longitud máxima de ocho caracteres, un punto y la
extensión (opcional) máxima de tres caracteres. Se admiten letras, dígitos y algunos caracteres
especiales. También se admite el espacio en blanco. En Windows los nombres pueden tener
hasta 255 caracteres, se permiten letras, dígitos, caracteres especiales y el carácter espacio.
No son válidos los caracteres \, ?, ¿, ;, *, “, <, >, |.

Pueden tener extensión, la cual no está limitada a tres caracteres, pero no se acepta el
carácter espacio.

Siempre que se crea un nombre largo para un archivo, Windows crea automáticamente un
nombre corto, esto es debido a que muchas de las aplicaciones que se utilizan en este sistema
pueden estar creadas para funcionar en DOS o Windows 3.1. Un nombre largo se convierte en
un nombre corto de la siguiente manera, se reemplazan los seis primeros caracteres por el
signo ~, después se le agrega un número del uno al nueve (por si en archivos diferentes
coinciden los seis primeros caracteres). Para extensiones que posean más de tres caracteres,
se toman los tres primeros.

28
Cuando se utiliza una trayectoria para referenciar un archivo con nombre largo dentro de una
aplicación que corre en DOS o Windows 3.1, será necesario utilizar el nombre corto o bien el
nombre largo encerrado entre comillas.

SISTEMAS DE ARCHIVOS

Cada sistema operativo suele tener un sistema de archivos preferido para trabajar, que se
suele denominar nativo, aunque con las sucesivas mejoras es posible cambiar el sistema de
archivos nativo.

Además del sistema de archivos nativo, cada sistema operativo está obligado a saber utilizar
otros, debido a que son de uso muy extendido (como el de los CD-ROM). Además, los sistemas
operativos pueden ser capaces de usar los sistemas de archivos de otros sistemas operativos,
para favorecer el intercambio de información. Ellos mismos pueden ser capaces de hacerlo o
puede que necesiten la instalación de programas adicionales.

Al proceso de preparar el sistema de archivos en un dispositivo, se le suele llamar “dar


formato”, o “formatear”. Es importante saber, que cuando se da formato a un dispositivo que
ya tiene un sistema de archivos, se pierden todos sus datos, aunque se use el mismo tipo de
sistema de archivos.

Los sistemas de archivos más utilizados son:

 File Allocation Table (FAT): Es el sistema nativo que utilizan DOS y Windows 95, 98 y
Me. También se suele usar universalmente en los disquetes, memorias USB y tarjetas
de memoria. Tiene tres variantes, FAT12, FAT16 y FAT32, según la capacidad que
admitan.
 New Technology File System (NTFS): Es el sistema nativo de Windows 2000, XP y
posteriores. Tiene la gran ventaja frente al sistema FAT, que utiliza “journaling”, una
tecnología que evita la pérdida de datos ante las salidas bruscas del sistema operativo
(corte de luz).
 ISO9660: Es el sistema usado por los CD-ROM de datos.
 Universal Disk Format (UDF): Lo utilizan los DVD.
 Extended2: Es el sistema nativo de Linux hasta su versión 2.2, inclusive.
 Extended3: Es el sistema nativo de Linux desde su versión 2.4, inclusive. Es muy
compatible con el sistema Extended2, pero incorpora “journaling”, lo que lo hace más
recomendable para su uso general que el Extended2.
 Hierarchical File System (HFS): Es el sistema desarrollado por Apple para su uso en
computadores con MacOS. Originalmente diseñado para ser usado en disquetes y
discos duros, también es posible encontrarlo en dispositivos de solo lectura como los
CD-ROM.
 Hierarchical File System Plus(HFS+): Es una versión mejorada de la anterior. Admite
archivos más grandes y con nombres más largos.

29
ESTRUCTURAS DE ÁRBOL Y TRAYECTORIAS

El sistema unidades de almacenamiento, carpetas y archivos, se dice que forma una estructura
de árbol en forma invertida. La unidad de disco sería el tronco desde el cual se van
desplegando las carpetas y los archivos en forma de ramas, tal como muestra la figura.

Una trayectoria es el nombre que designa la ubicación exacta de una carpeta o archivo dentro
de una unidad de almacenamiento. Una trayectoria indica la unidad de almacenamiento y la
carpeta donde se encuentra un determinado elemento, si existe. Para definir la trayectoria de
un elemento es necesario especificar la unidad y toda la cadena de carpetas que hay hasta
llegar al archivo en cuestión. Se utiliza el carácter “\” para separar los diferentes elementos.
Ejemplo: “Unidad:\Carpeta(s)\Archivo”.

La trayectoria que referencia al archivo denominado “Archivo C2”, de la figura anterior, queda
definida como:

C:\Carpeta 2\Archivo C2

La trayectoria que referencia al archivo denominado “Archivo C11”, de la figura anterior,


queda definida como:

C:\Carpeta 1\Carpeta 11\ArchivoC11.

UNIDADES DE ALMACENAMIENTO

Son las que permiten guardar y recuperar la información. Se pueden clasificar según sean
internas o difícilmente extraíbles y externas o fácilmente extraíbles.

Dentro de los primeros tenemos al disco duro o rígido. Normalmente es la unidad de mayor
capacidad (500 gb a 1 tb) y más veloz, de una computadora. Se encuentra dentro del gabinete.
Una PC puede tener varios discos duros, aunque lo habitual es tener uno o dos.

30
Dentro de los segundos, los más populares son las memorias USB (Universal Serial Bus),
denominados comúnmente pen drive.

Los primeros, se han convertido en el sistema de almacenamiento y transporte personal de


datos más utilizado. Las capacidades más frecuentes que se pueden encontrar en el mercado
son de 1, 2, 4, 8, 16 y 32 gb. Las de 64, 128, 256 y 512 gb, e incluso las de 1 tb, pueden por su
precio, estar aún fuera del alcance del "usuario doméstico".

Otras unidades de almacenamiento muy utilizadas son las tarjetas de memoria, que operan en
forma similar a los anteriores y se pueden insertar directamente en las ranuras
correspondientes de los diferentes equipos o utilizarse un adaptador para tarjetas con
conexión USB. Si bien las más utilizadas son las tarjetas SD (secure digital) y micro SD, existe
una gran variedad de las mismas:

 MS/MS Duo: Normalmente, la Memory Stick es utilizada como medio de


almacenamiento de información para un dispositivo portátil, de forma tal que la
información puede ser fácilmente extraída. Las cámaras digitales de Sony utilizan la
tarjeta Memory Stick para guardar imágenes y vídeos. Además, la línea de portátiles
Sony VAIO lleva mucho tiempo incluyendo ranuras para Memory Stick.

31
La Memory Stick para muchos es asociada sólo con la marca propietaria Sony, ya que la
gran mayoría de dispositivos portátiles de ésta la han utilizado durante mucho tiempo.
Aun así, los únicos fabricantes relevantes que producen la Memory Stick son SanDisk y
Lexar. A pesar de ser propiedad de una marca en especial o debido al apoyo obstinado de
parte de Sony para el formato, la Memory Stick ha sobrevivido más que otros formatos de
memoria flash de otras marcas, y su longevidad es sólo comparable a la del CompactFlash
(CF) y la del Secure Digital (SD). La Memory Stick original era aproximadamente del tamaño
y espesor de una goma de mascar y venía con capacidades de 4 mb hasta 128 mb. Después
Sony introdujo Memory Stick PRO Duo, de más capacidad que la Memory Stick normal,
llegando a tener entre 4 y 32 gb.

 M2: Sony ha comercializado también la Memory Stick Micro o Memory Stick M2, de
tamaño muy reducido similar a una micro SD, pensado para teléfonos móviles. Los
Sony Ericsson más recientes, llevan un lector de tarjetas de este formato para el cual
también hay adaptadores a Memory Stick Pro.

 SD/MMC: MultiMediaCard, es un estándar de tarjeta de memoria, prácticamente igual


a la Secure Digital (SD).

Carece de la pestaña de seguridad que evita sobrescribir la información grabada en


ella. Su forma está inspirada en el aspecto de los antiguos disquetes de 3,5 pulgadas.
Actualmente ofrece una capacidad máxima de 64 GB. Fue presentada en 1997 por
Siemens y SanDisk. La MMC tiene el tamaño de un sello de correos: 24 mm x 32 mm x

32
1,4 mm. Han sido reemplazadas relativamente por las Secure Digital (SD), pero siguen
teniendo un uso importante porque las MMC pueden usarse en la mayoría de aparatos
que soportan tarjetas SD (son prácticamente iguales), pudiendo retirarse fácilmente
para leerse en una PC.

Se usan en casi cualquier contexto donde se usen tarjetas de memoria, como teléfonos
móviles, reproductores de audio digital, cámaras digitales, etc. Desde la introducción
de la tarjeta SD y la ranura Secure Digital Input/Output (SDIO), pocas compañías
fabrican ranuras MMC en sus dispositivos, pero las MMC, ligeramente más delgadas y
de pines compatibles, pueden usarse en casi cualquier dispositivo que soporte tarjetas
SD, si lo hace su software.
 CF/CF II: CompactFlash fue originalmente un tipo de dispositivo de almacenamiento de
datos, usado en dispositivos electrónicos portátiles. Como dispositivo de
almacenamiento, suele usar memoria flash en una carcasa estándar, y fue especificado
y producido por primera vez por SanDisk en 1994. El formato físico sirve ahora para
una gran variedad de dispositivos. Principalmente hay dos tipos de tarjetas CF, el Tipo I
y el Tipo II, ligeramente más grueso (ya no se fabrica). LA CF está entre los formatos
más antiguos y exitosos, y se ha introducido en el nicho del mercado profesional de las
cámaras. Se ha beneficiado de tener tanto un buen costo en relación a la capacidad de
la memoria, comparado con otros formatos, como tener, generalmente, mayores
capacidades disponibles que los formatos más pequeños.

 XD: Se suele denominar XD-Picture (digital extremo) y es un formato de tarjeta de


memoria desarrollado por Olympus y Fujifilm y presentado en 2002, y utilizado para
las cámaras fotográficas digitales de dichas marcas comerciales. Su capacidad varía (16
mb, 32 mb, 64 mb, 128 mb, 256 mb, 512 mb, 1 gb y 2 gb). Prácticamente, estas
tarjetas sólo se encuentran para dispositivos antiguos que la utilicen, porque los
fabricantes que las promovían (al igual que Sony con muchas de las cámaras digitales
que antes usaban MemoryStick) están empleando memorias del tipo Secure Digital

33
(SD). La XD es más pequeña que una estampilla postal (20,0 x 25,0 x 1,7 mm) y pesa
sólo 2 gramos.

 T-Flash: Las tarjetas microSD o Transflash, corresponden a un formato de tarjeta de


memoria flash más pequeña que la MiniSD, desarrollada por SanDisk. Fue adoptada
por la Asociación de Tarjetas bajo el nombre “microSD” en julio de 2005. Mide tan solo
15 × 11 × 1 milímetros, lo cual le da un área de 165 mm². Esto es tres veces y media
más pequeña que la miniSD, que era hasta la aparición de las microSD el formato más
pequeño de tarjetas SD, y es alrededor de un décimo del volumen de una tarjeta SD.

Si bien sus tasas de transferencia no son muy altas, empresas como SanDisk han trabajado
en ello, llegando a versiones que soportan velocidades de lectura de hasta 10 Mb/s.
Actualmente, ya existen tarjetas microSD fabricadas por Panasonic que alcanzan los 90
Mb/s de lectura y los 80 Mb/s de escritura. Debido a que su costo como poco duplica el de
una SD equivalente, su uso se ciñe a aplicaciones donde el tamaño es crítico, como los
teléfonos móviles, sistemas GPS o consolas de mano (Nintendo DSi, Nintendo 3DS). Aun
así, debido a la gran demanda de este tipo de tarjetas, son más baratas que las SD
tradicionales a igualdad de especificaciones, al menos en las capacidades de hasta 32GB. A
partir de esta capacidad son más rentables las tarjetas SD.

Las últimas unidades dentro de este grupo, son los discos ópticos. Utiliza rayos láser en lugar
de imanes para leer y escribir la información en la superficie del disco. Aunque no son tan
rápidos como los discos duros, los discos ópticos tienen mucho espacio para almacenar datos,
son menos sensibles a las fluctuaciones ambientales y proporcionan mayor almacenamiento a
un costo menor. Existen tres categorías de discos ópticos:

34
 Compact Disc (CD): La capacidad y velocidad de giro más comunes de estos discos es
de 700 mb y de 24 a 52X, respectivamente. En el mercado se consiguen discos
“vírgenes” del tipo CD-R (recordable) y CD-RW (re-writable).

 Digital Video Disc (DVD): Se concibieron para reemplazar al video analógico más
conocido como VHS (Video Home System). La capacidad y velocidad de giro más
comunes de estos discos es de 4 gb y de 16 a 24X, respectivamente. En el mercado se
consiguen discos “vírgenes” del tipo DVD-R (recordable) y DVD-RW (re-writable).

 Blu-ray Disc (BD): Fue concebido para video HD (High Definition). Hace uso de un rayo
láser de color azul con una longitud de onda de 405 nanómetros, a diferencia del láser
rojo utilizado en lectores de CD/DVD, que tiene una longitud de onda de 650
nanómetros. La capacidad y velocidad de giro más comunes de estos discos es de 25
gb (simple capa), 50 gb (doble capa) y de 1 a 12X, respectivamente.

Algunas unidades externas que ya no se utilizan son:

 Disquetes 5 ¼ (1,20 mb).

35
 Disquetes 3 ½ (1,44 mb).

Dentro de los disquetes de 5 ¼ y 3 ½, antiguamente, habían categorías: Doble densidad (DD) y


Alta densidad (HD), siendo la densidad la cantidad de bits almacenados por unidad de
longitud. Los valores de capacidad mencionados anteriormente, corresponden a la categoría
Alta densidad. Para la otra categoría las capacidades eran 360 kb y 720 kb, respectivamente.

Otros disquetes de mayor capacidad que los anteriores, los cuales aparecieron posteriormente
y requerían una disquetera especial son:

 Discos Zip (100 mb, 250mb, 750 mb).

 Discos Superdisck (120 mb).

 Discos Jaz (1 gb).

36
Otras unidades no tan populares son:

 Cintas de respaldo. Los tipos principales son las QIC (Quarter-Inch Cartridge), Travan y
DAT (Digital Audio Tape). Las Travan son una subclase que deriva de las QIC (120 mb a
2,5 gb), con las que suelen guardar un cierto grado de compatibilidad. Ambas forman
el segmento económico del almacenaje en cinta, por ejemplo 20.000 pts una unidad
de 1 GB de capacidad y 2.000 pts cada una de las cintas correspondientes. Las cintas
DAT (100 mb a 2 gb) superan a las anteriores, tanto en velocidad como en precio. La
transferencia de datos puede llegar a superar 1 MB/s.

 Discos magneto-ópticos. Combinan características de los discos duros y los ópticos. La


capacidad de los discos de 90 mm era inicialmente de 128 MB y se fue ampliando
sucesivamente a 230 MB, 530 MB, 640 MB, 1,3 GB y 2,3 GB.

37
UNIDADES DE MEDIDA EN INFORMÁTICA

En todos los sistemas de medida (base 2, base 10, etc), la unidad mínima es el bit, que puede
considerarse como el estado de un interruptor (abierto o cerrado) donde cada estado está
representado por un dígito binario “0” o “1”.

Los bits se agrupan en bytes que son conjuntos de 8 bits. Aunque formalmente pueden existir
bytes de entre 6 y 9 bits, lo normal es encontrar bytes de 8 bits, llamados octetos.

Para la memoria y el almacenamiento, se utiliza el sistema binario, donde cada unidad son
1024 de la unidad anterior, teniendo:

 1024 bytes (b) = 1 kilobyte (kb).


 1024 kilobyte (kb) = 1 megabyte (mb).
 1024 megabyte (mb) = 1 gigabyte (gb).
 1024 gigabyte (gb) = 1 terabyte (tb).
 1024 terabyte (tb) = 1 petabyte (pb).
 1024 petabyte (pb) = 1 exabyte (eb).
 1024 exabyte (eb) = 1 zettabyte (zb).
 1024 zettabyte (zb) = 1 yottabyte (yb).

Para las comunicaciones y velocidad de transmisión de datos, se utiliza el sistema decimal, por
tanto las unidades son múltiplos de 10 y no de 2. Se usa como base los bits por segundo (bps).
Las unidades más usadas son:

 Kilobit por segundo (kbps) = 1.000 bits por segundo.


 Megabit por segundo (mbps) = 1.000.000 bits por segundo (1.000 kpbs).
 Gigabit por segundo (gbps) = 1.000.000.000 bits por segundo (1.000 mbps).

En ocasiones, las velocidades de Internet se miden en kilobytes por segundo (kb/s), contando
en bytes y no en bits) lo que no refleja la velocidad de transmisión, sino las unidades de
capacidad por segundo que se transmiten, teniendo que multiplicar por 8 para obtener la
velocidad real de transmisión.

Para medir la velocidad de procesamientos del microprocesador, la memoria o la gráfica, se


usan los hercios, siendo un hercio (hz) un ciclo o repetición de un evento por segundo.

El hercio ya se ha quedado lento y los dispositivos ahora funcionan a megahercios (mhz =


millones de hercios) o a gigahercios (ghz = mil millones de hercios).

38
BIBLIOGRAFÍA CONSULTADA

 Albarracin, M. [1996]. Introducción a la informática. Ed. Mc. Graw-Hill. Buenos


Aires.
 Arnold Cathalifaud, M. y Osorio, F. [1998]. Introducción a los conceptos básicos
de la teoría general de sistemas. Cinta de Moebio, núm. 3. Universidad de
Chile. Santiago, Chile.
 Barchini, G.E. y Fernández, N.B. [2006].Hacia la legitimación de la informática
como disciplina científico-tecnológica. Propuesta curricular. Revista
Latinoamericana de Tecnología Educativa. 5 (1), 77-87.
 Barchini, G.E.; Sosa, M. y Herrera, S. [2004]. La informática como disciplina
científica. Ensayo de mapeo disciplinar. Universidad de Santiago del Estero.
 Beekman, G. [2005]. Introducción a la informática. Sexta edición.
Pearson/Prentice Hall. Madrid.
 Caraballo, S. y Cicala, R. [2006]. Hacia una didáctica de la informática. Cátedras
de Informática e Informática y Educación. Facultad de Filosofía y Letras. UBA.
 Pareja, C.; Andeyro, A. y Ojeda, M. [1994]. Introducción a la informática
(aspectos generales). Editorial Complutense. España.
 Proaño Romo, M. [2005]. Informática básica. Escuela Politécnica del Ejército.
Ecuador.
 Reina P. [2004/05]. Curso de informática. Fundamentos.
http://pedroreina.net/curso/
 Zamorano, H. [2001]. Introducción a conceptos básicos de la teoría general de
sistemas. Facultad de Ciencias Económicas y Estadística. Universidad Nacional
de Rosario.

39

Vous aimerez peut-être aussi