Vous êtes sur la page 1sur 572

GUIA CENEVAL PARA LA ACREDITACION DEL BACHILLERATO

Indice
Español
• Ortografía general (incluye acentuación y homófonos)
• Puntuación
Gramática y vocabulario
• Concordancia y discordancia de las partes de la oración
• Autores y obras importantes de la literatura clásica
Ciencias naturales
• Física
Mecánica
Electromagnetismo
Acústica
Óptica
Termodinámica
• Química
Propiedades de la materia
Estequiometría
Química orgánica
Termodinámica
• Biología
Biología celular y molecular
Anatomía y fisiología
Genética
Bioquímica
Ciclos metabólicos
Salud y enfermedad
• Psicología
Ciencias sociales
• Historia universal y de México
Historial universal
México: historia
• Geografía universal y de México
Geografía física
Geografia Politica
Geografía humana
México: geografía
• Civismo
• Filosofía
• Economía
• Sociología
• Ética
Mundo contemporáneo
• Hitos o acontecimientos, políticos, económicos, sociales y culturales
• Siglas, acrónimos y funciones de organismos importantes
• Problemas y hechos significativos en el campo de la ecología, la salud y los deportes
Razonamiento verbal
• La comprensión de lectura.
• El establecimiento de relaciones entre palabras y frases sinónimas y antónimas
• El establecimiento de completamientos o interpretaciones de razonamientos lógicos y
analógicos
• La elaboración de inferencias lógicas y silogísticas
• El establecimiento de relaciones:
— causa-consecuencia
— oposición-semejanza
— general-particular
— ejemplificativas
— explicativas, comparativas
— analógicas
Razonamiento matemático
Matemática: Es el estudio de patrones en las estructuras de entes abstractos y en las relaciones
entre ellas. Algunos matemáticos se refieren a ella como la «Reina de las Ciencias».
Según los Sabios, se dice que la matemática abarca tres ámbitos:

• Aritmética.

• Geometría, incluyendo la Trigonometría y las Secciones cónicas.

• Ánálisis matemático, en el cual se hace uso de letras y símbolos, y que incluye el álgebra,
la geometría analítica y el cálculo.
Aritmética
Aritmética es la parte de las matemáticas que estudia los números y las operaciones hechas con
ellos.
Las cuatro operaciones básicas de la Aritmética son:

• Suma

• Resta

• Multiplicación
• División
• Operaciones básicas: suma, resta, multiplicación y división
Todas estas operaciones se verifican a través de su operación inversa: la suma con la resta, la
multiplicación con la division
Suma
Se utiliza para juntar, agregar, unir, etc, 2 o mas cantidades contables de la misma magnitud
(categoría)
La suma o adición es una operación aritmética definida sobre conjuntos de números (naturales,
enteros, racionales, reales y complejos) y también sobre estructuras asociadas a ellos, como
espacios vectoriales con vectores cuyas componentes sean estos números o funciones que tengan
su imagen en ellos.
En el álgebra moderna se utiliza el nombre suma y su símbolo "+" para representar la operación
formal de un anillo que dota al anillo de estructura de grupo abeliano, o la operación de un módulo
que dota al módulo de estructura de grupo abeliano. También se utiliza a veces en teoría de grupos
para representar la operación que dota a un conjunto de estructura de grupo. En estos casos se
trata de una denominación puramente simbólica, sin que necesariamente coincida esta operación
con la suma habitual en números, funciones, vectores...
Propiedades de la suma

• Propiedad conmutativa: si se altera el orden de los sumandos no cambia el resultado, de


esta forma, a+b=b+a.

• Propiedad asociativa: a+(b+c) = (a+b)+c

• Elemento neutro: 0. Para cualquier número a, a + 0 = 0 + a = a.

• Elemento opuesto. Para cualquier número entero, racional, real o complejo a, existe un
número −a tal que a + (−a) = (−a) + a = 0. Este número −a se denomina elemento opuesto,
y es único para cada a. No existe en algunos conjuntos, como el de los números naturales.
Estas propiedades pueden no cumplirse en casos de sumas infinitas.
Notación
Si todos los términos se escriben individualmente, se utiliza el símbolo "+" (leído más). Con esto, la
suma de los números 1, 2 y 4 es 1 + 2 + 4 = 7.
También se puede emplear el símbolo "+" cuando, a pesar de no escribirse individualmente los
términos, se indican los números omitidos mediante puntos suspensivos y es sencillo reconocer los
números omitidos. Por ejemplo:
1 + 2 + 3 + ... + 98 + 99 + 100 es la suma de los cien primeros números naturales.
2 + 4 + 8 + ... + 512 + 1024 es la suma de las diez primeras potencias de 2.
En sumas largas e incluso sumas infinitas se emplea un nuevo símbolo, que se llama sumatorio y
se representa con la letra griega Sigma mayúscula (Σ). Por ejemplo:

es la suma de los cien primeros números naturales.

es la suma de las diez primeras potencias de 2.


Suma de fracciones
Hay dos casos:

Fracciones que tienen el mismo denominador; Fracciones que tienen el distinto denominador
Primer caso: la suma de dos ó más fracciones que tienen el mismo denominador es muy sencilla,
sólo hay que sumar los numeradores y se deja el denominador común.

Segundo caso: la suma de dos o más fracciones con distinto denominador es un poco menos
sencilla.
Pasos
1º. Se haya el mínimo común múltiplo de los dos denominadores
2º Se calcula el numerador con la fórmula: numerador antiguo x denominador común y dividido por
denominador antiguo

3º Se procede como en el primer caso (dado que las fracciones tienen el mimos denominador)

Resta
Se utiliza para restar, descontar, disminuir, etc., 2 o mas cantidades contables de la misma
magnitud (categoría)
La resta o substracción es una de las cuatro operaciones básicas de la aritmética, y se trata
básicamente de la operación inversa a la suma. Por ejemplo, si a+b=c, entonces c-b=a.
En la resta, el primer número se denomina minuendo y el segundo es el sustraendo. El resultado
de la resta se denomina diferencia.
En el conjunto de los números naturales, N, sólo se pueden restar dos números si el minuendo es
mayor que el sustraendo. De lo contrario, la diferencia sería un número negativo, que por definición
estaría excluido del conjunto. Esto es así para otros conjuntos con ciertas restricciones, como los
números reales positivos.
En matemáticas avanzadas no se habla de "restar" sino de "sumar el opuesto". En otras palabras,
no se tiene a - b sino a + (-b), donde -b es el elemento opuesto de b respecto de la suma
Resta de fracciones
Resta de fracciones que tienen el mismo denominador
Para restar dos ó más fracciones que tienen el mismo denominador, sólo hay que restar los
numeradores y se deja el denominador común. Ejemplo:

Resta de fracciones con distinto denominador


1. Se haya el mínimo común múltiplo de los dos denominadores:

(mínimo común múltiplo de 4 y 2)


2. Se calculan los numeradores con la fórmula: numerador antiguo (6) x denominador común (4) y
dividido por denominador antiguo (4)
( 6*4/4=6 )

Numerador antiguo (1) x denominador común (4) y dividido por denominador antiguo (2)
( 1*4/2= 2 )

3. Se procede como en la resta de fracciones de igual denominador (dado que las fracciones tienen
el mismo denominador)

Multiplicación
Se utiliza para resolver problemas donde se suman “n” veces las mismas cantidades.
El producto o la multiplicación es una operación aritmética que se puede explicar como una manera
de sumar números idénticos.
El resultado de la multiplicación de números se llama producto. Los números que se multiplican se
llaman factores o coeficientes, e individualmente como multiplicando (número a sumar) y
multiplicador (veces que se suma el multiplicando).
La multiplicación se suele indicar con el aspa × o el punto centrado ·. En ausencia de estos
caracteres se suele emplear el asterisco *, sobre todo en computación
Definición
La multiplicación de dos números enteros n y m se define como:

Ésta no es más que una forma de simbolizar la expresión "sumar m a sí mismo n veces". Puede
facilitar la comprensión el expandir la expresión anterior:
m×n = m + m + m +...+ m
tal que hay n sumandos. Así que, por ejemplo:
5×2 = 5 + 5 = 10
2×5 = 2 + 2 + 2 + 2 + 2 = 10
4×3 = 4 + 4 + 4 = 12
m×6 = m + m + m + m + m + m
Utilizando esta definición, es fácil demostrar algunas propiedades interesantes de la multiplicación.
Como indican los dos primeros ejemplos, el orden en que se multiplican dos números es
irrelevante, lo que se conoce como propiedad conmutativa, y se cumple en general para dos
números cualesquiera x e y:
x·y = y·x
La multiplicación también cumple la propiedad asociativa, que consiste en que, para tres números
cualesquiera x, y y z, se cumple:
(x·y)z = x(y·z)
En la notación algebraica, los paréntesis indican que las operaciones dentro de los mismos deben
ser realizadas con preferencia a cualquier otra operación.
La multiplicación también tiene lo que se llama propiedad distributiva con la suma, porque:
x(y + z) = xy + xz
Asimismo:
(x + t)(y + z) = x(y + z) + t(y + z) = xy + xz + ty + tz
También es de interés que cualquier número multiplicado por 1 es igual a sí mismo:
1·x = x
es decir, la multiplicación tiene un elemento identidad que es el 1.
¿Qué ocurre con el cero? La definición inicial no ayuda mucho porque 1 es mayor que 0. De hecho,
es más fácil definir el producto por cero utilizando la segunda definición:
m·0 = m + m + m +...+ m
donde hay cero sumandos. La suma de cero veces m es cero, así que
m·0 = 0
sin importar lo que valga m, siempre que sea finito.
El producto de números negativos también requiere reflexionar un poco. Primero, considérese el
número -1. Para cualquier entero positivo m:
(-1)m = (-1) + (-1) +...+ (-1) = -m
Éste es un resultado interesante que muestra que cualquier número negativo no es más que un
número positivo multiplicado por -1. Así que la multiplicación de enteros cualesquiera se puede
representar por la multiplicación de enteros positivos y factores -1. Lo único que queda por definir
es el producto de (-1)(-1):
(-1)(-1) = -(-1) = 1
De esta forma, se define la multiplicación de dos enteros. Las definiciones pueden extenderse a
conjuntos cada vez mayores de números: primero el conjunto de las fracciones o números
racionales, después a todos los números reales y finalmente a los números complejos y otras
extensiones de los números reales.
el producto vacío, es decir, multiplicar cero factores, vale 1.
Una definición recursiva de la multiplicación puede darse según estas reglas:
x·0 = 0
x·y = x + x·(y-1)
donde x es una cantidad arbitraria e y es un número natural. Una vez el producto está definido para
los números naturales, se puede extender a conjuntos más grandes, como ya se ha indicado
anteriormente.
Division
Se utiliza para determinar “n” partes iguales de una cantidad determinada, dividir una magnitud en
partes iguales.
En matemáticas, especificamente en aritmética elemental, la división es una operación aritmética
que es la inversa de la multiplicación y a veces puede interpretarse como una resta repetida.
En otras palabras, consiste en averiguar cuántas veces un número (el divisor) está contenido en
otro número (el dividendo). En la división de números enteros además del dividendo y el divisor
intervienen otros números. Así al resultado entero de la división se le denomina cociente y si la
división no es exacta, es decir, el divisor no está contenido un número exacto de veces en el
dividendo, la operación tendrá un resto, donde:
resto = dividendo - cociente × divisor
Orden de Operaciones
Reglas Importantes para Resolver Operaciones Aritméticas:
1. Primero resolver todo lo que esté dentro de simbolos de agrupación.
2. Evaluar las expresiones exponenciales.
3. Hacer todas las multiplicaciones y divisiones en orden de izquierda a derecha.
4. Hacer todas las sumas y restas en orden de izquierda a derecha.

Ejemplo:
Propiedades de los Números Reales:
• Conmutativa de adición:

La conmutatividad implica que no importa el orden de operación, el resultado


siempre es el mismo.

Por ejemplo:
4+2=2+4
• Conmutativa de multiplicación:

Por ejemplo:

4.2=2.4
• Asociativa de adición:

La asociatividad implica que no importa el orden en que se agrupe, el resultado es el mismo.

Por ejemplo:

(4 + 2) + 9 = 4 + (2 + 9)
• Asociativa de multiplicación:

Por ejemplo:

4 . (2 . 9) = (4 . 2) . 9
• Distributiva de multiplicación sobre adición:

Por ejemplo:

4 . (2 + 9) = 4 . 2 + 4 . 9

Reglas de los Signos:


1. En suma de números con signos iguales, se suman los números y el resultado lleva el
mismo signo. Si los números tienen signos diferentes, se restan y el resultado lleva el signo
del mayor.
Ejemplo:
5 + 8 = 13
5 + -8 = -3
2. En resta de signos iguales el resultado lleva el signo del mayor. Si se restan signos
diferentes, se suman los números y el resultado lleva el signo del mayor.

Ejemplo:
5 - 8 = -3
5 - (-8) = 13
3. En multiplicación y división de números con signos iguales el resultado es positivo. Si los
números son signos opuestos, el resultado es negativo.

Ejemplo:
5 x 8 = 40
5 x -8 = -40
• Cálculo de porcentajes, regla de tres, potencias y raíces
Porcentaje
Un porcentaje es una forma de expresar una proporción o fracción como una fracción de
denominador 100, es decir, como una cantidad de centésimas. Es decir, una expresión como "45%"
("45 por ciento") es lo mismo que la fracción 45/100.
"El 45% de la población humana..." es equivalente a: "45 de cada 100 personas..."
Un porcentaje puede ser un número mayor que 100. Por ejemplo, el 200% de un número es el
doble de dicho número, o un incremento del 100%. Un incremento del 200% daría como resultado
el triple de la cantidad inicial. De esta forma, se puede apreciar la relación que existe entre el
aumento porcentual y el producto.
Confusión en el uso de los porcentajes
Surgen muchas confusiones en el uso de los porcentajes debido a un uso inconsistente o a un mal
entendimiento de la aritmética elemental.
Cambios
Debido a un uso inconsistente, no siempre está claro por el contexto con qué se compara un
porcentaje. Cuando se habla de una subida o caída del 10% de una cantidad, la interpretación
usual es que este cambio es relativo al valor inicial de la cantidad: por ejemplo, una subida del 10%
sobre un producto que cuesta 100$ es una subida de 10$, con lo que el nuevo precio pasa a ser
110$. Para muchos, cualquier otra interpretación es incorrecta.
En el caso de los tipos de interés, sin embargo, es práctica común utilizar los porcentajes de otra
manera: supongamos que el tipo de interés inicial es del 10%, y que en un momento dado sube al
20%. Esto se puede expresar como una subida del 100% si se calcula el aumento con respecto del
valor inicial del tipo de interés. Sin embargo, mucha gente dice en la práctica que "los tipos de
interés han subido un 10%", refiriéndose a que ha subido en un 10% sobre el 100% adicional al
10% inicial (20% en total), aunque en la expresión usual de los porcentajes debería querer decir
una subida del 10% sobre el 10% inicial (es decir, un total del 11%).
Para evitar esta confusión, se suele emplear la expresión "punto porcentual". Así, en el ejemplo
anterior, "los tipos de interés han subido en 10 puntos porcentuales" no daría lugar a confusión,
sino que todos entenderían que los tipos están actualmente en el 20%. También se emplea la
expresión "punto base", que significa la centésima parte de un punto porcentual (es decir, una parte
entre diez mil). Así, los tipos de interés han subido en 1000 puntos base.
Cancelaciones
Un error común en el uso de porcentajes es imaginar que una subida de un determinado
porcentaje se cancela con una caída del mismo porcentaje. Una subida del 50% sobre 100 es 100
+ 50, o 150, pero una reducción del 50% sobre 150 es 150 - 75, o 75. En general, el efecto final de
un aumento seguido de una reducción proporcionalmente igual es:
(1 + x)(1 - x) = 1 - x²
es decir, una reducción proporcional al cuadrado del cambio porcentual.
Los que tenían acciones punto como en el momento de la crisis acabaron comprendiendo que,
aunque una acción haya caído un 99%, puede volver a caer otro 99%. Además, si sube por un
porcentaje muy grande, seguirá perdiéndolo todo si un día la acción reduce su valor en un 100%,
porque entonces no valdrá nada.
Regla de tres
La regla de tres es una relación que se establece entre tres (o más) valores conocidos y una
incógnita. Normalmente se usa cuando se puede establecer una relación de linealidad
(proporcionalidad) entre todos los valores involucrados (análogo para proporcionalidad inversa).
Normalmente se representa de la siguiente forma:
A-B
X-C
Siendo A, B y C valores conocidos y X la incógnita cuyo valor queremos averiguar. Esto se lee de
la siguiente manera: A es a B como X es a C. La posición de la incógnita puede variar, por
supuesto.
Así por ejemplo para pasar 60 grados a radianes podríamos establecer la siguiente regla de tres:
360º - 2 × π
60º - X
potencia y raiz
Notación Exponencial
La notación exponencial se usa para repetir multiplicaciones de un mismo número. Es la
elevación a la enésima potencia (n) de una base (X).

Ejemplos:

Raíz cuadrada
En matemáticas, la raíz cuadrada de un número real no negativo x es el número real no negativo
que, multiplicado con sí mismo, da x. La raíz cuadrada de x se denota por √x. Por ejemplo, √16 = 4,
ya que 4 × 4 = 16, y √2 = 1,41421... . Las raíces cuadradas son importantes en la resolución de
ecuaciones cuadráticas.
La generalización de la función raíz cuadrada a los números negativos da lugar a los números
imaginarios y al campo de los números complejos.
El símbolo de la raíz cuadrada se empleó por primera vez en el siglo XVI. Se ha especulado con
que tuvo su origen en una forma alterada de la letra r minúscula, que representaría la palabra latina
"radix", que significa "raíz".
Propiedades
Las siguientes propiedades de la raíz cuadrada son válidas para todos los números positivos x, y:

para todo número real x (véase valor absoluto)

La función raíz cuadrada, en general, transforma números racionales en números algebraicos; √x


es racional si y sólo si x es un número racional que puede escribirse como fracción de dos
cuadrados perfectos. Si el denominador es 1² = 1, entonces se trata de un número natural. Sin
embargo, √2 es irracional.
La función raíz cuadrada transforma la superficie de un cuadrado en la longitud de su lado.
• Propiedades de los números
Un número es un símbolo que representa una cantidad. Los números son ampliamente utilizados
en matemáticas, pero también en muchas otras disciplinas y actividades, así como de forma más
elemental en la vida diaria.
El número es también una entidad abstracta con la que se describe una cantidad. Los números
más conocidos son los números naturales 0, 1, 2, ..., que se usan para contar. Si añadimos los
números negativos obtenemos los enteros. Cocientes de enteros generan los números racionales.
Si incluimos todos los números que son expresables con decimales pero no con fracciones de
enteros, obtenemos los números reales; si a éstos les añadimos los números complejos,
tendremos todos los números necesarios para resolver cualquier ecuación algebraica. Podemos
ampliar aún más los números, si añadimos los infinitos y los transfinitos. Entre los reales, existen
números que no son soluciones de una ecuación polinomial o algebraica. Reciben el nombre de
transcendentales. El ejemplo más famoso de estos números es π (Pi), otro ejemplo fundamental e
igual de importante es e, base de los logaritmos naturales. Estos dos números están relacionados
entre si por la identidad de Euler, también llamada la fórmula más importante del mundo.
Existe toda una teoría de los números. Se distinguen distintos tipos de números:

• Números naturales . conjunto de numeros que utilizamos para contar cantidades enteras
positivas
o Tiene como primer elemento el cero
o Cualquier numero puede ser escrito con los numero del sistema decimal
o Es un conjunto infinito
o Todos los numeros tienen su siguente
o No existen numeros intermedios entre un numero y sus siguiente
o Todos los numeros naturales cumplen con las relaciones de orden y comparación.
• Número primo

• Números compuestos

• Números perfectos

• Números enteros

• Números pares

• Números impares

• Números racionales

• Números reales

• Números irracionales

• Números algebraicos

• Números trascendentes

• Números complejos

• Cuaterniones

• Números infinitos

• Números transfinitos

• Números fundamentales: π y e
El estudio de ciertas propiedades que cumplen los números ha producido una enorme cantidad de
tipos de números, la mayoría sin un interés matemático específico. A continuación se indican
algunos:
Narcisista: Número de n dígitos que resulta ser igual a la suma de las potencias de orden n de sus
dígitos. Ejemplo: 153 = 1³ + 5³ + 3³.
Omirp: Número primo que al invertir sus dígitos da otro número primo. Ejemplo : 1597 y 7951 son
primos.
Vampiro: Número que se obtiene a partir del producto de dos números obtenidos a partir de sus
dígitos. Ejemplo: 2187 = 27 x 81.
Una vez entendido el problema de la naturaleza y la clasificación de los números, surge otro, más
práctico, pero que condiciona todo lo que se va a hacer con ellos: la manera de escribirlos. El
sistema que se ha impuesto universalmente es la numeración de posición gracias al invento del
cero, con una base constante.
Álgebra
El Álgebra es la rama de las matemáticas que tiene por objeto de estudio la generalización del
cálculo aritmético mediante expresiones compuestas de constantes (números) y variables (letras).
Etimológicamente, proviene del árabe (también nombrado por los árabes Amucabala)‫( جبر‬yebr) (al-
dejaber), con el significado de reducción, operación de cirugía por la cual se reducen los huesos
luxados o fraccionados (algebrista era el médico reparador de huesos).
El álgebra lineal tiene sus orígenes en el estudio de los vectores en el plano y en el espacio
tridimensional cartesiano. Aquí, un vector es un segmento, caracterizado por su longitud (o
magnitud) y dirección. Los vectores pueden entonces utilizarse para representar ciertas
magnitudes físicas, como las fuerzas, pueden sumarse y ser multiplicados por escalares, formando
entonces el primer ejemplo de espacio vectorial real.
Hoy día, el álgebra lineal se ha extendido para considerar espacios de dimensión arbitraria o
incluso de dimensión infinita. Un espacio vectorial de dimensión n se dice que es n-dimensional. La
mayoría de los resultados encontrados en 2 y 3 dimensiones pueden extenderse al caso n-
dimensional. A mucha gente le resulta imposible la visualización mental de los vectores de más de
tres dimensiones (o incluso los tridimensionales). Pero los vectores de un espacio n-dimensional
pueden ser útiles para representar información: considerados como n-tuplas, es decir, listas
ordenadas de n componentes, pueden utilizarse para resumir y manipular información
eficientemente. Por ejemplo, en economía, se pueden crear y usar vectores octo-dimensionales u
8-tuplas para representar el Producto Interno Bruto de 8 países diferentes. Se puede simplemente
mostrar el PIB en un año en particular, en donde se especifica el orden que se desea, por ejemplo,
(Estados Unidos, Reino Unido, Francia, Alemania, España, India, Japón, Australia), utilizando un
vector (v1, v2, v3, v4, v5, v6, v7, v8) en donde el PIB de cada país está en su respectiva posición.
Un espacio vectorial (o espacio lineal), como concepto puramente abstracto en el que podemos
probar teoremas, es parte del álgebra abstracta, y está bien integrado en ella. Por ejemplo, con la
operación de composición, el conjunto de aplicaciones lineales de un espacio vectorial en sí mismo
(endomorfismos) tiene estructura de anillo, y el subconjunto de las aplicaciones lineales que son
invertibles (los automorfismos) tiene estructura de grupo. El Álgebra Lineal también tiene un papel
importante en el cálculo, sobre todo en la descripción de derivadas de orden superior en el análisis
vectorial y en el estudio del producto tensorial (en física, buscar momentos de torsión) y de las
aplicaciones antisimétricas.
Un espacio vectorial se define sobre un cuerpo, tal como el de los números reales o en el de los
números complejos. Una aplicación (u operador) lineal hace corresponder los vectores de un
espacio vectorial con los de otro (o de él mismo), de forma compatible con la suma o adición y la
multiplicación por un escalar definidos en ellos. Elegida una base de un espacio vectorial, cada
aplicación lineal puede ser representada por una tabla de números llamada matriz. El estudio
detallado de las propiedades de las matrices y los algoritmos aplicados a las mismas, incluyendo
los determinantes y autovectores, se consideran parte del álgebra lineal.
En matemáticas los problemas lineales, aquellos que exhiben linealidad en su comportamiento, por
lo general pueden resolverse. Por ejemplo, en el cálculo diferencial se trabaja con una
aproximación lineal a funciones. La distinción entre problemas lineales y no lineales es muy
importante en la práctica.
Algunos Teoremas Útiles
Todo espacio lineal tiene una base (Esta afirmación es lógicamente equivalente al Axioma de
elección)
Una matriz A no nula con n filas y n columnas es no singular (inversible) si existe una matriz B que
satisface AB = BA = I donde I es la matriz identidad.
Una matriz es inversible si y solo si su determinante es distinto de cero.
Una matriz es inversible si y solo si la transformación lineal representada por la matriz es un
isomorfismo (vea también matriz inversible para otras afirmaciones equivalentes)
Una matriz es positiva semidefinida si y solo si cada uno de sus eigenvalores son mayores o
iguales a cero
Una matriz es positiva definida si y solo si cada uno de sus eigenvalores son mayores a cero.
• Literales y exponentes
Una literal es una representación general de una cierta magnitud.
Por ejempo: el area de un rectangualo es igual a : A= bh donde A, b y H son literales.
Expresiones Algebraicas
Las expresiones algebraicas se clasifican según su número de términos.

monomio = un solo término.

Por ejemplo:

binomio = suma o resta de dos monomios.

Por ejemplo:

trinomio = suma o resta de tres monomios.

Por ejemplo:

polinomio = suma o resta de cualquier número de monomios.

Reglas de los Exponentes:


• Para multiplicar factores exponenciales que tienen la misma base y los exponentes
son enteros positivos diferentes.

Ejemplo:

• Para multiplicar factores que tienen base diferente y exponentes iguales, el exponente se queda
igual.

Ejemplo:

• En división, si tienen la misma base y los exponentes son enteros positivos diferentes, se restan los
exponentes. Las variables m y n son enteros positivos , m > n.
Ejemplo:

• En suma y resta, solo se procede si son términos similares, en otras palabras lo que difiere es su
coeficiente numérico.

• Productos notables y factorización


Productos Notables

Cuadrado de la suma de dos cantidades

El cuadrado de la suma de dos cantidades es igual al cuadrado de la primera cantidad más el


doble de la primera cantidad por la segunda más el cuadrado de la segunda cantidad.

Cuadrado de la diferencia de dos cantidades

El cuadrado de la suma de dos cantidades es igual al cuadrado de la primera cantidad menos el


doble de la primera cantidad por la segunda más el cuadrado de la segunda cantidad.

Producto de la suma por la diferencia de dos cantidades

El producto de la suma por la diferencia de dos cantidades es igual al cuadrado de la primera


cantidad menos el cuadrado de la segunda

Cubo de un binomio

El cubo de la suma de dos cantidades es igual al cubo de la primera cantidad mas el triple del
cuadrado de la primera por la segunda mas el triple del cuadrado de la segunda por la primera mas
el segundo al cubo.

El cubo de la diferencia de dos cantidades es igual al cubo de la primera cantidad menos el triple
del cuadrado de la primera por la segunda mas el triple del cuadrado de la segunda por la primera
menos el segundo al cubo.

Cocientes Notables

Cociente de la diferencia de los cuadrados de dos cantidades entre la suma o la diferencia de las
cantidades

La diferencia de los cuadrados de dos cantidades divididas entre la suma de las cantidades es
igual a la diferencia de las cantidades.

La diferencia de los cuadrados de dos cantidades entre la diferencia de las cantidades es igual a la
suma de las cantidades.

Factorización de Polinomios
Factorizar un polinomio es el primer método para obtener las raíces o ceros de la expresión. Para
factorizar se comienza con una regla que te permite desarrollar la destreza, para aplicarla a
ejercicios de mayor dificultad. Se buscan dos factores o números cuyo producto sea el último
término y a la vez sumados o restados den como resultado el coeficiente del término del medio.
Esta regla aplica solo a ecuaciones cuadráticas cuyo coeficiente de la variable elevado al cuadrado
es 1. Si el coeficiente de la variable elevada al cuadrado no fuese 1, la manera de factorizar sería
tanteando hasta poder lograr la factorización. Muchas veces la factorización es simplemente
reconocer factores comunes.
Se puede utilizar también la inversa de las fórmulas de productos especiales. O sea, expresamos
el polinomio como una multiplicación o un producto, usando las fórmulas a la inversa.
Completando el Cuadrado

Completando el cuadrado es el segundo método para obtener las raíces o ceros de un polinomio.
El proceso es el siguiente:

1. Primero mueves el tercer término con signo opuesto al lado contrario de la


igualdad.
2. Luego, vas a calcular el término que te permite crear tu cuadrado de la siguiente
forma: selecciona el coeficiente de la variable que está elevada a la 1, se divide
entre dos y elevarlo al cuadrado.
3. Este resultado lo sumarás a ambos lados de la expresión.
4. Después, la raíz cuadrada del primer término, el operador (signo) del medio y la
raíz cuadrada del último termino, todo elevado al cuadrado es igual a la suma de la
derecha.
5. Luego, sacas raíz cuadrada a ambos lados, observando que hay dos posibles
soluciones, el caso positivo y el caso negativo.
6. Por último despejas por la variable y esas son las raíces o ceros del polinomio.

Como ejemplo vamos a utilizar el ejercicio .

Casos de factorización
Caso 1 - Factor común

Cuando se tiene una expresión de dos o más términos algebraicos y si se presenta algún término
común, entonces se puede sacar este término como factor común.

Caso 2 - Factor por agrupación de términos

En una expresión de dos, cuatro, seis o un número par de términos es posible asociar por medio
de paréntesis de dos en dos o de tres en tres o de cuatro en cuatro de acuerdo al número de
términos de la expresión original. Se debe dar que cada uno de estos paréntesis que contiene dos,
o tres o mas términos se le pueda sacar un factor común y se debe dar que lo que queda en los
paréntesis sea lo mismo para todos los paréntesis o el factor común de todos los paréntesis sea el
mismo y este será el factor común.

Caso 3 - Trinomio cuadrado perfecto

Una expresión se denomina trinomio cuadrado perfecto cuando consta de tres términos donde el
primero y tercer términos son cuadrados perfectos (tienen raíz cuadrada exacta) y positivos, y el
segundo término es el doble producto de sus raíces cuadradas.
Se extrae la raíz cuadrada del primer y tercer término y se separan estas raíces por el signo del
segundo término. El binomio así formado se eleva al cuadrado.

Caso 4 - Diferencia de cuadrados perfectos

Dos cuadrados que se están restando es una diferencia de cuadrados. Para factorizar esta
expresión se extrae la raíz cuadrada de los dos términos y se multiplica la resta de los dos términos
por la suma de los dos.

Caso especial: Se puede presentar que uno o los dos términos de la diferencia contenga mas de
un término.

Caso especial: Se puede dar una expresión de cuatro términos donde tres de ellos formen un
trinomio cuadrado perfecto que al ser factorizado y combinado con el cuarto término se convierta
en una diferencia de cuadrados, o pueden ser seis términos que formen dos trinomios cuadrados
perfectos y al ser factorizados formen una diferencia de cuadrados.

Caso 5 - Trinomio cuadrado perfecto por adición y sustracción

Algunos trinomios no cumplen las condiciones para ser trinomios cuadrados perfectos, el primer y
tercer término tienen raíz cuadrada perfecta pero el término de la mitad no es el doble producto de
las dos raíces. Se debe saber cuanto debe ser el doble producto y la cantidad que falte para
cuadrar el término de la mitad, esta cantidad se le suma y se le resta al mismo tiempo, de tal forma
se armara un trinomio cuadrado y factorizado unido con el último término tendremos una diferencia
de cuadrados.

Caso especial: factorar una suma de cuadrados, se suma el término que hace falta para formar un
trinomio cuadrado perfecto y al mismo tiempo se resta esta misma cantidad, así tendremos un
trinomio cuadrado perfecto enseguida una diferencia de cuadrados.

Caso 6 - Trinomio de la forma

x2+bx+c
Esta clase de trinomio se caracteriza por lo siguiente:

El primer término tiene como coeficiente 1 y la variable esta al cuadrado.

El segundo término tiene coeficiente entero de cualquier valor y signo y la misma variable.

El tercer término es independiente (no contiene la variable).

Para factorar este trinomio se deben abrir dos factores que sean binomios, y donde el primer
término de cada binomio es la variable y el segundo término en cada uno de los factores
(paréntesis), son dos números , uno en cada paréntesis de tal forma que la suma de los dos del
coeficiente del segundo término del trinomio y la multiplicación de los dos del tercer término del
trinomio, el signo del segundo término de cada factor depende de lo siguiente:

• ° Si el signo del tercer término es negativo, entonces uno será positivo y el otro negativo, el
mayor de los dos números llevara el signo del segundo término del trinomio y el otro
número llevara el signo contrario.
° Si el signo del tercer término es positivo, entonces los dos signos serán iguales (positivos
o negativos), serán el signo del segundo término del trinomio.

Caso 7 - Trinomio de la forma

Este trinomio se diferencia del trinomio cuadrado perfecto en que el primer término puede tener
coeficiente diferente de 1.

Se procede de la siguiente forma:

Se multiplica todo el trinomio por el coeficiente del primer término, de esta forma se convierte en un
trinomio de la forma:

y se divide por el mismo coeficiente. Se factoriza el trinomio en la parte superior del fraccionario y
se simplifica con el número que esta como denominador.

Caso 8 - Cubo perfecto de binomios

Podemos asegurar que una expresión algebraica es un cubo perfecto si cumple las siguientes
condiciones:

• Posee cuatro términos

° El primer y cuarto término son cubos perfectos (tienen raíces cúbicas exactas).

° El segundo termino sea el triple del cuadrado de la raíz cúbica del primer término multiplicado
por la raíz cúbica del último término.
° El tercer termino sea el triple del cuadrado de la raíz cúbica del último término -multiplicado
por la raíz cúbica del primer término.

° Los signos son todos mas o también podría ser positivo el primero y el tercero y negativo el
segundo y el cuarto.

Para factorizar un cubo perfecto se forma un binomio y se eleva al cubo, el primer término del
binomio es la raíz cúbica del primer término y el segundo término es la raíz cúbica del último
término. El signo del segundo término es mas si todos los signos del cubo son mas y es menos si
los signos del segundo y cuarto término del cubo son menos.

Caso 9 - Suma o diferencia de cubos perfectos

Su nombre lo indica, se reconoce por ser la suma o la resta de dos cubos. Su solución será dos
factores, el primero de ellos es un binomio formado por las dos raíces cúbicas de los términos
dados, el segundo factor esta formado por tres términos así: la priemra raíz al cuadrado, la primera
raíz por la segunda y la segunda raíz al cuadrado. Los signos pueden ser de dos formas acuerdo a
lo siguiente:

Caso 10 - Suma o diferencia de dos potencias iguales

Resumamos en la siguiente tabla las posibilidades:

Para an-bn con n = par o impar la factorización será:

Para an-bn con n = par la factorización será:

Para an+bn con n = impar la factorización será:

• Ecuaciones de primer y segundo grados


Se llaman ecuaciones a igualdades en las que aparecen número y letras (incógnitas) relacionados
mediante operaciones matemáticas.

Por ejemplo: 3x - 2y = x2 + 1

Son ecuaciones con una incógnita cuando aparece una sóla letra (incógnita, normalmente la x).
Por ejemplo: x2 + 1 = x + 4

Se dice que son de primer grado cuando dicha letra no está elevada a ninguna potencia (por tanto
a 1).

Ejemplos :

3x + 1 = x - 2

1 - 3x = 2x - 9.

x - 3 = 2 + x.

x/2 = 1 - x + 3x/2

Ecuaciones de segundo grado con una incógnita


Las ecuaciones de segundo grado o cuadráticas son aquellas en las que la variable está elevada al
cuadrado, el siguiente es un ejemplo de una ecuación cuadrática:

La ecuación solo tiene una incógnita, y ésta se encuentra elevada a la 1 y al cuadrado, además
hay términos independientes (números). Las ecuaciones de segundo grado tienen dos soluciones o
ninguna. Este es un ejemplo de una ecuación cuadrática completa, ya que posee coeficientes
distintos de cero en los términos cuadráticos (x^2), lineales (x^1) e independientes (x^0).

Veamos entonces algunos ejemplos de ecuaciones cuadráticas incompletas:

Esta ecuación es muy fácil de resolver, ya que no se encuentra presente el término lineal:

Pero las ecuaciones cuadráticas tienen siempre dos soluciones, o bien ninguna, así que en este
caso una raíz cuadrada genera dos soluciones, una con signo positivo y otra negativo:

Y esto es cierto ya que tanto 2 como -2 elevados al cuadrado dan 4, así que siempre que
calculemos la solución de una raíz cuadrada se debe tener en cuenta que ésta genera dos signos.
Esto suele expresarse de la siguiente manera:

Esto es un poco confuso pero en realidad nos dice que hay dos soluciones, vemos que ambas
soluciones verifican la ecuación inicial. Veamos ahora otro caso, si la ecuación tiene términos
cuadráticos y lineales, pero no tiene términos independientes:
En este caso sacamos factor común X y razonamos de la siguiente forma:

Para que el primer miembro se haga 0 solo hay 2 alternativas: x es igual a 0 o (x+4) es igual a 0.
De aquí se obtienen las dos soluciones (que llamamos X1 y X2):

Vemos que las soluciones verifican. Finalmente vamos al caso más complejo que es el que
teníamos inicialmente:

Es muy difícil despejar x de esta ecuación (pero no imposible como veremos más adelante). Para
resolverla se utiliza una fórmula muy famosa, la fórmula de las soluciones de la ecuación de
segundo grado, la cual es atribuída a un indú de apellido Baskara, en primer lugar hay que pasar
todos los términos a un lado de la expresión de manera que quede igualada a cero. En segundo
lugar se identifican tres coeficientes llamados a, b y c (a=coeficiente cuadrático, b=coeficiente
linearl, c=término independiente).

La ecuación debe expresarse de la forma:

Por lo tanto operamos con la ecuación hasta llevarla a este formato (a, b y c son números en
definitiva).

Comparando encontramos que:

La fórmula que da las soluciones es la siguiente:

Fórmula de Baskara

Así que reemplazando los valores a, b y c:


Con lo cual obtenemos 2 soluciones, (ambas verifican la ecuación), una con el signo + y otra con el
-

Puede darse el caso que la ecuación no tenga solución (cuando queda una raíz negativa).

El tema es: de dónde sacó Baskara esta fórmula?, bueno, en realidad es sencillo, él encontró la
forma de construir un trinomio cuadrado perfecto (tercer caso de factoreo), aplicando algunos
"truquillos".

Fórmula de Baskara - Demostración

Ahora viene la parte divertida, la demostración. En primer lugar hay que llevar la ecuación a la
forma:

Luego se multiplica todo por 4a (la igualdad se mantiene desde luego):

Ahora sumamos y restamos b^2, de esta manera no cambia nada tampoco:

Ahora observemos los primeros 3 términos, se trata de un trinomio cuadrado perfecto, así que
factoreando se obtiene:

Y ahora es fácil despejar X:

Pero como vimos antes una raíz arroja 2 resultados, uno positivo y uno negativo así que queda:

Esta última es la famosa fórmula que nos da las soluciones para X.


• Proporciones y desigualdades
Desigualdades algebraicas
Definiciones:

Ley de la tricotomía:
"Para cada par de números reales a y b, es verdadera una, y solamente una, de las proposiciones:

Propiedades de las desigualdades


Teorema1-Propiedad transitiva:

Ejemplo ilustrativo:

Teorema2-Suma:

Ejemplo ilustrativo:

Teorema3-Multiplicación por un número positivo:

Ejemplo ilustrativo:

Teorema4:

Ejemplo ilustrativo:
Los Teoremas 1 a 4 también son válidos si se cambia ">" por "<"

Teorema5:

Teorema6:

"Si se cambia el signo de ambos miembros de una desigualdad, se cambia el sentido de la


desigualdad".
Teorema7:

Teorema8:

Teorema9:

Teorema10:

Teorema11:

Geometría
La geometría es la matemática que estudia idealizaciones del espacio: los puntos, las rectas, los
planos y otros elementos conceptos derivados de ellos, como polígonos o poliedros.
Origen y desarrollo de la geometría:
Todo comenzó en Egipto
El ser humano necesitó contar, y creó los números; quiso hacer cálculos, y definió las operaciones;
hizo relaciones, y determinó las propiedades numéricas.
Por medio de lo anterior, más el uso de la lógica, obtuvo los instrumentos adecuados para resolver
las situaciones problemáticas surgidas a diario.
Además de esos requerimientos prácticos, el hombre precisó admirar la belleza de la creación para
satisfacer su espíritu. Con ese fin, observó la naturaleza y todo lo que le rodeaba. Así fue ideando
conceptos de formas, figuras, cuerpos, líneas, los que dieron origen a la parte de la matemática
que designamos con el nombre de geometría.
El río Nilo
La palabra geometría está formada por las raíces griegas: "geo", tierra, y "metrón", medida, por lo
tanto, su significado es "medida de la tierra".
Según lo registra la historia, los conceptos geométricos que el hombre ideó para explicarse la
naturaleza nacieron -en forma práctica- a orillas del río Nilo, en el antiguo Egipto.
Las principales causas fueron tener que remarcar los límites de los terrenos ribereños y construir
diques paralelos para encauzar sus aguas. Esto, debido a los desbordes que causaban las
inundaciones periódicas.
El aporte griego
Quienes dieron carácter científico a la geometría fueron los griegos, al incorporar demostraciones
en base a razonamientos.
Tales de Mileto (600 a.d.C.) inició esta tendencia, al concebir la posibilidad de explicar diferentes
principios geométricos a partir de verdades simples y evidentes.
Euclides (200 a.d.C.) le dio su máximo esplendor a esta corriente científica. Recogió los
fundamentos de la geometría y de la matemática griega en su tratado Elementos.
Representemos los conceptos
Hay conceptos geométricos que no pueden definirse. Son ideas formadas en nuestra mente a
través de la observación del entorno y solamente podemos hacer representaciones concretas de
ellas.
Las llamaremos términos primitivos o conceptos primarios y son: espacio, punto, recta y plano.
Espacio
Es el conjunto universo de la geometría. En él se encuentran todos los demás elementos. Dentro
de él determinamos cuerpos geométricos como cajas, planetas, esferas, etcétera.
Su símbolo es: E
Punto
El punto tiene posición en el espacio. Su representación más cercana es el orificio que deja un
alfiler en una hoja de papel o en un granito de arena, pero debemos tener en cuenta que no tiene
grosor.
En el espacio hay infinitos puntos. Los identificaremos con una letra mayúscula y para reconocerlos
usaremos o x.
Por ejemplo:
A se lee punto A, x M se lee punto M.

Si unimos diferentes puntos, obtendremos líneas que pueden ser curvas, rectas, mixtas o
poligonales. Son curvas si, al unirse los puntos, siguen distintas direcciones; rectas, si llevan la
misma dirección; mixtas, si mezclan ambas; y poligonales, si están formadas solamente por trozos
de rectas.
Plano y Recta:Infinitos puntos
La unión de infinitos puntos da origen a los otros dos principios básicos de la geometría: plano y
recta.
La representación más cercana de la recta es un hilo tenso o la marca que deja un lápiz en un
papel. Es infinita, porque sus extremos son ilimitados y en ella hay infinitos puntos.
La identificaremos con el dibujo
Una recta puede tener dirección:
Horizontal: como la línea del horizonte.

Vertical: como el hilo a plomo.

Oblicua: cuando es distinta a las dos anteriores.

Las rectas se nombran con dos letras mayúsculas y sobre ellas se anota su símbolo. Por ejemplo:
AB, se lee recta AB.
También se usa una L ó una R, especialmente en los casos en que deban distinguirse varias
rectas.
Veamos:
DE es una recta oblicua.

L es una recta vertical.

Plano
Lo más parecido a este elemento del espacio es una hoja de papel, pero lo diferencia con ésta, el
hecho que es ilimitado y no tiene grosor.
El plano es una superficie infinita, formada por infinitos puntos que siguen una misma dirección, es
decir, hay rectas que quedan totalmente incluidas en ella.
El símbolo de plano es P y para nombrarlo debe estar acompañado de, por lo menos, tres puntos.
Las paredes de nuestra casa, el pavimento de las calles, la superficie de una laguna, son
representaciones de planos.
Es importante saber que en un plano podemos encontrar puntos y rectas, y obtener figuras
geométricas.
Hay planos horizontales, verticales y oblicuos.
Cuando en una superficie no quedan rectas totalmente incluidas en ella, decimos que es curva.
Una representación de esto sería una bandera flameando
• Cálculo de perímetros, áreas y volúmenes
El perímetro de una figura bidimensional es la distancia que hay alrededor de ella.

El perímetro de un polígono es igual a la suma de todos sus lados. El perímetro de un polígono


regular es igual a la la longitud de uno de los lados multiplicada por el número de lados.

La longitud de una circunferencia, o su perímetro, es igual a 2×π×r, donde r es el radio y π es una


constante que tiene un valor aproximadamente igual a 3,1416.

Llamamos área o superficie a la medida de la región interior de un polígono. Recordemos que la


región interior es la parte del plano que queda encerrada por los lados del polígono. Observa:

Este polígono de 9 lados, es decir, un eneágono, tiene pintada de azul su región interior.
Los puntos de la región interior no se intersectan con la región exterior, porque tienen una frontera:
los lados que forman el polígono.
Una necesidad y un problema
El hombre tuvo necesidad de medir la superficie de los terrenos que sembraba. Para hacerlo, ideó
un sistema utilizando los elementos que tenía a su alcance. El método consistió en colocar cada
elemento sobre la tierra para ver cuántas veces cabía en la superficie que quería medir, como si
pusiera baldosas sobre ella.
Pero se le presentó una dificultad, debido a que las medidas que usaba eran arbitrarias. Es decir,
cada persona tenía una base diferente, y media de acuerdo a su propio parecer, sin ponerse de
acuerdo con los demás.
Por ejemplo...
Para que entiendas mejor lo anterior, lo veremos graficado con un ejemplo.
Vamos a medir el área de una figura, utilizando elementos diferentes.
Esta es nuestra figura:
Primero mediremos el área de este rectángulo, tomando como medida base una baldosa roja.

La baldosa roja cabe 9 veces en nuestro rectángulo, entonces su área es de 9 baldosas rojas.
Ahora, mediremos con una baldosa diferente, la que identificaremos con el color verde. Así:

La baldosa verde cabe 16 veces en el rectángulo. El área corresponde a 16 baldosas verdes.


El rectángulo es el mismo, pero las baldosas son diferentes. Por lo tanto, los resultados de la
medición también fueron distintos.
Cuadrados y rectángulos
Dibujaremos un cuadrado de 3 cm. y colocaremos sobre él centímetros cuadrados.

Obtuvimos 9 cm2, lo mismo que si multiplicamos lado por lado, de este modo:
3 cm · 3 cm = 9 cm2
Si llamamos a al lado del cuadrado, podemos concluir que:
el área de un cuadrado es a · a = a2
El área de un rectángulo se calcula de forma semejante; lo único que cambia es que las medidas
de los lados son distintas. Al largo, lo denominaremos a, y al ancho, b. Calcularemos el área del
siguiente rectángulo con centímetros cuadrados.

El área equivale a 8 cm2.


Matemáticamente se puede obtener multiplicando largo por ancho.
En fórmula, el área de un rectángulo es a · b
Rombos y romboides
Estos paralelógramos no tienen ángulos rectos, por lo que en ellos no se puede aplicar la misma
fórmula. Para calcular su área, recurriremos a un elemento secundario: la altura, un segmento
perpendicular (forma ángulos de 90°) que une un lado con su vértice opuesto.
En el rombo y romboide dibujados, DE corresponde a la altura.
¿Por qué necesitamos la altura para calcular el área?
Trazaremos una paralela a la altura desde C y prolongaremos el lado AB hasta obtener F.
Se formó un BFC, congruente con AED y nos quedó el rectángulo EFCD

El rectángulo formado tiene como largo el lado del rombo o romboide, y su ancho es la altura
dibujada. Entonces, concluimos que:
El área del rombo o romboide = b · h ---> b= base, y h = altura
En resumen, cualquier paralelógramo tiene una sola fórmula para calcular su área, ya que en el
cuadrado y en el rectángulo un lado es la base y el otro, la altura. Entonces:
Área de un paralelógramo = b · h
Calcularemos el área de un rombo que tiene 4,6 cm. por lado y su altura es de 3 cm. Aplicamos la
fórmula:
Área rombo = b · h
Área rombo = 4,6 cm · 3 cm.
Área rombo = 13,8 cm2
Trapecios
Sabemos que los trapecios son cuadriláteros que tienen un par de lados paralelos llamados bases.
Sus lados, es decir, los no paralelos, no son perpendiculares a las bases, salvo el trapecio
rectángulo que tiene perpendicular uno de ellos. Para el cálculo de su área también necesitamos
considerar la altura.
Para formar un rectángulo trazamos la paralela a DE desde B y prolongamos DC hasta formar F.
Nos queda el AED CFB y nuestro rectángulo es EBFD

El rectángulo tiene como largo la mitad de la suma de las bases del trapecio y su ancho es la altura
que trazamos. El área del trapecio se puede calcular aplicando la fórmula:
Área del trapecio = base mayor + base menor · h
_______________________________
2
Calcularemos el área de nuestro trapecio.
Área del trapecio = 8 cm + 4 cm · 3,6
___________________
2
Área del trapecio = 12 cm · 3,6
_______________
2
Área del trapecio = 21,6 cm2
El área de los triángulos
El cálculo de área de un triángulo cualquiera, se relaciona con el área de un romboide, cuya
fórmula era base · altura
¿Cómo podemos relacionar triángulo y romboide?
Lo haremos a través del siguiente dibujo

A nuestro ABC, le trazaremos una paralela al lado AC a partir de B, y una paralela a AB a partir
de C.

Se ha formado un romboide donde el ABC es la mitad de él.


Para calcular el área del romboide necesitábamos la altura, porque su fórmula es b · h.
Como el es la mitad del romboide obtenemos que el área del es igual a la mitad del área del
romboide.
Su fórmula es:
Área del triángulo = b · h
_______
2
AB= 5 cm AC= 3,2 cm
BC= 4 cm CD= 3 cm

Calculemos el área de este triángulo. Comenzamos, aplicando la fórmula.

Triángulo rectángulo
Si el es rectángulo, su área se puede calcular por medio de sus catetos, que son los lados
perpendiculares, porque un cateto es la altura del otro. Entonces, la fórmula para su cálculo sería:
Área del triángulo = cateto · cateto
_____________________
2
Aplicaremos esta fórmula en el siguiente triángulo rectángulo.

AB= 4 cm
BC= 5 cm
AC= 3 cm

Los catetos miden 3 y 4 cm

En el círculo
El círculo es la región interior de una circunferencia.
El área de un círculo se obtiene aplicando la siguiente fórmula:
Área del O = · r2
= 3,14 r = radio de la circunferencia
Recordemos que es un número decimal infinito que, para efectos de cálculo, lo dejamos en 3,14
ó 3.
Aplicaremos la fórmula para calcular el área de un círculo de 3 cm. de radio.

Apliquemos el teorema de Pitágoras


El gran matemático griego Pitágoras descubrió una situación muy especial que se produce en el
triángulo rectángulo y que se relaciona con sus lados.
Su teorema dice: "El cuadrado construido sobre la hipotenusa de un triángulo rectángulo, equivale
a la suma de los cuadrados construidos sobre sus catetos"
Demostraremos este teorema a través de un dibujo.

Hemos construido un cuadrado sobre cada lado del triángulo rectángulo.


Pitágoras dice que el cuadrado 1 tiene su área igual a la suma de los cuadrados 2 y 3.
De acuerdo al cuadriculado, el cuadrado 1 tiene un área de 25 cuadros. Al sumar los 9 cuadros del
cuadrado 2 y los 16 cuadros del 3 obtenemos 25. Entonces, se cumple:

Este teorema nos sirve para calcular la medida desconocida de un lado de un triángulo rectángulo,
puede ser un cateto o su hipotenusa.
Por ejemplo: si la hipotenusa mide 5 cm y uno de sus catetos es 4 cm, ¿cuánto mide el otro cateto?
Aplicamos la fórmula.

Áreas achuradas
Son una forma de aplicación del cálculo de áreas de diferentes figuras que están relacionadas
entre sí. Para distinguir la parte que se debe calcular como resultado final se procede a achurarla,
es decir, se pinta o raya imitando texturas.
Algunas veces, la parte achurada está formada por la unión de áreas de figuras, por lo tanto, hay
que descomponerla, luego hacer el cálculo de cada parte, y finalmente, sumarlas para encontrar el
área total.
Veamos el siguiente ejemplo:

Esta figura se descompone en medio círculo y un rectángulo. Primero, tendremos que calcular el
área del círculo; luego, dividirla por 2. Buscaremos, también el área del rectángulo y después
sumaremos ambos resultados para obtener el área total.
Hay ejercicios, que tienen unas figuras dentro de otras y la parte achurada se relaciona con un
sector formado por la intersección de ellas. En estos casos, la solución se encuentra buscando la
diferencia entre las figuras que forman la intersección. Por ejemplo:

Nuestra figura está formada por un cuadrado con un círculo en su interior. La parte achurada
corresponde a la diferencia entre el área del cuadrado y la del círculo
Volumen

Probabilidad y estadística básica


La probabilidad es la caracteristica de un suceso del que existen razones para creer que se
realizará. Los sucesos tienden a ser una frecuencia relativa del numero de veces que se realiza el
experimento
La probabilidad p de aparición de un suceso S de un total de n casos posibles igualmente factibles
es la razón entre el número de ocurrencias h de dicho suceso y el número total de casos posibles
n.
p = P{S} = h / n
La probabilidad es un número (valor) entre 0 y 1. Cuando el suceso es imposible se dice que su
probabilidad es 0 y se dice que es un suceso cierto cuando siempre tiene que ocurrir y su
probabilidad es 1. La probabilidad de no ocurrencia de un evento está dada por q donde:

q = P{noS} = 1 − (h / n)
Simbólicamente el espacio de resultados, que normalmente se denota por Ω, es el espacio que
consiste en todos los resultados que son posibles. Los resultados, que se denota por ω1,ω2,
etcétera, son elementos del espacio Ω

La Estadística es una rama de las matemáticas que se utiliza para describir, analizar e interpretar
fenómenos donde interviene el azar, y que permite a otras ciencias a generar modelos
matemáticos empíricos donde se considera el componente aleatorio. La Estadística se divide en
dos grandes ramas:
La Estadística descriptiva, que se dedica a los métodos de recolección, descripción, visualización y
resumen de datos originados a partir de los fenómenos en estudio.
La Estadística inferencial, que se dedica a la generación de los modelos, inferencias y predicciones
asociadas a los fenómenos en cuestión.
El Razonamiento Estadístico
Todo problema estadístico opera del modo siguiente:
Se plantea un problema en estudio.
Se realiza un muestreo consistente en la recolección de datos referentes al fenómeno o variable
que deseamos estudiar.
Se propone un modelo de probabilidad, cuyos parámetros se estiman mediante estadísticos a partir
de los datos de muestreo. Sin embargo se mantiene lo que se denominan hipótesis sostenidas
(que no son sometidas a comprobación)
Se valida el modelo comparándolo con lo que sucede en la realidad. Se utiliza métodos
estadísticos conocidos como test de hipótesis y pilin de significación
• Población, muestra, medidas de tendencia central, desviación estándar y varianza
Población: Conjunto de todos los elementos incluidos en cierto estudio estadístico.

Muestra: Subconjunto de la población.

Elemento: Unidad mínima de la que se compone la población


MEDIA ARITMÉTICA

Es la suma de los valores de una variable dividida por, él numero de ellos. La media aritmética, que
se representa con .

La fórmula de la media aritmética es:


Ejemplo:

se obtiene con los siguientes pasos

1. Se suman todos los datos

10 + 3 + 5 + 9 + 6 + 8 + 8 + 7 + 9 + 6 + 8 + 7 =

2. La suma ( ) se divide entre el número de datos (n) :

La media aritmética o promedio de las evaluaciones es 7.16, que es el valor representativo de


todos los datos.

MEDIA ARITMÉTICA PONDERADA

A veces se asocia a los números x1, x2,...,xn que se quieren promediar, ciertos factores o pesos
w1, w2,...,wn que dependen de la significación o importancia de cada uno de los números.
Entonces se genera una media aritmética ponderada, que también se representa con equis
testada.

Ejemplo

Supongamos que un alumno quiere encontrar el promedio ponderado de sus cinco calificaciones.
La segunda calificación vale el doble de al primera, la tercera el triple de la primera, la cuarta vale
cuatro veces la primera y la quinta cinco veces. ¿Cuál es su promedio si sus calificaciones son 8.5,
7.3, 8.3, 6.4 y 9.2?

X1 = 8.5 ; W1 = 1

X2 = 7.3 ; W2 = 2

X3 = 8.3 ; W3 = 3

X4 = 6.4 ; W4 = 4

X5 = 9.2 ; W5 = 5

(8.5*1+7.3*2+8.3*3+6.4*4+9.2*5)
(1+2+3+4+5)

= 119.6/15 = 7.97 es el promedio ponderado de las calificaciones de este alumno

LA MEDIANA

Es la observación que se encuentra en el centro cuando los datos están ordenados, divide a los
datos en dos partes iguales.

- Si n es impar:

la mediana es la observación que está en el lugar (n+1)/2, esto es

- Si n es par:

la mediana es el promedio de las observaciones n/2 y n/2+1, esto es

Ejemplo

Encuentra la mediana para el siguiente conjunto de datos

9 12 5 16 8 3 11

Primero se ordenan los datos

3 5 8 9 11 12 16

Una vez ordenados, como el número de datos es impar (7), se busca el que tiene la posición
(n+1)2, o sea (7+1)2 = 4. Este número es el 9 y representa la mediana.

Ejemplo

Calcula la mediana para el siguiente conjunto de datos

8.3 5.7 9.2 3.9 7.4 11.8 10.6 4.3

Nuevamente se ordenan los datos

3.9 4.3 5.7 7.4 8.3 9.2 10.6 11.8


Una vez ordenados, como el númeo de datos es par (8), se busca el número que tiene la posición
n/2 y el que tiene la posición n/2+1, o sea 8/2 = 4 y 8/2+1 = 5. Los números que tienen la posición
cuarta y quinta son 7.4 y 8.3. Estos números se promedian y el resultado será la mediana.

(7.4+8.3)/2 = 7.85. Este resultado 7.85 representa la mediana para este conjunto de datos

LA MODA

La moda es el dato que aparece con mayor frecuencia en una colección.

Ejemplo

Si se observa cual es el dato que más se repite en las evaluaciones, se tiene:

3, 5, 6, 6, 7, 7, 8, 8, 8, 9, 9, 10

Que es el ocho. Este valor representa la moda de esta colección, por lo tanto, la moda se refiere al
dato que tiene mayor frecuencia.

Nota: Si ninguna observación se repite, se dice que esos datos no tienen moda. Si todos los datos
se repiten el mismo número de veces, los datos serán multimodales.

Ejemplo

Encuentra la moda de los siguientes datos

4 9 5 6 7

Como los datos sólo existen una vez, este conjunto de datos no tienen moda.

Ejemplo

Encuentra la moda del siguiente conjunto de datos

9 3 6 7 9 8 5 9 7 3

El 3 se repite dos veces, el 7 se repite también dos veces, pero como el 9 se repite tres veces, este
último número es la moda para este conjunto de datos.

Ejemplo

Calcula la moda para los datos que se presentan a continuación

6 7 8 6 9 7 8 5 6 8

El máximo número de veces que se repiten los datos son tres, y hay dos datos que se repiten tres
veces, el 6 y el 8. El conjunto de datos es bimodal y sus modas son el 6 y el 8.

Ejemplo
Calcula la moda para estos datos

8 6 5 5 9 6 8 6 5 9 8 9

En este conjunto de datos, todos se repiten tres veces. El 5, 6, 8 y el 9 son moda. No hay ninguno
que no lo sea, es un caso multimodal

DESVIACI”N ESTÁNDAR

La desviación estándar es la medida de dispersión mas usada en estadística, tanto en aspectos


descriptivos como analíticos. En su forma conceptual, la desviación estándar se define así:

Fórmula de trabajo para la población

Fórmula de trabajo para la muestra:


Ejemplo:

x x2

3 9

2 4

3 9

5 25

4 16

3 9

20 72

Cuando se trata de datos agrupados la formula es:

Ejemplo :

x f fx x2 fx2

32 1 32 1024 1024
37 3 111 1369 4107

42 8 336 1764 14112

47 9 423 2209 19881

52 7 364 2704 18928

57 4 228 3249 12996

62 3 186 3844 11532

67 3 201 4489 13467

72 2 144 5184 10368

Sumas 40 2025 106415

Conociendo la desviación estándar, se puede calcular otros estimadores derivados que son de
gran utilidad para describir y/o interpretar el comportamiento de los datos

VARIANZA (VARIANCIA) S2

La varianza,
, se define como la media de las diferencias cuadráticas de n puntuaciones con respecto a su
media aritmética, es decir:

Para datos agrupados en tablas, usando las notaciones establecidas en los capítulos anteriores, la
varianza se puede escribir como

Una fórmula equivalente para el cálculo de la varianza está basada en lo siguiente:


Con lo cual se tiene

Si los datos están agrupados en tablas, es evidente que

La varianza no tiene la misma magnitud que las observaciones (ej. si las observaciones se miden
en metros, la varianza lo hace en metros2). Si queremos que la medida de dispersión sea de la
misma dimensionalidad que las observaciones bastará con tomar su raíz cuadrada.

Por ello se define la desviación típica, , como:

Ejemplo

Calcular la varianza y desviación típica de las siguientes cantidades medidas en metros:

3,3,4,4,5

Para calcular dichas medidas de dispersión es necesario calcular previamente el valor con
respecto al cual vamos a medir las diferencias. Éste es la media:

La varianza es:
Siendo la desviación típica su raíz cuadrada:

Las siguientes propiedades de la varianza (respectivamente, desviación típica) son importantes a la


hora de hacer un cambio de origen y escala a una variable. En primer lugar, la varianza (resp.
Desviación típica) no se ve afectada si al conjunto de valores de la variable se le añade una
constante. Si además cada observación es multiplicada por otra constante, en este caso la
varianza cambia en relación al cuadrado de la constante (resp. La desviación típica cambia en
relación al valor absoluto de la constante). Esto queda precisado en la siguiente proposición

TASA INTERNA DE RENTABILIDAD O DE RETORNO

Generalmente conocido por su acrónimo TIR, es el tipo de descuento que hace que el VAN (valor
actual o presente neto) sea igual a cero, es decir, el tipo de descuento que iguala el valor actual de
los flujos de entrada (positivos) con el flujo de salida inicial y otros flujos negativos actualizados de
un proyecto de inversión. En el análisis de inversiones, para que un proyecto se considere rentable,
su TIR debe ser superior al coste del capital empleado.

El Valor Actual Neto es un criterio financiero para el análisis de proyectos de inversión que consiste
en determinar el valor actual de los flujos de caja que se esperan en el transcurso de la inversión,
tanto de los flujos positivos como de las salidas de capital (incluida la inversión inicial), donde éstas
se representan con signo negativo, mediante su descuento a una tasa o coste de capital adecuado
al valor temporal del dinero y al riesgo de la inversión. Según este criterio, se recomienda realizar
aquellas inversiones cuyo valor actual neto sea positivo.

El Valor Actual o Valor presente, es calculado mediante la aplicación de una tasa de descuento, de
uno o varios flujos de tesorería que se espera recibir en el futuro; es decir, es la cantidad de dinero
que sería necesaria invertir hoy para que, a un tipo de interés dado, se obtuvieran los flujos de caja
previstos.

CORRELACI”N LINEAL

Objetivo principal del análisis de correlación lineal es medir la intensidad de una relación lineal
entre dos variables. A continuación se estudian algunos diagramas de dispersión que indican
diferentes relaciones entre las variables independientes x y las variables dependientes y. Si Y
dependientes no existe un cambio definido en los valores de y conforme aumentan los valores de
x, se dice que no hay correlación o que no existe relación entre x y y. En cambio, si al aumentar x
hay una modificación definida en los valores de y, entonces existe correlación.

En este último caso la correlación es positiva cuando y tiende a aumentar, y negativa cuando y
decrece. Si tanto los correlación lineal valores de x como los de y tienden a seguir una dirección
recta, existe una correlación lineal.

La precisión del cambio en y conforme x incrementa su valor, determina la solidez de la correlación


lineal. Los diagramas de dispersión de la Figura 3-2 ilustran estas nociones.
Hay una correlación lineal perfecta cuando todos los puntos están situados a lo largo de una recta
en forma exacta, como se muestra en la Figura. Esta correlación puede ser positiva o negativa,
dependiendo de que y aumente o disminuya conforme x aumenta. Si los datos forman una recta
vertical u horizontal no existe correlación, pues una variable no tiene efecto sobre la otra.

PROBABILIDAD Y

TIPOS DE PROBABILIDAD

Históricamente se han desarrollado tres diferentes enfoques conceptuales para definir la


probabilidad y para determinar valores de probabilidad:

el clásico,

el de frecuencia relativa y

el subjetivo.

De acuerdo con el enfoque clásico de la probabilidad, si N(A) resultados elementales posibles son
favorables en el evento A, y existe N(S) posibles resultados en el espacio muestral y todos los
resultados elementales son igualmente probables y mutuamente excluyentes; entonces, la
probabilidad de que ocurra el evento A es

N(A)

P(A) = -------------

N(S)
Obsérvese que el enfoque clásico de la probabilidad se basa en la suposición de que cada uno de
los resultados es igualmente probable. Debido a que este enfoque (cuando es aplicable) permite
determinar los valores de probabilidad antes de observar cualesquiera eventos muestrales,
también se le denomina enfoque a priori.

EJEMPLO

En un mazo de cartas bien barajadas que contiene 4 ases y 48 cartas de otro tipo, la probabilidad
de obtener un as (A) en una sola extracción es

N(A) 4 1

P(A) = ---------- = ----- = ----

N(S) 52 13

A través del enfoque de frecuencia relativa, se determina la probabilidad con base en la proporción
de veces que ocurre un resultado favorable en un determinado número de observaciones o
experimentos. No hay implícita ninguna suposición previa de igualdad de probabilidades. Debido a
que para determinar los valores de probabilidad se requiere de la observación y de la recopilación
de datos, a este enfoque se le denomina también enfoque empírico. La probabilidad de que ocurra
un evento A, de acuerdo con el enfoque de frecuencia relativa es

Número de observaciones de A n(A)

P(A) = -------------------------------------- = -------

Tamaño de la muestra n

EJEMPLO.

Antes de incluir la cobertura para ciertos tipos de problemas dentales en pólizas de seguros
médicos para adultos con empleo, una compañía de seguros desea determinar la probabilidad de
ocurrencia de esa clase de problemas, para que pueda fijarse la prima de seguros de acuerdo con
esas cifras. Por ello, un especialista en estadística recopila datos para 10,000 adultos que se
encuentran en las categorías de edad apropiadas y encuentra que 100 de ellos han experimentado
el problema dental específico durante el año anterior.

Por ello, la probabilidad de ocurrencia es:

n(A) 100

P(A) = ------- = --------- = 0.01, o 1%

n 10,000

Tanto el enfoque clásico como el de frecuencia relativa producen valores de probabilidad objetivos,
en el sentido de que señalan la tasa relativa de ocurrencia del evento a largo plazo.

Por el contrario, el enfoque subjetivo a la probabilidad es particularmente apropiado cuando sólo


existe una probabilidad de que el evento ocurra, y se da el caso de que ocurra o no esa única vez.
De acuerdo con el enfoque subjetivo, la probabilidad de un evento es el grado de confianza que
una persona tiene en que el evento ocurra, con base en toda la evidencia que tiene disponible.
Debido a que el valor de la probabilidad es un juicio personal, al enfoque subjetivo se le denomina
también enfoque personalista.

EJEMPLO

Debido a los impuestos y a los posibles usos alternativos de sus fondos, un inversionista ha
determinado que la compra de terrenos vale la pena sólo si existe una probabilidad de cuando
menos 0.90 de que el terreno obtenga plusvalía por 50% o más en los próximos 4 años. Al evaluar
un determinado terreno, el inversionista estudia los cambios en los precios en el área en años
recientes, considera los niveles corrientes de precios, estudia el estado corriente y futuro probable
de los proyectos de desarrollo inmobiliarios y revisa las estadísticas referentes al desarrollo
económico del área geográfica global. Con base en esta revisión, concluye que existe una
probabilidad de aproximadamente 0.75% de que se dé la plusvalía que requiere. Como esta
probabilidad es menor que la mínima que requiere, (0.90), no debe llevarse a cabo la inversión

DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLES ALEATORIAS DISCRETAS:

BINOMIAL, HIPERGEOMÉTRICA Y POISSON.

DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLES ALEATORIAS

En contraste con un evento, una variable aleatoria es un evento numérico cuyo valor se determina
mediante un proceso al azar. Cuando se asignan valores de probabilidad a todos los valores
numéricos posibles de una variable aleatoria X, ya sea mediante un listado o a través de una
función matemática, se obtiene como resultado una distribución de probabilidad. La suma de las
probabilidades para todos los resultados numéricos posibles debe ser igual 1.0. Pueden denotarse
los valores de probabilidad individuales mediante el símbolo f(x), lo cual implica que hay implícita
una función matemática; mediante P(x=X), el cual implica que la variable aleatoria puede asumir
diversos valores específicos, o simplemente mediante P(X).

Para una variable aleatoria discreta, se pueden enlistar todos los valores numéricos posibles de la
variable en una tabla con las probabilidades correspondientes. Existen diversas distribuciones
estándar de probabilidad que pueden utilizarse como modelos para una amplia gama de variables
aleatorias discretas en aplicaciones de negocios. Los modelos estándar que se describiremos son
las distribuciones de probabilidad binomial, hipergeométrica y Poisson.

Para una variable aleatoria continua no es posible enlistar todos los posibles valores fraccionarios
de la variable y, por lo tanto, las probabilidades que se determinan a través de una función
matemática se ilustran en forma gráfica mediante una función de densidad de probabilidad o curva
de probabilidad. Más adelante se describen diversas distribuciones estándar de probabilidad que
pueden servir como modelos para variables aleatorias continuas.

EJEMPLO

En la siguiente tabla se muestra el número de camionetas que se han solicitado para renta en una
arrendadora de automóviles, en un periodo de 50 días. En la última columna de la Tabla se
incluyen las frecuencias observadas en este periodo de 50 días, convertidas en probabilidades.
Así, puede observarse que la probabilidad de que se hayan solicitado exactamente siete
camionetas en un día elegido al azar en ese periodo es de 0.20, y que la probabilidad de que se
hayan solicitado seis o más es de 0.20 + 0.20 + 0.08 = 0.56.

Demanda diaria de arrendamiento de camionetas


durante un periodo de 50 días

Demanda Número de Probabilidad [P


posible X días (X)]

3 3 0.06

4 7 0.14

5 12 0.24

6 14 0.28

7 10 0.20

8 4 0.08

50 1.00

EL VALOR ESPERADO Y LA VARIANZA DE UNA VARIABLE ALEATORIA DISCRETA

De la misma manera en que se hace para conjuntos de datos muestrales y poblacionales, con
frecuencia resulta útil describir una variable aleatoria en términos de su media y su varianza. La
media (a largo plazo) de una variable aleatoria X se denomina valor esperado y se denota
mediante E(X). Para una variable aleatoria discreta, resulta ser el promedio ponderado de todos los
valores numéricos posibles de la variable, utilizando las probabilidades correspondientes como
pesos. Como la suma de los pesos (probabilidades) es 1.0, puede simplificarse la fórmula de la
media ponderada de manera que el valor esperado de una variable aleatoria discreta es

E(X) = ðXP(X)

EJEMPLO

Con base en los datos de la Tabla anterior, se presentan en la Tabla siguiente los cálculos que
conducen al valor esperado de la variable aleatoria. El valor esperado es 5.66 camionetas.
Observe que el valor esperado de la variable discreta puede ser un valor fraccionario porque
representa el valor promedio a largo plazo y no el valor específico de determinada observación.

Cálculo del valor esperado para la demanda de camionetas

Probabilidad [ P Valor ponderado [ X


Demanda posible X
(X) ] P (X) ]

3 0.06 0.18

4 0.14 0.56

5 0.24 1.20

6 0.28 1.68

7 0.20 1.40

8 0.08 0.64
1.00 E(X) = 5.66

La varianza de una variable aleatoria X se denota mediante V(X); se calcula con respecto a E(X)
como la media de la distribución de probabilidad. La forma general de desviaciones para la fórmula
de la varianza de una variable aleatoria discreta es

V(X) = ð[X-E(X)-E(X)]2 P(X)

La forma abreviada para la fórmula de la varianza de una variable aleatoria discreta, que no
requiere el cálculo de las desviaciones con respecto a la media, es

V(X) = ð X2 P(X) - [ð XP(X)]2 = E(X2) - [E(X)]2

EJEMPLO

En la siguiente Tabla se presenta la hoja de trabajo utilizada para el cálculo de la varianza de la


demanda de renta de camionetas, utilizando la versión abreviada de la fórmula. Tal como se señala
enseguida, el valor de la varianza es de 1.74.

V(X) = E(X2}-[E(X)]2 = 33.78-(5.66)2 = 33.78-32.04 = 1.74

Hoja de trabajo para el cálculo de la varianza para la demanda de camionetas

Demanda al
Demanda posible Valor Valor ponderado
cuadrado
Probabilidad [P(X)] ponderado al cuadrado
X [XP(X)] [X2P(X)]
(X2)

3 0.06 0.18 9 0.54

4 0.14 0.56 16 2.24

5 0.24 1.20 25 6.00

6 0.28 1.68 36 10.08

7 0.20 1.40 49 9.80

8 0.08 0.64 64 5.12

E(X) = 5.66 E(X2) = 33.78

LA DISTRIBUCI”N BINOMIAL

La distribución binomial es una distribución discreta de probabilidad aplicable como modelo a


diversas situaciones de toma de decisiones, siempre y cuando pueda suponerse que el proceso de
muestreo se ajusta a un proceso Bernoulli. Un proceso Bernoulli es un proceso de muestreo en el
que:

(1) Sólo son posibles dos resultados mutuamente excluyentes en cada ensayo u observación. Por
conveniencia, a estos resultados se les denomina éxito y fracaso.

(2) Los resultados del conjunto de ensayos u observaciones, constituyen eventos independientes.
(3) La probabilidad de éxito, que se denota mediante p, permanece constante de un ensayo a otro.
Es decir, el proceso es estacionario.

Puede utilizarse la distribución binomial para determinar la probabilidad de obtener un número


determinado de éxitos en un proceso Bernoulli. Se requieren tres valores: el número específico de
éxitos (X), el número de ensayos u observaciones (n) y la probabilidad de éxito en cada uno de los
ensayos (p). La fórmula para determinar la probabilidad de un número determinado de éxitos X
para una distribución binomial, en donde q = (1-p) es:

P(Xðn, p) = nCXpXqn-X

n!

= ----------- px q n-x

X! (n-X)!

EJEMPLO

La probabilidad de que un prospecto de ventas elegido al azar realice una compra es de 0.20. Si un
vendedor visita a seis prospectos, la probabilidad de que realice exactamente cuatro ventas se
determina de la siguiente manera:

P(X = 4ðn = 6, p = 0.20) = 6C4(0.20)4(0.80)2 = 6! (0.20)4(0.80)2

4!2!

6x5x4x3x2

= ------------- (0.0016)(0.64) = 0.01536 ð 0.015

(4x3x2)(2)

Con frecuencia existe interés en la probabilidad acumulada de "X o más" éxitos o "X o menos"
éxitos en n ensayos. En este caso, debe determinarse la probabilidad de cada uno de los
resultados incluidos dentro del intervalo designado, y entonces sumar esas probabilidades.

EJEMPLO

En relación con el ejemplo anterior la probabilidad de que el vendedor logre 4 o más ventas se
determina de la siguiente manera:

P(X ≥ 4ðn=6, p=0.20) = P(X=4) + P(X=5) + P(X=6)

= 0.01536 + 0.001536 + 0.000064 = 0.016960 ð 0.017

en donde P(X=4) = 0.1536 (del ejemplo anterior

P(X=5) = 6C5(0.20)5(0.80)1 = 6! (0.20)5(0.80) = 6(0.00032)(080) = 0.001536

5! 1!
P(X=6) = 6C6(0.20)6(0.80)0 = 6! (0.000064)(1) = (1)(0.000064) = 0.00064

6! 0!

(Nota: recuérdese que cualquier valor elevado a la potencia 0 es igual a 1).

Como el uso de la fórmula binomial implica una cantidad considerable de cálculos cuando la
muestra es relativamente grande, con frecuencia se utilizan tablas de probabilidades binomiales.

LA DISTRIBUCI”N HIPERGEOMÉTRICA

Cuando el muestreo se realiza sin reemplazo para cada uno de los elementos que se toman de
una población finita de elementos, no se puede aplicar el proceso Bernoulli debido a que existe un
cambio sistemático en la probabilidad de éxitos al ir extrayendo elementos de la población. Cuando
se utiliza el muestreo sin reemplazo en alguna situación en la que, de no ser por el no reemplazo,
se le pudiera calificar como proceso de Bernoulli, la distribución discreta de probabilidad apropiada
resulta ser la distribución hipergeométrica.

Si X es el número designado de éxitos, N es el número de elementos de la población, T es el


número total de "éxitos" incluidos en la población y n es el número de elementos de la muestra, la
fórmula para determinar las probabilidades hipergeométricas es

N-TT

n-XX

P(XðN, Tn) = ----------------

EJEMPLO

De seis empleados, tres han estado con la compañía durante cinco o más años, si se eligen cuatro
empleados al azar de ese grupo la probabilidad de que exactamente dos de ellos tengan una
antigüedad de cinco años o más es:

6-3 3 3 3 3 ! 3 !

4-2 2 2 2 2!1! 2!1! (3) (3)

P(X=2ðN=6, T=3 n=4) = ------------- = ------------ = ------------- = ----------

6 6 6! 15

4 4 4!2!

= 0.60

Nótese que en el ejemplo anterior, el valor que se requiere de la probabilidad se calcula


determinando el número de combinaciones diferentes que incluirían a dos empleados con
antigüedad suficiente y dos con menor antigüedad como cociente del número total de
combinaciones de cuatro empleados, tomados de entre los seis. Por ello, la fórmula
hipergeométrica es una aplicación directa de las reglas de análisis combinatorio.

Cuando la población es grande y la muestra es relativamente pequeña, el hecho de que se realice


el muestreo sin reemplazo tiene poco efecto sobre la probabilidad de éxito en cada ensayo. Una
regla práctica conveniente consiste en utilizar la distribución binomial como aproximación a la
hipergeométrica cuando n<0.05N. Es decir, el tamaño de la muestra debe ser cuando menos del
5% del tamaño de la población. En diferentes textos pueden encontrarse reglas un tanto distintas
para determinar los casos en los que una aproximación como ésta es apropiada.

LA DISTRIBUCI”N DE POISSON.

Puede utilizarse la distribución de Poisson para determinar la probabilidad de que ocurra un


número designado de eventos, cuando esto ocurre en un continuo de tiempo o espacio. A un
proceso como este se le denomina proceso Poisson; es similar al proceso Bernoulli excepto en que
los eventos ocurren en un continuo (por ejemplo en un intervalo de tiempo) en vez de ocurrir en
ensayos u observaciones fijas. Un ejemplo es la entrada de llamadas en un conmutador telefónico.
Al igual que en el caso del proceso Bernoulli, se supone que los eventos son independientes y que
el proceso es estacionario.

Sólo se requiere un valor para determinar la probabilidad de que ocurra un número designado de
eventos en un proceso de Poisson: el número promedio a largo plazo de eventos para el tiempo o
dimensión específico de interés. Por lo general, esta media se representa mediante ð (la letra
griega "lambda") o, es posible, mediante ð. La fórmula para determinar la probabilidad de un
número determinado de éxitos N en una distribución Poisson es

ðxe-ð

P(Xðð) = --------

X!

Aquí, e es la constante 2.7183 que es la base de los logaritmos naturales.

EJEMPLO

Un departamento de reparación de maquinaria recibe un promedio de cinco solicitudes de servicio


por hora. La probabilidad de que se reciban exactamente tres solicitudes en una hora seleccionada
al azar es

(5)3e-5 (125)(0.00674)

P(X =3ðð=5.0) = -------- = ------------------- = 0.1404

3! 6

DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLES ALEATORIAS CONTINUAS:

NORMAL Y EXPONENCIAL

VARIABLES ALEATORIAS CONTINUAS


A diferencia de una variable aleatoria discreta, una variable aleatoria continua es la que puede
tomar cualquier valor fraccionario en un rango determinado de valores. Como existe un número
infinito de posibles mediciones fraccionarias, no pueden enlistarse todos los valores posibles con
una probabilidad correspondiente. Más bien, se define una función de densidad de probabilidad.
Esta expresión matemática da la función de X, y se representa mediante el símbolo f(X), para
cualquier valor designado de la variable aleatoria X. A la gráfica de una función de este tipo se le
denomina curva de probabilidad y el área entre dos puntos cualesquiera bajo la curva de la
probabilidad de la ocurrencia aleatoria de un valor entre esos dos puntos.

EJEMPLO

Para la distribución continua de probabilidad de la figura siguiente, la probabilidad de que un


embarque seleccionado al azar tenga un peso neto entre 3,000 y 4,000 kilogramos es igual a la
proporción del área total bajo la curva que se encuentra en el área sombreada. Es decir, se define
que el área total bajo la función de densidad de probabilidad es igual a 1, y puede determinarse la
proporción de esta área que se encuentra entre dos puntos determinados aplicando el método de
la integración (del cálculo diferencial e integral) junto con la función matemática de densidad de
probabilidad para esa curva de probabilidad.

Existen diversas distribuciones continuas de probabilidad comunes que son aplicables como
modelos a una amplia gama de variables continuas en determinadas circunstancias. Existen tablas
de probabilidades para esas distribuciones estándar, haciendo que resulte innecesario el método
de la integración para determinar las áreas bajo la curva de probabilidad para estas distribuciones.
Los modelos comunes de distribuciones de probabilidad continua que se describen son las
distribuciones normal y la exponencial.

LA DISTRIBUCI”N NORMAL DE PROBABILIDAD

La distribución normal de probabilidad es una distribución continua de probabilidad que es, al


mismo tiempo, simétrica y mesokúrtica (que no es plana ni puntiaguda). Con frecuencia se
describe a la curva de probabilidad que representa la distribución normal como una campana como
se muestra.
La distribución normal de probabilidad es muy importante en inferencia estadística por tres razones
principales:

Se sabe que las mediciones que se obtienen en muchos procesos aleatorios tienen esta clase
de distribución.

Con frecuencia pueden utilizarse las probabilidades normales para aproximar otras
distribuciones de probabilidad tales como las distribuciones binomial y Poisson.

Las distribuciones de estadísticas como la media muestral y la proporción muestral tienen


distribución normal cuando el tamaño de la muestra es grande, sin importar la forma de la
distribución de la población de origen.

Como se mencionó antes, en el caso de las distribuciones continuas de probabilidad sólo es


posible determinar un valor de probabilidad para un intervalo de valores. La altura de la función de
densidad, o curva de probabilidad, para un variable con distribución normal está dada por

1 -[(X-ð)2/2σ2]

f(X) = -------- e

2ðσð

en donde ð es la constante 3.1416, e es la constante 2.7183, ð es la media de la distribución y σ es


la desviación estándar de la distribución. Como cualquier combinación distinta de ð y σ genera una
distribución normal de probabilidad distinta (todas ellas simétricas y mesokúrticas), las tablas de las
probabilidades normales se basan en una distribución específica:

La distribución normal estándar. Ésta es una distribución normal en la que ð=0 y σ=1. Cualquier
valor X de una población con distribución normal puede convertirse a su valor normal estándar
equivalente, z, mediante la fórmula

X-ð

z = -----

PUNTOS PERCENTILES PARA VARIABLES CON DISTRIBUCI”N NORMAL

Puede recordarse que el punto percentil 90 es el punto de la distribución tal que el 90% de los
valores se encuentran por debajo de él y el 10% por encima. Para la distribución normal estándar,
es el valor de z tal que la proporción total de área a la izquierda de ese valor, bajo la curva normal,
es 0.90.

EJEMPLO

En la siguiente figura se ilustra la posición del punto percentil 90 para la distribución normal
estándar. Para determinar el valor requerido de z, se utiliza la tabla correspondiente en el sentido
contrario al común, porque, en este caso, el área bajo la curva entre la media y el punto de interés
es 0.40, tal como se ha especificado, y se desea determinar el valor correspondiente de z. Se
busca en el cuerpo de la tabla el valor más cercano a 0.4000. Este valor resulta ser 0.3997.
Determinando los encabezados del renglón y de la columna, se encuentra que el valor de z
asociado con esta área es 1.28, y por lo tanto, z 0.90 = + 1.28.

Dado el procedimiento de este ejemplo, que permite determinar un punto percentil para la
distribución normal estándar, puede determinarse un punto percentil para una variable aleatoria con
distribución normal convirtiendo el valor pertinente de z al valor que se requiere de X, mediante la
fórmula

X= ð+zσ

APROXIMACI”N NORMAL A PROBABILIDADES BINOMIALES

Cuando el número de observaciones o ensayos n es relativamente grande, puede utilizarse la


distribución normal de probabilidad para aproximar las posibilidades binomiales. Una regla
conveniente consiste en afirmar que esas aproximaciones son aceptables cuando n ≥ ðð, y tanto
np ≥ 5 como nq ≥ 5. Esta regla, en combinación con la que se proporciona con respecto a la
aproximación de Poisson a las probabilidades binomiales, significa que en los casos en que n ≥ 30,
las probabilidades binomiales pueden aproximarse, ya sea mediante la distribución normal o la de
Poisson, dependiendo de los valores np y nq. Algunos otros textos pueden utilizar reglas un tanto
distintas para determinar los casos en los que esas aproximaciones son apropiadas.

Cuando se utiliza la distribución normal de probabilidad como base para aproximar un valor
binomial de probabilidad, la media y la desviación estándar se basan en un valor esperado y la
varianza del número de éxitos de la distribución binomial, el número promedio de “éxitos” es

ð = np

La desviación estándar del número de “éxitos” es

σ = npq

APROXIMACI”N NORMAL A PROBABILIDADES DE POISSON

Cuando la media ð de una distribución Poisson es relativamente grande, puede utilizarse la


distribución normal de probabilidad para aproximar probabilidades tipo Poisson. Una regla práctica
consiste en afirmar que esa aproximación es aceptable cuando ð ≥10.0.

La media y la desviación están dar de la distribución normal de probabilidad se basan en el valor


esperado y la varianza del número de eventos de un proceso Poisson. Esta media es

ð=ð
La desviación estándar es

σ=ð

PRUEBA DE HIP”TESIS SOBRE LA MEDIA DE UNA POBLACI”N.

ETAPAS BÁSICAS EN PRUEBAS DE HIP”TESIS

Al realizar pruebas de hipótesis. se parte de un valor supuesto (hipotético) de un parámetro


poblacional. Después de recolectar una muestra aleatoria, se compara la estadística muestral, así
como la media (X), con el parámetro hipotético, se compara con una supuesta media poblacional
(ð). Después. se acepta o se rechaza el valor hipotético, según proceda, se rechaza el valor
hipotético sólo si el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.

Etapa 1: Plantear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el valor
hipotético del parámetro que se compara con el resultado muestral. Se rechaza sólo si el resultado
muestral es muy poco probable en el caso de que la hipótesis sea cierta. Se acepta la hipótesis
alternativa (H1) sólo si se rechaza la hipótesis nula.

EJEMPLO.

Un auditor desea probar el supuesto de que el valor promedio de todas las cuentas por cobrar en
un empresa determinada es $260,000, tomando una muestra de n=36 y calculando la media
muestral. Desea rechazar el valor del supuesto de $260,000 sólo si la media muestral lo contradice
en forma clara, por lo que debe “darse el beneficio de la duda” al valor hipotético en el
procedimiento de prueba. Las hipótesis nula y alternativa para esta prueba son H0: ð = $ 260,000
H1: ðð260,000.

Etapa 2: Especificar el nivel de significancia que se va a utilizar. El nivel de significancia es el


estándar estadístico que se especifica para rechazar la hipótesis nula. Si se especifica un nivel de
significancia del 5%, entonces se rechaza la hipótesis nula solamente si el resultado muestral es
tan diferente del valor hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir
aleatoriamente con una probabilidad de 0.05 o menos.

Debe observarse que si se utiliza el nivel de significancia del 5%, existe una probabilidad del 0.05
de rechazar la hipótesis nula cuando, de hecho, es cierta. A esto se le denomina error tipo I. La
probabilidad del error tipo I es siempre igual al nivel de significancia que se utiliza como criterio
para rechazar la hipótesis nula; se le designa mediante la letra griega ð ("alfa") Y, por ello, ð
designa el nivel de significancia. Los niveles de significancia que se utilizan con mayor frecuencia
en las pruebas de hipótesis son el 5 y el 1%.

Ocurre un error tipo II si se acepta la hipótesis nula cuando, de hecho, es falsa. En la siguiente
Tabla se resumen los tipos de decisiones y las consecuencias posibles, al realizar pruebas de
hipótesis.

Situaciones posibles

La
Decisiones hipótesis
La hipótesis
posibles nula es
nula es
verdadera
falsa
Error
Aceptar la Se acepta
hipótesis nula correctamente
tipo II

Error
Rechazar la Se rechaza
hipótesis nula correctamente
tipo I

Etapa 3: Elegir la estadística de prueba. La estadística de prueba puede ser la estadística muestral
(el estimador no sesgado del parámetro que se prueba) o una versión transformada de esa
estadística muestral. Por ejemplo, para probar el valor hipotético de una media poblacional, se
toma la media de una muestra aleatoria de esa población para utilizarla como estadística de
prueba. Sin embargo, si la distribución de muestreo de la media tiene distribución normal, entonces
es común que se transforme la media muestral en un valor z el cual. a su vez, sirve como
estadística de prueba.

Etapa 4: Establecer el valor o valores críticos de la estadística de prueba. Habiendo especificado la


hipótesis nula, el nivel de significancia y la estadística de prueba que se van a utilizar, se procede a
establecer el o los valores críticos de estadística de prueba. Puede haber uno o más de esos
valores, dependiendo de si se va a realizar una prueba de uno o dos extremos. En cualquier caso,
un valor crítico identifica el valor de estadística de prueba que se requiere para rechazar la
hipótesis nula.

Etapa 5: Determinar el valor real de la estadística de prueba. Por ejemplo, al probar un valor
hipotético de la media poblacional, se toma una muestra aleatoria y se determina el valor de la
media muestral. Si el valor crítico que se establece es un valor de z, entonces se transforma la
media muestral en un valor de z.

Etapa 6: Tomar la decisión. Se compara el valor observado de la estadística muestral con el valor
(o valores) críticos de la estadística de prueba. Después, se acepta o se rechaza la hipótesis nula.
Si se rechaza ésta, se acepta la alternativa; a su vez, esta decisión tendrá efecto sobre otras
decisiones de los administradores operativos, como por ejemplo, mantener o no un estándar de
desempeño o cuál de dos estrategias de mercadotecnia utilizar.

PRUEBA DE UN VALOR HIPOTÉTICO DE LA MEDIA UTILIZANDO LA DISTRIBUCI”N NORMAL

Puede utilizarse la distribución normal para probar un valor hipotético de la media poblacional:

Cuando n ≥ 30, utilizando teorema del límite central, o

Cuando n < 30, pero la distribución de la población es normal y se conoce

Se utiliza una prueba de dos extremos cuando lo que interesa es una posible desviación en
cualquier dirección, a partir del valor hipotético de la media. La fórmula que se utiliza para
establecer los valores críticos de la media muestra! es similar la que se utiliza para determinar los
límites de confianza para estimar la media de una población, excepto que el valor hipotético de la
media poblacional ð0 es el punto de referencia, y no la media muestral. Los valores críticos de la
media muestral para una prueba de dos extremos, dependiendo de si se conoce σ, son:

XCR = ð0 ð Zσx

o XCR = ð0 ð zsx
EJEMPLO

Para la hipótesis nula que se planteó en el ejemplo anterior, determine los valores críticos de la
media muestral para probar la hipótesis con un nivel de significancia del 5%. Como se sabe que la
desviación estándar de las cuentas por cobrar es σ = 43,000, los valores críticos son:

Hipótesis: H0: ð = $260,000; H1: ð ð $260,000

Nivel de significancia = ð = 0.05

Estadística de prueba: X con base en una muestra de n=36, y con una σ = 43,000

XCR = valores críticos de la media muestral

XCR = ð0 ð Zσx = 260,000 ð 1.96 σ/ ðn = 260,000 ð 1.96 43,000 / ð36

= 260,000 ð 1.967166.67 = 266,000 ð 14,046.67 = $245,953.33 y 274,046.67

Por lo tanto, para rechazar la hipótesis nula, la media muestral debe tener un valor inferior a
$245,950 o mayor de $274,050. Así, existen dos regiones de rechazo en el caso de una prueba de
dos extremos. Se utilizan los valores de z de ð 1.96 para establecer los límites críticos porque para
la distribución normal estándar se tiene 0.05 de proporción del área en los dos extremos (0.025 en
cada extremo), lo cual corresponde al valor de ð = 0.05 que se especifica.

En vez de establecer valores críticos en términos de la media muestral como tal, es común que se
especifiquen los valores críticos en las pruebas de hipótesis en términos de valores z. Para el nivel
de significancia del 5%, los valores críticos z para una prueba de dos extremos son -1.96 y +1.96,
por ejemplo. Cuando se determine el valor de la media muestral, se le transforma en un valor z
para que pueda compararse con los valores críticos de z. La fórmula de transformación,
dependiendo de si se conoce σ o no, es

X - ð0

z = --------

σx

X - ð0

z = -----------

sx

ERRORES TIPO I y TIPO II EN PRUEBAS DE HIP”TESIS

Analizaremos en forma completa los errores tipo I y tipo II con respecto a las pruebas de un
extremo sobre una media hipotética. Sin embargo, los conceptos que se ilustran aquí son
aplicables también a otros modelos de pruebas de hipótesis.

La probabilidad del error tipo I es siempre igual al nivel de significancia que se utiliza al probar
hipótesis nulas. Esto es así porque, por definición, la proporción de área en la región de rechazo es
igual a la proporción de resultados muestrales que ocurrirían en esa región, cuando la hipótesis es
verdadera.

Por lo general, a la probabilidad del error del tipo II se le designa mediante la letra griega ð ("beta").
La única forma en que se puede determinar es con respecto a un valor especifico incluido dentro
del rango de la hipótesis alternativa.

DETERMINACI”N DEL TAMAÑO NECESARIO DA LA MUESTRA PARA LAMEDIA

Antes de extraer la muestra, puede determinarse el tamaño que se requiere especificando (1) el
valor hipotético de la media; (2) un valor alternativo especifico para la media, de manera que la
diferencia con respecto al valor hipotético resulta considerable; (3) el nivel de significancia que
debe utilizarse en la prueba; (4) la probabilidad del error tipo II que se permite; y (5) el valor de la
desviación estándar para la población, σð La fórmula para determinar el tamaño mínimo que se
requiere para la muestra, a fin de probar un valor hipotético de media con base en la distribución
normal es.

(z0 - z1)2σð

n =-------------------

(ðð ð ðð)2

En z0 es el valor critico de z que se utiliza para el nivel de significación especificado (nivel ðð, en
tanto que z1 es el valor de z correspondiente a la probabilidad especificada del error tipo II (nivel
ðð. El valor de σ debe ser conocido o estimado de alguna manera. Puede utilizarse la formula
anterior para pruebas de uno o dos extremos.

El único valor que difiere para los dos tipos de prueba es el valor de z0 que se utiliza.

(Nota: Cuando se está determinando el tamaño mínimo de muestra, siempre se redondean hacia
arriba los resultados fraccionarios. Además, si no se conoce σ, o la población no tiene una
distribución normal, cualquier tamaño de muestra que se calcule debe aumentarse cuando menos
a este valor, porque la fórmula anterior se basa en el uso de la distribución normal.)

EL MÉTODO DEL VALOR p PARA PROBAR HIP”TESIS NULAS REFERENTES A UNA MEDIA
POBLACIONAL

Al seguir el método del valor p en vez de comparar el valor observado de un estadístico de prueba
con un valor crítico, se determina la probabilidad de ocurrencia del estadístico de prueba,
suponiendo que la hipótesis nula es cierta, y se le compara con el nivel de significancia ð. Se
rechaza la hipótesis nula si el valor p es inferior al nivel designado ð.

ANÁLISIS DE REGRESI”N Y CORRELACI”N LINEAL

OBJETIVOS Y SUPOSICIONES DEL ANÁLISIS DE REGRESI”N

El principal objetivo del análisis de regresión es estimar el valor de una variable aleatoria (la
variable dependiente) conociendo el valor de una variable asociada (la variable independiente). La
ecuación de regresión es la fórmula algebraica mediante la cual se estima el valor de la variable
dependiente.
El término de análisis de regresión simple indica que se estima el valor de la variable dependiente
con base en una independiente, en tanto que el análisis de regresión múltiple se ocupa de la
estimación del valor de la variable dependiente con base en dos o más variables independientes.

Las suposiciones generales en las que se basa el modelo de la regresión que se presenta son: (1)
la variable dependiente es una variable aleatoria; (2) las variables dependiente e independiente
tienen una relación lineal; y (3) las varianzas de las distribuciones condicionales de la variable
dependiente, para diversos valores de la variable independiente, son iguales (homoscedasticidad).
La primera suposición indica que, aunque puedan controlarse los valores de la variable
independiente, los valores de la variable dependiente se deben obtener a través del proceso de
muestreo.

Si se utiliza la estimación por intervalos en el análisis de regresión, se requiere una suposición


adicional: (4) las distribuciones condicionales de la variable dependiente, para valores diferentes de
la variable dependiente, son todas distribuciones normales para la población de valores.

EJEMPLO

Un analista desea estimar el tiempo de entrega de refacciones industriales embarcadas por


camión. Desea utilizar el tiempo de entrega como variable dependiente y la distancia como variable
independiente. Suponga que elige diez embarques recientes de los registros de la compañía, de
manera que las distancias por carretera correspondientes están más o menos equitativamente
dispersas entre 100 y 1,000 kilómetros de distancia, y registra el tiempo de entrega para cada
embarque. Como se va a utilizar la distancia por carretera como variable independiente, esa
selección de viajes con distancias específicas resulta aceptable. Por otro lado, la variable
dependiente (el tiempo de entrega) es una variable aleatoria en su estudio, lo cual se ajusta a los
supuestos del análisis de regresión. El que las variables tengan o no una relación lineal, por lo
general se determina construyendo un diagrama de dispersión o una gráfica de residuales. Estos
diagramas se utilizan también para observar si la dispersión vertical (varianza) es más o menos
igual a lo largo de la línea de regresión.

DIAGRAMA DE DISPERSI”N

Un diagrama de dispersión es una gráfica en la que se traza cada uno de los puntos que
representan un par de valores observados para las variables independiente y dependiente. El valor
de la variable independiente se grafica con respecto al eje horizontal, y el valor de la variable
dependiente y se traza con respecto al eje vertical.

La forma de la relación representada mediante el diagrama de dispersión puede ser curvilínea y no


lineal. Para relaciones que no son lineales, un enfoque utilizado con frecuencia consiste en
determinar algún método para transformar los valores de una o ambas variables, de manera que la
relación de los valores transformados sí sea lineal. Después, puede aplicarse el análisis de
regresión a los valores transformados y pueden transformarse los valores estimados de la variable
dependiente, de vuelta a la escala original de medición.

EL MÉTODO DE MÍNIMOS CUADRADOS PARA AJUSTAR UNA LÍNEA DE REGRESI”N

El modelo lineal que representa el modelo de regresión lineal simple es:

Yi = ð0 + ððXi + ði

en donde
Yi - Valor de la variable dependiente en el i-ésimo ensayo u observación.

ðð - Primer parámetro de la ecuación de regresión, que indica el valor de Y cuando X= 0.

ðð - Segundo parámetro de la ecuación de regresión, que indica la pendiente de la línea de


regresión.

Xi - El valor especificado de la variable independiente en el i-ésimo ensayo, u observación.

ði - Error aleatorio de muestreo en el i-ésimo ensayo, u observación (E es el griego "épsilon")

RESIDUALES Y GRÁFICAS DE RESIDUALES

Para un valor X dado de la variable independiente. al valor y frecuentemente se le denomina el


valor ajustado de la variable dependiente. A la diferencia entre el valor observado y y el valor
ajustado y se le denomina residual para esa observación, y se le denota mediante e:

e = Y- y

EL ERROR ESTÁNDAR DEL ESTIMADOR

El error estándar del estimador es la desviación estándar condicional de la variable dependiente Y,


dado un valor de la variable independiente X. Para datos poblacionales, el error estándar del
estimador se representa mediante el símbolo σ Y.X. La formula de desviaciones que permite
estimar este valor con base en datos muestrales es

(ðY- y)2 ðe2

SY.X = -------------- = ----------

n-2 n-2

INFERENCIAS SOBRE LA PENDIENTE

Antes de utilizar la ecuación de regresión para realizar estimaciones o predicciones, debe


determinarse en primer lugar si, de hecho, existe una relación entre las dos variables de la
población o, por otro lado, si pudiera ser que la relación que se observa en la muestra haya
ocurrido por azar. Si no existe relación en la población, la pendiente de la línea de regresión
poblacional sería cero, por definición: ð1 = 0. Por ello, la hipótesis que generalmente se prueba es
H0: ð1= 0. También puede plantearse la hipótesis nula, como prueba con un criterio de calificación,
en cuyo caso la hipótesis alternativa no es simplemente que las dos variables están relacionadas,
sino que la relación es de algún tipo específico (directa o inversa).

Se prueba el valor hipotético de una pendiente calculando la estadística t y utilizando n -2 grados


de libertad. Se pierden dos grados de libertad en el proceso de la inferencia porque se incluyen en
el análisis de regresión dos estimaciones de parámetros, b0 y b1. La fórmula general es

b1 - (ð1)0

t = --------------

sb1
en donde

SY.X

Sb1 = -----------------

S X2 - nX2

Sin embargo, cuando la hipótesis nula dice que la pendiente es cero, lo cual generalmente es el
caso, se simplifica la fórmula y se plantea de la siguiente manera:

b1

t = ---------

s b1

EL COEFICIENTE DE CORRELACI”N

Aunque el coeficiente de determinación es relativamente fácil de interpretar, no se prueba muy bien


en pruebas estadísticas. Sin embargo, la raíz cuadrada del coeficiente de determinación, que se
denomina el coeficiente de correlación r sí se presta para las pruebas estadísticas, porque puede
utilizarse para definir una estadística de prueba que tiene distribución t cuando la correlación en la
población p es igual a 0. El valor del coeficiente puede variar de -1.00 a +1.00. El signo aritmético
asociado con el coeficiente de correlación, que es siempre igual al signo de ð1 de la ecuación de
regresión, indica la dirección de la relación entre X y Y (positiva = directa; negativa = inversa). El
coeficiente de correlación poblacional, teniendo el mismo signo aritmético que ð1 de la ecuación de
regresión es:

p = p2

El coeficiente de correlación muestral es

r = r2

En resumen, el signo del coeficiente de correlación indica la dirección de la relación entre las
variables X y Y, en tanto que el valor absoluto del coeficiente muestra la medida de la relación. El
coeficiente de correlación elevado al cuadrado es el coeficiente de determinación e indica la
proporción de la varianza de Y que queda explicada por el conocimiento de X (y viceversa).

SIGNIFICACI”N DEL COEFICIENTE DE CORRELACI”N

Es común que la hipótesis nula de interés sea que la correlación en la población p = 0, porque si se
rechaza esta hipótesis a un nivel especificado ð, se concluiría que existe una relación real entre las
variables. También puede plantearse la hipótesis como prueba con un criterio de calificación.
Considerando que se satisfacen las suposiciones, la siguiente estadística muestral que incluye a r
se distribuye como la distribución t, con gl = n -2, cuando p =0:

t = ------------
1-r2

n-2

Probar la hipótesis nula de que p = 0 es equivalente a probar la hipótesis nula de que ð = 0 en la


ecuación de regresión.

• Eventos dependientes e independientes, combinaciones y permutaciones


Para aplicar la Regla de Laplace, el cálculo de los sucesos favorables y de los sucesos posibles a
veces no plantea ningún problema, ya que son un número reducido y se pueden calcular con
facilidad:

Por ejemplo: Probabilidad de que al lanzar un dado salga el número 2. Tan sólo hay un caso
favorable, mientras que los casos posibles son seis.

Probabilidad de acertar al primer intento el horóscopo de una persona. Hay un caso favorable y 12
casos posibles.

Sin embargo, a veces calcular el número de casos favorables y casos posibles es complejo y hay
que aplicar reglas matemáticas:

Por ejemplo: 5 matrimonios se sientan aleatoriamente a cenar y queremos calcular la probabilidad


de que al menos los miembros de un matrimonio se sienten junto. En este caso, determinar el
número de casos favorables y de casos posibles es complejo.

Las reglas matemáticas que nos pueden ayudar son el cálculo de combinaciones, el cálculo de
variaciones y el cálculo de permutaciones.

a) Combinaciones:

Determina el número de subgrupos de 1, 2, 3, etc. elementos que se pueden formar con los "n"
elementos de una nuestra. Cada subgrupo se diferencia del resto en los elementos que lo
componen, sin que influya el orden.

Por ejemplo, calcular las posibles combinaciones de 2 elementos que se pueden formar con los
números 1, 2 y 3.

Se pueden establecer 3 parejas diferentes: (1,2), (1,3) y (2,3). En el cálculo de combinaciones las
parejas (1,2) y (2,1) se consideran idénticas, por lo que sólo se cuentan una vez.

b) Variaciones:

Calcula el número de subgrupos de 1, 2, 3, etc.elementos que se pueden establecer con los "n"
elementos de una muestra. Cada subgrupo se diferencia del resto en los elementos que lo
componen o en el orden de dichos elementos (es lo que le diferencia de las combinaciones).

Por ejemplo, calcular las posibles variaciones de 2 elementos que se pueden establecer con los
número 1, 2 y 3.

Ahora tendríamos 6 posibles parejas: (1,2), (1,3), (2,1), (2,3), (3,1) y (3,3). En este caso los
subgrupos (1,2) y (2,1) se consideran distintos.
c) Permutaciones:

Cálcula las posibles agrupaciones que se pueden establecer con todos los elementos de un grupo,
por lo tanto, lo que diferencia a cada subgrupo del resto es el orden de los elementos.

Por ejemplo, calcular las posibles formas en que se pueden ordenar los número 1, 2 y 3.

Hay 6 posibles agrupaciones: (1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2) y (3, 2, 1)

¿Cómo se calculan?

a) Combinaciones:

Para calcular el número de combinaciones se aplica la siguiente fórmula:

El termino " n ! " se denomina "factorial de n" y es la multiplicación de todos los números que van
desde "n" hasta 1.

Por ejemplo: 4 ! = 4 * 3 * 2 * 1 = 24

La expresión "Cm,n" representa las combinaciones de "m" elementos, formando subgrupos de "n"
elementos.

Ejemplo: C10,4 son las combinaciones de 10 elementos agrupándolos en subgrupos de 4


elementos:

Es decir, podríamos formar 210 subgrupos diferentes de 4 elementos, a partir de los 10 elementos.

b) Variaciones:

Para calcular el número de variaciones se aplica la siguiente fórmula:

La expresión "Vm,n" representa las variaciones de "m" elementos, formando subgrupos de "n"
elementos. En este caso, como vimos en la lección anterior, un subgrupo se diferenciará del resto,
bien por los elementos que lo forman, o bien por el orden de dichos elementos.

Ejemplo: V10,4 son las variaciones de 10 elementos agrupándolos en subgrupos de 4 elementos:


Es decir, podríamos formar 5.040 subgrupos diferentes de 4 elementos, a partir de los 10
elementos.

c) Permutaciones:

Para calcular el número de permutaciones se aplica la siguiente fórmula:

La expresión "Pm" representa las permutaciones de "m" elementos, tomando todos los elementos.
Los subgrupos se diferenciaran únicamente por el orden de los elementos.

Ejemplo: P10 son las permutaciones de 10 elementos:

Vamos a analizar ahora que ocurriría con el cálculo de las combinaciones, de las variaciones o de
las permutaciones en el supuesto de que al formar los subgrupos los elementos pudieran
repetirse.

Por ejemplo: tenemos bolas de 6 colores diferentes y queremos formar subgrupos en los que
pudiera darse el caso de que 2, 3, 4 o todas las bolas del subgrupo tuvieran el mismo color. En
este caso no podríamos utilizar las fórmulas que vimos en la lección anterior.

a) Combinaciones con repetición:

Para calcular el número de combinaciones con repetición se aplica la siguiente fórmula:

Ejemplo: C'10,4 son las combinaciones de 10 elementos con repetición, agrupándolos en


subgrupos de 4, en los que 2, 3 o los 4 elementos podrían estar repetidos:

Es decir, podríamos formar 715 subgrupos diferentes de 4 elementos.

b) Variaciones con repetición:


Para calcular el número de variaciones con repetición se aplica la siguiente fórmula:

Ejemplo: V'10,4 son las variaciones de 10 elementos con repetición, agrupándolos en subgrupos
de 4 elementos:

Es decir, podríamos formar 10.000 subgrupos diferentes de 4 elementos.

c) Permutaciones con repetición:

Para calcular el número de permutaciones con repetición se aplica la siguiente fórmula:

Son permutaciones de "m" elementos, en los que uno de ellos se repite " x1 " veces, otro " x2 "
veces y así ... hasta uno que se repite " xk " veces.

Ejemplo: Calcular las permutaciones de 10 elementos, en los que uno de ellos se repite en 2
ocasiones y otro se repite en 3 ocasiones:

Es decir, tendríamos 302,400 formas diferentes de agrupar estos 10 elementos.

Ejercicio

Calcular la probabilidad de acertar los 14 signos de la quiniela:

Solución:

Se aplica la Regla de Laplace (casos favorables / casos posibles). El caso favorable es tan sólo
uno (acertar los 14 signos). Los casos posibles se calculan como variaciones con repetición de 3
elementos (1, X y 2), tomados de 14 en 14 (los signos que hay que rellenar).

Son variaciones y no combinaciones ya que el orden influye: no es lo mismo (1,1,X) que (1, X, 1). Y
son con repetición, ya que cualquiera de los signos (1, X y 2) se puede repetir hasta 14 veces.

Por lo tanto, los casos posibles son:


Y la probabilidad de acertar los 14 resultados es:

No demasiado elevada....pero el que la sigue la consigue.

2.- Ejercicio

Y la probabilidad de acertar 12 signos de la quiniela:

Solución:

Aplicamos nuevamente la Regla de Laplace. En este caso los casos favorables se calculan como
combinaciones de 14 elementos tomados de 2 en 2, de esta manera obtenemos todas las posibles
alternativas de fallar 2 resultados de 14 (lo que equivale a acertar 12 resultados). Utilizamos
combinaciones y no variaciones ya que el orden no importa (da lo mismo fallar el 3º y el 6º, que el
6º y el 3º)

Los casos posibles siguen siendo los mismos:

Por lo que la probabilidad de acertar 12 resultados es:

Por lo tanto, tenemos más probabilidades de acertar 12 resultados que 14 (¿será por eso por lo
que pagan menos?).

3.- Ejercicio

Calcular la probabilidad de, en una carrera de 12 caballos, acertar los 3 que quedan primeros (sin
importar cual de ellos queda primero, cual segundo y cual tercero).

Solución:

Se aplica la Regla de Laplace. El caso favorable es tan sólo uno: los 3 caballos que entran en
primer lugar. Los casos posibles se calculan como combinaciones de 12 elementos tomados de 3
en 3 (es decir, determinamos todos las posibles alternativas de 3 caballos que pueden entrar en las
3 primeras posiciones). Como el orden de estos 3 primeros caballos no importa, utilizamos
combinaciones en lugar de variaciones.

Por lo tanto, los casos posibles son:


Por lo que la probabilidad de acertar los 3 caballos ganadores es:

Algo mayor que en las quinielas.... Eso sí, se paga menos.

4.- Ejercicio

Y si hubiera que acertar, no sólo los 3 caballos que ganan, sino el orden de su entrada en meta.

Solución:

El caso favorable sigue siendo uno: los 3 caballos que entran en primer lugar, colocados en su
orden correspondiente.

Los casos posibles se calculan ahora como variaciones (ya que el orden influye) de 12 elementos
tomados de 3 en 3 (calculamos todas las posibles maneras en que los 12 caballos podrían ocupar
las 3 primeras posiciones.

Por lo que la probabilidad de acertar los 3 caballos ganadores es:

Menor que en el ejemplo 3º. Ya no vale acertar que 3 caballos entran en primer lugar, sino que
tenemos que acertar el orden de su entrada.

Precálculo
• Propiedades de los números reales
Los números que se utilizan en el álgebra son los números reales. Hay un número real en cada
punto de la recta numérica. Los números reales se dividen en números racionales, números
irracionales y numeros enteros los cuales a su vez se dividen en números negativos, números
positivos y cero (0) .Podemos verlo en esta tabla:
Un número real es racionalsi se puede representar como cociente a/b, donde a sea un entero y b
sea un entero no igual a cero. Los números racionales pueden escribirse en forma decimal.
Existen dos maneras:

* decimales terminales
* decimales que se repiten infinitamente
Los números reales que no pueden ser expresados en la forma a/b, donde a y b son
enteros se llaman números irracionales. Los números irracionales no tienen decimales
terminales ni decimales que se repiten infinitamente.

• Desigualdades
Desigualdades Lineales
Una inecuación o desigualdad lineal es lo mismo que una ecuación lineal pero cambiando
el signo de igualdad por signo(s) de desigualdad.
Los signos de desigualdad son
. Para resolver
una desigualdad lineal se utilizan los mismos pasos que se usan para resolver una
ecuación lineal. Como ejemplo, vamos a resolver la desigualdad 3 > x - 8.

Sumando la misma cantidad a ambos lados:

3>x-8
3+8>x-8+8
11 > x
Una regla importante en las desigualdades es que cuando se divide por un número
negativo, el signo de desigualdad cambia.
Ejemplo:
Intérvalos
Un intérvalo es el conjunto de todos los números reales entre dos números reales dados.
Para representar los intérvalos se utilizan los siguientes simbolos:
1. Intérvalo abierto (a, b) = {x/a x b}.
2. Intérvalo cerrado [a, b] = {x/a x b}

En una gráfica, los puntos finales de un intérvalo abierto se representan con un punto
abierto ( ) y los de un intérvalo cerrado se representan con un punto cerrado ( ). Por
ejemplo, observemos las siguientes figuras:

Según vimos anteriormente los paréntesis se utilizan para los intérvalos abiertos y los
corchetes para los intérvalos cerrados. Veamos ahora cuando se utilizan ambas
denotaciones a la misma vez.
Por ejemplo:
Si tenemos (a, b], la gráfica sería:

Si tenemos [a, b), la gráfica sería:

Cuando hablamos de infinito nos referimos al conjunto de todos los números reales
mayores que a y se representan con la notación de intérvalo (a, ). El conjunto de todos
los números reales menores que a se representan con la notación de intérvalo (- , a).
Desigualdades que Envuelven Dos Posibles Soluciones
Hay desigualdades que envuelven dos posibles soluciones, una positiva y otra negativa.
Por ejemplo:
| 10x - 2| 9
• 10x - 2 -9
10x -9 +2
10x -7
10x/10 -7/10
x -7/10
• 10x - 2 9
10x 9 + 2
10x 11
10x/10 11/10
x 11/10

• Función y límite
Coordenadas
Llamamos a la coordenada de un punto a cada punto en la recta numérica asociado con un
número real. Un par ordenado es un par de números a y b con elementos escritos en forma
significante. Dos pares ordenados son iguales si tienen el mismo primer elemento y el mismo
segundo elemento.
Por ejemplo:
El par ordenado (4, 5) es igual al par ordenado (4, 5).

Los números en un par ordenado son llamados coordenadas. En el par (7, 5) la primera
coordenada es 7 y la segunda es 5.

Ya hemos visto en la primera sección cómo se construye una recta numérica. La línea horizontal es
el eje de x, la vertical es el eje de y y su intersección es el origen. Estos ejes dividen el plano en
cuatro zonas llamadas cuadrantes. Veamos la siguiente recta numérica:

Las coordenadas en el primer cuadrante serán (+, +), las del segundo cuadrante serán (-, +), las
del tercer cuadrante serán (-, -) y las del cuarto cuadrante serán (+, -). El primer número de una
coordenada representa el lugar horizontal del punto y el segundo número representa el lugar
vertical del punto.
Por ejemplo:

Distancia Entre Dos Puntos


La distancia entre dos puntos P1 y P2 se calcula usando la siguiente fórmula:
d( P1, P2) = |P1 - P2|
Por ejemplo:

d(4, -6) = |4 - (-6)| = 10


Pero para hallar la distancia entre dos puntos, mediante sus coordenadas P1 (X1, Y1) y P2
(X2, Y2), utilizamos la siguiente fórmula de distancia:

Círculos
Un círculo es una curva que consiste en un conjunto de puntos equidistantes a un punto en común.
El punto en común es llamado el centro del círculo y la distancia desde el centro hasta la curva se
conoce como el radio del círculo.

Para determinar la distancia del radio (r), supongamos que las coordenadas del centro son (h, k) y
las de un punto cualquiera del círculo son (x, y), la fórmula sería:

Por ejemplo, si el centro del círculo es (6, 4) y uno de sus puntos es (4, 3). Determinar el
radio (r).
Si el centro del círculo es el origen, o sea con coordenadas (0, 0), entonces la fórmula
sería:

Por ejemplo, si utilizamos el ejercicio anterior pero con centro (0, 0) sería:

Variación
Existen dos tipos de variación: variación directa y variación inversa. Veamos cada una de
ellas:

Variación Directa = es una función que se define por una ecuación que está en la forma y =
kx , donde k es una constante no igual a cero. La variable y varía directamente de x. La
constante k es llamada la constante de variación. La variación directa establece un único
valor de y para cada valor de x. En la variación directa las dos variables aumentan (o
disminuyen) juntas. Cuando el dominio es un conjunto de números reales, la gráfica de la
variación directa es una línea recta con pendiente k que pasa por el origen.
Variación Inversa = es una función que se define por una ecuación que está en la forma y =
k/x, donde x no es igual a cero. La variable y varía a la inversa de x. En la variación invesa
el aumento de una de las variables significa la disminución de la otra variable. La gráfica de
esta variación es una hipérbola.

Proporción
Una proporción es una ecuación que establece que dos radios son iguales. Una proporción

es en la que el producto entre a con d es igual al producto de b con c. Muchos


problemas de aplicación pueden resolverse si se utiliza una proporción adecuada.

Por ejemplo:

Un automóvil gasta 9 galones de gasolina para viajar 120 millas. ¿Cuántos galones de
gasolina necesitaría el auto para viajar 550 millas?

9 gal. = 120 mi.


x gal. = 550 mi.

Funciones
Una función consiste en dos conjuntos, dominio y rango, y una regla que asigna a cada miembro
del dominio exactamente un miembro del rango. A cada miembro del rango debe serle asignado
por lo menos un miembro del dominio. Si la relación entre dos variables x y y es una en la que para
cada valor de y hay exactamente un valor de x, se dice que y es una función de x.
Ejemplo:

y = 7x + 1
y = 7(2) + 1 = 15
y = 7(4) + 1 = 29
y = 7(6) + 1 = 43
El dominio D es {2, 4, 6} y el rango R es {15, 29, 43}.

La Gráfica de una Función


Para hacer la gráfica de una función como f(x) = x + 2, lo hacemos igual que si hiciéramos
la gráfica de una ecuación
y = x + 2. Buscamos los pares ordenados (x, f(x)), se localizan los puntos en la recta
numérica y se conectan.
Por ejemplo:

f(x) = x + 2

Utilizando una Gráfica para Definir una Función


Una gráfica determina un conjunto de pares ordenados con números reales
correspondientes a las coordenadas de los puntos en la gráfica. Este conjunto de pares
ordenados, determinados por la gráfica, puede o no puede definir una función. Es
importante recordar que para definir una función, el conjunto de pares ordenados debe
obedecer la regla que establece que dos pares ordenados no deben tener el mismo primer
elemento. Por lo tanto, una línea vertical no puede intersectar la gráfica de una función en
mas de un punto.
Figuras:

La figura 1 define una función, mientrás que la figura 2 no define una función.
Los Ceros de una Función
Un cero de una función es la solución de una ecuación f(x) = 0. Los ceros de una función
corresponde a los puntos en los cuales la gráfica de la función atraviesa el eje de x. Estos
puntos son llamados interceptos en x.
Por ejemplo:

En la figura 1 los interceptos en x son X1, X2 y X3. La figura 2 no tiene ningún intercepto en
x.

Español
• Ortografía general (incluye acentuación y homófonos)
Reglas del acento

Llevan acento ortográfico:

Las palabras agudas terminadas en vocal y en las consonantes n - s.

Ejemplo: café, compás, león, manatí.

Las palabras graves o llanas terminadas en consonante, que no sean n - s.

Ejemplo: árbol, cáliz, carácter.

Todas las palabras esdrújulas.

Ejemplo: cántaro, húmedo, héroe.

Casos particulares más importantes del acento

1. Los monosílabos no llevan acento, menos:

a) Sí (adverbio de afirmación, nombre, pronombre), para no confundirlo con si (conjunción).

Ejemplo: Si me dices que sí, vendrás de paseo.

b) Dé y sé (verbos), para no confundirlos con de (preposición) y se (pronombre).

Ejemplo: Sé que debo estudiar. No se puede.


c) Él - tú - mí (pronombres) para no confundirlos con el (artículo) y tu - mi (adjetivos).

Ejemplo: ¿Tú quieres ir? Eso es para mí.

d) Más (adverbio), para no confundirlo con mas (conjunción).

Ejemplo: Quiero más pan, mas no tostado.

e) La conjunción o llevará acento cuando esté colocada entre números, para no confundirla con el
cero.

Ejemplo: Tengo 8 ó 9 estampas.- Iré hoy o mañana.

f) Aún (adverbio de tiempo) llevará acento cuando sea sinónimo de «todavía».

Ejemplo: El yate no ha venido aún al puerto.

2. Los monosílabos verbales fue, fui, vio y dio se escribirán sin acento ortográfico.

Ejemplo: Juan fue al parque, vio los leones y después dio un largo paseo.

3. Las palabras que - quien - cuan - cuando - cuanto-donde-como llevarán acento siempre que se
usen en forma admirativa, interrogativa o dubitativa.

Ejemplo: ¡Cuánta gente en la calle! ¿Quién llama? No sé cómo decírtelo. ¿Dónde vives?

4. Cuando una palabra termina en io-ia, sobre la i colocaremos un acento, deshaciéndose el


diptongo.

Ejemplo: Alegría, caserío, gentío, María.

Excepto las palabras graves o llanas terminadas en estas vocales.

Ejemplo: Guardia, garfio, media, radio, feria.

5. Sobre las letras mayúsculas colocaremos acento ortográfico siempre que por las reglas
generales del acento les corresponda llevarlo.

Ejemplo: Álvaro. Árbol. Él es muy aplicado.

6. Cuando un vocablo simple entre a formar parte de un compuesto como primer complemento del
mismo, se escribirá sin el acento ortográfico que como simple le habría correspondido.

Ejemplo: decimoséptimo, asimismo, piamadre.

Se exceptúan de esta regla los adverbios terminados en -mente, como ágilmente, cortésmente.

Reglas generales

Delante de p y b siempre se escribe m y nunca n.


Ejemplo: Bombilla, lámpara.

Se escribe d a fin de palabra cuando el plural lo hace en des.

Ejemplo: De bondad, bondades.

Se escribe z a fin de palabra cuando el plural lo hace en ces.

Ejemplo: De juez, jueces.

Se escribe y a fin de palabra cuando no sean agudas terminadas en esta vocal.

Ejemplo: Muy, rey, ley, hoy, doy, voy.

Excepciones: Colibrí, manatí, hurí.

Después de las consonantes l-n-s y al principio de palabra, se escribe r aunque se lea como rr.

Ejemplo: Alrededor, honra, Israel, rabia.

Se escriben con mayúscula los nombres propios, al empezar un escrito y después de punto.

Ejemplo: José, Morelia, Ebro, Ibérica.

Las palabras derivadas se escriben con la misma ortografía que las primitivas de donde proceden,
menos las siguientes:

• De hueco, oquedad.
• De huérfano, orfandad, orfanato.
• De hueso, óseo, osario, osamenta.
• De huevo, oval, ovoide, ovíparo.
• De huelva, onubense.
• De huesca, oscense.

Reglas de la h

Se escriben con h:

Las palabras que empiezan por hipo-hidro - hiper, como: hipócrita - hidrógeno - hipérbola.

Las palabras que empiezan por hue - hui - hia - hie, como: hueco - huida - hiato - hielo.

Las palabras que empiezan por hu más m más vocal, como: humedad - humano.

Todos los tiempos de los verbos haber, hacer, hablar, hallar y habitar, como: hubo - hago - hallo -
hablo - habito.

Reglas de la g
Se escriben con g:

Las palabras que empiezan por in, menos: injerto - injertar, como: indígena - ingeniero.

Las palabras que empiezan por gen, menos: Jenaro - jenable - jengibre, como: genio - gente.

Las palabras que terminan en gen - gente, menos: comején - jején, como: imagen - urgente.

Las palabras que terminan en ger - gir - igerar, menos: mujer - tejer - crujir - desquijerar, como:
proteger - afligir - aligerar.

Reglas de la j

Se escriben con j:

Las palabras que empiezan por aje - eje, menos: agencia, agenda, agente, como: ajedrez, ejercer.

Las palabras que terminan en aje - eje, menos: protege, como: coraje, hereje.

Las palabras que terminan en jero - jera - jeria, menos: aligero-flamígero-belígero-ligero.

Las palabras que terminan en jear, como: canjear - cojear.

Reglas de la m
Se escribe m a fin de sílaba cuando la sílaba siguiente empieza por na, ne, ni, no, como: columna -
alumno - solemne - amnesia, menos: perenne, y los compuestos de las preposiciones en - in - con
- sin, como: ennoblecer, innovar, connatural, sinnúmero.
Reglas de la ll
Se escriben con ll:
Las palabras que empiezan por fa - fo - fu, como: falleba - folleto - fullería.
Las palabras que terminan en illo - illa, como: ovillo - pastilla.
Reglas de la x
Se escriben con x:
Las palabras que empiezan por extra, menos: estrada – estrafalario, estragar, estrangular –
estratagema, estraza, como: extraño - extravío.
Delante de las sílabas pla - ple - pli – plo - pre - pri - pro, menos esplendor y espliego, como:
explotar, expresar, exprimir.
Reglas de la b
Se escriben con b:
Las palabras que empiezan por al, menos: Álvaro - alvéolo - altavoz - altivez, como: albañil,
alboroto.
Las palabras que empiezan por es, menos: esclavo - esclavina - esclavitud, como: esbelto,
escarbar.
Las palabras que empiezan por ab - ob, como: abdicar, objeto.
Las palabras que empiezan por bu - bur - bus, como: bujía, burbuja, busto.
Las palabras que empiezan por bien, menos: Viena -viento - vientre, como: bienvenido, bienestar.
Las palabras que terminan en bilidad, menos: movilidad - civilidad, como posibilidad.
Las palabras que terminan en bundo - bunda, como: meditabundo, moribunda.
Las palabras que terminan en probar, como: aprobar, comprobar.
Las terminaciones del pretérito imperfecto del indicativo de los verbos, que en infinitivo terminan en
ar, y también el mismo tiempo del verbo ir (iba - ibas - iba - íbamos - ibais - iban), como: amaba,
rezábamos, llorabais, iban.
Reglas de la v
Se escriben con v:
Las palabras que empiezan por di, menos: dibujo - dibujar - dibujante, como: divino, diversión.
Las palabras que empiezan por vice-villa, menos: billar - bíceps, como: viceversa, villanía.
Las palabras que empiezan por ad, como: adverbio, adversario.
Las palabras que empiezan por lla - lle - llo - llu, como: llave, llevar, llover, lluvia.
Las palabras que empiezan por pre - pri - pro - pol, menos: prebenda - probar - probeta - probo,
como: prevenir, privar, provecho, polvo.
Las palabras que terminan en venir, como: convenir, prevenir.
Las palabras que terminan en tivo - tiva - tivamente, como: caritativo, activa, positivamente.
Las palabras que terminan en ava - ave- avo; eva - eve - evo; iva - ive - ivo, menos: haba, jarabe,
cabo; prueba, debe, sebo; arriba, caribe, recibo, y algunas más.
• Puntuación
A) la coma

1º El nombre en vocativo llevará una coma detrás de sí cuando estuviere al principio de lo que
se diga, y en otros casos la llevará antes y después:
¡Amigos, ayudadme!; Pedro, ven; Por favor, Rubén, haz lo que te digo.

2º Siempre que en lo escrito se empleen dos o más partes de la oración consecutivas y de una
misma clase, se separarán con una coma para que al leerlas haya de hacerse una leve pausa que
separe su sentido. Se excepcionan los casos en que mediare alguna de las conjunciones y, ni, o.
Roberto, Rubén y Pedro; alto, delgado y rubio; vine, vi y vencí; ni corto ni perezoso; sobresaliente,
notable o aprobado.

3º Con la coma también se dividen los distintos miembros independientes entre sí de una
cláusula, vayan o no precedidos de conjunción:
Todos mataban, todos se compadecían, ninguno sabía detenerse; Al apuntar el alba cantan las
aves, y el campo se alegra, y el ambiente cobra movimiento y frescura.

4º Cuando una oración se interrumpe, bien para citar o para indicar el sujeto o la obra de
donde se ha tomado o porque se inserta como de paso otra que aclara o amplía lo que se está
diciendo, esas palabras, que suspenden momentáneamente el relato principal, se encierran entre
dos comas:
La esperanza, dice el refrán popular, es lo último que se debe perder; Los vientos del sur, que en
aquellas abrasadas regiones son muy frecuentes, ponen en grave conflicto a los viajeros.

5º Igualmente suelen ir precedidas y seguidas de coma las expresiones esto es, es decir, en
fin, por último, por consiguiente, sin embargo, no obstante y otras parecidas:
Anoche, sin embargo, el cielo comenzó a nublarse; Juan, por consiguiente, sacó su ropa de
invierno.

6º Cuando se invierte el orden regular de las oraciones de la cláusula, adelantando lo que


había de ir después, debe ponerse una coma al fin de la parte que se anticipa:
Donde interviene conocerse las personas, tengo para mí, aunque simple y pecador, que no hay
encantamento alguno. Como el orden regular de este ejemplo de Cervantes, Quijote, I, 37, seria:
No hay encantamento alguno donde interviene conocerse las personas , importa para la claridad
que se haga una breve pausa en personas, la cual se indica con la coma. Es de advertir que en las
transposiciones cortas y muy perceptibles no se ha de poner esta señal.

B) el punto y coma.

1º Cuando los miembros de un período constan de más de una oración, por lo cual o por otra
causa llevan ya alguna coma, se separarán con punto y coma unos y otros: Vinieron los aquilones
de noviembre, glaciales y recios; arrebataron sus hojas a los árboles, llevándolas, ya rodando por
la tierra, ya volando entre nubes de grueso polvo. se guareció el rabadán en su cabaña, y el
labrador en su alquería; la nieve, descendiendo espesa sobre el monte y el valle, borró los matices
del suelo, toda la variedad riquísima de la Naturaleza.

2º En todo período de alguna extensión se pondrá punto y coma antes de las conjunciones
adversativas mas, pero, aunque, etc.; verbigracia: Salieron los soldados a media noche y
anduvieron nueve horas sin descansar; pero el fatal estado de los caminos malogró la empresa.
Cuando la cláusula sea corta, bastará una simple coma antes de la conjunción; como en Vendrá,
pero tarde; Lo hizo, aunque de mala gana.

3.° Siempre que a una oración sigue, precedida de conjunción, otra oración que, en orden a la
idea que expresa, no tiene perfecto enlace con la anterior, hay que poner al fin de la primera punto
y coma: Pero nada bastó para desalojar al enemigo, hasta que se abrevió el asalto por el camino
que abrió la artillería; y se observó que uno solo, de tantos como fueron deshechos en este
adoratorio, se rindió a la merced de los españoles (Solís, Historia de Nueva España, III, 7) . Si
después de la palabra artillería solo se pusiese coma, la oración y se observó, etc., vendría regida
de la preposición hasta y cambiaría el sentido.

C) los dos puntos

1.° Cuando se sienta una proposición general y en seguida se comprueba y explica con otras
oraciones, se la separa de estas por medio de los dos puntos: No aflige a los mortales vicio más
pernicioso que el juego: por él gentes muy acomodadas han venido a parar en la mayor miseria, y
aun en el patíbulo; por él, además del caudal, pierde el hombre la vergüenza y hasta la estimación
de sí propio.

2.° Cuando a una o varias oraciones sigue otra que es consecuencia o resumen de lo que
antecede, esta se ha de separar con dos puntos: Aquel que por sus riquezas y esplendor fue tan
aplaudido como envidiado cuando entraba triunfante por las puertas de Constantinopla, y cuyo
nombre era respetado y temido desde la capital del Imperio hasta el confín de los arenales de la
Líbia, murió ciego, pobre, olvidado y mendigando su alimento de puerta en puerta:¡raro y
espantoso ejemplo de las vicisitudes de la fortuna!

3.° En los decretos y sentencias, bandos y edictos se ponen dos puntos al final de cada motivo
o fundamento de la resolución, aunque estos van en párrafos distintos y principian con letra
mayúscula. En certificaciones y memoriales también se ponen dos puntos antes de ciertos párrafos
con letra inicial mayúscula.
4.° Citando palabras textuales, se han de poner dos puntos antes del primer vocablo de la cita,
el cual suele principiar con mayúscula: Cicerón en sus Oficios dice a este propósito lo siguiente: No
hay cosa que tanto degrade al hombre como la envidia.

5.° También se emplean los dos puntos después del Muy señor mío y otras expresiones
semejantes con que se suele dar principio a las cartas: Muy señor mío: Sírvase usted tomar a su
cargo, etc.; Amigo mío: En contestación a la estimada de usted, etc.

Después de los dos puntos se escribe indistintamente con letra mayúscula o minúscula el
vocablo que sigue.

D) el punto

1º Se pone punto cuando el período forma sentido completo, en términos de poderse pasar a
otro nuevo sin quedar pendiente la comprensión de aquel. Es la mayor pausa sintáctica que la
ortografía señala.

En la lectura, la duración de la pausa indicada por el punto puede variar más o menos, según
el sentido y la interpretación del lector; pero en todo caso, es mayor que la que señalan la coma y
el punto y coma.

En la escritura, se le llama punto y seguido (o punto seguido), cuando el texto continúa


inmediatamente después del punto en el mismo renglón, o en el siguiente sin blanco inicial; y punto
y aparte (o punto aparte), cuando termina párrafo, y el texto continúa en otro renglón más entrado o
más saliente que los demás de la plana. Por último, punto final es el que acaba un escrito o una
división importante del texto (parte, capítulo, etc.).

2.° Resta advertir que en toda clase de escritos suelen hacerse después del punto final ciertas
separaciones o divisiones llamadas párrafos, cada una de las cuales ha de empezar en renglón
distinto de aquel en que acabe el anterior, y más adentro que las otras líneas de la plana. Deben
principalmente usarse tales divisiones cuando se va a pasar a diverso asunto, o bien a considerar
el mismo desde otro aspecto.

E) los puntos suspensivos

1.° Cuando conviene al escritor dejar la oración incompleta y el sentido suspenso, lo denota
con los puntos suspensivos: Él concitó la plebe contra los patricios; él acaudilló y juramentó a los
mozos más corrompidos y perversos de la República para subvertirla con su auxilio; él sobornó con
oro y con promesas... Pero ¿a qué repetir lo que a todos es notorio?

2.° Si en una cláusula de completo sentido gramatical se necesita pararse un poco,


expresando temor o duda, o para sorprender al lector con lo inesperado de la salida, se indicará la
pausa con puntos suspensivos: ¿Le diré que ha muerto su padre?... No tengo valor para tanto; Se
citó a junta, distribuyéronse centenares de esquelas, y llegamos a reunirnos... cuatro personas.

3.° También se usan dichos puntos cuando se copia algún texto o autoridad los cuales no hace
al caso insertar íntegros, indicando así lo que se omite.

F) la interrogación y la admiración

1º Los signos de interrogación y de admiración se ponen al principio y al fin de la oración que


deba llevarlos: ¿Dónde estás?; ¿A qué vienes?; ¿Te veré mañana?; ¡Qué asombro!; ¡Ay de mí!
2.° Si las oraciones con interrogación o admiración son varias, breves y seguidas, no hay
necesidad de que, exceptuada la primera, empiecen con mayúscula: ¿Dónde has estado?, ¿qué
has hecho en tantos días?, ¿como no te pusiste en camino, así que recibiste mi carta?; ¡Cuánto
engaño!, ¡cuánta perfidia!, ¡qué impudencia!

3.° Cuando lo escrito después de la interrogación o la admiración fuere complemento de la


pregunta o de la frase admirativa, no comenzará con letra mayúscula: ¿Digo yo que no tengas
razón?, contestó Blas a Diego; ¡A las armas!, gritaron todos.

4.° El signo de principio de interrogación o admiración se ha de colocar donde empieza la


pregunta o el sentido admirativo, aunque allí no comience el período: Privado del racional discurso,
¿que es el hombre sino una criatura desvalida, inferior a los brutos? Y si la caprichosa fortuna lo
encumbra en alto puesto, ¡cuántas lágrimas y ruina y sangre le cercarán en torno!

5.° El signo de principio de interrogación o admiración refleja el movimiento de la entonación en


las frases de este tipo, da claridad a la escritura, y no debe suprimirse por imitar, con mal acuerdo,
la ortografía de lenguas extranjeras, que solo usa el signo final.

6.° Hay cláusulas que son al par interrogativas y admirativas, y en ellas podrá ponerse nota de
admiración al principio y de interrogación al fin, o viceversa: ¡Que esté negado al hombre saber
cuándo será la hora de su muerte? ¿Qué persecución es esta, Dios mió!

G) El paréntesis

1.° Cuando se interrumpe el sentido y giro del discurso con una oración aclaratoria o incidental
y esta es larga o tiene conexión escasa con lo anterior, se encierra dentro de un paréntesis, como
en el siguiente ejemplo: Acostados todos en un género de lechos que rodeaban la mesa (pues los
romanos comían tendidos y soslayado el cuerpo sobre el codo izquierdo), empezó a echarles en
cara la tibieza de su fe, etc.

2.° En este ejemplo se ha puesto como después del paréntesis porque allí finaliza el miembro
del periodo con que va unida la oración comprendida en el paréntesis; y al fin de él o dentro se ha
de usar, además, la puntuación que la cláusula necesitare. Cuando el paréntesis termine la
cláusula de que depende, el punto final irá fuera.

3.° En las obras dramáticas suele encerrarse entre paréntesis lo que los interlocutores dicen
aparte. Para que tales paréntesis no se confundan con otros convendría valerse de los
rectangulares, en esta forma [ ], que algunos impresores usaban en el siglo pasado. El punto final
de los apartes va colocado dentro del paréntesis.

4.° Se emplea también el paréntesis curvo para encerrar en él noticias o datos aclaratorios,
explicaciones de abreviaturas, etc.; y el rectangular, para indicar en la copia de códices o
inscripciones lo que falta en el original y se suple conjeturalmente. Ejemplos: El hijo del rayo de
guerra, Carlos V (D. Juan De Austria); Perdió Boabdil a Granada en la hégira 897 (1492);
Imp(eratori) Caes(ari) [Nervae] Traiano [Aug(usto)] p(ontifici) m(aximo). etc.

H) la diéresis o crema

1º El uso de la diéresis solo es preceptivo para indicar que ha de pronunciarse la u en las


combinaciones gue, gui: pingüe, pingüino, argüir.

2.°. Queda a salvo el uso discrecional cuando, por licencia poética o con otro propósito, interese
una pronunciación determinada.
I) las comillas

1º Para distinguir las palabras sobre las cuales quiere el que escribe llamar particularmente la
atención del lector, se subrayan en lo manuscrito; y en lo impreso se ponen de letra cursiva, y a
veces con versales u otras que resalten por su figura o su tamaño. Se practica lo mismo con las
voces o citas en idioma extranjero, con el texto literal de citas en castellano, con los títulos de libros
y con las dicciones y cláusulas que en las obras de enseñanza y otras se ponen por ejemplo. Mas
cuando las cláusulas de este género tienen alguna extensión o llenan varias líneas, se les suelen
poner comillas inversas al principio de cada uno de los renglones que ocupan: Dice un escritor
célebre: «El hombre tiene aptitud, por su naturaleza, para habitar en todos los países del mundo:
en los arenales del desierto, en los montes más encumbrados, en los climas polares puede vivir y
propagarse. No así los animales, que, sujetos a más estrechos límites, perecen fuera de ellos o
arrastran vida penosa.»

2º Las comillas simples (' ' o , ') se usan al principio y al final de una palabra o frase incluidas
como cita o puestas de relieve dentro de un texto entrecomillado más extenso. También se
emplean para indicar que una palabra está usada en su valor conceptual o como definición de otra,
ejemplo: espiar 'acechar'.

J) El guión

1º Cada vocablo de por sí, ya simple, como guardia, poner, ya compuesto, como salvaguardia,
reponer, se ha de escribir aislado, o con entera separación del que le preceda o siga. Sin embargo,
en la escritura hay necesidad muchas veces de dividir una palabra, y entonces se ha de observar
lo siguiente:

2º Cuando al fin del renglón no cupiere un vocablo entero, se escribirá solo una parte, la cual
siempre ha de formar sílaba cabal. Así, las palabras con-ca-vi-dad, pro-tes-ta, sub-si-guien-te,
podrán dividirse a fin de renglón por donde señalan los guiones que van interpuesto en dichas
voces, mas no de otra suerte.

3º Esto no obstante, cuando un compuesto sea claramente analizable como formado de


palabras que por sí solas tienen uso en la lengua, o de una de estas palabras y un prefijo, será
potestativo dividir el compuesto separando sus componentes, aunque no coincida la división con el
silabeo del compuesto. Así, podrá dividirse no-sotros o nos-otros, de-samparo o des-amparo.

4º Como cualquiera diptongo o triptongo no forma sino una sílaba, no deben dividirse las letras
que lo componen. Así, se escribirá gra-cio-so, tiem-po, no-ti-ciáis, a-ve-ri-güéis.

5º Cuando la primera o la última sílaba de una palabra fuere una vocal, se evitará poner esta
letra sola en fin o en principio de línea.

6º Cuando al dividir una palabra por sus sílabas haya de quedar en principio de línea con h
precedida de consonante, se dejará esta al fin del reglón y se comenzará el siguiente con la h: al-
haraca, in-humación, clor-hidrato, des-hidratar.

7º En las dicciones compuestas de preposición castellana o latina, cuando después de ella


viene una s y otra consonante además, como en constante, inspirar, obstar, perspicacia, se han de
dividir las sílabas agregando la s a la preoposición y escribiendo, por consiguiente, cons-tan-te, ins-
pi-rar, obs-tar, pers-pi-ca-cia.

8º La ch y la ll, letras simples en su pronunciación y dobles en su figura, no se desunirán jamás.


Así, co-che y ca-lle se dividirán como aquí se ve. La erre (rr) se halla en el mismo caso, y por ello
debe evitarse separar los dos signos de que consta, que habrán de ponerse de esta manera: ca-
rre-ta, pe-rro.

9º Cuando los gentilicios de dos pueblos o territorios formen un compuesto aplicable a una
tercera entidad geográfica o política en la que se han fundido los caracteres de ambos pueblos o
territorios, dicho compuesto se escribirá sin separación de sus elementos: hispanoamericano,
checoslovaco, afroantillano. En los demás casos, es decir, cuando no hay fusión, sino oposición o
contraste entre los elementos componentes, se unirán estos con guión: franco-prusiano, germano-
soviético.

K) Las dos rayas

Este signo se usaba para dividir algunas palabras compuestas; actualmente se emplea solo en
las copias, para denotar que en el original se pasa a párrafo distinto.

L) Otros signos auxiliares

a) Apóstrofo (' ). Solía emplearse antiguamente, sobre todo en poesía, colocado a la mayor
altura de los palos de las letras, con el fin de indicar la omisión o elisión de una vocal: d'aquel, por
de aquel; l'aspereza, por la aspereza; qu'es, por que es. Recientemente, y para evitar dudas al
lector, se ha restablecido en algunas reimpresiones de obras antiguas, donde palabras de esta
clase aparecen como si fuera una sola; v. gr.: daquel, laspereza, ques.

b) Párrafo (§). Sirvió en lo antiguo para distinguir los diversos miembros de un escrito, y como
signatura de pliegos impresos. Ahora se emplea en los libros, seguido del número que
corresponda, para indicar divisiones internas de los capítulos: § 12, § 13, etc.

c) Calderón ( ¶ ). Tuvo antiguamente los mismos oficios que el signo anterior. Ahora se emplea en
lo impreso para señalar alguna observación especial.

d) Asterisco ( * ). Es una estrellita que se pone sencilla, doble o triple en ciertas palabras del texto,
como llamada a nota que en el margen o al pie de la plana va encabezada con el mismo signo.
Para igual fin se emplean letras, números, cruces, etc., en vez de asteriscos. En obras de
lingüística se coloca delante de las formas cuya existencia se supone sin estar documentada.

e) Llave o corchete ( {} ) . Su oficio es abrazar diversas partidas en una cuenta, varios miembros en
un cuadro sinóptico, etc., que deben considerarse agrupados y unidos para determinado fin. f)
Manecilla - Puesta al margen o en el texto de un escrito, da a entender que lo señalado por ella es
particularmente útil o interesante.

Gramática y vocabulario
Gramática es el estudio de la lengua, en cuanto a forma, estructura, y significado.

También se llama gramática al libro en el que se describe parcialmente una lengua (y que
tradicionalmente suele incluir aspectos no lingüísticos, como la ortografía). Estos manuales, o
gramáticas, se dividen a su vez dependiendo de los distintos enfoques dados por sus autores:
Gramática pedagógica, cuando se centra en el uso de la lengua.
Gramática descriptiva, cuando sus autores reflejan lo que la gente habla.
Gramática prescriptiva, contrapuesta a la descriptiva y considerada obsoleta por las principales
escuelas lingüísticas contemporáneas, trata de fijar las pautas de aquello que debe ser dicho y lo
que no. Dentro de este tipo se incluyen las sucesivas gramáticas de la Real Academia Española.
Gramática teórica.
Gramática de un lenguaje, desde el punto de vista de un autómata, un conjunto de reglas que
describen secuencias de símbolos pertenecientes a un lenguaje.
Gramática formal.
Clásicamente la gramática, como estudio de la lengua, se divide en tres subdisciplinas:

Sintaxis
Morfología
Semántica
Existen dos grandes corrientes, la gramática formal y la gramática funcional. Ambas difieren en
muchos aspectos. Mientras que la gramática formal observa la lengua como un mecanismo
lingüístico innato que existe en todo ser humano, la gramática funcional se centra especialmente
en la relación entre el sistema y el uso de dicho sistema. De esta forma, la psicolingüística se
desarrolla en relación con la escuela formal de Noam Chomsky, mientras que la sociolingüística
está vinculada a la escuela funcional.
Sintaxis
La sintaxis es una subdisciplina de la lingüística. Es la parte de la gramática que se encarga de
estudiar las reglas que gobiernan la forma en que las palabras se organizan en sintagmas y, a su
vez, estos sintagmas en oraciones
Morfología
es la rama de la lingüística que estudia la estructura interna de las palabras para delimitar, definir y
clasificar las unidades de la misma, las clases de palabras a las que da lugar (morfología flexiva) y
la formación de nuevas palabras (morfología léxica)
El morfema (llamado formante por otros autores) es la unidad mínima significativa de la primera
articulación o división del signo lingüístico: la palabra. Así pues, una palabra está constituida
generalmente por dos clases de morfemas: los lexemas y los morfemas gramaticales.Los lexemas
son los morfemas, comúnmente conocidos como raíces, que contienen el significado de la palabra.
Constituyen casi siempre la parte invariable, autónoma y de significado más concreto de la misma.
Forman la parte más numerosa del léxico y su número en toda lengua es siempre muy superior al
de morfemas.

Los morfemas gramaticales son las unidades que constituyen la parte variable de la palabra y cuyo
significado puede ser o bien complementario o bien de carácter meramente lingüístico y gramatical.
No son autónomos sino que se presentan siempre asociados a lexemas. Los morfemas
gramaticales se clasifican en:
afijos, son formantes facultativos que matizan o complementan el significado básico. Todos son
átonos salvo los sufijos.

aniñados morfema derivativo: a-


inutilizable morfemas derivativos: in-, -able
Según su posición respecto al lexema, se distinguen tres tipos de morfemas gramaticales
derivativos:
Sufijos: Van después del radical o lexema y antes de los morfemas dependientes gramaticales.
Pueden cambiar la categoría gramatical de la palabra o el género de los sustantivos y son tónicos,
es decir, cargan con el acento de la palabra.
repetible sufijo: -able, transforma un verbo en adjetivo
tranquilamente sufijo: -mente, transforma un adjetivo en adverbio
casón sufijo: -on, transforma el género del sustantivo casa.

Prefijos: Preceden al radical o lexema. Son átonos y poseen significado. Si cargan con acento son
en realidad prefijoides o prefijos cercanos a los lexemas.
infranqueable prefijo: in-, significado de negación o privación
monosilábico prefijo: mono-, significado de único o uno solo
infijos o interfijos: Se colocan entre los prefijos y sufijos para evitar la cacofonía entre dos sonidos y
las homonimias. Son átonos y no poseen significado. Muchos de ellos funcionaron también como
sufijos pero quedaron sin significado perceptible.
humareda infijo: -ar-

Morfemas gramaticales flexivos


Son formantes constitutivos que ocupan siempre la posición final de la palabra y la información que
ofrecen es de tipo gramatical, como el género, el número, la persona, el modo, etc.

niños morfemas flexivos: -o, género masculino


-s, número plural
Morfemas libres o independientes
Existe otra clase de morfemas denominados morfemas libres o independientes que no van unidos
a ningún lexema pero confieren de significación gramatical a las palabras con las que se asocian.
Los determinantes, las preposiciones y las conjunciones puede actuar como morfemas libres. Casi
todos ellos son átonos. Por ejemplo, el artículo hace de morfema flexivo para el sustantivo.

Morfema cero
Es aquel morfema que, aunque existe morfológicamente, no se refleja gráficamente. Por ejemplo,
en la palabra hombre, el morfema de número no está presente, y esa es precisamente la razón por
la cual el número es singular.

Alomorfos
Los alomorfos son las diferentes representaciones fónicas de un determinado morfema. Por
ejemplo, -s y -es son alomorfos del morfema de número plural del español. Tambíen son alomorfos:
-ble y -bil como en imposible e imposibilidad o nece- y neci como en necio y necedad.
Semántica
La semántica es un subcampo de la gramática y, por extensión, de la lingüística. Proviene del
griego "semantikos", que quería decir "significado relevante", derivada de "sema", lo que
significaba "signo". Se dedica al estudio del significado de los signos lingüísticos y de sus
combinaciones, desde un punto de vista sincrónico o diacrónico.
Funciones del sustantivo dentro de la oración.-

Sujeto: sólo pueden funcionar como sujetos los sustantivos o palabras sustantivadas. Cuando el
sujeto está formado por varias palabras existe un sustantivo o palabra sustantivada que es el
núcleo del sujeto.

Predicado: esta función es propia del adjetivo y del verbo pero el sustantivo, al funcionar como
predicado toma un valor adjetivo. Por ejemplo: Juan es profesor.

Atributo: el atributo es sustantivo que forma parte del predicado de una oración en la que el verbo
es ser, estar o parecer.

La estructura sería esta Sujeto + verbo (ser, estar, parecer) + atributo

Ejemplo: Las tardes tienen armonía.

Tipos.-

Comunes: los nombres comunes son aquellos que indican la clase de objeto a que pertenece lo
designado. Ej: casa, perro, hombre.

Propios: aquellos mediante los cuales se identifica a un ser, un individuo, bien entre los de su
clase, bien por constituir el único individuo de una clase. Ej: Jaén, Nicolás.

Tradicionalmente se consideran accidentes del nombre el género y el número a los que puede
añadirse la comparación. En el caso concreto del español no existe, en realidad, la declinación y,
por lo tanto, no hay casos, si exceptuamos las formas de los pronombres personales.

El género.- Los sustantivos pueden ser, según ya hemos indicado, sólo masculinos o femeninos
(gato, gata). Sin embargo, existen nombres que tienen género común, es decir, la misma palabra
puede servir para referirse a personas de sexo masculino o femenino. Ej: testigo, estudiante.

Para definir si se refiere a un hombre o a una mujer se utiliza el artículo. Ej: el amante, la amante.

El número.- Existen los objetos llamados contables o discretos, como libros o plumas, que se
muestran como una multiplicidad de unidades y por otra los llamados compactos o masivos como
el trigo o la leche, en los cuales no puede percibirse la suma de unidades. La idea de plural se
manifiesta por medio de los sufijos -s o -es.

No todos los sustantivos suelen tener plural. Los nombres propios y los de objetos únicos sólo
pueden tenerlo en casos especiales, así como los nombres abstractos como la tolerancia y la
sabiduría.

Existen algunas palabras, más conocidas como colectivos que se refieren a lo singular y lo plural a
la vez. Ej: tijeras, pantalones. Son formas en plural que hacen referencia a una unidad.

El adjetivo es aquella parte de la oración que se junta al sustantivo para calificarlo o no presenta
una forma externa que le distinga de la categoría más afín, que es el sustantivo. Entre una y otra
clase de palabras o semantemas existe un constante movimiento: substantivos que se hacen
adjetivos, y a la inversa.

El adjetivo se caracteriza por su dependencia del sustantivo y de ahí su función fundamental de


atributo, junto a la de predicado nominal.
Colocación del adjetivo.- Cada lengua tiene sus normas para la colocación del adjetivo. En
español, se ha dicho que el adjetivo calificativo tiene un valor subjetivo, emotivo, mientras que en la
posición contraria restringe la significación del sustantivo, o sea actúa como determinativo. Por
ejemplo, no es lo mismo decir Saqué los cuadros valiosos que decir En la sala había cuadros
valiosos. En el primer caso se refiere a que saqué sólo los cuadros valiosos porque no todos los
cuadros lo eran y en el segundo caso se indica que todos los cuadros de la sala son valiosos.

Tipos de adjetivos.- En castellano se distingue entre calificativos y determinativos. Veamos en qué


se diferencian.

-Especificativo: en la oración Ana hizo un ramo con las rosas blancas de su jardín el adjetivo
blancas califica a rosas distinguiéndola del resto (sólo las rosas de color blanco). Si quitamos el
adjetivo, la oración pierde significado.

El adjetivo especificativo es el que expresa una cualidad necesaria del nombre que lo diferencia de
los demás. Suele ir detrás del nombre.

El jugador hábil marcó un gol.

-Explicativo:

Ana paseaba sobre la blanca nieve.

En la primera oración el adjetivo blanca va delante del nombre para llamar la atención; ya que
indica una cualidad propia de la nieve (la nieve siempre es blanca) y además, si quitásemos el
adjetivo no se alteraría el significado de la oración.

El adjetivo explicativo o epíteto es el que expresa una cualidad no necesaria del nombre, pero que
añade mayor belleza e interés literario al texto. Suele ir antepuesto al nombre.

El hábil jugador marcó un gol.

El pronombre es la parte de la oración que sustituye al nombre, sin embargo, no es una parte de la
oración en el mismo sentido que lo son los sustantivos, el adjetivo, el verbo o el adverbio.

Los pronombres se nos presentan en clases más perfiladas e independientes de las que hemos
visto al estudiar los sustantivos y los adjetivos. Distinguiremos los personales, posesivos,
demostrativos, relativos, interrogativos e indefinidos.

Pronombres personales.- La denominación personales sólo está parcialmente acertada, ya que


existen formas que no designan a personas necesariamente, o a seres personificados. En español
las dos primeras personas son realmente personales, pero no la tercera, que puede designar
también seres no personales. Se basan en las personas que pueden intervenir en el coloquio, que
son por lo menos tres: la que habla, aquella a quien se habla, y aquella de quien se habla y sus
respectivos plurales.

Los pronombres demostrativos se caracterizan por su función deíctica o mostrativa que les es
esencial.

Los pronombres demostrativos sirven para nombrar y distinguir elementos que ya se han
mencionado anteriormente, pero sin repetirlos. La forma de esos pronombres demostrativos varia
según el género y el numero, así como de los seres o las cosas que representan. La función que
ocupan en la frase no conlleva ningún cambio en su forma.
Llámense relativos los demostrativos que reproducen un concepto anterior, y sirven especialmente
para enlazar una proposición con otra. El de más frecuente uso es que, adjetivo de todo género,
número y persona. En el navío que viene de Londres es de género masculino, número singular y
tercera persona; en vosotras que me oís es de género femenino, numero plural y segunda persona.
Debemos siempre concebir en él, no obstante su terminación invariable, el género, número y
persona del sustantivo reproducido, que se llama su antecedente.

El relativo que.- Que puede ser sujeto, término y complemento. En todos los ejemplos anteriores es
sujeto; es complemento acusativo en la casa que habitamos, y término en las plantas de que está
alfombrada la ribera.

La proposición especificativa se llama subordinada, y la proposición de que ésta depende


subordinante.

La proposición explicativa se llama incidente, y la de que ésta depende principal. Las proposiciones
incidentes son en cierto modo independientes, y así es que sin alterar en nada el sentido del
anterior ejemplo , se podría decir: Las señoras deseaban descansar y se retiraron.

Se llama Oración toda proposición o conjunto de proposiciones que forma sentido completo: de
que está alfombrada la ribera es proposición perfecta, pero no es oración.

Los pronombres relativos pasan a interrogativos acentuándose. ¿Qué pasajeros han llegad?: el
qué es aquí adjetivo y forma con pasajeros el sujeto de la proposición. ¿Qué ha sucedido?; el qué
hace de sujeto y es un sustantivo, porque envuelve el significado de cosa o cosas.

De lo dicho se sigue que un complemento puede tener por término, no sólo un sustantivo, un
predicado, un adverbio, un complemento, sino también una proposición interrogativa indirecta; pero
es porque las proposiciones interrogativas indirectas hacen en la oración el oficio de sustantivos.

El relativo quién.-

En lugar de las expresiones: el que, las que, los que, las que; empleamos muchas veces el
sustantivo quien, quienes, cuando el relativo se refiere a persona o cosa personificada: "la culpa no
fue tuya sino de quien te aconsejaba".
Quien se hace interrogativo acentuándose. Equivale, entonces a qué persona, y puede ser sujeto,
predicado o término: ¿quién ha venido?, ¿Quién era aquella señora?, ¿A quién se llama?, ¿A quién
llaman?

El relativo cuyo.- Cuyo, pronombre adjetivo, que es un tiempo posesivo y relativo, equivale a de
que o de quien, en el sentido de posesión o pertenencia; como suyo equivale a de él, de ella, de
ellos, de ellas, de ello: "El árbol, cuyo fruto comimos...".

Se hace interrogativo acentuándose: ¿Cuyo es aquel hermoso edificio?

Esta práctica es extremadamente limitada, ya porque cuyo debe referirse a personas, ya porque
sólo tiene cabida en predicados que modifiquen el verbo ser.

Los pronombres interrogativos, junto con los indefinidos, presentan características peculiares. Los
pronombres interrogativos son usados en la interrogación parcial, o sea, aquella en la que se
pregunta por el sujeto, el predicado nominal o los complementos.

Algunas lenguas distinguen formas interrogativas animadas, es decir, relativas a seres animados, e
inanimadas, como restos de un antiguo estado de cosas en cuanto al género, en el que se
distinguen de un modo general, entre dichas categorías. En español, quién, por ejemplo, sólo se
emplea con personas y, a la inversa, qué se usa solamente con cosas o ideas. La distinción entre
masculino y femenino no existe.

Cómo Quién
Dónde Por qué
Qué Cuando
Cuanto

También encontramos otras formas interrogativas como Para quién o Para qué.

Los numerales son un tipo de partículas que hay que relacionar con los indefinidos de cantidad y,
por otra con los adjetivos calificativos, de cuales se diferencian porque en lugar de expresar
cualidad indican cantidad. En realidad forman un grupo dentro de ellos.

Tipos.- Antes de explicar la verdadera naturaleza de los numerales es mejor identificar todas las
clases que hay.

Numerales ordinales: se confunden con los adjetivos calificativos. Se pueden colocar o bien
delante o detrás del sustantivo y presentan variaciones de género y número según el sistema al
que acompaña.

Ejemplos: la última de la fila suspende siempre

El primer autobús sale a las 10.00 horas


Numerales cardinales: tienen un valor puramente adjetivo: uno, dos, tres, etc. Sin embargo, cuando
nos referimos al número por sí mismo, el tres, el cuatro, aquí nos encontramos con un sustantivo.
No presentan variaciones de género ni número.

Ejemplos: En la caja había tres cartas

En los dos casos se repite la terminación

CARDINALES ORDINALES
1. primero
1 uno 40 cuarenta
2. segundo
2 dos 50 cincuenta
3. tercero
3 tres 60 sesenta
4. cuarto
4 cuatro 70 setenta
5. quinto
5 cinco 80 ochenta
6. sexto
6 seis 90 noventa
7. séptimo
7 siete 100 cien
8. octavo
8 ocho 101 ciento uno
9. noveno
9 nueve
10. décimo
10 diez
11. undécimo
11 once 200 doscientos, as
12. duodécimo
12 doce 300 trescientos, as
13. decimotercero
13 trece 400 cuatrocientos, as
14. decimocuarto
14 catorce 500 quinientos, as
15. decimoquinto
15 quince 600 seiscientos, as
16. decimosexto
16 dieciséis 700 setecientos, as
17. decimoséptimo
17 diecisiete 800 ochocientos, as
18. decimoctavo
18 dieciocho 900 novecientos, as
19. decimonoveno
19 diecinueve
20. vigésimo
20 veinte 1.000 mil
21 veintiuno 2.000 dos mil

22 veintidós 55.000 cincuenta y cinco mil

23 veintitrés 1.000.000 un millón

24 veinticuatro 2.000.000 dos millones

25 veinticinco 1.000.000.000 mil millones

26 veintiséis

27 veintisiete

28 veintiocho

29 veintinueve

30 treinta

31 treinta y uno

32 treinta y dos
Determinantes partitivos: señalan una parte de la unidad: medio, doceavo, cuarto...

Multiplicativos: doble, triple, cuádruple...

Distributivo: sendos.

Dual: ambos.

El artículo se antepone al sustantivo para anunciar su género, su número y su función gramatical.


Con frecuencia el artículo determina la extensión del sustantivo. Pongamos un ejemplo, las
expresiones comprar libros y comprar los libros. En el primer caso queda completamente
indeterminado el sustantivo libros; no sabemos a cuántos libros nos referimos; en cambio, cuando
decimos comprar los libros, entendemos que se trata de libros conocidos por la persona a quien
dirigimos la palabra.

Las formas del artículo son: el, la, lo, para el masculino, femenino y neutro del singular,
respectivamente: los, las, para el plural masculino y femenino. Este artículo se llama determinado.

Delante de nombres femeninos que empiezan por a, á o ha, usamos la forma el; por ejemplo: el
hada, el agua, el áncora.

Se usa también el artículo indeterminado: un, una, unos, unas. Se llama así porque delimita el
concepto del sustantivo mucho menos que el artículo determinado. Basta fijarse en la diferencia
que media entre te entregaré un libro y te entregaré el libro. En el primer caso puede ser un libro
cualquiera y en el segundo es un libro que ambos sujetos conocen.

Determinados Indeterminados
Masculino Femenino Neutro Masculino Femenino
el la lo uno una
los las unos unas
El verbo es una parte de la oración que expresa acción, presión o estado. El concepto de verbo
aparece unido a una importante función dentro de la oración, el predicado. Por ello, la presencia
del verbo es indispensable para formar una oración. El verbo suele combinarse con determinados
morfemas que indican el tiempo, modo, aspecto, voz, número y persona. La persona es común a
los pronombres personales, el número es común al nombre. El tiempo, el modo y el aspecto son en
español sólo verbales y también la voz, aunque no existe para ésta un medio de expresión tan
claro.

Tipos de verbos.- Al igual que los sustantivos existen verbos simples y compuestos (beber-
entresacar); primitivos y derivados (dar, abofetear) derivados de otras categorías: de sustantivos
(martirizar); de adjetivos (endulzar) y también de otros verbos (reconstruir). Sin embargo, existen
otras distinciones más importantes desde el punto de vista de la forma gramatical.

Verbos transitivos e intransitivos: los primeros admiten un complemento directo a diferencia de los
segundos. Una cosa a tener en cuenta en cuenta es que un verbo no puede considerarse ni
transitivo ni intransitivo aisladamente; sólo su función en la frase le da dicho carácter. Pongamos
algunos ejemplos: llevar, decir y hacer son verbos transitivos que siempre necesitan de un
complemento directo, ya que ninguna expresión de llevar, decir o hacer, por sí sola, es completa.
Otros verbos, como comer o beber tienen posibilidades transitivas e intransitivas.

Verbos copulativos y auxiliares: el verbo copulativo sirve esencialmente para unir el sujeto con el
predicado nominal. Los verbos copulativos por excelencia son ser, estar y parecer. Con ser, el
predicado se expresa como una cualidad del sujeto y con estar es un estado lo que se expresa.

Ejemplos: El canario es amarillo


La anciana está sentada

Los verbos transitivos pueden desempeñar, en algún caso, una función copulativa, por ejemplo,
tengo a mi padre enfermo equivale a mi padre está enfermo.

Los verbos auxiliares son aquellos que se unen al participio, gerundio e infinitivo formando así
perífrases verbales. Ej: ir a comer, tener que estudiar.

La lengua española es rica en construcciones perifráscticas con verbos auxiliares, que le permiten
completar la conjugación que podríamos llamar normal en la expresión de ciertos morfemas (voz,
aspecto y tiempo)

Los reflexivos: a diferencia de las otras modalidades estos verbos se forman con un verbo y la
partícula se. Hay que tener claro que no todos los verbos son capaces de tener la forma reflexiva.

Ejemplos: lavarse, peinarse y ducharse.

los accidentes del verbo, que son los siguientes: el tiempo, el número, la persona y el modo.

El tiempo.- Los tiempos gramaticales son las formas que el verbo toma para dar a conocer el
momento en que sucede lo que el verbo significa; ej.: ayer bebí; ahora duermo; mañana trabajaré.

Los tiempos verbales se dividen en dos: simples o compuestos.


-Tiempos simples: son los que constan de una sola forma verbal; ej.: como, cantaré, cerraría.
-Tiempos compuestos: son los que tienen una forma verbal auxiliar que normalmente es el haber y
del participio del verbo que se conjuga; ej.: he constituido, has dicho, había realizado.

Hay tres tiempos que son fundamentales, y son: presente, pretérito y futuro.
-Presente indica la acción o el estado actual; ej.: ahora viajo.
-Pretérito da a conocer la acción o el estado en un pasado; ej.: ayer fuí.
-Futuro expresa una acción o estado que va a venir; ej.: mañana responderé.

Tabla de los tiempos gramaticales.-

Tiempos simples Tiempos compuestos

MODO INFINITIVO
(cinco tiempos)
Infinitivo simple Infinitivo compuesto
Gerundio simple Gerundio compuesto
Participio

MODO INDICATIVO
(ocho tiempos)
Presente Pretérito perfecto
Pretérito imperfecto Pretérito pluscuamperfecto
Pretérito indefinido Pretérito anterior
Futuro imperfecto Futuro perfecto

MODO POTENCIAL
(dos tiempos)
Simple o imperfecto Compuesto o perfecto

MODO IMPERATIVO
(un solo tiempo)
Presente

MODO SUBJUNTIVO
(seis tiempos)
Presente Pretérito perfecto
Pretérito imperfecto Pretérito pluscuamperfecto
Futuro imperfecto Futuro perfecto

El número.- Es la variación del verbo según se refiere a un o a varios sujetos. En español


encontramos singular y plural.
Singular si el verbo se refiere a un solo sujeto; ej.: yo canto, tú escribes, Marta estudia, El gato
come.
Plural si el verbo se refiere a más de un sujeto; ej.: nosotras cantamos, vosotros escribís, Marta y
José estudian, El gato y el perro comen.

La persona.- Sirve para señalar la parsona que realiza la acción del verbo. Primera, segunda y
tercera persona.

El verbo está en primera persona (1a) cuando éste se refiere a la persona que habla, ej.: yo hablo.
El verbo está en segunda persona (2a) cuando éste se refiere a aquélla con la que se habla, ej.: tú
estudias.
El verbo está en tercera persona (3a) cuando éste se refiere a aquélla persona de quien se habla,
ej.: Pedro come

La voz.- Sirve para señalar si la acción del verbo es realizada por el sujeto o éste recibe la acción
En español hay voz activa y voz pasiva.

El verbo está en voz activa cuando el sujeto realiza la acción que el verbo expresa; ej.: Ernesto
camina.
El verbo está en voz pasiva cuando el sujeto recibe la acción expresada por el verbo; ej.: Cien años
de soledad fue escrito por Gabriel García Márquez; América fue conquistada por los europeos.

Veamos las tres formas nominales del un verbo.

Infinitivo.- El infinitivo es un sustantivo verbal. Puede desempeñar en la oración todos los oficios
que corresponden al sustantiv; más no por ello deja de tener cualidades y empleos propios del
verbo, con la única restricción de no poder expresar por sí mismo tiempos y personas.

a)El infinitivo como nombre: puede ejercer dos funciones o bien como sujeto o como complemento
directo.

El comer bien es importante para la salud


Me gusta ir de compras

b)El infinitivo como verbo:


-puede ser activo o pasiv: no me gusta esperar, no me gusta ser esperado
-Admite pronombres enclíticos: he venido a verte

Gerundio.- El gerundio expresa coincidencia temporal o anterioridad inmediata respecto al verbo


principal. En castellano el gerundio tiene las siguientes funciones:
-De adverbio: no me hables gritando
-De adjetivo: via Juana paseando, esto es, que paseaba.
-Durativo: modal del verbo: la fortuna va guiando nuestros pasos.

Participio.- El participio es un adjetivo verbal. A causa de esta doble naturaleza puede construirse
como adjetivo independient, o entrar en construcciones total o parcialmente asimilables a las del
verbo conjugado.

Por su forma puede ser regular, cuando termina en -ado, -ido (abandonado, pulido); irregular, si
tiene otra terminación (abierto, escrito, hecho). Numerosos verbos presentan un participio regular y
otro irregular se emplea como adjetivo y el regular para formar los tiempos compuestos con el
verbo haber, por ejemplo agua bendita y el obispo ha bendecido a los fieles.

Todas las palabras que se añaden al verbo para modificarlo, es decir, para expresar alguna
cualidad o determinación de la acción verbal, reciben el nombre de adverbios. Estas partículas
pueden modificar a un verbo, un adjetivo o a otro adverbio. En la oración funcionan como
circunstanciales o formando parte de modificadores. Son invariables, ya que no tienen género ni
número. Veamos algunos ejemplos:

-Modifican al adjetivo:
Este jardín es muy hermoso
La casa es demasiado alta
-Modifican al verbo
Juan trabaja bien
El nuevo jefe viene hoy

Tipos.- Según su significación, los adverbios pueden ser de lugar, de modo, de tiempo, de
cantidad, de orden, de afirmación, de negación y de duda. Ejemplos:

De lugar: aquí, allí, cerca, lejos, dentro, fuera, encima


De tiempo: hoy, ayer, mañana, antes, después, entonces, luego
De modo: bien, mal, así, despacio, veloz, buenamente, fácilmente
De cantidad: más, bastante, mucho, poco, tan, tanto
De orden: primeramente, últimamente, sucesivamente
De afirmación: sí, ciertamente, también, verdaderamente
De negación: no, nunca, jamás, tampoco
De duda: acaso, quizá o quizás

Existen numerosos adjetivos que pueden ejercer la función de adverbios, como claro, recio, alto,
limpio. Es fácil determinar en cada caso si les corresponde una u otra función, dependiendo de si
modifican a un sustantivo o a un verbo. Por ejemplo, claro será adjetivo en lenguaje claro, agua
clara, pero será adverbio en hablar claro, escribir claro.

Muchos adverbios se forman añadiendo a la forma femenina de los adjetivos la terminación


-mente: fácilmente, claramente, etc.

Los adverbios donde, cuando, cuanto y como equivalen a pronombres relativos; por ejemplo: el
barrio donde vivimos es el barrio en que vivimos. Por esto se llaman adverbios relativos. Lo mismo
que los pronombres de su clase, los adverbios relativos llevan acento cuando figuran en oraciones
interrogativas o exclamativas: ¿cómo está usted?, ¿cuándo has llegado?

Si tenemos dos palabras como venir y casa aisladamente, se observa que una significa una acción
y la otra una realidad, pero sin relación alguna entre ellas. No obstante, si queremos conectar
ambos significados en una expresión determinada usaremos una serie de elementos invariables
que posee la lengua para expresar distintas relaciones. Tales elementos son los enlaces
preposicionales, la preposición. De este modo, podemos crear expresiones como venir de casa,
venir a casa, venir por casa, venir hacia casa.

Las preposiciones no solamente unen un verbo (venir) y un sustantivo (casa) como hemos visto en
los ejemplos anteriores. También pueden unir dos sustantivos casa de ladrillos, tienda de coches; o
un adjetivo y un sustantivo, como en la expresión sencillo en gustos. De este modo, podemos decir
que la función principal de las preposiciones es enlazar cualquier palabra con un sustantivo que le
sirve de complemento.

Las tradicionales preposiciones castellanas son: a, ante, cabe, con, contra, de, desde, en, entre,
hacia, hasta, para, por, según, sin, sobre y tras.

Conjunciones.- Las conjunciones son los elementos invariables de la lengua capaces de enlazar
oraciones creando distintas relaciones entre ellas. También a veces se puede observar en la
expresión que las conjunciones unen palabras aisladas, pero en realidad éstas se pueden
considerar como la simplificación expresiva de auténticas oraciones enteras que subyacen en tales
palabras.

Las conjunciones pueden ser coordinantes o subordinantes, según establezcan una u otra relación
entre las oraciones unidas por ellas.
Coordinantes.- Dentro de las conjunciones coordinantes encontramos cinco variantes.

-Adversativas o correctivas: denotan oposición o diferencia entre las oraciones enlazadas: mas,
pero, aunque, sino, sin embargo.
-Consecutivas: presentan a una de las oraciones como consecuencia de la otra: pues, pues que,
supuesto que, puesto que, luego.
-Copulativas: denotan simple enlace sin matices especiales: y, e, ni.
-Distributivas: bien...bien, ya...ya
-Disyuntivas: expresan contradicción: o, u.

Subordinantes.- Dentro de las conjunciones coordinantes encontramos ocho variantes.

-Causales: indican que una de las oraciones es causa o motivo de la otra: porque, pues, pues que,
ya que, como, como que.
-Comparativas: así como, así también, de modo que, tal como.
-Concesivas: expresan en la subordinada una objeción o dificultad para que se efectúe lo que
indica la principal, pero este obstáculo no impidela realización del hecho: aunque, por más que, a
pesar de, que.
-Condicionales: la subordinada expresa la condición para que se realice lo que se dice en la
principal: sí, con tal que, a condición.
-Copulativas: enlazan las subordinadas sustantivas. La única que hay es que.
-Finales: expresan en la subordinada el fin de la principal: a que, para que, a fin de que.
-Modales: entra en su composición un adverbio de modo: conforme, como, según, de modo que,
de manera que.
-Temporales: entra en la composición de algunas un adverbio o expresión de tiempo: cuando, aun
no, no bien, desde que, luego que, antes que, después que, mientras que.

• Concordancia y discordancia de las partes de la oración


Sujeto y predicado: elementos de la oración

La oración: "La nave espacial se posó sobre la colina", es una proposición. Su primer miembro, "La
nave espacial", indica aquello de lo se va a decir algo. Mientras que el segundo miembro ,"se posó
sobre la colina", es lo que se dice de la nave espacial.

Fíjate en las siguientes proposiciones:

SUJETO:

• El mendigo
• La amabilidad
• Marcela y Francisco
• La botella misteriosa
• Los cinco jinetes del viento

PREDICADO:

• vestía un pantalón raído.


• no cuesta dinero.
• se asustaron con el temblor.
• fue arrastrada por las olas.
• cabalgaron hacia el horizonte.

En los cinco ejemplos anteriores, se nombran personas, objetos o cualidades (Sujeto) y se dice
alguna cosa de ellos: la forma de vestir, lo que significan, lo que sienten, lo que les pasa, lo que
hacen (Predicado).

• SUJETO : MIEMBRO DE LA ORACI”N DEL QUE SE DICE ALGO.


• PREDICADO: LO QUE SE DICE DEL SUJETO.

El sujeto puede estar ubicado al inicio de la oración o en cualquier otra posición dentro de ella.

Observa con atención:

¿De quién se dice algo? De "los hombres-rana" (Sujeto).

¿Qué se dice de ellos? Que "encontraron el barco sumergido en el fondo del mar muchos años
después" (Predicado).

Cuando el sujeto se ubica al medio de la oración, el predicado queda partido en dos segmentos:

Veamos otros ejemplos: Sujeto Predicado

No olvides que :

• AL CAMBIAR EL SUJETO DE POSICI”N, NO CAMBIA SU CONDICI”N DE SUJETO.

Organización Interna del Sujeto:

El Sujeto está formado por un elemento principal llamado núcleo, que puede ir acompañado de
otras palabras o frases que lo determinan. El núcleo es indispensable, sin él no hay sujeto. Los
determinantes, en cambio, no siempre están presentes: son opcionales.

Ejemplos:

(Det.= Determinante; N= Núcleo)


• EL NÚCLEO ES EL UNICO ELEMENTO CONSTANTE
• DEL SUJETO.
• UN SUJETO PUEDE TENER MÁS DE UN NÚCLEO.
• LOS DETERMINANTES DEL NÚCLEO NO SIEMPRE ESTÁN PRESENTES.

El núcleo del sujeto cumple siempre una función sustantiva (F. Sust.).

La función sustantiva corresponde por lo general a la palabra sustantivo.

La palabra sustantivo:
En la novela "Cien Años de Soledad" (Gabriel García Márquez) se dice, refiriéndose a una época
remota, "En aquellos tiempos, las cosas carecían de nombre y para indicarlas, había que
señalarlas con el dedo".Esta afirmación nos permite comprender la importancia de contar con
palabras que faciliten asignarle un nombre a las cosas. Cada vez que nombramos algo, usamos un
sustantivo. Lee los siguientes ejemplos:

• Sobre el mar, vuelan las gaviotas.


• El amor nos hace ser generosos.
• Mauricio estudia en su pieza.

Todas las palabras en negrita son sustantivos. Con ellas hemos nombrado un elemento del paisaje
(el mar); un ave (gaviota); un sentimiento (amor) y le hemos dado nombre propio a una persona
(Mauricio).

En realidad, los seres humanos le asignamos nombre a todo lo que está a nuestro alrededor.
Sentimos la necesidad de nombrar las cosas para diferenciarlas. Cada vez que conocemos algo
nuevo, preguntamos ¿Cómo se llama? Y cuando sabemos su nombre nos parece más cercano y
familiar .

Organización interna del predicado

Al igual que el Sujeto, el Predicado tiene un elemento central y constante, llamado núcleo del
predicado. En forma opcional, éste puede estar acompañado de determinantes. Veamos algunos
ejemplos:

El núcleo del predicado indica lo que hace, dice, siente o piensa el sujeto. Cumple siempre la
función verbal, mediante la palabra verbo.

Los verbos expresan acción, sentimientos, estados y existencia respecto de distintas personas y
tiempos. Algunos verbos son: Cantar, sufrir, jugar, hacer, etcétera.
De todo lo aprendido no puedes olvidar:

• La proposición es una oración que consta de Sujeto y Predicado.


• El Sujeto y el Predicado están siempre formados por un elemento central y constante,
llamado núcleo.
• El núcleo del sujeto cumple la función sustantiva, y el núcleo del predicado cumple la
función verbal.
• Tanto el núcleo del sujeto como el del predicado pueden estar acompañados por
determinantes.

Para preguntar, podemos ubicar la acción al inicio de la oración, o utilizar una palabra que indica
interrogación.

Leamos estos ejemplos:

-¿Irás al cumpleaños de Enrique?

-¿Encontraste el mensaje que te dejó tu papá?

Estas oraciones interrogativas comienzan por la acción.

Ahora, analicemos estas otras:

-¿Cuál es tu personaje histórico favorito?

-¿Dónde está la clave?.

Las oraciones interrogativas utilizaron las palabras cuál y dónde.

• Algo que no puede faltar en este tipo de oraciones son los signos de interrogación delante
y al final de ellas:

¿ ... ?
Estos signos permiten identificar una pregunta.

Algunas palabras que sirven para hacer preguntas son:

¿Qué...? ¿Quién...? ¿Cómo...?

¿Cuándo...? ¿Dónde...? ¿Por qué...?

Las oraciones interrogativas se contestan con oraciones aseverativas, que pueden ser afirmativas
o negativas.

• Las oraciones exclamativas expresan sorpresa o admiración.

Llevan siempre signo de exclamación al inicio y al término de ellas.

¡ ... !
¿Por qué se llaman oraciones exclamativas?

Por el tono de vos que utilizamos al decirlas. Tomamos aire y luego hablamos con otro ánimo.

Te presentamos algunos ejemplos:

-¡Qué linda está la Luna!

-¡Nos vamos de vacaciones!

• Las oraciones imperativas tienen la particularidad de indicar una orden, un mandato o una
prohibición, no llevan escrito el sujeto.

Analicemos las siguientes oraciones imperativas:

-Se prohíbe fumar en este recinto.

-No pisar el pasto.

Ambas oraciones indican que se prohíbe realizar una determinada acción.

Veamos otras oraciones imperativas:

-Salgamos rápido.

-Quítate el delantal.

Estas oraciones nos están indicando una orden y mandato.

Algunas veces, para que la orden no sea tan directa, se utilizan palabras como querer, rogar o
desear.

Estos son ejemplos:

-Desearíamos que los pasajeros se abrocharan sus cinturones.

-Quisiera que nadie se fuera sin entregar el trabajo

Según si tiene o no verbo, es posible clasificar a la oración en dos tipos:

• Oración unimembre: grupo de palabras que posee un significado, es decir, que transmite
información, y no tiene verbo. Tiene una sola parte, o sea, está formada por un solo
miembro. Por eso se le llama unimembre Dentro de las oraciones unimembres, están todas
las fórmulas de cortesía: expresiones que utilizamos a diario para saludar, despedirse, o
simplemente ser correctos con lo demás. Por ejemplo: hola, buenos días, buenas noches,
hasta luego, muchas gracias, por favor, etcétera.

• Oración bimembre: grupo de palabras con significado, transmite una información completa,
y que además posee verbo. Por esto, puede dividirse en sujeto y predicado, que son las
dos partes o miembros por las que está formada. Ello le da su nombre de bimembre,
donde bi quiere decir dos, y membre, miembro.
Complementos en la oración

El sujeto tiene los siguientes complementos:

• calificativo: integrado por uno o varios adjetivos calificativos o determinativos. Otorga una
cualidad, peculariedad o manera de ser a la palabra que modifica. Ejemplo: Mi papá llegará
pronto.
• determinativo o de especificación: formado por un sustantivo que se une al sujeto por
medio de una preposición. Ejemplo: Ese computador es muy lento.
• explicativo: meciona datos incidentales, aclara y puede suprimirse sin que varíe el sentido
de la oración. Va siempre entre comas. Ejemplo: Cristóbal Colón, osado navegante,
descubrió América.

El verbo tiene los siguientes complementos:

• directo: recibe el nombre de complemento directo la persona o cosa que es el objeto de la


acción del verbo. Solamente llevan complemeto directo los verbos que denotan acción ,
son transitivos o activos.Las oraciones se construyen con la preposición a o sin
preposición. Ejemplos: Amo a mis padres, Llevaremos los libros.
Para identificar el complemento directo basta con preguntar al verbo de la oración: ¿qué?,
¿quién?, ¿a quién?. Ejemplo: A quién amo, amo a mis padres. ¿Qué llevaremos?, los
libros.
• indirecto: indica a las personas o cosas que reciben la consecuencias, es decir, el fin, daño
o provecho de la acción del verbo. Se construye con las preposiciones a o para. Puede
llevar otros complementos o puede construirse solo. Ejemplos: Llevo un libro a mi amigo;
Traigo flores para mi madre; Los vecinos compraron una bandera para la escuela.
Para identificar el complemento indirecto se hacen las siguientes preguntas: ¿a quién?,
¿para quién?, ¿para qué?. Ejemplos:¿A quién llevo mi libro?, a mi amigo. ¿Para quién
traigo flores?, para mi madre.
• circunstancial: indica las diversas circunstancias de tiempo, de lugar, de modo, de causa,
de cantidad, de compañía, de fin, de medio, etc.
Llegaré de mañana (de tiempo)
Llora con ganas (de modo)
Puso el libro sobre la mesa (de lugar)
Llegaré con mi amigo (de compañía)
Respondía la fuerza (de causa)
El tren salió para Chillán (de rumbo o destino)
Mi amigo llegó a Temuco (de procedencia)
• Los complementos circunstanciales pueden, en otros casos, construirse sin preposición:
Estudió todo el día (de tiempo)
Lo esperó la vida entera (de tiempo)
• Los adverbios o locuciones adverbiales ejercen las funciones de complementos
circunstanciales:
Habla lentamente ( de modo)
Trabaja poco (de cantidad)
Te esperaré aquí (de lugar)
Llegó temprano (de tiempo)
• Autores y obras importantes de la literatura clásica
Cuando hablamos de mundo clásico nos referimos a las civilizaciones griega y romana, cuya
influencia perdura hasta nuestros días y constituye el componente fundamental de la cultura
occidental.

Muchos aspectos de nuestra vida actual tienen sus remotos orígenes en el mundo clásico. La
democracia, la republica, la filosofía, la poesía, la tragedia e inclusive el atletismo, las olimpiadas y
la escuela nacieron muchos siglos atrás, en las costas del mediterráneo.

La civilización griega se remonta a la cultura de los aqueos. Esta cultura fue modificada
posteriormente con la llegada de nuevos pueblos que, poco a poco, fueron consolidando una gran
civilización formada por polis (ciudades-estados). La civilización griega llego a su plenitud alrededor
del siglo V a. de. C., cuando Atenas alcanzo un formidable desarrollo artístico y cultural. Por otra
parte, los hombres comunes anteriormente excluidos de la política por la nobleza empezaron a
participar en ella, convirtiendo a Atenas en la primera democracia de nuestra historia.

LA MITOLIGIA, FUENTE INAGOTABLE DE TEMAS LITERARIOS

Cada cultura tiene una explicación diferente sobre el origen del mundo y del hombre. Los griegos
representaron a través de bellísimos mitos.

Los personajes de estos mitos eran los dioses y los héroes. Los dioses eran inmortales y
sumamente poderosos, pero también tenían mucho parecido con los humanos inclusive
compartían con los hombres sus virtudes y defectos: celos, envidia, rencor, etc. Otros mitos eran
protagonizados por los llamados héroes, hombres que tenían cualidades extraordinarias por ser
hijos de un dios y un mortal.

Los dioses griegos inagotable fuente de inspiración para los poetas, fueron adoptados
posteriormente por los romanos, y desde entonces hasta la actualidad, durante siglos y siglos, los
mitos griegos han inspirados muchas manifestaciones artísticas de poetas, escritores, escultores y
pintores.

EL ARTE GRIEGO

El arte griego se caracterizó por la búsqueda de la belleza y la perfeccion de los artistas, en


especial los escultores se esforzaron por expresar la belleza ideal del cuerpo humano, que estaban
en el equilibrio y la armonía.

LA LITERATURA GRIEGA

POESIA EPICA

Los primitivos habitantes de Grecia, los pueblos de las civilizaciones egea y micénica, poseyeron
una literatura oral compuesta en su mayor parte por canciones que hablaban de las guerras, las
cosechas y los ritos funerarios. Los helenos se apropiaron de estas canciones en el segundo
milenio a.C. y, aunque no se conserva ningún fragmento, los cantos de los aedos dedicados a los
héroes prefiguran la poesía épica.

La épica griega alcanzó su máximo esplendor con la Iliada y la Odisea de Homero, aunque se cree
que pueden ser obra de una sucesión de poetas que vivieron a lo largo del siglo IX a.C. Escritos en
dialecto jónico con mezclas eólico, la perfección de sus versos hexámetros dáctilos indica que los
poemas son la culminación, más que el principio, de una tradición literaria. Los poemas épicos
homéricos se difundieron en las recitaciones de cantores profesionales que, en sucesivas
generaciones, alteraron el original, actualizando el lenguaje. Esta tradición oral se mantuvo durante
más de cuatro siglos.

Otros acontecimientos míticos y heroicos que no se celebran en la obra homérica o que no se


narran en su totalidad, se convirtieron en el argumento de varios poemas épicos posteriores,
algunos de cuyos fragmentos se conservan. Un grupo de estos poemas épicos, compuestos entre
800-550 a.C., por un número indeterminado de poetas conocidos como poetas cíclicos, tratan de la
guerra de Troya y la expedición de Los Siete contra Tebas. Entre los poetas épicos conocidos, casi
todos posteriores, se cuentan Pisandro de Rodas, autor de la Heracleia, que trata de las hazañas
del héroe mitológico Hércules; Paniasis de Halicarnaso, que escribió una obra también llamada
Heracleia, de la que sólo se conservan algunos fragmentos, y Antímaco de Colofón o Claros, autor
de la Tebas y considerado fundador de la llamada escuela de poesía épica. Antímaco influyó
poderosamente en los poetas épicos alejandrinos posteriores

La crítica textual contemporánea ha establecido que varias de las obras atribuidas en un principio a
Homero son de autoría posterior. Las más tempranas son, probablemente, los llamados 34 himnos
homéricos, fechados entre el 700 y el 400 a.C., una magnífica serie de himnos a los dioses escritos
en hexámetros dactílicos. Entre otros poemas semejantes destaca la burlesca Batracomiomaquia.

Poco después de Homero, el poeta Hesíodo escribió su obra principal, Los trabajos y los días,
compuesta también en dialecto jónico con algunas mezclas de eólico. Es el primer poema griego
que abandona la leyenda o el mito para centrarse en la vida cotidiana, las experiencias y
pensamientos de un granjero beocio. La Teogonía, normalmente atribuida a Hesíodo, aunque
algunos críticos la consideran posterior, narra el nacimiento del orden a partir del caos y el de los
dioses.

El dístico elegíaco se popularizó en toda Grecia durante el siglo VII a.C. y se utilizó en
composiciones de todas clases, desde canciones fúnebres a canciones de amor. El primer autor
conocido de elegías fue Calino de Éfeso. Otros famosos poetas elegíacos primitivos fueron Tirteo
de Esparta, Mimnermo de Colofón, Arquíloco de Paros, Solón el primer poeta ateniense y Teognis
de Megara.

POESIA LIRICA

La lírica procede de canciones acompañadas de la lira, y en la antigua Grecia había dos tipos
principales, la personal y la coral.

La lírica personal se desarrolló en la isla de Lesbos. El poeta y músico Terpandro, que había nacido
en Lesbos pero que vivió casi toda su vida en Esparta, está considerado como el primer poeta lírico
griego porque fue el que antes compuso música y poesía. La mayor parte de sus poemas eran
nomos o himnos litúrgicos en honor de Apolo, y cantados por un solo intérprete acompañado de la
lira.

Después de Terpandro aparecieron en el siglo VII a.C. los grandes poetas de Lesbos. Los poemas
líricos de Alceo, inventor de la estrofa alcea, hablan de temas políticos, religiosos e intimistas. Safo,
la poetisa más importante de la antigua Grecia, creó la estrofa sáfica aunque escribió también en
otras formas líricas. Sus poemas de amor y amistad se encuentran entre los más apasionados y
mejor trabajados de la tradición occidental. Los poetas lésbicos, así como varios poetas líricos
posteriores de otras ciudades griegas, compusieron en dialecto eólico.

En el siglo VI a.C., el poeta Anacreonte escribió alegres poemas sobre el vino y el amor en varios
metros líricos; sus obras posteriores, similares en tono y tema, se conocen como anacreónticos.
También escribió dísticos (pareados) elegíacos, epigramas y poemas en metros yámbicos.
La lírica coral surgió en el siglo VII a.C. obra de poetas que escribieron en dialecto dórico,
dominante en la región de Esparta, y que se utilizó incluso en épocas posteriores cuando los
poetas de otros lugares de Grecia adoptaban este género lírico. Los poetas espartanos fueron los
primeros en escribir de esta forma canciones para celebraciones públicas religiosas. Más tarde lo
hicieron para celebrar triunfos personales, como, por ejemplo, una victoria en los juegos olímpicos.

Taletas, que viajó de Creta a Esparta para sofocar una epidemia con himnos corales a Apolo, fue
probablemente el primer poeta lírico coral. Le siguieron Terpandro, que escribió tanto poemas
líricos intimistas como corales; Alcmán, autor sobre todo de partheneia, es decir, himnos
procesionales corales cantados por un coro de doncellas y de carácter parcialmente religioso, de
tono más ligero que los himnos a Apolo; y Arión, posible creador del ditirambo (forma poética en
honor a Dioniso) y del estilo trágico, que se utilizó ampliamente en el drama griego. Entre los
grandes escritores posteriores de poemas líricos corales se encuentran el poeta siciliano
Estesícoro, contemporáneo de Alceo, que introdujo la forma ternaria de la oda coral, consistente en
series de grupos de tres estrofas; Íbico de Reggio, autor de un largo fragmento que se conserva de
una oda coral ternaria y de poemas líricos personales eróticos; Simónides de Ceos, cuya lírica
coral incluye epinicia, u odas corales en honor de los vencedores en los juegos olímpicos, encomia,
o himnos corales en honor a personas concretas, y cantos fúnebres, además de poemas líricos
personales que incluyen epigramas; y Baquílides de Ceos, sobrino de Simónides, que escribió
epinicios, de los que se conservan trece, y ditirambos, cinco de los cuales han llegado hasta la
actualidad.

La lírica coral alcanzó su apogeo hacia mediados del siglo V a.C. en las obras de Píndaro, que
escribió muchos poemas de este género en todas las formas, incluyendo himnos, ditirambos y
epinicios. Se conserva cerca de la cuarta parte de su obra, principalmente epinicios con la
estructura trinaria creada por Estesícoro. Las tragedias de la época incluyen muchas odas corales
importantes.

EL TEATRO

A inicios de la primavera, las ciudades griegas celebraron fiestas populares en honor a Dionisio,
dios del vino. Estas eran parecidas a los carnavales: la gente bailaba cantaba y se emborrachaba
en las calles. Unos coros desfilaban por la ciudad, dirigidos por una persona que se llamaba
corifeo. Paulatinamente los coros comenzaron a entablar diálogos con el corifeo, lo cual dio origen
al establecimiento de parlamentos fijos para cada uno de ellos. De esta manera nació la forma
expresiva fundamental del teatro: el dialogo.

Con el paso del tiempo algunos interrogantes del coro se especializaron en la recitación de algunos
pasajes del parlamento, con lo cual se dio origen a la figura del actor. Al comienzo el número de
actores era muy reducido: dos o tres a lo sumo. Sin embargo , junto con el corifeo y el coro
conformaron los elementos básicos de la representaciones teatrales en la Grecia antigua.

El siguiente paso en la evolución del teatro fue la localización especifica de la representación: se


abandona la calle como escenario de los diálogos y se creó un lugar especial: el teatro, un espacio
destinado exclusivamente para la representación de los diálogos.

Había dos tipos principales de obras, la tragedia y la comedia. Aunque ambas estaban escritas en
verso existían entre ellas diferencias notables.

LA TRAGEDIA

La tragedia, tal y como hoy se la conoce, se cree que fue creada en el siglo VI a.C. por el poeta
ateniense Esquilo, que introdujo el papel de un segundo actor, aparte del coro. Sus tragedias,
cerca de 90, versan sobre temas tan excelsos como la divinidad y las relaciones de los seres
humanos con los dioses. Únicamente siete de sus obras han llegado hasta hoy, entre ellas
Prometeo encadenado, que narra el castigo de Zeus al titán Prometeo, y la Orestiada, trilogía que
retrata el asesinato del héroe griego Agamenón por su mujer, el de ésta por su hijo Orestes y el
posterior destino de Orestes

LA COMEDIA

Uno de los más grandes poetas cómicos fue Aristófanes, cuya primera comedia, Daitaleis, hoy
perdida, data del 427 a.C. Empleando la sátira dramática, ridiculizó a Eurípides en Las ranas y a
Sócrates en Las nubes. Estas obras representan la antigua comedia de la literatura griega.

La comedia griega posterior se divide en dos grupos, la comedia media (400-336 a.C.) y la
comedia nueva (336-250 a.C.). En la media, ejemplificada por las dos últimas obras de Aristófanes,
La asamblea de las mujeres y Pluto, ambas escritas entre 392 y 388 a.C., la sátira personal y
política se reemplaza por la parodia, la ridiculización de los mitos y la crítica literaria y filosófica.
Los principales autores de la comedia media fueron Antífanes de Atenas y Alexis de Thruil. Sólo se
conservan fragmentos de sus obras.

En la comedia nueva, la sátira se sustituye por la comedia social, con tramas y personajes
cotidianos y familiares, y temas de amor romántico. El principal autor de esta comedia nueva fue
Menandro, cuya influencia alcanzó a los dramaturgos latinos de los siglos III y II a.C., sobre todo a
Plauto y Terencio. Se conservan una obra completa de Menandro, El tacaño, y fragmentos de
otras.

AUTORES

Homero, nombre tradicionalmente asignado al famoso autor de la Iliada y la Odisea, las dos
grandes epopeyas de la antigüedad griega. Nada se sabe de su persona, y de hecho algunos
ponen en duda que sean de él estas dos obras. Sin embargo, los datos lingüísticos e históricos de
que se dispone, permiten suponer que los poemas fueron escritos en los asentamientos griegos de
la costa oeste de Asia Menor, hacia el siglo IX a.C.

LA ILIADA

Las dos epopeyas narran hechos legendarios que supuestamente ocurrieron muchos siglos antes
de la época en que fueron escritas. La Iliada se sitúa en el último año de la guerra de Troya, que
constituye el telón de fondo de su trama. Narra la historia de la cólera del héroe griego Aquiles.
Insultado por su comandante en jefe, Agamenón, el joven guerrero Aquiles se retira de la batalla,
abandonando a su suerte a sus compatriotas griegos, que sufren terribles derrotas a manos de los
troyanos. Aquiles rechaza todos los intentos de reconciliación por parte de los griegos, aunque
finalmente cede en cierto modo al permitir a su compañero Patroclo ponerse a la cabeza de sus
tropas. Patroclo muere en el combate, y Aquiles, presa de furia y rencor, dirige su odio hacia los
troyanos, a cuyo líder, Héctor (hijo del rey Príamo), derrota en combate singular. El poema
concluye cuando Aquiles entrega el cadáver de Héctor a Príamo, para que éste lo entierre,
reconociendo así cierta afinidad con el rey troyano, puesto que ambos deben enfrentarse a la
tragedia de la muerte y el luto.

LA ODISEA

La Odisea narra el regreso del héroe griego Odiseo de la guerra de Troya. En las escenas iniciales
se relata el desorden en que ha quedado sumida la casa de Odiseo tras su larga ausencia. Un
grupo de pretendientes de su esposa Penélope está acabando con sus propiedades. A
continuación, la historia se centra en el propio héroe. El relato abarca sus diez años de viajes, en el
curso de los cuales se enfrenta a diversos peligros, como el cíclope devorador de hombres,
Polifemo, y a amenazas tan sutiles como la que representa la diosa Calipso, que le promete la
inmortalidad si renuncia a volver a casa. La segunda mitad del poema comienza con la llegada de
Odiseo a su isla natal, Ítaca. Aquí, haciendo gala de una sangre fría y una paciencia infinitas, pone
a prueba la lealtad de sus sirvientes, trama y lleva a efecto una sangrienta venganza contra los
pretendientes de Penélope, y se reúne de nuevo con su hijo, su esposa y su anciano padre.

IMPORTANCIA DE SU OBRA

El merito de Homero no esta en la creación de los argumentos, ya que estos fueron tomados de
leyendas muy conocida de su época, si no en el bello lenguaje que emplea para relatarlos. A lo
largo de la obra se suceden poéticas descripciones y hábiles recursos con los que Homero da vida
a sus personajes. El mas conocido de estos recursos es el empleo de los epítetos con los que
acompaña los nombres de sus protagonistas: Aquiles, el de los pies ligeros; odiseo, el destructor
de las ciudades, atenea, la de los ojos de lechuza, etc.

Además, sus personajes son recordados a través de los siglos porque son profundamente
humanos: sufren pasiones encendidas, odio y venganza, pero también actúan con lealtad, sienten
amor y nostalgia y aceptan las limitaciones que les son impuestas por unos seres superiores: los
dioses.

SOFOCLES

Sófocles nació en Colono Hípico (hoy parte de Atenas) alrededor del año 496 a.C. Hijo de Sofilo,
un acomodado fabricante de armaduras, Sófocles recibió la mejor educación aristocrática
tradicional. De joven fue llamado a dirigir el coro de muchachos para celebrar la victoria naval de
Salamina en el año 480 a.C. En el 468 a.C., a la edad de 28 años, derrotó a Esquilo, cuya
preeminencia como poeta trágico había sido indiscutible hasta entonces, en el curso de un
concurso dramático. En el 441 a.C. fue derrotado a su vez por Eurípides en uno de los concursos
dramáticos que se celebraban anualmente en Atenas. Sin embargo, a partir del 468 a.C., Sófocles
ganó el primer premio en veinte ocasiones, y obtuvo en muchas otras el segundo. Su vida, que
concluyó en el año 406 a.C., cuando el escritor contaba casi noventa años, coincidió con el periodo
de esplendor de Atenas. Entre sus amigos figuran el historiador Herodoto y el estadista Pericles.
Pese a no comprometerse activamente en la vida política y carecer de aspiraciones militares, fue
elegido por los atenienses en dos ocasiones para desempeñar una importante función militar.

SUS TEMAS Y PERSONAJES

Lo mas importante para Sófocles era el estudio del alma humana. Sus personales son seres
humanos sacudidos por hondas pasiones (el sufrimiento, la traición, la venganza, el deshonor, etc)
y agitados por un destino que no pueden controlar con su voluntad.

Sófocles no se muestra ajeno al sufrimiento de los hombres sino que los expone con dramática
claridad.

Uno de los aspectos más interesantes del estilo de Sófocles es la presentación de la psiquis de los
personajes. El conflicto trágico en Sófocles no es el carácter absoluto, es decir, no se plantea en
función del cumplimiento de un destino inexorable, sin o que surge el interior del alma humana
como una contraposición entre el sujeto y el mundo. En este sentido, los conflictos de las tragedias
de Sófocles tiene una dimensión muy interesante. Esta forma básica del conflicto será retomada
siglos después en otros géneros típicamente modernos tales como la novela y el drama

LITERATURA ROMANA

LA INFLUENCIA GRIEGA
A la llegada de los conquistadores romanos, Grecia ya había alcanzado el punto más alto de sus
logros culturales e iniciaban la decadencia. Los romanos, entusiasmados por una cultura muy
superior a la suya, empezaron por copias los modelos griegos de la arquitectura y escultura. Es así
como construyeron templos con columnas y frontis, y también esculpieron retratos realistas al estilo
griego.

Incluso la mitología griega se trasladó al mundo romano con ligeras modificaciones: cambiaron los
nombres de los dioses, pero no las virtudes y poderes que los caracterizaba.

Esta adaptación del mundo griego sirvió como fundamento para el florecimiento de las formas
artísticas de expresión al interior del imperio.

En cuanto a la literatura, los romanos se esforzaron por adaptar a su lengua, el latín, los modelos
griegos del teatro, la poesía épica y la lírica. Por eso la literatura romana se considera una
prolongación de la griega, pero revitalizada con la energía y la lengua del joven pueblo romano.

PRINCIPALES PERIODOS DE LA LITERATURA LATINA

La literatura anterior a la conquista de Grecia era bastante rudimentaria. No existían aun los tres
géneros literarios clásicos (épica, lírica y teatro) y consistía en pequeñas composiciones poéticas
denominadas carmina que se interpretaba en los actos públicos y en las ceremonias religiosas.

SIGLO III Y II a. de C.: EL FLORECIMIENTO DEL TEATRO

El natalicio de la literatura latina suele ubicarse en el año 240 a. de. C. Ese año, los magistrados
romanos encargaron al Livio Andrónico, un esclavo griego, que tradujera y adaptara una comedia y
una tragedia griegas para ofrecerlas al pueblo romano como un espectáculo más de los juegos
públicos. El éxito determinó que desde entonces la representación de este tipo de obras se hiciera
habitual.

Pero el teatro romano tenía un objetivo muy diferente al del teatro griego: no pretendía la catarsis o
purificación de las pasiones, sino que era un espectáculo más, como el circo , cuyo fin era divertir y
hacer reír al público.

Esto se debe fundamenta a que en el alma romana no existía una conciencia clara del valor ritual
que para los griegos tenían las representaciones dramáticas: la puesta en escena de los
acontecimientos vividos por los personajes no tenía un sentido trascendental sino que se
contemplaba desde el exterior, sin lograr la identificación que provocaba la catarsis.

Por eso, los romanos prefirieron la comedia a la tragedia; y en especial, l presentación de la


costumbres situaciones amorosas y de la vida diaria, con presencia de los “personajes tipo” y que
culminaba con un final feliz.

LA EPOCA DE AUGUSTO: LA EDAD DE ORO DE LA POESIA LATINA

A diferencia de la poesía griega, compuesta para ser recitada o cantada, la romana fue creada para
ser leída y difundida a través de un manuscrito.

La poesía latina vivió sus momentos mas fructíferos y brillantes durante la época del emperador
augusto (de finales del siglo I a. de c. A principios del silgo I d. de. c.) ello se debió en gran parte al
propio augusto y también a su ministro mecenas, quienes dieron considerable protección a los
escritores de la época, tanto épicos como líricos.
LA EPICA: las epopeyas griegas despertaron en los romanos deseos de tener una poesía épica
nacional, que explicara los orígenes de roma. Entonces Virgilio, poeta romano emprendió la tarea
de escribir la eneida. En esta obra se ubican los orígenes de roma en el admirado mundo griego.

LA LIRICA: durante siglos, los poetas latinos se esforzaron para crear una lengua poética tan rica y
expresiva como el griego; pero sus versos no conseguían la gracia y la musicalidad de los versos
escritos de la lengua griega. En la poesía lírica, este esfuerzo culmino en el siglo I a de c. Con
Virgilio y Horacio, inspirándose en los poetas griegos, lograron una poesía lírica propiamente latina
y de plenitud.

Las obras de estos poetas son, hasta hoy pieza maestra de la literatura universal.

AUTORES

VIRGILIO

próximo a Mantua. Su padre era un humilde campesino. Virgilio estudió en profundidad las
literaturas griega y romana, además de retórica y filosofía, en Cremona, Mediolanum (hoy Milán),
Roma y Nápoles. Gracias a la protección del político romano Cayo Mecenas, Virgilio se vio libre de
preocupaciones económicas y pudo entregarse plenamente al estudio y a la literatura. Pasó la
mayor parte de su vida en Nápoles y Nola, y entre sus amigos más íntimos figuran su protector y
mecenas, Octavio, que más tarde se convertiría en el emperador Augusto, y muchos eminentes
poetas, como Horacio y Lucio Vario Rufo. En el año 19 a.C. emprendió un viaje por Grecia y Asia,
con la intención de revisar su obra maestra, la Eneida, prácticamente terminada para entonces, y
dedicar el resto de su vida al estudio de la filosofía. En Atenas, se reunió con Augusto y regresó
con él a Italia. Virgilio enfermó antes de embarcar y murió poco después de su llegada a Brindes
(hoy Brindisi). En su lecho de muerte, Virgilio ordenó a Augusto que destruyera la Eneida; sin
embargo, el poema fue revisado y publicado por Vario Rufo y Plotio Tuca.

EL CANTOR DE LA NATURALEZA Y DE LA PATRIA

De temperamento tímido y melancólico, Virgilio es conocido como “el cantor de la naturaleza”


porque se inicio como escritor con dos importantes obras. Las bucólicas y las geórgicas, en las que
presenta una naturaleza idealizada, donde la vida transcurre en forma sosegada, suave y apacible.

+sin embargo, también es el centro de la patria, a que su obra más perfecta, la eneida, vincula el
origen del pueblo romano con el glorioso pasado griego.

La eneida narra las aventuras de Eneas (héroe de la guerra de Troya que se narra en la Iliada)
quien, después de realizar muchas hazaña, se instala en el lacio, región donde más tarde dará
comienzo a la estirpe romana.

Con la Ilíada, Virgilio no sólo buscaba explicar los orígenes heroicos de Roma, sino también
resumir todo su pasado, sus personajes ilustres y sus instituciones.

HORACIO

Horacio (65 a.C.-8 a.C.), poeta lírico y satírico romano, autor de obras maestras de la edad de oro
de la literatura latina.

Quinto Horacio Flaco nació en diciembre del año 65 a.C., hijo de un liberto, en Venusia (hoy
Venosa Apulia, Italia). Estudió en Roma y Atenas filosofía griega y poesía en la Academia. Fue
nombrado tribuno militar por Marco Junio Bruto, uno de los asesinos de Julio César. Luchó en el
lado del ejército republicano que cayó derrotado por Marco Antonio y Octavio (después Augusto) en
Filipos. Gracias a una amnistía general volvió a Roma y rechazó el cargo de secretario personal de
Augusto para dedicarse a escribir poesía.

Cuando el poeta laureado Virgilio conoció sus poemas, hacia el año 38 a.C., le presentó al
estadista Cayo Mecenas, un patrocinador de las artes y amigo de Octavio, que le introdujo en los
círculos literarios y políticos de Roma, y en 33 a.C. le entregó una propiedad en las colinas de
Sabina donde se retiró a escribir y pensar.

Horacio, uno de los grandes poetas de Roma, escribió obras de cuatro tipos: sátiras, epodos, odas
y epístolas. Sus Sátiras abordan cuestiones éticas como el poder destructor de la ambición, la
estupidez de los extremismos y la codicia por la riqueza o la posición social. El Libro I (35 a.C.) y el
Libro II (30 a.C.) de las Sátiras, ambos escritos en hexámetros, eran una imitación del satírico
Lucilio. Las diez sátiras del Libro I y las ocho del Libro II están atemperadas por la tolerancia.
Aunque los Epodos aparecieron también el 30 a.C., se escribieron con anterioridad, ya que
reclaman con pasión el fin de la guerra civil, que terminó con la victoria de Octavio sobre Antonio
en Actium en el año 31 a.C., y critican mordazmente los abusos sociales. Los 17 poemas cortos en
dísticos yámbicos de los Epodos constituyen adaptaciones del estilo lírico griego creado por el
poeta Arquíloco. La poesía más importante de Horacio se encuentra en las Odas, Libros I, II y III
(23 a.C.), adaptadas y algunas, imitaciones directas de los poetas Anacreonte, Alceo y Safo. En
ellas pone de manifiesto su herencia de la poesía lírica griega y predica la paz, el patriotismo, el
amor, la amistad, el vino, los placeres del campo y la sencillez. Estas obras no eran totalmente
políticas y de hecho incorporan bastante mitología griega y romana. Se nota la influencia de
Píndaro y son famosas por su ritmo, ironía y refinamiento. Fueron muy imitadas por poetas
renacentistas europeos.

LA EDAD MEDIA

NACEN LAS LENGUAS ROMANCES

Tras la caída de Romo, Europa se fragmento y las distintas regiones quedaron aisladas. Como
resultado, las diferencias del latín que se habla en cada lugar se fueron haciendo enormes. Así
aparecieron las diversas lenguas romances como el castellano, francés, el italiano, el portugués,
etc.

LALITERATURA MEDIEVAL

LA PRIMITIVA LITERATURA MEDIEVAL

Entre los siglos V y XII, las obras literarias fueron muy escasas. La mayor parte de ellas eran obras
de carácter religioso, escritas en latín por los clérigos de esta época. Son embargo también nos
han llegado algunas piezas literarias que pertenecieron a la tradición oral de los pueblos
germánicos y anglosajones. Entre ellos destacan la leyenda de los nibelungos, de origen
germánico y el Beowulf, un extenso poema épico que es considerado una de las obras mas
importantes de la historia literaria inglesa.

LA LITERATURA ENTRE LOS SIGLOS XII Y XIV

En el comienzo de toda literatura es frecuente que los géneros literarios no aparezcan en estado
puro. Esto es lo que sucede también en la literatura medieval. Por es, existen diversas
composiciones difíciles de encasillar en un genero determinado. Tal acontece, por ejemplo, con los
famosos debates o disputas que tanto prestigio tuvieron en la literatura provenzal. El género que
aparece antes es la lírica. Las primeras composiciones líricas suelen ser cancioncillas, puestas
generalmente en labios de una mujer, que se recitaban durante el transcurso de algunos actos
solemnes o cotidianos. Después de la lírica surge la épica, genero que permite narrar hazañas de
unos héroes colectivos en la formación de los pueblos.

Mas inciertos son los orígenes del teatro medieval, acaso ligados a representaciones de carácter
religioso. Las celebración de la liturgia en la que un celebrante el sacerdote es respondido por un
coro los fieles lleva en si el germen del teatro y solo cabe esperar que esta representación se
formalice y se independice como pieza teatral. La prosa, por su parte, es de aparición posterior al
verso y coincide generalmente con la consolidación de las lenguas romances.

A partir del siglo XII, y como consecuencia de la consolidación de las lenguas romances, empezó a
desarrollarse en Europa una importante literatura compuesta en los primitivos dialectos que dieron
origen al castellano, al francés y al italiano. Cronológicamente las principales manifestaciones
literarias de esta época fueron:

LOS CANTARES DE GESTA : eran poemas épicos anónimos que los juglares recitaban ante un
publico diverso. Relataban la historia de un personaje, generalmente de carácter histórico, que
sintetizaba los valores de la comunidad.

Los cantares tuvieron un éxito enorme en su época, actualmente se conservan mas de cien; sin
embargo los mas conocidos son la canción de roldan, un cantar francés que transcurre en la época
del emperador Carlos magno, y el cantar del mio cid la primera obra literaria compuesta en
castellano.

LA POESIA PROVENZAL: la primera lírica culta en lengua romance surgió en Provenza y otras
cortes del sur de Francia era una poesía de tema amoroso, escrita pro los trovadores, poetas de
gusto refinado elevada posición social. Su interpretación se acompañaba con música y estaba a
cargo del propio trovador o de un juglar al que su autor contrataba. En sus poemas escritos en
primera persona, los trovadores creaban un nuevo concepto de amor: el amor cortes llamado así
porque solo podía darse entre damas y caballeros nobles que Vivian en la corte.

Lo que característico del amor cortes es que siempre se trata de un sentimiento altamente
espiritualizado que no desdeña un fuerte contenido erótico. La amada generalmente casada con un
señor poderoso, es descrita por el poeta como un ser frágil, puro y dotado de las mas elevadas
virtudes.

LAS NOVELAS DE CABALLERIA: son las primeras composiciones escritas en prosa. Estas
narraciones contaban las hazañas e un caballero, cuyo principal propósito no era otro que defender
a su señor y conquistar el corazón de una virtuosa dama.

Uno de los motivos principales de las novelas de caballería se encuentra en la figura legendaria del
rey Arturo o Artús y sus caballeros de la mesa redonda, verdaderos prototipos del personajes
caballeresco.

Las novelas de caballería tuvieron un gran éxito en toda Europa. El autor más conocido es
cherétien de Tríos quien es considerado, además, como uno de los creadores de la novela
moderna.

EL DOLCE STIL NOVE: fue una escuela literaria que se desarrollo en Italia y que también recreo el
tema del amor. El mismo nombre de la escuela nos habla de su intención renovadora: el dulce
estilo nuevo hacía referencia a la nueva forma de ensalzar el amor: los poetas del Dulce Estilo
Nuevo sostenían que la poesía debía reflejar la belleza y ser la expresión de un sentimiento puro y
delicado.
Por eso introdujeron nuevas formas métricas e incorporaron recursos más refinados y elegantes.
Estos logros enriquecieron considerablemente la expresión en las jóvenes lenguas romances.

EL CUENTO: es un genero literario que tiene sus raíces en los antiguos relatos orales que son
comunes a todos los pueblos.

Sin embargo, en occidente el cuento nace como género literario con dos obras: los cuentos de
canterbury, de goeffrey chucer y el Decameron, de Giovanni Boccaccio. Esta última obra se
considera como un verdadero testimonio de la cultura características de la baja edad media.

AUTORES

DANTE ALIGHIERI

(1265-1321), poeta, prosista, teórico de la literatura, filósofo y pensador político italiano. Está
considerado como una de las figuras más sobresalientes de la literatura universal, admirado por su
espiritualidad y por su profundidad intelectual.

LA DIVINA COMEDIA

Dante debió de comenzar su obra maestra, la Divina Comedia, alrededor de 1307 y la concluyó
probablemente poco antes de su muerte. Se trata de una narración alegórica en verso, de gran
precisión y fuerza dramática, en la que se describe el imaginario viaje del poeta a través del
Infierno, el Purgatorio y el Paraíso. Está dividida en tres grandes secciones, que reciben su título
de las tres etapas del recorrido. En cada uno de estos tres mundos Dante se va encontrando con
personajes mitológicos, históricos o contemporáneos suyos, cada uno de los cuales simboliza un
defecto o virtud, ya sea en el terreno de la política como en el de la religión. Así, los castigos o las
recompensas que reciben por sus obras ilustran un esquema universal de valores morales.
Durante su periplo a través del Infierno y el Purgatorio, el guía del poeta es Virgilio, alabado por
Dante como el representante máximo de la razón. Beatriz, a quien Dante consideró siempre tanto
la manifestación como el instrumento de la voluntad divina, lo guía a través del Paraíso.

Cada una de las secciones incluye 33 cantos, excepto la primera, que incluye uno más y sirve
como introducción. Este extenso poema está escrito en tersa rima, una estructura rimada cuya
distribución es la siguiente: ABA BCB CDC... etc. La intención de Dante al componer este poema
era llegar al mayor número posible de lectores, y por ello lo escribió en italiano, y no en latín. Lo
tituló Comedia porque tiene un final feliz, en el Paraíso, al que llega al final de su viaje. El poeta
puede por fin contemplar a Dios y siente cómo su propia voluntad se funde con la divina. Este
adjetivo, divina, no apareció en el título hasta la edición de 1555, llevada a cabo por Ludovico
Dolce.

La obra, que constituye un catálogo del pensamiento político, científico y filosófico de su tiempo,
puede interpretarse en cuatro niveles: el literal, el alegórico, el moral y el místico. Ciertamente, es
una impresionante dramatización de toda la teología cristiana medieval, pero, más allá de esta
consideración, el viaje imaginario de Dante puede ser interpretado como una alegoría de la
purificación del alma y de la consecución de la paz bajo la guía de la razón y el amor.

GIOVANNI BOCCACCIO

(1313-1375), poeta y humanista italiano, uno de los más grandes escritores de todos los tiempos.

Boccaccio probablemente nació en París aunque sea un hecho muy discutido, hijo ilegítimo de un
comerciante florentino y una noble francesa. Criado en Florencia, fue enviado a estudiar el arte del
comercio a Nápoles, hacia el 1323. Abandonó la contabilidad por el Derecho Canónico y éste por
los estudios clásicos y científicos. Formó parte de la corte de Roberto de Anjou, rey de Nápoles. Se
suponía que el rey tenía una hija ilegítima, Maria dei Conti d'Aquino. Aunque no se han encontrado
pruebas concluyentes de su existencia, se ha dicho que fue amante de Boccaccio y que inspiró
gran parte de su obra. Puede incluso que sea la Fiammetta inmortalizada en sus escritos.

A su regreso a Florencia, hacia 1340, Boccaccio desempeñó varios cargos diplomáticos con el
gobierno de la ciudad, y en 1350 conoció al gran poeta y humanista Petrarca, con el que mantuvo
una estrecha amistad hasta la muerte de Petrarca en 1374. En 1362, un amigo invitó a Boccaccio
para que fuera a Nápoles, prometiéndole el patronazgo de la reina Juana. Una fría recepción por
parte de la corte de la reina le llevó a buscar la hospitalidad de Petrarca, que entonces estaba en
Venecia (1363). Sin embargo, rechazó la oferta que le hizo Petrarca de una casa y regresó a su
propiedad de Certaldo (cerca de Florencia). Los años finales de Boccaccio, en los que se dedicó a
la meditación religiosa, tuvieron la alegría de su nombramiento en 1373 como lector oficial de
Dante. Su serie de lecturas quedó interrumpida por una enfermedad en 1374, y murió el año
siguiente.

La obra más importante de Boccaccio es El Decamerón, que empezó en 1348 y terminó en 1353.
Esta colección de cien relatos ingeniosos, alegres, se desarrolla en un marco concreto: un grupo
de amigos “educados, afortunados y discretos”, siete mujeres y tres hombres, para escapar a un
brote de peste se refugian en una villa de las afueras de Florencia. Allí se entretienen unos a otros
durante un periodo de diez días (de ahí el título) con una serie de relatos contados por cada uno de
ellos por turno. El relato de cada día termina con una canción, una canción para bailar entonada
por uno de los narradores; estas canciones representan algunas de las muestras más exquisitas de
la poesía lírica de Boccaccio. Al terminar el cuento número cien, los amigos vuelven a sus casas de
la ciudad. El Decamerón es la primera obra plenamente renacentista ya que se ocupa sólo de
aspectos humanos y sin hacer mención a temas religiosos y teológicos. Es notable por la riqueza y
variedad de los cuentos, que alternan entre la solemnidad y el humor; por la brillantez de su
escritura, y por su penetrante análisis de los personajes. En esta obra Boccaccio reunió material de
muchas fuentes: fabliaux franceses, clásicos griegos y latinos, relatos populares y observaciones
de la vida italiana de su época. El Decamerón rompió con la tradición literaria y, por primera vez en
la edad media, Boccaccio presentó al hombre como artífice de su destino, más que como un ser a
merced de la gracia divina.

EL RENACIMIENTO

Corriente artística y literaria que predominó en Europa entre los siglos XV y XVI. Debe su nombre
al hecho de que significo el resurgimiento del arte y la cultura grecolatina de la antigüedad.

Para muchos, el renacimiento significó un cambio profundo en todos los órdenes de la vida.

LA LITERATURA RENACENTISTA

CARACTERÍSTICAS GENERALES

Los escritores renacentistas tuvieron como modelo la obra de los autores clásicos, particularmente
de los latinos Horacio, Virgilio y Ovidio.

Sin embargo , y a pesar de la fuerte influencia grecolatina, durante esta época surgieron algunos
de los más grandes autores de la literatura universal. Ellos, guiados por los principios clásicos de
belleza y armonía, renovación la lengua poética y crearon nuevas formas de expresión.

Durante la edad media las obras literarias perseguían casi siempre un fin didáctico o moralizador;
la función artística quedaba subordinada al propósito de enseñar o instruir en las verdades dela
moral y la religión. Durante el Renacimiento, en cambio , predominó en el arte una intencionalidad
estética, y los poetas concibieron por lo general sus creaciones literarias como obras de arte. De
ahí el esmero con el que los escritores renacentistas cuidaron la forma de sus obras.

Fue un poeta nacido en la época medieval, aunque de espíritu renacentista, el italiano Francesco
Petrarca, quien proporcionó las nuevas claves de la obra literaria. Su concepto idealizo del amor,
su imagen de la mujer amada y el sentido plástico y armónico de la belleza en la composición del
poema marcaron las pautas de la poesía durante el siglo XVI.

TEMAS DE LA LITERATURA RENACENTISTA

La literatura renacentista fue la expresión del pensamiento humanista. Por eso, el hombre era su
principal preocupación; y su vida y su entorno, los temas más frecuentes.

Los principales temas recreados en la literatura renacentista son:

EL AMOR: siguiendo con la tradición del amor cortés de la poesía prevenzal, los autores
desarrollaron el tema del amor como un sentimiento idealizado, generalmente platónico e
insatisfecho.

LA NATURALEZA: para los autores renacentistas la naturaleza era una fuentes de belleza. El
paisaje aparecía siempre muy idealizado, como un símbolo de armonía y paz que contrastaba con
la vida agitada y desordenada de las ciudades.

LA MITOLOGÍA: los autores renacentistas emplearon frecuentemente mitos provenientes de la


antigüedad clásica. Algunas veces los adoptaron como temas centrales de sus obras; otras veces ,
como símbolos para expresar diversos motivos y sentimientos.

LA LLAMADA AL GOCE DE LA VIDA: el amor a los placeres de la vida y la pena de abandonar


este mundo dichoso, llevó a los escritores a exaltar el goce y el aprovechamiento de todo lo que les
brinda el presente.

LOS GENEROS LITERARIOS DEL RENACIMIENTO

LA LÍRICA

los poetas renacentistas se caracterizaron por su hondo lirismo y por su libertad para expresar sus
profundos sentimientos.

Los renacentistas buscaban la flexibilidad y la elegancia en al lengua poética por eso, utilizaron con
frecuencia nuevos tipos de verso, como el endecasílabo, y nuevas formas poéticas, como el
soneto.

LA NARRATIVA

En la narrativa se consolido el cuento urbano y burgués, desarrollando en Italia por Giovanni


Boccaccio y luego en Inglaterra por Geoffrey Chaucer.

Este tipo de cuento tenía como único propósito deleitar y entretener a los lectores. Para ello, relata
de manera cómica y satírica episodios de la vida en la ciudad. Sus personajes son pícaros y
astutos y representan la nueva ideología burguesa caracterizada por el ingenio.

EL TEATRO.
La manifestación mas original del teatro renacentista fue en el drama isabelino, una forma
dramática que surgió en Inglaterra hacia fines del siglo XVI.

El publico que asistía a estas representaciones era tanto gente ilustrada como gente del pueblo y
encontraba en las representaciones una fuente permanente de deleite.

Los argumentos de las obras eran extraídos del pasado reciente, de la vida cotidiana o de la
mitología y la literatura clásicas.

El teatro isabelino no representaba normas fijas: mezclaba lo trágico con lo cómico la prosa con el
verso, y casi no utilizaba escenario; los actores se movían entre el auditorio.

Uno delos aportes más significativos de las representaciones isabelinas fue la abstracción de los
motivos escénicos: tanto los escenarios como los vestuarios no requerían imitar fielmente la época
y la indumentaria de los personajes, puesto que estaban en función de la acción dramática. El
máximo representante del teatro isabelino fue William shakespeare.

AUTORES

FRANCESCO PETRARCA

(1304-1374), poeta y humanista italiano, considerado el primero y uno de los más importantes
poetas líricos modernos. Su perfeccionamiento del soneto influyó en numerosos poetas
posteriores, desde los españoles Gracilazo de la Vega y Quevedo hasta los ingleses William
Shakespeare y Edmund Spenser. Su amplio conocimiento de los autores de la antigüedad y su
restauración de la lengua latina clásica le valieron la reputación de “primer gran humanista”, pero,
además, contribuyó a la instauración definitiva del italiano como lengua literaria.

INICIADOR DE UNA NUEVA ÉPOCA

Francesco Petrarca fue contemporáneo de Dante e incluso llego a conocerlo. Si embargo, las
obras de ambos son fundamentalmente distintas. Dante es la culminación de una época: la edad
media; en cambio, petrarca abre otra: el renacimiento.

Francesco Petrarca leyó desde muy joven a los autores clásicos. Admirado por la belleza de sus
textos escribió varias obras en latín procurando imitarlos. Sin embargo, su obra en italiano es la
mas importante porque con ella la poesía lírica en lengua romance alcanzo una calidad que no
había tenido hasta entonces.

Los poemas italianos de petrarca fueron reconocidos por el autor en un cancionero. Casi todos
expresaban el amor imposible del autor hacia laura, a la que continuo amando y exaltando después
de que ella, aun joven falleciera.

WILLIAM SHAKESPEARE

(1564-1616), poeta y autor teatral inglés, considerado uno de los mejores dramaturgos de la
literatura universal

OBRA

William shakespeare se distinguió como autor de poesía y de teatro. En poesía siguió el modelo
renacentista de las composiciones líricas de tema amoroso.
LOS SONETOS: son verdaderos modelos de perfección rítmica en lengua inglesa. El conjunto de
sonetos abarca diferentes ciclos temáticos, cada uno de ellos relacionados con los estados de
animo del ser humano: la soledad del amante, el éxtasis de la contemplación de la belleza (soneto
18) la muerte (soneto 71) la plenitud del amor (soneto 104).

Por otra parte, shakespeare es el autor teatral mas importante de Inglaterra y uno de los grandes
maestros de la literatura universal. Su extensa obra dramática puede ser clasificada en 3 grupos:

COMEDIAS: shakespeare escribió numerosas comedias llena de fantasía y color, cuyos


personajes eran extraídos genermlamente de la tradición popular. La mas conocidas son sueno de
una noche de verano, las alegres comadres de Windsor y noches de epifanía.

DRAMAS HISTORICOS: están protagonizados por personajes de la historia inglesa o del


antigüedad entre ellos se destacan: Ricardo II, enrique IV y Julio Cesar.

TRAGEDIAS: este genero representa la cumbre del teatro de shakespeare. En el se manifiesta su


madurez como autor así como la originalidad y la dimensión de su obra. Su mas celebre tragedia
es hamlet, para muchos la mas grande tragedia que se halla escrito jamás. Otros dramas famosos
son: Otelo, Macbeth y Romeo y Julieta

Literatura barroca

Periodo que abarca:

Esta época de la historia se encuentra situado en el siglo XVII, el origen de la palabra barroco se
supone que proviene del portugués donde significa “perla preciosa pero irregular” y del nombre de
la figura silogística “barroco” a la cual se considera como una forma de razonamiento forzado y
absurdo. Se conceptualiza Barroco a todo movimiento arquitectónico, esculturas y pinturas y
demás obras artísticas exageradas, cargadas de detalles.

Contexto histórico, político, social:

La Reforma religiosa: Disminuyó el poder de la iglesia, dividiendo a Europa durante el siglo XVII.

El movimiento protestante se apoyó en substanciales bases reales, como las siguientes que a
continuación se mencionan:

• El espíritu renacentista que confirió al individuo seguridad en sí mismo, le permitió


cuestionar la actividad eclesiástica.
• Los comerciantes buscaban como sacudirse el control impositivo de la Iglesia a fin de
asegurarse el libre intercambio de mercaderías.
• Los nacientes estados inculcaban en sus habitantes fuertes sentimientos de lealtad a su
propia nación para escapar a la autoridad papal.
• La corrupción en la que habían caído funcionarios eclesiásticos que no solo acarreó
críticas, sino exigió una reforma radical.

La Reforma que comenzó Martín Lucero en Alemania, se extendió por el norte de Europa y culminó
con la ruptura entre Enrique VIII y el Papa. Ante tal expansión, la iglesia organizó la Contra-reforma
para recuperar lo perdido. Durante el concilio de Trento, la Iglesia Católica reafirmó sus creencias y
dogmas, sin embargo, instauró reformas tales como:
• Tolerancia y respeto por el naciente poder real.

• Fuerte apoyo a la educación

• Emisión del índice de los libros cuya lectura se prohibía a los católicos.

• El control en el clero y la inquisición.

Entre los movimientos políticos de relevancia que se dieron a causa, de que Carlos I de España, V
de Alemania, había heredado de sus abuelos los Reyes Católicos, un imperio que incluía buena
parte de Europa, un poco de África y las nuevas tierras que los recientes descubrimiento integraron
a la Corona, en Asia y América, las otras naciones europeas, celosas del poder peninsular,
buscando la manera de acabarlo, propiciaron los siguientes movimientos:

• La revolución protestante alemana

• La derrota de la Armada Invencible: Con lo cual disminuyó el prestigio de español y


permitió que Isabel de Inglaterra enfrentara el gran poderío católico de los Austrias,
asaltando los gigantescos galeones en los que transportaban los tesoros del Nuevo
Mundo; las arcas imperiales quebraron.

• La guerra civil entre protestantes y católicos.

En cuanto a lo social, la información y la cultura se quedaron en las clases cultivadas de donde


emergió lo mejor del mundo artístico, mientras el pueblo se consumía en la ignorancia, el rey y la
nobleza vivía en un mundo aislado de las dos realidades anteriores.

Sucesos económicos:

La situación económica en la que se encontraba España, era de crisis porque la piratería inglesa,
habitualmente organizada, destruía los envíos de América. A este se agrega otros factores como el
clima, que arruinó las cosechas y el descenso poblacional motivado por:

• Las epidemias

• Las Guerras

• La expulsión de los moriscos (Verdaderos labriegos que sostenían la producción agrícola)

• La emigración hacia América de los hombres jóvenes y fuertes


• Los prejuicios de nobleza e hidalguía que forzó a los que se quedaron a preferir morir de
hambre antes que ir al campo.

Cosmovisión:

El hombre de esta época mostraba más confianza en sí mismo, entusiasmo, mayor interés por la
naturaleza, deseos de vivir.

También el hombre de esta época se preocupa por lo lujoso, es decir, buscaba cubrir hasta el más
mínimo detalle, ya que el hombre mostraba más seguridad en sí mismo, en esta etapa el hombre
ya no se dejaba manipular. En cuanto al arte aquí es el mismo hombre quien rompe con el
equilibrio que hubo en el renacimiento, ya que se daba más libertad a la creación propia.

A pesar de que en esta época existió pobreza, al igual que en las anteriores etapas.

Características del Arte:

• Exageración (pesadez en detalles y adornos)


• Predominio de la línea curva
• Acepta como la rota la unidad en al fe del mundo medieval
• Hombre situado en una tensión de fondo finitud-infinitud.
• Exhuberancia (afán a la faustosidad)
• Tensión maliciosa entre lo terreno y mas allá
• Fascinación ante la caducidad de la vida y ante la muerte.
• Visión de la vida como algo cambiante (suerte, “el sino”
• Tendencia a los contrastes
• Época esplendida para el teatro, la palabra pierde en ocasiones primacía, para dar paso a
recursos y a medios ópticos y musicales (ballet, desfile y procesiones).

Características de la Literatura:

En el terreno literario, el barroco fue el estilo que predominó durante el siglo XVII, como sucedió
con las artes visuales, dicho estilo se originó en Italia y desde allí se extendió a otras regiones
recibiendo diferentes nombres como “Eufismo” en Inglaterra, “preciosismo” en Francia y
“Culteranismo” en España, siendo en este último lugar donde alcanzó pleno desarrollo.

• Cultivo de formas poéticas clásicas: Es decir se basaron en las formas estróficas


tradicionales como el terceto, el cuarteto, la redondilla, el romance, la lira, la octava, el
soneto, etc.
• Uso exagerado del hipérbaton y de la elipsis: Con esto se provocó cierto desorden en la
organización lógica de la oración y del párrafo.
• Empleo de neologismos y arcaísmos: Introdujeron muchas palabras consideradas en esa
época como neologismos o como arcaísmos.
• Amplia libertad semántica: Es decir a las palabras de uso común le otorgaban un sentido
totalmente personal.
• Citas mitológicas: Multiplicaron las alusiones históricas y geográficas valiéndose de
exuberantes citas mitológicas griegas y romanas.

1∋ ( )༥∗Figuras retóricas: Es decir usaron figuras como la metáfora, metonimia, sinécdoque,


comparaciones, etc.

• Manejo especial de construcción gramatical: Dispusieron de manera muy singular la


construcción gramatical, con el propósito de provocar en el lector la sensación de efectos
plásticos, como luz, brillo, sonoridad, etc.
• Temática: Los temas que trataron tuvieron como finalidad de exaltar la belleza natural y
considerar la existencia humana como constante y paulatino morir.

En la literatura española, el barroco se manifestó en dos estilos literarios: El culteranismo y el


conceptismo. Ambos buscaban romper con el equilibrio entre forma y contenido.

Obras y Autores más representativos:

Genero AUTORES OBRA

Soledad y la Fábula de Polifemo y


Obra culterana Luis de Góngora y Argote
Galatea.

El pintor de su deshonra

El alcalde de Zalamea
Pedro Calderón de la Barca
Teatro El Isidro
Lope de Vega
La Dorotea

El perro de Hortelando

Los sueños

Poesía y Lírica Francisco de Quevedo y Villegas Cartas del caballero de la Tenaza

Cuento de Cuentos

El anticristo

El dueño de las estrellas


Juan Ruiz de Alarcón y Mendoza
La culpa busca la pena y el agravio
la venganza

Literatura neoclásica

Periodo que abarca:

El neoclasicismo fue un movimiento literario iniciado en Francia en el siglo XVII y todo el siglo XVIII,
se preocupó por restaurar el gusto y normas de la antigüedad, especialmente de la cultura griega y
romana y del período Renacentista, es también conocido como el “Siglo de las luces”.

Contexto histórico, político, social y económico:

Durante el siglo XVII, el sistema de gobierno que predominó fue el llamado absolutismo, este era
ejercido por los reyes, sin limitación ni sometimiento a otro poder político. Este sistema se apoyaba
en la doctrina del llamado “Derecho Divino”, esto era la supuesta promulgación hecha por Dios
para conceder a la persona del monarca con extraordinaria sabiduría y benevolente
responsabilidad hacia su pueblo.
El ideal clásico de esta época reposó en el ejercicio de la razón, convirtiéndola en la facultad
generadora de la obra de arte, ideada y expresada de manera natural y mesurada, ya que los
hombres de esa época tenían un gran interés por investigar sobre lo natural, para terminar con lo
demasiado imaginativo que el barroco había creado.

En cuanto a lo político al propiciar la caída de las monarquías, paralelamente se desarrolló el


concepto de la soberanía que radica en el pueblo. Los acaudalados burgueses renovaron el ideal
democrático fomentando la participación en parlamentos y asambleas para instaurar gobiernos
republicanos. El concepto de nacionalidad alentado por los pensadores ingleses fue fructífero, por
su propia situación.

Cosmovisión:

En esta etapa de la literatura, el hombre pone más énfasis en el uso de la razón, y convirtió a la
razón en la facultad generadora de la obra de arte, que la expresaban de manera natural; Todo
esto era con la finalidad de romper con lo superstición fomentada durante el barroco. Aquí el
hombre hacia sus creaciones, pero en base a la razón y lo natural, tanto así que a veces solían
parecer muy simples sus obras.

En pocas palabras el hombre de esta época consideraba a la razón como fuente primaria de la
verdad.

Características del Arte:

• Establecimiento de reglas muy rigurosas que debe obedecer el artista a fin de imitar
fielmente tanto las obras clásicas como las cosas que ofrece la naturaleza misma.
• Rigidez formal y poca creatividad en virtud de que, al seguir las huellas de los antiguos, el
artista se ve constreñido a moldes muy estrechos.
• Afrancesamiento, debido a que el modelo galo se diseminó rápidamente y la gente culta lo
siguió con fervor.
• Preponderación de la razón sobre el sentimiento y de la inteligencia sobre la imaginación.
• Dominio de los conocimientos filosóficos y científicos conseguidos a través de un método
de trabajo y estudio apoyado en la importancia de los hechos.
• Actitud crítica ante todas las manifestaciones de la conducta humana, se hace énfasis en
lo moral, a fin de combatir los perjuicios y supersticiones, subrayando el valor del hombre
como miembro de la sociedad.
• Exaltación de los placeres sencillos, la buena mesa o el amor por la vida campesina, etc., a
fin de cubrir la intimidad personal y evitar la revelación de los sentimientos.
• El ideal artístico que se debía perseguir consiste en la expresión de la belleza formal y fría,
no en la conmoción del lector; por eso la obra que se escribe debe ser sencilla, natural,
razonable, exenta de fantasía, misterio o imaginación.
• Manifestación uniforme contra las exageraciones del barroco.

Características de la Literatura:

Para esta corriente literaria, el ideal que se debe perseguir, es el ideal clásico, el cual consiste en:

• La expresión refinada
• Las formas mesuradas
• La elocuencia
• La composición cuidadosa

Obras y Autores más representativos:

Genero AUTORES OBRA

Leandro Fernández de Moratín El sí de las niñas

Poesía y fábula Félix Ma. Samaniego El muchacho y la Fortuna

Tomás de Iriarte La araña y el gusano de seda

Novela José Joaquín Fernández de Lizardi El periquillo sarniento

Narrativa Daniel Defoe Ensayo sobre los proyectos

Prosa Benito Jerónimo Feijoo Biblioteca Feijoniana

Literatura romántica

Periodo que abarca:

El periodo conocido como Romanticismo, es la manifestación de una crisis ideológica, política,


analítica y social. Es la búsqueda de la libertad, la exaltación del sentimiento y de la pasión.

Este periodo de la historia tiene su inicio en la primera mitad del siglo XVII y principios del siglo
XIX.

Contexto histórico, político, social:

El siglo XIX fue para la humanidad un siglo de luchas por un nuevo concepto: La Democracia. La
etapa de los reyes tiranos y déspotas estaba llegando a su fin: Un hecho histórico fue fundamental
para este cambio político del mundo: la Revolución Francesa de 1789. El nuevo siglo nacería bajo
las banderas que habían guiado la Revolución Francesa: Libertad, igualdad, fraternidad. El siglo
XIX es un siglo que lucha por alcanzar estos ideales. Las desigualdades sociales durante la
monarquía habían sido demasiado grandes; por eso el pueblo tuvo que tomar las riendas y
establecer los regímenes democráticos. La lucha por la libertad y la igualdad llevó a este siglo por
la vía de las revoluciones y los grandes conflictos políticos por todas partes. Muchos países
adquieren su independencia: Grecia en 1822, Bélgica en 1830, esto explica por qué en la literatura
romántica aparece la exaltación de lo nacional como parte importante de su pensamiento.

La democracia, régimen considerado como una revolución, en el campo político influye en el triunfo
del liberalismo. Esta doctrina defendió las libertades individuales de pensamiento, expresión y
asociación, así como la soberanía popular.

Según la teoría de soberanía popular, el poder reside en el pueblo, el cual lo ejerce a través de
representantes elegidos por sufragio y dentro del marco de una constitución.

La Revolución Industrial: comenzó en Inglaterra, donde las circunstancias fueron favorables y con
este movimiento se dio un cambio radical en el sistema económico, la industria base fue la de los
textiles, con la cual se sustituyeron los métodos manuales por los mecánicos, estimulando el
sistema fabril. Con todo esto se modifican las costumbres y las relaciones sociales, toman fuerza
los sindicatos obreros, se llenan los mercados de productos fabricados en serie. El mundo
comienza a tener nuevas necesidades: muebles, vestidos, adornos. La gente empieza a tener más
tiempo libre y se despierta la necesidad de crear teatros, paseos, fiestas, veladas artísticas y, en
general una vida de convivencia social muy intensa.

Hubo innovaciones en las manufacturas de hierro y acero, al igual que en los medios de transporte
al mejorarse caminos y ferrocarriles; los barcos de vela fueron sustituidos por los de vapor.

En lo social: El movimiento más representativo es el de la protesta social ya que con el


industrialismo se forman dos clases sociales: la de los propietarios de los medios de producción y
la de los obreros. A la gente del campo se le hizo atractivo el trabajo en las fábricas, lo que
ocasionó la inmigración a la ciudad, lo cual tuvo como consecuencia la aglomeración de personas
en viviendas estrechas, carencias y dificultades para sobrevivir. Los obreros al darse cuenta que
eran explotados por el dueño de la fábrica, empiezan por sentirse inconformes, lo que llevo a que
ese sentimiento se convirtiera en rebeldía y activa protesta. Por todo esto surgen ciertos teóricos y
líderes socialistas, quienes proponen a los trabajadores que se unifiquen para obtener la
participación igualitaria en los medios de producción; pero más tarde, lo que era inconformidad se
convierte en frustración al darse cuenta que estos líderes sólo trabajaban para sus intereses
particulares.

Sucesos económicos:

Entre los sucesos económicos de mayor relevancia estuvo la revolución Industrial, porque con los
nuevos descubrimientos, principalmente con la industria de los textiles ya que con ella se
sustituyeron los métodos manuales por los mecánicos, lo que ayudó a reducir el gasto en mano de
obra, pero que a la ves, provocó el desempleo, y nuevas necesidades; además la producción se
empieza hacer en serie.

Con todo esto se incrementaron nuevas necesidades; toman fuerza los sindicatos de los obreros.

La exploración de nuevas fuentes de poder económico, como el gas y el petróleo.

Los avances en medicina para superar la rabia y la tuberculosis.

Cosmovisión:

En el romanticismo se busca la expresión del sentimiento y la pasión. Desecha las reglas


establecidas, en la realidad política se busca la libertad, al igual que en la expresión literaria. El
hombre de este momento toma profunda conciencia de sí mismo y de sus derechos, y por esto el
arte romántico le va servir para expresar con absoluta libertad sus sentimientos, sus deseos, sus
esperanzas, sus sueños, sus incongruencias, sus locuras, sus miedos, ya que es un arte libre que
permite sacar la exaltación vital de este nuevo hombre, un hombre que quiere gritar, llorar, reírse a
carcajadas, temer a la muerte, a la soledad; poner en un altar lo divino, el ser amado, el heroísmo
y, en fin, la libertad.

Características del Arte:

• Mayor búsqueda de la libertad.


• Se rompe con el horario de acuerdo a la naturaleza.
• Busca lo exótico
• La muerte se convierte en aventuras
• Es un arte libre que deja sacar la exaltación vital que siente el hombre de este periodo.
• Es un arte individualista que solo le interesa el “Yo” profundo del ser humano, con todas
sus perfecciones y contradicciones.

Características de la Literatura:

• Sinestesia: Es la característica en donde se mezcla las sensaciones a través de los


sentidos.
• Explorar, conocer, exponer lo nuevo
• El paisaje se vuelve un personaje en las obras literarias

Obras y Autores más representativos:

AUTORES OBRA

José de Espronceda la canción del pirata

Gertrudis Gómez de Avenllaneda La pesca en el mar

Francisco Martínez de la Rosa Aben Humeya

Ignacio Manuel Altamirano Navidad en las montañas

Esteban Echeverría El matadero

José Hernández Martín Fierro

Jorge Isaacs Maria

Literatura realista y naturalista

Realista

Periodo que abarca:

El periodo del realismo abarca la segunda mitad del siglo XIX, y el término realismo y realista se
utilizaron en Francia para designar, peyorativamente, a obras cuyo tema era sacado de la vida
cotidiana, término que con el tiempo se aplicó al arte que tenía como finalidad reflejar objetiva y
verazmente la vida diaria.

Contexto histórico, político, social:

En la segunda mitad del siglo XIX, se presentó una serie de avances y descubrimientos científicos,
tales como: los de Oersted y Faraday, en electromagnetismo; los de Scheiden y Schwann, en
biología; los de Charles Darwin, que culminaron con la teoría de la evolución; los de Gregorio
Mendel que formula las leyes de herencia, entre otros.

Empezaron a proliferar las fábricas, que más tarde se convirtieron en centro masivos de trabajo. A
la par de los avances de la ciencia y de la técnica, se registraron algunos cambios en la filosofía,
porque lo que para el romanticismo era el idealismo, para la época realista fue el positivismo y
materialismo.

La teoría positivista de Augusto Comte, sostenía que los verdaderos conocimientos son los que se
refieren a la realidad, los cuales tratan de descubrir las leyes naturales para poder prever los
acontecimientos futuros y así, someter a la naturaleza a los designios del hombre. Su lema era:
“Saber para prever, y prever para poder”

Otro hecho de importancia, fue el materialismo de Carlos Marx y Federico Engels, el cual sostiene,
que lo económico es la base de todos los aspectos culturales que se dan en una sociedad.

En el aspecto social el principal fenómeno, fue el cambio de estructura, en cuanto que en lugar de
una sociedad con condiciones, se configura una sociedad con clase. Con el desarrollo industrial
nació la clase burguesa, como dueña de los bienes de producción, y la clase obrera o proletaria.

Este cambio tuvo varias consecuencias, pero la más relevante fue el conflicto que surgió entre las
dos clases, al adoptar la burguesía posiciones conservadoras a fin de sostener su jerarquía;
mientras que la clase obrera de varios paises europeos, para ejerce presión efectiva; formó grupos
y organizó la Primera Internacional, denominada Asociación Internacional de Trabajadores, creada
en 1864, y cuyos estatutos fueron redactados por Carlos Marx.

Sucesos económicos:

El poder económico de este periodo, estaba en manos de la clase burguesa, ya que era la que
contaba con la maquinaria para producir, y la clase obrera, era quien trabajaba en la producción.
Por lo anterior se puede decir que la clase burguesa era quien proveía de trabajo en los distintos
niveles.

Cosmovisión:

En este periodo el hombre busca darle un nuevo equilibrio al arte, ya que el romanticismo, llego a
caer en la exageración, en cambio en el realismo, el hombre propone volver a la realidad y dejar
atrás el mundo ideal y subjetivo, prefiere lo objetivo y lo racional. El hombre del realismo rechaza
las exaltaciones emotivas y la búsqueda idealista para centrarse en lo real.

Características del Arte:

• Se busca el equilibrio del arte.


• Es real
• Objetivo y Racional
• Rechaza las exaltaciones emotivas y las búsquedas idealistas.
• Los temas del arte de este periodo son: La naturaleza, los hechos históricos y sociales.
• No solo le interesa el hombre de manera individual, si no la sociedad como grupos.
• Le interesa el presente
• Describían fielmente la realidad y perseguían un fin didáctico.

Características de la Literatura:
• Enfoque: tiene un enfoque diferente del romanticismo, al transformar la realidad en materia
literaria; ya que existe subordinación al subjetivismo, mientras que en aquél predomina lo
objetivo.
• El arte realista es impersonal. Se manifiesta contra todo subjetivismo, rechaza la tendencia
romántica a la presencia constante del autor en todo lo que escribe. En consecuencia, el
escritor no debe permitir que su propia ideología aflore en sus textos.
• Reproducción exacta de la realidad: el realista tiene mucha estimación por la fidelidad
descriptiva; pretende a veces la exactitud científica tanto en los ambientes, como en el
aspecto psicológico.
• Estilo y forma: la retórica romántica y prefiere la prosa sobria. Se cultiva meticulosamente
el tratamiento de la forma hasta que el texto se convierte en la realidad misma. El arte de la
paciencia donde cada palabra se elige por su significación preferida, provoque brutalidad.
• Géneros y personajes: disminuye el drama y el lirismo. La novela es como una descripción
histórica de algo que realmente ocurrió a personas; de ahí su preferencia por los detalles
físicos y psicológicos y por la investigación minuciosa. Los personajes ya no son
arrastrados por fuerzas desconocidas, sino que todas sus actuaciones tienen una
explicación natural.

Naturalista

Periodo que abarca:

Corriente literaria Europea de finales del siglo XIX desarrollada fundamentalmente entre 1880 y
1900. El naturalismo es una forma de concebir la existencia humana y un método para estudiar y
transcribir el comportamiento humano.

Contexto histórico, político, social:

Surgió como continuación aparente del realismo, aunque en verdad sea mucho más que él; ya que
se vale del método científico para efectuar un acercamiento riguroso y objetivo a la existencia
humana, contemplándola en las actitudes y motivaciones sórdidas de su conducta, ya sean de
burgueses o de humildes.

Varios escritores describieron al pueblo; sin embargo, nadie llegó tan lejos al pintar la miseria de la
condición humana como lo hizo el creador de esta corriente Emilio Zola. Las situaciones
particulares son sus preferidas para mostrar cómo los personajes se mueven en un ambiente
determinista.

Sucesos económicos:

El aspecto económico de esta corriente, al igual que el realismo, tuvo mucha influencia por parte de
los avances científicos y sociales que se dieron en la segunda mitad del siglo XIX.

Cosmovisión:

El naturalismo presenta seres humanos, cuyas actuaciones obedecían a sus instintos.

El hombre del naturalismo, estudiaba, y explicaba los hechos y las conductas humanas como
producto de fuerzas físicas gobernadas por las circunstancias que controlan su entorno.

Características del Arte y la literatura


• Es una interpretación artística que intenta demostrar su validez en términos de las ciencias
experimentales.
• Es determinista: el individuo está determinado por el medio en que vive; más aún, se
estudia al hombre como un conjunto de átomos cuyas acciones están determinadas por
necesidades animales. Los personajes son prisioneros de la herencia o del ambiente.
• La técnica es científica: las descripciones naturalistas pretenden reproducir la realidad pero
apoyándose en las leyes que hay detrás de las apariencias y siguiendo los métodos de
observación de las ciencias experimentales.
• Sus temas predilectos: el alcoholismo, la prostitución, el adulterio y la miseria. El autor
hurga con “un bisturí despiadado en las llagas sociales…”
• Predomina la novela: se prefiere la descripción al diálogo. Debido a su brevedad, el cuento
es muy escaso, ya que el escritor necesita mayor
• espacio para comprobar sus teorías, de ahí la preferencia por las novelas-o series de
novelas-cuyos personajes son psicópatas, tarados, alcohólicos, y, en general, seres que
sólo obedecen sus impulsos naturales.

Obras y Autores más representativos:

Francia Género OBRA

Henri Beyle

Realismo Novela Honore de Balzac

Gustave Flaubert

Emile Zola

Naturalismo Novela Edmond Goncourt

Jules Goncourt

Alejandro-Dumas, hijo
Teatro
Hipólito Taine

España

Vicente Wenceslao Querol

Realismo y Naturalismo Poesía Ramón de Capoamor

José María Gabriel y Galán

Manuel Bretón de los Herreros

Drama Ventura de la Vega

Abelardo López de Ayala


Leopoldo Alas

Narrativa Pedro Antonio de Alarcón

Juan Valera

Literatura del modernismo y generación del 98

Periodo que abarca:

MODERNISMO Y GENERACI”N DEL 98

A este periodo del modernismo y generación del 98 se le conoce históricamente, como “el fin de
siglo”, y tiene lugar los últimos años del siglo XIX y principios del XX.

Contexto histórico, político, social:

MODERNISMO

En el aspecto político, al mismo tiempo que hay conflictos en los Balcanes, varios países, como
Italia y Alemania, adquieren su unificación definitiva. Francia, Inglaterra y Bélgica, en Europa, y
Estados Unidos, en América, consolidan su capacidad expansionista y su poderío militar y
económico.

Los avances de la ciencia propiciaron el desarrollo de la técnica y el logro de importantes


descubrimientos, tales como el petróleo y la electricidad. Los progresos de la técnica estaban
dirigidos principalmente a mejorar las máquinas de las fábricas y los medios de comunicación; lo
cual dio como resultado “la segunda revolución industrial”.

La consecuencia de los avances y progresos, fue el desarrollo de la economía capitalista,


iniciándose la era del intercambio comercial mundial.

En el aspecto social, se dio primero: Las migraciones en busca de una vida mejor, tanto de los
campos hacia los centros fabriles como de varios países de Europa hacia América; segundo: En la
población urbana se hace muy marcada la diferencia entre el mundo del proletariado que sólo tiene
la fuerza del trabajo, y el mundo elitista de los políticos y burgueses que, además del dinero, tienen
también el poder.

Generación del 98

A finales del siglo XIX la política en la Península Ibérica está controlada por los conservadores y los
liberales que se alternan en el gobierno. La población se integra en su mayoría por la masa rural,
dominada por los caciques, también existe el proletariado industrial y la aristocracia burguesa. Esta
situación da como resultado la decadencia y el debilitamiento del sistema.

En 1895, se inicia la guerra colonial. Las últimas posesiones españolas, Filipinas, Cuba y Puerto
Rico, luchan por adquirir su independencia, apoyadas por Estados Unidos.

La escuadra española es destrozada en Santiago de Cuba, por lo que España tiene que firmar el
tratado de París en 1898, en el que compromete a abandonar los restos de su antiguo imperio. A
este suceso se le conoce como “el desastre del 98”.
Sucesos económicos:

Se desarrolló una economía capitalista a raíz de los avances y progresos industriales, algunos
hechos de mayor relevancia fueron: La producción en cadena, la ampliación de mercados por
medio del intercambio comercial internacional y el mercado de las materias primas y de los metales
preciosos.

Cosmovisión:

La manera de percibir la realidad en este periodo, se da de dos maneras fundamentales, según los
filósofos que mayor influencia tuvieron: kierkegaard consideraba que la fe cristiana no puede
hallarse por medio de la racionalización, si no con el sentimiento, de igual manera el hombre llega
a conocer a Dios después de conocer su interior. En cuanto a Bergson y Nietzche son vitalistas, es
decir se oponen al racionalismo: la vida es el valor fundamental, el hombre puede convertirse en
superhombre por su propia voluntad; es por la intuición y no por la razón que obtenemos en el
conocimiento directo e inmediato de las cosas. En el modernismo el hombre busca un mundo
nuevo, moderno, audaz y emprendedor.

Características del Arte:

• Se da una renovación a la pintura mediante técnicas impresionistas


• Se trata de reflejar la verdad del objeto a través de la impresión que causa en el artista.
• Mayor importancia de la forma que del contenido
• Musicalidad del lenguaje
• Brillantez sonora y visual
• Artificialidad
• Cosmopolitismo
• Gusto por el lujo
• Frivolidad

Características de la Literatura:

Moderna

El modernismo gozó de los principios del parnaso y simbolismo y se caracterizó por:

• Repudio de lo convencional y dogmático


• Rebeldía contra los convencionalismos sociales.
• Revaloración de la antigüedad indígena.
• Afrancesamiento.
• Cosmopolitismo
• El erotismo como muestra máxima de rebeldía, al cual se oponen en la efusiva religiosidad
y el misticismo.
• El modernismo se inspiro en otras dos escuelas literarias: el Parnaso y el simbolismo. El
parnasianismo, instauró el culto a la perfección formal. El simbolismo persiguió un mundo
profundo y sensible, símbolo o reflejo de la realidad existente.

Por parte de los parnasianos, se tomaron las siguientes características:

• Búsqueda de lo lejano (lo exótico, la antigüedad griega y oriental y la idealización del


pasado).
• La preocupación forma (invención verbal, manejo virtuoso de la lengua e imitación de la
antigua versificación griega, medieval y renacentista.)

En cuanto a las características por parte del simbolismo, encontramos:

• La espiritualidad y religiosidad (concientización de la muerte)


• El aristocratismo, la altivez y el desdén por lo vulgar.
• La musicalidad
• La renovación del verso y la prosa.
• La simbolización

Generación del 98

• Representa un renacimiento al fecundarse el pensamiento nacional con el extranjero que lo


influye a través de Tolstoi, Nietzche, Darío, Verlaine, etc., lo que resulta en su estilo Sui
generis, muy realista o muy refinado.
• Espíritu de protesta y rebeldía que combate los valores tradicionales y se manifiesta en el
abandono de la ampulosidad con el uso de palabras fuertes, áridas y brutales.
• Amor a todo lo auténticamente español como las tradiciones, el espíritu, el paisaje, los
pueblos viejos, el lenguaje, las actitudes.
• Rehabilitación de los artistas primitivos dándoles nuevos valores.
• Románticos en el sentido de amor a España y resucitar a Larra por su modo trágico y
doloroso de verla.
• Esfuerzo por acercarse a la realidad pretendiendo conocer su tierra palmo a palmo; escribir
prosa y poesía pura.
• Estilo electrizante y desarticulado logrado a través de cláusulas pequeñas y sueltas,
resucitando palabras viejas empleadas en un lenguaje flexible y fragmentado para rescatar
al lector del marasmo en que se encuentra.
• Homogeneidad de concientización y formación intelectual de la realidad española
cristalizadas a pesar de las diferencias individuales.

Obras y Autores más representativos:

Francia AUTORES

Parnaso Théophile Gautier


Leconte de Lisle

José María de Heredia

Paul Verlaine

Simbolismo Arthur Rimbaud

Stéphane Mallarmé

Pierre Loti
Post-simbolista
Anatole France

Hispanoamérica

Cuba José Martí

Nicaragua Rubén Darío

Colombia José Asunción Silva

José Enrique Rodó


Uruguay
Julio Herrera y Reissig

Argentina Leopoldo Lugones

Y Perú José Santos Chocano

Manuel José Othón

Salvador Díaz Mirón

Manuel Gutiérrez Nájera

México Luis Gonzaga Urbina

Amado Nervo

José Juan Tablada

Ramón López Velarde

Vanguardismo

Periodo que abarca:

Este periodo abarca la primera mitad del siglo XX. El termino vanguardia se utiliza para designar a
todas aquellas tendencias artísticas que aparecen en la primera mitad de este siglo, y que tienen
como finalidad oponerse a lo anterior, al proponer nuevos conceptos y técnicas.

Contexto histórico, político, social y Económico:


Período pre-bélico: comprende desde los últimos años del siglo pasado hasta 1913, debido al
rápido desarrollo de la industria, varios países, como Inglaterra y Alemania, tuvieron crecimientos
económicos muy significativos.

La Primera Guerra Mundial: duró 4 años, del 28 de julio de 1914 hasta el 11 de noviembre de 1918.
El motivo principal fue el asesinato del archiduque Francisco Fernando en Sarajevo, capital de
Bonia. La guerra terminó cuatro años después, cuando las naciones centrales de Europa
capitularon y Alemania firmó el armisticio, aceptando los catorce puntos propuestos en Versalles.

Periodo entre guerras: Rusia hace una revolución, primero para derrocar al zaraismo y después
para eliminar a Kerenski.

En 1918, Rusia se convierte en República Socialista Federativa Soviética de Rusia y a finales de


1922, ésta se constituye como Unión de Repúblicas Socialistas Soviéticas (URSS).

La segunda Guerra Mundial: Se inició el 1° de Septiembre de 1939, cuando Alemania invadió


Polonia; dos días después, Inglaterra y Francia declaraban la guerra al país germano. Alemania se
rindió oficialmente el 8 de mayo de 1945.

El periodo de la Post-guerra: Se caracteriza por los esfuerzos para organizar mecanismos


encargados de vigilar y mantener la paz, cuyo resultado fue la creación de la ONU, y el inicio de la
Guerra fría, es decir, una situación de desconfianza entre el Este y el Oeste.

Cosmovisión:

El hombre de este periodo, busca romper con todo lo que se había venido dando anteriormente, es
decir, busca entrar en una nueva etapa, que no se hubiera visto antes, y todo eso se puede ver o
percibir en las características del arte de este periodo.

Características del Arte:

El denominador común a estos diferentes proyectos es la necesidad de buscar nuevas formas de


expresión artística y de liberar al hombre de toda traba política, social y religiosa. Entre todas las
vanguardias o “ismos”, las que gozaron de mayor fortuna e incidencia en el continente europeo
fueron el Expresionismo, el Futurismo, el Cubismo, el Dadaísmo y el Surrealismo.

• Expresionismo: postula que el arte tiene que ser creado y debe reflejar la realidad reflejada
por la subjetividad del artista.

• Futurismo: Su objetivo básico es el rechazo al naturalismo. La finalidad del arte es reflejar


el movimiento de la realidad; pero de una realidad reconstruida o deformada por el artista
expresionista. Su tema central es la adoración de la máquina como instrumento
multiplicador de los poderes del hombre.
• El Cubismo: Autonomía de la obra de arte, la cual debe expresar lo esencial de la realidad
a través de la simultaneidad.
• El Dadaísmo: Dadá no pretende dirigirse hacia el futuro, si no que es un punto de llegada
al romper con el pasado. El dadaísmo conlleva en su seno el nihilismo, la duda, el
terrorismo y la muerte.
• El surrealismo: Pretende construir. Su objetivo es captar lo esencial de la realidad,
entendiendo por tal el inconsciente, es decir, el funcionar del pensamiento sin la presión
vigilante de la razón. Se interesa por estudiar los mecanismos del inconsciente porque
considera que la expresión de éste es la esencia misma del arte. En la pintura se opone al
abstraccionismo. Entre sus temas se encuentran los llamados antisentimentales, la
crueldad y el amor.

Características de la Literatura:

• Antirrealismo y la autonomía del arte (poesía pura)


• Irracionalismo:

Abundancia de IMÁGENES SORPRENDENTES por la asociación atrevida e insólita y la mayor


parte de las veces irracional, es decir, puramente emocional. El irracionalismo afecta a todos los
recursos expresivos: comparaciones, metáforas, personificaciones, sinestesias...

- Experimentación estética:

Se llega a concebir el poema como un objeto visual, de ahí la importancia de la distribución en el


espacio de palabras y frases.

Propuestas de abolición de los signos de puntuación. Búsqueda de nuevas formas poéticas como
el verso libre, ideal para transmitir las asociaciones libres.

Obras y Autores más representativos:

Francia AUTORES

La nueva Revista André Gide

(Cuento, Novela y Poesía Sidonie Gabrielle Claudine Colette

Paul Claudel

Neohumanismo Marcel Proust

(Poesía y novela) Jean Moreas

Jean Giraudoux

André Breton

Tristán Tzara
Surrealismo
Jean Cocteau

Louis Aragon

Alemania

Expresionismo Georg Kaiser

(Drama) Ernst Toller


Stefan George

Los Nuevos Líricos Reiner María Rilke

Hugo von Hofmannsthal

Hermann Hesse

Novela Franz Kafka

Emil Luswig

Literatura contemporánea

Periodo que abarca:

Este periodo a partir de la segunda mitad del siglo XX se presenta en un ambiente de intranquilidad
y protesta, debido a las circunstancias del momento.

Contexto histórico, político, social y Económico:

Hacia la mitad del siglo XX, se inicia el declive del dominio político europeo, la URSS y Estados
Unidos surgen como superpotencias que polarizan el mundo económico, militar, ideológico y
cultural.

Al término de la 2da. Guerra Mundial, la URSS se separa de los aliados y en torno suyo aglutina el
Bloqueo del Este, al cual encierra detrás de la llamada “Cortina de hierro”.

Las naciones occidentales de Europa y Estados Unidos organizan el Tratado del Atlántico Norte, la
OTAN.

Se inicia una campaña de descolonización y de nacionalismo; se fomentan los movimientos bélicos


para reclamar su independencia; la mayoría de ellos la obtiene, pero algunos tienen que seguir
luchando al darse cuenta que fueron engañados por sus libertadores quienes los hicieron pasar de
un tipo de opresión a otro más deprimente.

La guerra Indo-Pakistaní; El nacimiento de Israel, con su obligada consecuencia “La guerra árabe-
israelí”; el problema de la Federación Indochina que culminó con los estados independientes de
Laos y Camboya y la división de Vietnam; El conflicto coreano; La nacionalización del Canal de
Suez, que provocó la guerra entre Egipto; Francia e Inglaterra; La revolución cultural china; La
crisis de los misiles en el Caribe, Etc…

En cuanto al campo de la ciencia en esta parte del siglo XX, lo que mejor lo caracteriza son las
investigaciones que se refieren al átomo, a las computadoras y a la astronáutica. Otro avance de la
técnica es la aplicación de la energía atómica.

La exploración espacial también ha tenido éxitos espectaculares. En 1957, la URSS puso en órbita
el primer satélite artificial de la Tierra, llamado Sputnik. En Febrero de 1958, Estados Unidos inicia
su desarrollo espacial y once años después, el 21 de Julio de 1969, Neil Armstrong sale de Cabo
Kennedy a bordo del Apolo XI, y se convierte en el primer hombre que llega a la Luna.
En esta época se vive con más temores que anteriores, ya que estamos propicios a caer en
problemas sociales como: La drogadicción, favorecida por quienes ambicionan riqueza y control;
Los movimientos de liberación nacional, lo cuales enrolan víctimas con promesas ilusorias; El
empobrecimiento continuo del asalariado; El terrorismo internacional y local que con tal de lograr
sus objetivos, no duda en recurrir al secuestro y la muerte de cualquier inocente.

Cosmovisión:

El hombre de nuestros tiempo vive más preocupado quizás, que el hombre de la antigüedad,
porque sus miedos, ya no son a decir lo que siente, si no a que si lo dice, puede ser presa de un
secuestro, o de la misma drogadicción que cada ves va en decremento, debido que el salario de
los empleados se va empobreciendo, sienten la necesidad de hacerse dependientes de algún tipo
de vicio, según ellos para olvidar muchos de los problemas que cada uno como persona acarrea en
la vida.

Características del arte y Literatura:

Es difícil precisar las características de la literatura actual, ya que muchos de estos son
continuación de las anteriores, así que para hacer una diferenciación, se dividirá en dos:
Tendencias de continuidad y Tendencias nuevas.

Tendencias de continuidad:

• Análisis interno de las motivaciones de los caracteres, como la sexualidad, los complejos y
las neurosis.
• En la manifestación externa de la obra-argumento, descripciones, estilo-los escritores se
afilian al realismo, en virtud de que pretenden retratar objetivamente la problemática
planeada.
• Tratan conflictos morales desde el punto de vista psicológico.
• Analizan internamente las motivaciones de los personajes y su influencia en quienes los
rodean, sin importar el contenido de la obra o la técnica usada para presentarlo.

El humanismo literario se caracteriza por:

• Aborda ideas de amistad, altruismo y hermandad entre los hombres, especialmente con los
débiles.
• Abandera los movimientos que defienden los derechos civiles y los principios de libertad y
justicia.
• Rechaza el capitalismo y favorecen el liberalismo económico.
• Desmanda mayores derechos y privilegios para el hombre.
• Repudia los favoritismos, el chambismo, las corruptelas y los beneficios alcanzados a
través de cargos de administración pública.
• Pugna por la revisión de las estrategias económicas y políticas de los Estados modernos.
• Favorece vigorosamente los movimientos tanto pacifistas como ecologistas.

Tendencias nuevas:
• El tema principal de la obra literaria es el hombre concreto, existiendo con sus situaciones
límite y la consecuente angustia.
• El hombre no es parte de la sociedad, sino que ésta pertenece al ser del individuo, de
manera que lo social se lleva como una carga.
• La libertad no es una prerrogativa de lo humano, sino una obligación o una necesidad.
• El hombre es y será siempre un ente inacabado porque continuamente se está haciendo y
con este quehacer de proyecto se enfila hacia la muerte.

Obras y Autores más representativos:

Francia AUTORES

Jean Anouilh
Teatro
Eugene Ionesco

André Malraux

Novela Francois Mauriac

André Maurois

Alain Robbe-Grillet
La nueva novela
Claude Simon

Jean-Paul Sartre
Existencialismo
Albert Camus

Italia

Giuseppe Ungarentti

Poesía Pura Eugenio Montale

Salvatore Quasimodo

Guido Piovene

Narrativa Alberto Moravia

Italo Calvino

BOOM LATINOAMERICANO

Periodo que abarca:

Este periodo se inicia con el padre y maestro del “Boom” latinoamericano, lo cual se hacer
referencia a la sorpresa del mundo occidental cuando se leyeron las obras de Rulfo, Fuentes,
Cortázar, Paz, Vargas Llosa, Carpentier, García Márquez.
Contexto histórico, político, social y Económico:

Antes de 1940 dominaba el movimiento literario llamado Regionalismo en el que se planteaban los
problemas económicos y políticos del país y de la región. Con el auge de las ciudades vino el
Cosmopolitismo que muestra la problemática urbana, enfoca su atención en lo filosófico, moral y
sicológico porque trabaja con la tensión de los habitantes de las grandes metrópolis.

La producción literaria del siglo XX resulta variada porque toma elementos del Cubismo, el
Existencialismo, el Neorrealismo, el Realismo Mágico, el Experimentalismo y el Boom
Latinoamericano. Borges es el jefe del Cosmopolitismo y la Fantasía porque fue el iniciador de una
literatura en la que se fabrican mundos y se atraviesa por laberintos de tiempo y de espacio.

“No es un movimiento literario en sí mismo. Es la sorpresa del mundo occidental cuando se leyeron
las obras de Rulfo, Fuentes, Cortázar, Vargas Llosa, Carpentier, García Márquez, encabezados por
la innegable calidad de Borges, quien, sin pertenecer a la misma generación, infundió en estos
escritores el espíritu riguroso del oficio de escritor. Estos escritores toman lo que conviene de cada
movimiento y aportan novedades creando obras en donde conviven Romanticismo, Naturalismo,
Barroco, vuelven a lo clásico y sobre todo, adoptan una nueva conciencia profesional. Sus temas
constantes son: la fusión de lo real, lo ideal y lo fantástico, urgencia de crear una literatura
distintiva; ajuste de su producción al avance de las comunicaciones; solución de problemas
morales, sicológicos y sociales; mezcla de técnicas, incluso de televisión, radio, cine, comic, teatro,
dibujo, creatividad publicitaria, etc.”

Cosmovisión:

En esta parte de la historia me referiré más acerca de la forma de ver el mundo de los escritores,
que fueron quienes iniciaron este movimiento, que más que literario, fue revelación a escribir
acerca de los movimientos que antes se mencionan, retomando el romanticismo, naturalismo,
barroco, vuelven a lo clásico, pero sobre todo adoptan una nueva conciencia profesional. En
general los poetas actuales prefieren volver los ojos a su intimidad que manifestarse a favor de
alguna ideología.

Características del arte y la Literatura:

El Ultraísmo

“Movimiento literario español de vanguardia desarrollado entre 1918 y 1922 año en que deja de
publicarse la revista Ultra, neologismo tomado por Cansinos-Assens para titular un manifiesto en el
que se enuncia el propósito fundamental del grupo: Abandonar las técnicas de expresión poéticas
del modernismo decadente y crear un arte nuevo, abierto a los movimientos de vanguardia
europeos. Los iniciadores de este movimiento, aparte de Cansino-Assens, son Gerardo Diego y los
argentinos Jorge Luis Borges y González Lanuza.

El creacionismo

El Creacionismo es una versión americana del Ultraísmo español. El Creacionismo fue patrocinado
por el poeta chileno Vicente Huidobro. Como ejemplo se puede presentar su poema “Arte poética:”

La Literatura Fantástica

“La Literatura Fantástica Latinoamericana es una de las corrientes narrativas más notables, de
mayor arraigo y proyección en el mundo literario. Lo fantástico coincide con la liquidación o el
descrédito del positivismo, de la razón y de la lógica como únicos medios de aprehender la
realidad. El surrealismo y en cierta medida todos los movimientos de vanguardia rompen la fórmula
tradicional anulando la represión de la forma en busca de una total libertad.

El Realismo Mágico

Realismo mégico y lo Real Maravilloso de Márquez y Carpentier constituye la fórmula narrativa


bajo la cual se ha pretendido singularizar la narrativa actual. El nombre “realismo mágico” fue
creado por Franz Roh en 1925 a propósito de una corriente pictórica alemana posexpresionista que
surge como una reacción a los excesos de este movimiento.

Escritor Obras

Conrado Nalé El pacto de Cristina

Enrique Buenaventura En la diestra de Dios Padre

Egon Wolf Los invasores

Carlos Solórzano Las manos de Dios

Sebastián Salazar Amor

Franklín Domínguez El último instante

Mario Benedetti Ida y vuelta

Ciencias naturales
Las ciencias naturales son ciencias que tienen por objeto el estudio de la naturaleza. Las ciencias
naturales estudian los aspectos físicos y no humanos del mundo.

Como grupo, las ciencias naturales se distinguen de las ciencias sociales, por un lado, y de las
artes y humanidades por otro.

El término ciencia natural es también usado para diferenciar entre "ciencia" como una disciplina
que sigue el método científico, y "ciencia" como un campo de conocimiento en general, como vg.
ciencias de la computación, o incluso "la ciencia de la teología".

Ciencias naturales
Astronomía, el estudio de los objetos celestes y fenómenos que suceden fuera de la atmósfera
terrestre.
Biología, el estudio de la vida:
Botánica
Ecología, el estudio de las relaciones entre los seres vivos y el entorno.
Zoología
Ciencias de la Tierra, el estudio de la Tierra:
Geología
Geografía
Ciencia del suelo
Física, el estudio de los constituyentes últimos del universo, las fuerzas e interacciones y las
relaciones entre éstas.
Química, el estudio de la composición, propiedades y estructura de las sustancias y de las
transformaciones que sufren
• Física
Es la ciencia natural cuyo objeto es el estudio de los fenómenos en los que no cambia la
composición (naturaleza íntima) de las sustancias que intervienen en ellos.

Cuando la composición se modifica y las sustancias se convierten en otras, no se trata de un


fenómeno físico sino de un fenómeno químico.
Es comparar con una unidad patrón previamente elegida.
Sistemas de unidades
Las diferentes unidades de la Física suelen, en muchos casos, agruparse en 3 sistemas
principales:
• el sistema cgs (o de Gauss): apto para las mediciones habituales de laboratorio. Su
nombre proviene de las iniciales de las unidades fundamentales que utiliza: cm (-
centímetro - para el espacio), g (- gramo - para la masa) y s (- segundo -
para el tiempo).
• el sistema MKS: apto para medición de dimensiones mayores. Su nombre también
proviene de las unidades fundamentales que utiliza: m (- metro - para el espacio), kg (-
kilogramo - para la masa) y s (- segundo - para el tiempo).
• el sistema técnico: utilizado en ingeniería porque toma como unidad fundamental el Kg
fuerza y no el kg masa.
Unidades de espacio:

El espacio (distancia entre 2 puntos) tiene como unidad patrón internacional el METRO.

Un METRO era, inicialmente (1889), la diezmillonésima parte de la longitud del cuadrante terrestre
que va desde el Polo Norte hasta el ecuador, pasando por París. Esa unidad se registró colocando
dos marcas sobre una barra de Platino-Iridio.

Las dificultades que originaba la reproducción de esa medida hicieron que en 1960 se definiera al
METRO como 1.650.763,73 veces la longitud de onda de la luz anaranjada emitida por el Kriptón-
86 encerrado en gas Kriptón cuando se lo somete a una descarga eléctrica. Tampoco era sencilla
de reproducir.

En 1983 se redefinió el METRO como la distancia recorrida por la luz en el vacío en 1/299.792.456
segundos (1/c, donde c es la velocidad de la luz en el vacío).

Es la unidad de espacio en los sistemas MKS y técnico.

Algunos múltiplos del METRO (m) son:


• el decámetro (Dm o dam) = 10 m = 101 m
• el hectómetro (hm) = 100 m = 102 m
• el kilómetro (km) = 1.000 m = 103 m
Algunos submúltiplos del METRO (m) son:
• el decímetro (dm) = 0,1 m = 10-1 m
• el centímetro (cm) = 0,01 m = 10-2 m (unidad de espacio en el sistema cgs).
• el milímetro (mm) = 0,001 m = 10-3 m
• el micrón (micra) = 1 milésima de mm = 10-6 m
• el milimicrón (milimicra) = 10-9 m
• el ángstrom = 10-10 m
Para las medidas de superficie se utiliza como unidad el METRO CUADRADO
y las conversiones se realizan elevando al cuadrado los factores vistos para las unidades de
espacio.

Para las medidas de volumen se utiliza como unidad el METRO CÚBICO


y las conversiones se realizan elevando al cubo los factores vistos para las unidades de espacio.

Unidades de tiempo:

El tiempo tiene como unidad patrón internacional el SEGUNDO.

Hasta 1960, un SEGUNDO era la 86.400 ava parte de 1 día solar medio.

A partir de esa fecha, un SEGUNDO es el tiempo durante el cual se efectúan 9.192.631.770


transiciones del Cesio-133 entre sus dos estados más bajos de energía.

Es la unidad de tiempo en los sistemas cgs, MKS y técnico.

Algunos múltiplos del SEGUNDO (s) son, en sistema sexagesimal (Babilonia):


• el minuto = 60 s
• la hora = 60 min = 3.600 s
Algunos submúltiplos del SEGUNDO (s) son, en sistema decimal:
• 1 milisegundo = 10-3 s
• 1 microsegundo = 10-6 s
• 1 nanosegundo = 10-9s

Unidades de masa:

La masa es, en realidad, una medida de la "inercia", es decir, de la tendencia de un cuerpo a


mantener su estado de movimiento en magnitud y en dirección. Está relacionada con la cantidad y
calidad de átomos que lo forman. En condiciones normales es considerada como constante,
aunque la teoría de la relatividad (Einstein) permite demostrar que varía con la velocidad con que
se mueve (importante solamente para velocidades cercanas a la de la luz).

La unidad internacional de masa es el KILOGRAMO patrón, que es la masa de un cilindro de


Platino-Iridio que se guarda en Sèvres (Francia).

Es la unidad de masa en el sistema MKS.

Algunos múltiplos y submúltiplos del KILOGRAMO MASA (kg) son:


• la tonelada métrica = 103 kg
• el gramo = 10-3 kg (unidad de masa en el sistema cgs).
• el miligramo = 10-6 kg
• la uma (unidad de masa atómica) = 1,66 x 10-27 kg
• la UTM (unidad técnica de masa o unidad de masa en el sistema técnico) = 9,8 Kg

Unidades de velocidad:

Se denomina "velocidad" de un cuerpo en movimiento a la relación entre el espacio recorrido y el


tiempo empleado. (v = e/t). Es una medida de la variación de la posición de un cuerpo con el paso
del tiempo.

Las unidades de velocidad surgen de la relación (razón o cociente) entre las unidades de espacio y
las de tiempo.
Algunas de las más utilizadas son:
• el centímetro por segundo (cm/s) (unidad de velocidad en el sistema cgs).
• el metro por segundo (m/s) (unidad de velocidad en los sistemas MKS y técnico).
• el kilómetro por hora (km/h)
• las revoluciones (vueltas) por minuto (RPM)
De allí surgen fácilmente relaciones tales como:
• 1 m/s = 102 cm/s
• l km/h = 1/3,6 m/s
• 1 m/s = 3,6 km/h

Unidades de aceleración:

Se denomina aceleración a la variación de una velocidad en magnitud, sentido o dirección. Es, por
tanto, la variación de una variación, ya que la velocidad es una medida de la variación de la
posición de un cuerpo con el paso del tiempo. a = v/t = (e/t)/t = e/t2

Las unidades de aceleración surgen de la relación (razón o cociente) entre las unidades de espacio
y las de tiempo, estas últimas elevadas al cuadrado (solamente por razones matemáticas, pues el
concepto de "tiempo al cuadrado" no existe). Algunas de las más utilizadas son:
• el centímetro por segundo al cuadrado (cm/s2) (unidad de aceleración en el sistema cgs).
• el metro por segundo al cuadrado (m/s2) (unidad de aceleración en los sistemas MKS y
técnico).
• el kilómetro por hora al cuadrado (km/h2)

Unidades de fuerza:

La presencia de una fuerza solamente puede apreciarse por sus efectos. Es la causa que puede
modificar el estado de movimiento (magnitud y/o dirección) de un cuerpo. Cuando a un cuerpo se
le aplica una fuerza se modifica su estado de inercia (tendencia a conservar su estado de
movimiento). Ambas circunstancias pueden unificarse diciendo que cuando a un cuerpo se le aplica
una fuerza (causa) se genera una aceleración (efecto).

De la 2da. ley de Newton, que define aceleración como la razón entre la fuerza aplicada y la masa
que recibe esa fuerza (a = F/m) puede deducirse la fuerza como el producto de la masa por la
aceleración (F = m . a) y de allí se obtiene:
• en el sistema cgs: g cm/s2 , que recibe el nombre de "dina" (Din) (término que, en griego,
significa "fuerza").
• en el sistema MKS: kg m/s2 , que recibe el nombre de "Newton" (N) (en homenaje al
científico inglés).
En el sistema técnico, la unidad de fuerza es una unidad fundamental (no derivada de otras),
el Kg fuerza, que es el peso del Kg masa patrón guardado en Sèvres, medido a nivel del mar y a
45º de latitud.

De allí se obtiene la unidad de masa en el sistema técnico (UTM) deduciendo que:

m = F/a y por tanto será kg/(m/s2), es decir, kg s2/m

La aceleración que relaciona el Peso (fuerza con que la Tierra atrae a una masa)
con esa masa atraída (medido a nivel del mar y a 45º de latitud)
es la llamada "aceleración de la gravedad" (g) y tiene un valor de 9,8 m/s2.
Podemos establecer así que:

Peso = masa . g

**** Nota importante:


No confundir kg (masa) con Kg (fuerza).
Son unidades de dos magnitudes diferentes.
La única relación que tienen es que l Kg (fuerza) es la fuerza
con que la Tierra atrae 1 kg (masa) a nivel del mar y a 45º de latitud.

Por tanto, pueden establecerse las relaciones entre las unidades en los distintos sistemas:
• l Kg (fuerza) = 9,8 N
• 1 N = 1/9,8 Kg (fuerza)
• 1 N = 105 Din
• 1 Din = 10-5 N
Unidades de trabajo:

Se denomina "trabajo" (W - por "work" en inglés o "Werk" en alemán) a la medida de uno de los
efectos posibles de la aplicación de una fuerza: el desplazamiento de un cuerpo, es decir, su
cambio de posición.

"Una fuerza realiza trabajo cuando hay desplazamiento del cuerpo sobre el cual se aplica. La
fuerza debe contribuir al movimiento." (Prof. Armando Villamizar V.- M.D.U. Univ. de Los Andes -
Colombia)

Las unidades de trabajo se obtienen multiplicando la fuerza aplicada por la distancia recorrida:
W=F.e
de donde:
• en el sistema cgs: Din . cm, que recibe el nombre de "ergio" (erg) (por "energía" en griego).
• en el sistema MKS: N . m, que recibe el nombre de "Julio" (J) (en honor al científico francés
Joule).
• en el sistema técnico: Kg (fuerza) . m (Kgrm), que recibe el nombre de Kilográmetro.
Como la energía es la capacidad de producir trabajo,
también pueden usarse las unidades de trabajo como unidades de muchos tipos de energía,
especialmente la energía mecánica (cinética y potencial).

Como el llamado "momento" de una fuerza,


utilizado en el caso de las rotaciones alrededor de un punto (palancas, balanzas, etc.),
es el producto de una fuerza por la distancia que la separa del punto alrededor del cual rota,
también las unidades de trabajo se utilizan como unidades de momento.

Unidades de potencia:

Se conoce como "potencia" la eficiencia de una fuerza para realizar un determinado trabajo,
es decir, la cantidad de trabajo realizado por unidad de tiempo:

P = W/t

Algo o alguien es más "potente" cuando puede realizar más trabajo en la unidad de tiempo,
o tarda menos tiempo para realizar el mismo trabajo.
Es una medida de la rapidez con que se efectúa un trabajo.

Las unidades se obtienen de la fórmula recién expresada:


• en el sistema cgs, la unidad de potencia es el erg/s.
• en el sistema MKS, la unidad de potencia es el J/s, conocida como "Vatio" (W) (en honor al
científico inglés Watt).
• en el sistema técnico, la unidad de potencia es el Kgrm/s.
• en Inglaterra y otros países de origen británico, se utiliza la libra-pie/s.
• un múltiplo importante y muy usado es el kW (kilovatio), equivalente a 1.000 W.
• también la potencia se expresa en HP (caballos de fuerza - ingleses), equivalentes a 76,6
Kgrm/s, o en CV (caballos vapor - franceses), equivalentes a 75 Kgrm/s.

El concepto de Energía:

La energía es, a nuestro entender, el principio y el fin del universo que conocemos.
De la energía proviene la masa (que Lavoisier llamaba "materia")
y el destino de toda masa es convertirse nuevamente en energía.

La energía como tal, más la masa


(energía concentrada de modo de estar ocupando un lugar en el espacio, es decir, en el resto de la
energía), conforman la "materia"
(el "Todo", en oposición a la "Nada").

Todo ocurre en el Universo bajo un principio: reducir la energía de un sistema.


Por ello los cuerpos caen, el agua caliente se enfría, etc.
Hay una especialidad de la Física (llamada "Termodinámica")
que brinda interesantes explicaciones sobre esto.

La energía se nos presenta en formas muy variadas:


mecánica, térmica, eléctrica, luminosa, atómica, etc.
Aquí solamente vamos a referirnos a la ENERGÍA MECÁNICA.

Existen 2 formas de energía mecánica:


• la energía potencial: que depende de la posición que ocupa un cuerpo (por ejemplo, la
altura a la que se encuentra). En general su fórmula es: Ep = m . g . h (donde m = masa,
g = aceleración de la gravedad, y h = altura).
• la energía cinética: debida al movimiento que realiza en ese momento (en realidad, de la
velocidad del mismo). En general su fórmula es : Ec = m . v2 (donde m = masa, y v =
velocidad).
La Energía Mecánica Total es la suma de ambas y es generalmente constante.

EMT = Ep + Ec

Como dijimos antes, las unidades de estas energías son las mismas que las del trabajo, ya que
"la energía es una medida de la capacidad de producir trabajo".

Mecánica
Partes de la Física Mecánica:

En función del objeto de su estudio, podemos dividir la Física Mecánica en tres partes o ramas:
• Estática: es la parte de la Mecánica que estudia las fuerzas que actúan en un sistema sin
tener en cuenta los efectos que su acción provoca.
• Dinámica: es la parte de la mecánica que estudia los efectos provocados por las fuerzas,
fundamentalmente los cambios en la dirección y/o magnitud de las velocidades. Estos
cambios se denominan "aceleraciones". Aquí introdujo Newton sus principios
fundamentales: el de inercia, el de masa y el de acción y reacción.
• Cinemática: es la parte de la mecánica que estudia los movimientos, generalmente sin
tener en cuenta ni las fuerzas que los provocan ni las masas sobre las que actúan.
Por qué las fuerzas se representan por vectores

Una fuerza queda definida cuando se expresan:


1. Su dirección: la recta sobre la que actúa.
2. Su sentido: la semirrecta de esa recta sobre la que actúa (sentido + ó sentido -).
3. Su punto de aplicación: el punto en el cual se puede considerar aplicada.
4. Su intensidad: su módulo (cantidad) (en una unidad determinada: Kg fuerza, Newton, etc.)
En Geometría, definimos:
• como "recta", una sucesión infinita de puntos alineados sin principio ni fin,
• como "semirrecta", una sucesión infinita de puntos que tiene un origen o comienzo pero no
tiene fin,
• como "segmento", una sucesión finita de puntos que tiene un origen y tiene un fin, y
• como "vector", un segmento orientado (hacia un extremo del segmento o hacia el opuesto).
Por tanto, un vector queda definido cuando se expresan:
1. Su dirección: la recta sobre la que actúa,
2. Su sentido: su orientación hacia un extremo o hacia el opuesto,
3. Su punto de aplicación: el punto en el cual tiene su origen,
4. Su medida (en una unidad determinada: m, cm, etc.)
Si comparamos qué elementos necesita una fuerza para quedar definida,
y qué elementos necesita un vector para quedar definido,
vemos que son prácticamente los mismos, o, al menos, podemos hacerlos equiparables.
Por esta razón,
las fuerzas
(elementos naturales que solamente son detectables y medibles por sus efectos estudiados por la
Física)
se suelen representar gráficamente mediante vectores
(elementos artificiales creados y estudiados por la Geometría).

En definitiva, las fuerzas no son vectores ni los vectores son fuerzas.


La fuerza es una magnitud vectorial porque requiere los mismos elementos que un vector
y, además, éste permite representarla gráficamente sobre un papel en la recta, en el plano o en el
espacio.

Las magnitudes que quedan definidas con solamente expresar su magnitud


se denominan "escalares", por ejemplo la masa, el volumen, etc.

Composición de fuerzas

Varias fuerzas casi siempre pueden "componerse",


es decir, reemplazarse por una única fuerza llamada "resultante"
cuyos efectos sean los mismos que producían aquéllas.
Existen varias posibilidades típicas que mencionaremos pero que no desarrollaremos en este
trabajo.

a) fuerzas sobre una misma recta de acción (con igual dirección o "colineares"):
• con el mismo sentido: la fuerza resultante tiene la misma dirección y sentido que las
fuerzas componentes, su punto de aplicación es cualquiera de los de su recta de acción y
su medida es la suma de las medidas de las componentes.
• con sentido opuesto: la fuerza resultante tiene la misma dirección que las fuerzas
componentes, su sentido es el de la componente mayor, su punto de aplicación es
cualquiera de los de su recta de acción y su medida es la diferencia de las medidas de las
componentes.
b) fuerzas concurrentes (con el mismo punto de aplicación):

En el caso de sólo dos fuerzas componentes,


la resultante se obtiene gráficamente por aplicación de la llamada "regla del paralelogramo"
o, en caso de tratarse de más de dos fuerzas concurrentes,
por la construcción de un polígono con ellas.

La medida de la resultante no es la suma de las medidas de las componentes sino su


"composición",
en la que influyen la dirección y el sentido de cada una de las componentes.

Del mismo modo, la unión del punto de aplicación con el extremo final de la última fuerza
nos indicará la dirección y el sentido de esa resultante.

En realidad, y como ya hemos dicho,


no estamos gráficamente resolviendo un sistema de fuerzas
sino un sistema geométrico con los vectores que las representan.

También en útil representar las fuerzas en un sistema de coordenadas cartesianas ortogonales,


proyectar las fuerzas sobre ambos ejes para obtener sus valores sobre cada uno de ellos,
y luego, aplicando el teorema de Pitágoras, encontrar el valor de la resultante,
y, usando la trigonometría, su dirección y sentido.

c) fuerzas paralelas:
• con el mismo sentido: la resultante tiene una medida igual a la suma de las medidas de las
componentes, su dirección es paralela a las de las componentes (ubicada entre ellas y
más cerca de la mayor), y su sentido es el mismo que el de aquéllas. El punto de
aplicación se determina mediante la llamada "relación de Stevin" que dice que "cada fuerza
es directamente proporcional al segmento determinado por los puntos de aplicación de las
otras fuerzas". Puede aplicarse también el método gráfico llamado "del funicular".Ver con
más detalle estos métodos en cualquier texto o trabajo especializado.
• con sentido opuesto: la resultante tiene una medida igual a la resta de las medidas de las
componentes, su dirección es paralela a las de las componentes (ubicada no entre ellas
sino por fuera, del lado de la mayor), su sentido es el de la componente mayor. El punto de
aplicación también se determina mediante la "relación de Stevin".
d) fuerzas no colineares ni concurrentes ni paralelas: existe siempre algún procedimiento aplicable
al sistema dado que generalmente procurará trasladar las fuerzas componentes hasta asimilarlas
parcial o totalmente a cualquiera de los casos vistos.

Efectos de la aplicación de fuerzas

Las fuerzas son causas que solamente se ven a través de sus efectos.
En Mecánica, una fuerza tiene como efecto la modificación del estado de movimiento del cuerpo
sobre el que se la aplica. Y hemos llamado "aceleración" a esa modificación del movimiento (esto
es, la variación de la velocidad y/o de la dirección de movimiento de un cuerpo).

Es necesario aplicar una fuerza solamente cuando se busca modificar la magnitud o dirección de
una velocidad.

Si un cuerpo está quieto


o moviéndose a velocidad constante sobre una trayectoria rectilínea,
la resultante de las fuerzas que se ejercen sobre él es cero (resultante nula).

Este principio es el que Newton elaboró y llamó "principio de inercia".

Quizá sea el resultado de que el Universo intenta mantener su energía constante salvo que pueda
disminuirla mediante algún fenómeno espontáneo (por ejemplo, la caída de un cuerpo, la formación
de un compuesto químico más estable, etc.).

"Todo cuerpo continúa en su estado de reposo o de movimiento uniforme sobre una línea recta,
a no ser que se le obligue a variar ese estado mediante fuerzas que actúen sobre él."
(1686 - Principios matemáticos de filosofía natural).

Cuando aplicamos una fuerza sobre un cuerpo,


le creamos una aceleración
directamente proporcional a la intensidad de la fuerza que aplicamos
e inversamente proporcional a la masa de ese cuerpo.

Este principio también fue desarrollado en parte por Newton


y lo conocemos como "principio de masa".

a=F/m

"La ley de variación del movimiento


es proporcional a la fuerza motora a que se le somete
y se realiza en el sentido de la recta en que la fuerza actúa."
(1686 - Principios matemáticos de filosofía natural).

Siempre que un cuerpo ejerce una fuerza sobre otro (acción),


recibe de él otra fuerza de igual intensidad pero de sentido contrario (reacción).

Esta conclusión, fruto de la fina observación de Newton y de su espíritu científico de razonamiento,


le permitió establecer este "principio de acción y reacción".

"A toda acción se opone siempre una reacción igual;


o sea, las acciones mutuas de dos cuerpos uno sobre el otro
se dirigen siempre hacia las partes contrarias."
(1686 - Principios matemáticos de filosofía natural).

Estos principios son el fundamento de la parte de la Física Mecánica que conocemos como
"Estática".

Fuerzas de fricción

Como en la vida práctica ninguna superficie es perfectamente lisa, las fuerzas que se aplican sobre
un cuerpo para iniciar o mantener su movimiento no tienen una eficiencia del 100%.
Esto se debe a la aparición de las fuerzas llamadas "de fricción" que se oponen a esos
movimientos.
Pueden ser producidas por rozamiento (en sólidos que se deslizan sobre sólidos), por rodadura (en
sólidos que ruedan sobre sólidos), o por viscosidad (sólidos, líquidos o gases que atraviesan otros
líquidos o gases).

El sentido de las fuerzas de fricción es siempre opuesto al sentido del movimiento.

Existen dos situaciones que afectan el valor de las fuerzas de rozamiento.

Un caso se da cuando intentamos iniciar un movimiento


y otro cuando, luego de iniciado, intentamos mantenerlo.

a) rozamiento estático: como tuve el privilegio de que me fuera explicado por el eminente físico de
la UNLP Dr. Rafael Grinfeld allá por 1963 y jamás se me olvidaron (ni su explicación ni él), cuando
un cuerpo rugoso es apoyado sobre otro cuerpo rugoso, las irregularidades de uno "calzan" en las
irregularidades del otro. Es más: si ambos cuerpos son metálicos, el peso del superior provoca que
las eminencias de ambos lleguen a soldarse (microsoldaduras). Al intentar iniciar un deslizamiento,
se hace necesario "descalzar" un cuerpo del otro produciendo la ruptura de sus puntos más
salientes y, si existieran, también la ruptura de esas microsoldaduras. Esto hace que el rozamiento
estático tenga un valor inicial mayor que el que se produce cuando ya el cuerpo está en
movimiento. El cociente entre la fuerza de rozamiento estático y la fuerza normal o perpendicular
(compresión de un cuerpo sobre el otro) se denomina "coeficiente de rozamiento estático".

b) rozamiento dinámico: una vez iniciado el movimiento, disminuye un poco la fuerza de


rozamiento, pues ya no existe esa adherencia inicial. El cociente entre la fuerza de rozamiento
dinámico y la fuerza normal se hace menor, y se denomina "coeficiente de rozamiento dinámico".

Los lubricantes cumplen la función de disminuir ambas fuerzas de rozamiento, generalmente


intercalando capas líquidas o pastosas que convierten el fenómeno de rozamiento en un fenómeno
de viscosidad, con fuerzas de fricción significativamente menores y, por tanto, mayor eficiencia en
el movimiento obtenido.

Otras veces, cuando se trata de automóviles (cuerpos que se mueven "por sí mismos", tales como
vehículos con motor o personas caminando), la eficiencia estará en relación con un mayor
rozamiento (el de los neumáticos contra el pavimento o el de las suelas de los zapatos contra el
piso, por ejemplo). Aquí se buscará aumentar el coeficiente de roce incrementando la rugosidad o
utilizando materiales tales como el caucho que tengan alta adherencia a otros.

¿"En equilibrio" o "en reposo"?

Tomémonos un par de minutos para diferenciar con mayor claridad estos conceptos.

equilibrio: implica aceleración = cero, lo que puede darse en un cuerpo en reposo o en otro que se
mueva con velocidad uniforme sobre una trayectoria rectilínea.

reposo: implica velocidad = 0, lo que solamente puede darse en un cuerpo quieto (al menos, sin
desplazarse con respecto de otro que consideremos fijo).

Un cuerpo puede estar en equilibrio sin estar en reposo: por ejemplo, si se está moviendo con
velocidad constante sobre una trayectoria rectilínea.

Un cuerpo puede estar en reposo sin estar en equilibrio: por ejemplo, un cuerpo lanzado hacia
arriba que llega al punto máximo de su trayectoria y se detiene, pero que está siendo afectado por
la fuerza de gravedad que lo hará iniciar su caída libre.
Centro de gravedad y Centro de masa

Todo cuerpo tiene un volumen, es decir, ocupa un lugar en el espacio. Sin embargo, en la Física
Mecánica básica jamás lo mencionamos. Los cuerpos, para nosotros, son siempre puntos que no
tienen ni largo ni ancho ni alto, pero que tienen masa y tienen peso.
Esto significa que los resultados teóricos que obtenemos no serán realmente los verdaderos en la
práctica. Pero, para comenzar a estudiar los temas, es suficiente.
(Los juguetes del 6 de enero existen, aunque los Reyes Magos...).

Centro de gravedad: es el punto en el que puede considerarse concentrado todo el peso de un


cuerpo.

Centro de masa: es el punto en el que puede considerarse concentrada toda la masa de un cuerpo.

Generalmente, la posición de ambos coincide y, en cuerpos homogéneos (de un material con peso
específico y densidad uniformes en toda su extensión), también coincide con el centro geométrico
del cuerpo.

Movimiento

Todos los puntos del Universo que conocemos están en movimiento, es decir, cambian su posición.

Cuando estás echado en tu sillón favorito y te recriminan por estar "quieto", puedes responder que
estás girando alrededor del eje terrestre a razón de un giro completo diario, con la Tierra alrededor
del Sol, con el Sistema Solar dentro de la Vía Láctea, con la Vía Láctea a través de las otras
galaxias, ...

Entonces, ¿qué está quieto y qué está en movimiento en forma absoluta? Nada.

Todo movimiento es relativo.

Un punto está en movimiento cuando cambia de posición con respecto a otro


que arbitrariamente consideramos fijo.

Y las distintas posiciones que ocupa a medida que pasa el tiempo configurarán su trayectoria.

En este capítulo de la Física que se ha dado en llamar "Cinemática" veremos los movimientos sin
tener en cuenta las fuerzas que los originan, y aquí solamente veremos algunos de ellos: los
movimientos uniformes y los movimientos uniformemente variados, tanto rectilíneos como
circulares.

Movimientos rectilíneos

Obviamente, un movimiento es rectilíneo cuando la curvatura de su "recta de acción" es cero.


Son pocos los movimientos verdaderamente rectilíneos,
pero cuando la curvatura de la recta de acción no es significativa,
podemos considerarlos así para facilitar el estudio.

Vamos a utilizar solamente 2 fórmulas para intentar resolverlos todos.

El movimiento es rectilíneo uniforme


cuando su velocidad no varía con el transcurso del tiempo.

Esto significa que:


• su velocidad es constante,
• la resultante de las fuerzas ejercidas sobre él es cero y, por tanto,
• no hay aceleración.

El movimiento es rectilíneo uniformemente acelerado


cuando su velocidad aumenta regularmente
con el transcurso del tiempo.

Esto significa que:


• su aceleración es positiva y constante,
• es constante la intensidad de la resultante de las fuerzas ejercidas sobre el móvil y
• esta fuerza resultante tiene el mismo sentido que el movimiento del cuerpo.

El movimiento es rectilíneo uniformemente retardado


cuando su velocidad disminuye regularmente con el transcurso del tiempo.

Esto significa que:


• su aceleración es negativa y constante,
• es constante la intensidad de la resultante de las fuerzas ejercidas sobre el móvil y
• esta fuerza resultante tiene sentido opuesto al del movimiento del cuerpo (caso del
frenado).

El movimiento es una caída libre cuando:


• es vertical,
• la altura inicial es mayor que la final (que es cero),
• la velocidad inicial es cero (se deja caer, no se empuja hacia abajo),
• la velocidad final es positiva,
• la aceleración es la de la gravedad considerada como positiva (a favor de la fuerza de
atracción gravitatoria),
• la fuerza actuante es la de la gravedad, es constante (aproximadamente igual a 9,8 m/s2
para movimientos cercanos a la superficie de la Tierra) y
• tiene el mismo sentido que el movimiento del cuerpo.

El movimiento es un tiro vertical cuando:


• obviamente, es vertical,
• la altura inicial es cero y, por tanto, menor que la final,
• la velocidad inicial es positiva (se lanza el cuerpo hacia arriba),
• la velocidad final es cero,
• la aceleración es la de la gravedad considerada como negativa (en contra de la fuerza de
atracción gravitatoria),
• la fuerza actuante es la de la gravedad, es constante y
• tiene sentido opuesto al del movimiento del cuerpo.

Llamaremos:
• "vf " a la velocidad final del móvil
• "v0" a su velocidad inicial (o a la única existente, en el caso del movimiento rectilíneo
uniforme)
• "a" a su aceleración ("g" cuando se trate de la aceleración de la gravedad = 9,8 m/s2)
• "e" al espacio recorrido ("h" cuando se trate de una altura)
• "t" al tiempo transcurrido
Entonces:

vf = v0 + a t
e = v0 t + 1/2 a t2
Electromagnetismo
El electromagnetismo, estudia los fenómenos eléctricos y magnéticos que se unen en una sola
teoría aportada por Faraday, que se resumen en cuatro ecuaciones vectoriales que relacionan
campos eléctricos y magnéticos conocidas como las ecuaciones de Maxwell. Gracias a la
invención de la pila de limón, se pudieron efectuar los estudios de los efectos magnéticos que se
originan por el paso de corriente eléctrica a través de un conductor.

El Electromagnetismo, de esta manera es la parte de la Física que estudia los campos eléctricos y
los campos magnéticos, sus interacciones con la materia y, en general, la electricidad y el
magnetismo y las partículas subatómicas que generan flujo de carga eléctrica.

El electromagnetismo, por ende se comprende que estudia conjuntamente los fenómenos físicos
en los cuales intervienen cargas eléctricas en reposo y en movimiento, así como los relativos a los
campos magnéticos y a sus efectos sobre diversas sustancias sólidas, líquidas y gaseosas.

Campos Eléctricos y Magnéticos


Es conveniente entender el electromagnetismo en 2 terminos separados: El campo eléctrico y el
campo magnético. Un campo eléctrico es producido por la presencia de cargas eléctricas, las
cuales crean una fuerza, relacionadas por la ecuación (Siendo Q la carga eléctrica medida en
coulombs y E el campo eléctrico medido en Newtons/Coulombs). Esta fuerza eléctrica es la
responsable de la electricidad estática y dirige el flujo de carga eléctrica en un area determinada
(corriente eléctrica). Por otro lado, el campo magnético puede ser producido por el movimiento de
cargas eléctricas, o corriente eléctrica, las cuales crean la fuerza magnética asociada con los
imanes como la magnetita.

El termino electromagnetismo proviene del hecho de que no podemos estudiar los campos
eléctricos y magnéticos por separado. Un campo magnético variable produce un campo eléctrico
(como ocurre en el fenomemo de inducción electromagnética, la cual es la base para el
funcionamiento de generadores eléctricos, motores de inducción eléctrica y transformadores).
Similarmente, un campo eléctrico variable genera un campo magnético.

Debido a esta dependencia mutua de los campos eléctricos y magnéticos, se considera logico
considerarlos como uno solo, el campo electromagnético. Esta unificación, la cual fue completada
por James Clerk Maxwell, es uno de los triunfos para los físicos del siglo 19. Estos estudios
trajeron consecuencias sumamente altas, siendo una de ellas la aclaración de la naturaleza de la
luz.

Como se ha ido descubriendo, lo que percibimos como “luz visible” es realmente una propagación
oscilatoria en el campo electromagnético, es decir, una onda electromagnética. Diferentes
frecuencias de oscilación dan a lugar a las diferentes formas de radiación electromagnética, desde
las ondas de radio de frecuencias bajas, la luz visible en frecuencias intermedias, hasta los rayos
gamma con las frecuencias bastante altas.

Las implicaciones teoricas del electromagnetismo llevaron a Albert Einstein a la publicación de la


Teoria de relatividad especial, en 1905
Desarrollo histórico de la teoría electromagnética
Históricamente, el magnetismo y la electricidad habían sido tratados como fenómenos distintos y
eran estudiados por ciencias diferentes.
Sin embargo, los descubrimientos de Oersted y luego de Ampère, al observar que la aguja de una
brújula tomaba una posición perpendicular al pasar corriente a través de un conductor próximo a
ella. Así mismo los estudios de Faraday en el mismo campo, sugerían que la electricidad y el
magnetismo eran manifestaciones de un mismo fenómeno.

La idea anterior fue propuesta y materializada por el físico escocés James Clerk Maxwell (1831-
1879), quien luego de estudiar los fenómenos eléctricos y magnéticos concluyó que son producto
de una misma interacción, denominada interacción electromagnética, lo que le llevó a formular,
alrededor del año 1850, las ecuaciones antes citadas, que llevan su nombre, en las que se
describe el comportamiento del campo electromagnético. Estas ecuaciones dicen esencialmente
que:

Existen portadores de cargas eléctricas, y las líneas del campo eléctrico parten desde las cargas
positivas y terminan en las cargas negativas.
No existen portadores de carga magnética; por lo tanto, el número de líneas del campo magnético
que salen desde un volumen dado, debe ser igual al número de líneas que entran a dicho volumen.
Un imán en movimiento, o, dicho de otra forma, un campo magnético variable, genera una corriente
eléctrica llamada corriente inducida.
Cargas eléctricas en movimiento generan campos magnéticos.
Acústica
El sonido es la vibración de un medio elástico, bien sea gaseoso, liquido o sólido. Cuando nos
referimos al sonido audible por el oído humano, estamos hablando de la sensación detectada por
nuestro oído, que producen las rápidas variaciones de presión en el aire por encima y por debajo
de un valor estático. Este valor estático nos lo da la presión atmosférica (alrededor de 100.000
pascals) el cual tiene unas variaciones pequeñas y de forma muy lenta, tal y como se puede
comprobar en un barómetro.

¿Cómo son de pequeñas y de rápidas las variaciones de presión que causan el sonido?. Cuando
las rápidas variaciones de presión se centran entre 20 y 20.000 veces por segundo (igual a una
frecuencia de 20 Hz a 20 kHz) el sonido es potencialmente audible aunque las variaciones de
presión puedan ser a veces tan pequeñas como la millonésima parte de un pascal. Los sonidos
muy fuertes son causados por grandes variaciones de presión, por ejemplo una variación de 1
pascal se oiría como un sonido muy fuerte, siempre y cuando la mayoría de la energía de dicho
sonido estuviera contenida en las frecuencias medias (1kHz - 4 kHz) que es donde el iodo humano
es más sensitivo.

El sonido lo puede producir diferentes fuentes, desde una persona hablando hasta un altavoz, que
es una membrana móvil que comprime el aire generado ondas sonoras.

2- ¿Qué es la Frecuencia Hz?


Como hemos visto el sonido se produce como consecuencia de las compresiones y expansiones
de un medio elástico, o sea, de las vibraciones que se generan en él.

La frecuencia de una onda sonora se define como el número de pulsaciones (ciclos) que tiene por
unidad de tiempo (segundo). La unidad correspondiente a un ciclo por segundo es el hertzio (Hz).

Las frecuencias más bajas se corresponden con lo que habitualmente llamamos sonidos "graves”,
son sonidos de vibraciones lentas. Las frecuencias mas altas se corresponden con lo que
llamamos "agudos" y son vibraciones muy rápidas.

El espectro de frecuencias audible varia según cada persona, edad etc. Sin embrago normalmente
se acepta como los intervalos entre 20 Hz y 20 kHz.

3- ¿Qué es un Decibelio dB?

El decibelio es una unidad logarítmica de medida utilizada en diferentes disciplinas de la ciencia.


En todos los casos se usa para comparar una cantidad con otra llamada de referencia.
Normalmente el valor tomado como referencia es siempre el menor valor de la cantidad. En
algunos casos puede ser un valor promediado aproximado.

En Acústica la mayoría de las veces el decibelio se utiliza para comparar la presión sonora, en el
aire, con una presión de referencia. Este nivel de referencia tomado en Acústica, es una
aproximación al nivel de presión mínimo que hace que nuestro iodo sea capaz de percibirlo. El
nivel de referencia varía lógicamente según el tipo de medida que estemos realizando. No es el
mismo nivel de referencia para la presión acústica, que para la intensidad acústica o para la
potencia acústica. A continuación se dan los valores de referencia.

- Nivel de Referencia para la Presión Sonora (en el aire) = 0.00002 = 2E-5 Pa (rms)
- Nivel de Referencia para la Intensidad Sonora (en el aire) = 0.000000000001 = 1E-12 w/m^2
- Nivel de Referencia para la Potencia Sonora (en el aire) = 0.00000000001 = 1E-12 w

Como su nombre indica el decibelio es la décima parte del Bel. El Bel es el logaritmo en base 10 de
la relación de dos potencias o intensidades. No obstante esta unidad resulta demasiado grande por
lo que se ha normalizado el uso de la décima parte del Bel, siendo el decibel o decibelio. La
formula para su aplicación es la siguiente, partiendo que la intensidad acústica en el campo lejano
es proporcional al cuadrado de la presión acústica, se define el nivel de presión sonora como:

- Lp = 10log (p^2/pr) = 20 log p/pr

Siendo Lp = Nivel de Presión sonora; p la presión medida; pr la presión de referencia (2E-5 Pa)

Como es fácil ver el nivel de referencia siempre se corresponde con el nivel de 0 dB:
- Lp = 20log (0.00002/0.00002) = 20log(1) = 20 * 0 = 0 dB

Por la tanto en 0 dB tenemos el umbral de audición del iodo humano, se supone que no es posible
oír por debajo de este nivel, o sea variaciones de nivel en la presión del aire inferiores a 0,00002
pascal.

La razón por la que se utiliza el decibelio, es que si no, tendríamos que estar manejando números
o muy pequeños o excesivamente grandes, llenos de ceros, con lo que la posibilidad de error seria
muy grande al hacer cálculos. Además, también hay que tener en cuenta que el comportamiento
del iodo humano esta mas cerca de una función logarítmica que de una lineal, ya que no percibe la
misma variación de nivel en las diferentes escalas de nivel, ni en las diferentes bandas de
frecuencias.

4- ¿Cómo se mide el Nivel Sonoro?

Para medir el nivel sonoro disponemos de los Sonómetros. Estos aparatos nos permiten conocer el
Nivel de Presión sonora o SPL (Sound Presure Level). Normalmente suelen ser sistemas digitales
y presentan en una pantalla de cristal liquido los valores medidos. Estos siempre se dan como
decibelios dB y en referencia al valor antes señalado de (2E-5 Pa). Con el sonómetro es posible
además del hallar el valor rms de la presión, también ver los picos máximos y niveles mínimos de
la medida. Como se verá en el capitulo de ponderaciones, los sonómetros normalmente no dan la
medida en dB lineales si no que dan ya con la ponderación y son dBA/dBC etc.

Una función muy utilizada a la hora de medir niveles de presión acústica y que ofrecen los
sonómetros es la medición en modo Leq. Normalmente se utiliza el Leq 1´ (leq a un minuto). El
sonómetro mide las diferentes presiones que se generan durante un tiempo determinado (Leq X)
siendo X = 1 minuto en nuestro caso, el valor que nos da al finalizar el minuto de medida es un
valor en dB que equivaldría al de una señal de valor continuo durante todo el minuto y que utilizaría
la misma energía que se ha medido durante el minuto. Hay que observar que en una medida de un
minuto los valores varían y si se quiere determinar un valor medio de ruido hay que hacerlo con la
función Leq, de otra forma se obtendrán valores erróneos puesto que podemos tener valores de
pico durante un instante y no ser representativos del nivel de ruido normal que se esta intentando
determinar.

5- ¿Qué es el dBA o la ponderación -A-?

En el punto anterior hemos visto que el dB es un valor lineal, quiere decir que los valores medidos
son los valores tomados como validos sin que sufran ninguna alteración. Si los valores de presión
acústica los medimos de esta forma, linealmente, aun siendo cierta dicha medida, tendrá poco
valor en cuanto a la percepción del odio humano. El oído no se comporta igual para el mismo nivel
de presión en diferentes frecuencias. Por ejemplo tomemos un sonido lineal en toda la banda de 20
Hz a 20 kHz tenemos en todas las bandas un nivel de 30 dB, si nuestro iodo fuese lineal oiríamos
los mismo o mejor con la misma intensidad auditiva las frecuencias más bajas, que las medias y
que las agudas. Sin embargo, esto no es cierto el iodo humano tiene una menor sensibilidad en las
frecuencias mas graves, y en las más agudas frente a las medias. Lo que más oímos, por tanto,
son las frecuencias medias, y las que menos las más graves seguidas de las más agudas.
Como vemos es necesario encontrar una forma de ajustar los niveles de dB que hemos medido
con la percepción que el oído tiene de los mismos según cada frecuencia. Esta corrección se
realiza ponderando los dB medidos mediante una tabla de ponderación ya especificada y que se
llama tabla "A". Los decibelios ya ponderados en "A" se representan como dBA y los no
ponderados, llamados lineales, como dB.

Por ejemplo si en una frecuencia de 100 Hz hemos medido 80 dB, al ponderarlo pasaran a ser 60,9
dBA, esto quiere decir que un nivel de presión sonora de 80 dB en una frecuencia de 100 Hz es
oída por nuestro sistema de audición como si realmente tuviese 60,9 dBA y no 80 dB.

Al final se adjuntan unas tablas con las ponderaciones de A y C.

6- ¿Cómo se suman los niveles de sonido?

Hemos visto que el decibelio es una función logarítmica y, por tanto, cuando hablamos de dB de
presión sonora no es posible sumarlos sin más. Por ejemplo 30 dB + 30 dB no es igual a 60 dB si
no a 33 dB como vamos a ver a continuación.

Para poder sumar dos decibelios podemos emplear la siguiente ecuación:

Suma dB1 + dB2 = 10 log (10^(dB1/10) + 10^(dB2/10))

30 dB + 30 dB = 10 log(10^(30/10) + 10^(30/10) =
10 log(10^3 + 10^3) = 10 log (1000 + 1000) = 33 dB

La suma de dos dB nunca puede ser mas de 3 dB mas que el mayor de los dos. Si la diferencia
que hay entre los dos valores a sumar es mayor de 10 dB la suma no tiene valor practico y se toma
el valor del mayor de los dos. Por ejemplo si sumamos 20 dB + 10 dB el resultado será igual a 20
dB (aproximado). Solamente son significativos para la suma los valores que tienen una diferencia
menor a 10 dB.

7- ¿A partir de que niveles el sonido es perjudicial?

Por encima de los 100 dBA es muy recomendable siempre que sea posible utilizar protectores para
los oídos. Si la exposición es prolongada, por ejemplo en puestos de trabajos, se considera
necesario el utilizar protectores en ambientes con niveles de 85 dBA, siempre y cuando la
exposición sea prolongada. Los daños producidos en el oído por exposiciones a ruidos muy fuertes
son acumulativos e irreversibles, por lo que se deben de extremar las precauciones. De la
exposición prolongada a ruidos se observan trastornos nerviosos, cardiacos y mentales.

8- ¿Qué es la Presión Acústica y el Nivel de Presión Acústica?


La presión sonora como hemos visto antes, es la presión que se genera en un punto determinado
por una fuente sonora. El nivel de presión sonora SPL se mide en dB(A) SPL y determina el nivel
de presión que realiza la onda sonora en relación a un nivel de referencia que es 2E-5 Pascal en el
aire.

Es el parámetro más fácil de medir, se puede medir con un sonómetro. Su valor depende del punto
donde midamos, del local etc. Realmente no da mucha información sobre las características
acústicas de la fuente, a no ser que se haga un análisis frecuencial de los nivel de presión, dado
que el SPL siempre esta influenciado por la distancia a la fuente, el local etc.

9- ¿Qué es la Intensidad Acústica y el Nivel de Intensidad Acústica?

Se puede definir como la cantidad de energía sonora transmitida en una dirección determinada por
unidad de área. Con buen oído se puede citar dentro de un rango de entre 0.000000000001 w por
metro cuadrado, hasta 1 w.

Para realizar la medida de intensidades se utiliza actualmente analizadores de doble canal con
posibilidad de espectro cruzado y una sonda que consiste en dos micrófonos separados a corta
distancia. Permite determinar la cantidad de energía sonora que radia una fuente dentro de un
ambiente ruidoso. No es posible medirlo con un sonómetro. El nivel de intensidad sonora se mide
en w/m2.

10- ¿Que es la potencia Acústica y el Nivel de Potencia Acústica?

La potencia acústica es la cantidad de energía radiada por una fuente determinada. El nivel de
potencia Acústica es la cantidad de energía total radiada en un segundo y se mide en w. La
referencia es 1pw = 1E-12 w.

Para determinar la potencia acústica que radia una fuente se utiliza un sistema de medición
alrededor de la fuente sonora a fin de poder determinar la energía total irradiada.

La potencia acústica es un valor intrínseco de la fuente y no depende del local donde se halle. Es
como una bombilla, puede tener 100 w y siempre tendrá 100 w la pongamos en nuestra habitación
o la pongamos dentro de una nave enorme su potencia siempre será la misma. Con la potencia
acústica ocurre lo mismo el valor no varia por estar en un local reverberante o en uno seco. Al
contrario de la Presión Acústica que si que varia según varíe las características del local donde se
halle la fuente, la distancia etc.

11- ¿Cual es la velocidad de propagación del sonido en el aire, agua etc.?

La velocidad de propagación del sonido en el aire es de unos 334 m/s. y a 0º es de 331,6 m/s. La
velocidad de propagación es proporcional a la raíz cuadrada de la temperatura absoluta y es
alrededor de 12 m/s mayor a 20º.
La velocidad es siempre independiente de la presión atmosférica.

En el agua la velocidad de propagación es de 1500 m/s. Es posible obtener medidas de


temperatura de los océanos midiendo la diferencia de velocidad sobre grandes distancias.

Si necesitas más datos sobre la propagación del sonido en los materiales recurre al CRC
Handbook of Chemistry & Physics.

12- ¿Qué es el Tiempo de Reverberación?

El Tiempo de Reverberación RT, es el tiempo que tarda una señal, desde que esta deja de sonar,
en atenuarse un nivel de 60 dB. Para realizar la medida se genera un ruido y se mide a partir de
que este deja de sonar, entonces se determina el tiempo que tarda en atenuarse 60 dB.

El Tiempo de Reverberación se mide de forma frecuencial, esto es, un local no tiene el mismo RT
en 200 Hz que en 4 kHz. Ello es debido a que el RT viene determinado por el Volumen de la sala, y
por los coeficientes de absorción de sus superficies, o si se prefiere por las superficies con un
coeficiente de absorción determinado. Como los coeficientes de absorción de los diferentes
materiales que componen cualquier local no son iguales para todas las frecuencias, las reflexiones
generadas en el interior del local serán diferentes para cada frecuencia y por lo tanto el RT del local
es diferente según las frecuencias.

Para calcular la RT de un local sin realizar mediciones se puede utilizar la formula de Sabine:

- RT60 = 0,163 * (V/A)

- V = Volumen de la sala en m3 y A = Superficie de Absorción en m2

Como norma cuanto mayor sea el local mayor es el RT. Si los materiales que lo componen
internamente son poco absorbentes el RT también aumentara.

El valor de RT es muy importante si se quiere conseguir buenos niveles de inteligibilidad dentro de


los locales.

13- ¿Qué es el Coeficiente de Absorción de un material?

El coeficiente de absorción de un material es la relación entre la energía absorbida por el material y


la energía reflejada por el mismo. Dada esta formulación su valor siempre esta comprendido entre
0 y 1. El máximo coeficiente de absorción esta determinado por un valor de 1 donde toda la
energía que incide en el material es absorbida por el mismo, y el mínimo es 0 donde toda la
energía es reflejada.
El coeficiente de absorción varia con la frecuencia y, por tanto, los fabricantes de materiales
acústicos dan los coeficientes de absorción por lo menos en resolución de una octava.

Sabiendo los materiales de una sala y sabiendo sus coeficientes de absorción podemos saber
como sonora esa sala en cada frecuencia y podremos también saber, mediante la formula de
Sabine, Eyring etc., el tiempo de reverberación también por frecuencias.

Tablas de Ponderación A, C y U (dB).

Nominal ..............Exacta

Frecuencia.......... Frecuencia .........A-weight ..........C-weight ........U-weight

10 ...........................10.00 ...............-70.4 ...............-14.3............... 0.0


12.5 ........................12.59 ...............-63.4 ...............-11.2 ...............0.0
16 ...........................15.85 ...............-56.7 ................- 8.5 ...............0.0
20 ...........................19.95 ...............-50.5 ................- 6.2 ...............0.0
25 ...........................25.12 ...............-44.7 ................- 4.4 ...............0.0
31.5 ........................31.62 ...............-39.4 ................- 3.0 ...............0.0
40 ...........................39.81 ...............-34.6 ................- 2.0 ...............0.0
50 ...........................50.12 ...............-30.2 ................- 1.3 ...............0.0
63 ...........................63.10 ...............-26.2 ................- 0.8 ...............0.0
80 ...........................79.43 ...............-22.5 ................- 0.5 ...............0.0
100 .......................100.00 ...............-19.1 ................- 0.3 ...............0.0
125 .......................125.9 .................-16.1................ - 0.2 ...............0.0
160 .......................158.5 .................-13.4 ................- 0.1 ...............0.0
200 .......................199.5 .................-10.9 ..................0.0 ................0.0
250 .......................251.2 ..................- 8.6 ..................0.0 ................0.0
315 .......................316.2.................. - 6.6 ..................0.0 ................0.0
400 .......................398.1 ..................- 4.8 ..................0.0 ................0.0
500 .......................501.2 ..................- 3.2 ..................0.0 ................0.0
630 .......................631.0 ..................- 1.9 ..................0.0 ................0.0
800 .......................794.3 ..................- 0.8 ..................0.0 ................0.0
1000 ...................1000.0 .....................0.0 ..................0.0 ................0.0
1250 ....................1259 ....................+ 0.6.................. 0.0 ................0.0
1600 ....................1585 ....................+ 1.0 ................- 0.1................ 0.0
2000 ....................1995 ....................+ 1.2 ................- 0.2 ................0.0
2500 ....................2512 ....................+ 1.3 ................- 0.3 ................0.0
3150 ....................3162 ....................+ 1.2 ................- 0.5 ................0.0
4000 ....................3981 ....................+ 1.0 ................- 0.8 ................0.0
5000 ....................5012 ....................+ 0.5 ................- 1.3 ................0.0
6300 ....................6310 .....................- 0.1 ................- 2.0 ................0.0
8000 ....................7943 .....................- 1.1 ...............- 3.0 .................0.0
10000 ................10000 .....................- 2.5 ...............- 4.4 .................0.0
12500 ................12590 .....................- 4.3 ...............- 6.2 ...............- 2.8
16000 ................15850 .....................- 6.6 ...............- 8.5 ..............-13.0
20000 ................19950 .....................- 9.3 ..............-11.2 ..............-25.3
25000 ................25120 ....................-37.6
31500 ................31620 ....................-49.7
40000 ................39810 ....................-61.8

14- ¿Qué es Eco, Reverberación y Resonancia?

Cuando se genera un sonido en el interior de un local las superficies que componen el mismo
ocasionan una serie de diferentes efectos dependiendo de las características de dichas superficies.

Esto ocurre porque las ondas sonoras inciden en las diferentes superficies y estas las reflejan de
diferente forma según su coeficiente de reflexión acústica.

Como es lógico, primero siempre se percibe el sonido directo, esto es, el sonido que nos llega a
nuestro oído sin que aún se halla reflejado en ninguna superficie. Una vez recibido el sonido
directo, llegará a nuestros oídos, con un retraso de tiempo con respecto al sonido directo, el sonido
reflejado por las superficies del local.

Tanto el retraso como el nivel sonoro del sonido reflejado dependen de las características físicas
del local y sus superficies.

Si el retraso entre el sonido directo y el reflejado es mayor de 1/10 de segundo, nuestro sistema de
audición será capaz de separar las dos señales y percibirlas como tales, primero una y después la
otra, esto es lo que se entiende por eco. Por ejemplo: supongamos que estamos dentro de un local
de grandes dimensiones y una persona que esta separada de nosotros a cierta distancia nos dice
"HOLA"; primero llegara a nuestros oídos el "HOLA" del sonido directo, y en el caso de un Eco este
nos llegara como mínimo 1/10 segundo después, por lo tanto oiremos

"HOLA. (1/10 segundo mínimo)...HOLA", y lo interpretaremos efectivamente como dos mensajes


diferentes separados por un intervalo de tiempo determinado. Sin embargo, nuestro interlocutor
únicamente ha articulado un "HOLA".

Cuando en la misma situación que en el caso anterior, el sonido reflejado nos llega con un tiempo
inferior a 1/10 de segundo, nuestro sistema de audición no es capaz de separar ambas señales y
las toma como una misma pero con una duración superior de esta. Normalmente esto se entiende
como reverberación. La reverberación de un local se mide según su tiempo de reverberación (rt) en
segundos y varia según la frecuencia de análisis que se utilice. Esto es debido a que los diferentes
materiales que componen las superficies del local no se comportan por igual en todo el espectro
sonoro, y, por tanto, los coeficientes de absorción de cada superficie de un mismo material varia
según la frecuencia. Conociendo el tiempo de reverberación de un local podemos saber como se
comportara el mismo en diferentes aplicaciones. Cuando el tiempo de reverberación alcanza
valores muy altos con respecto al sonido directo, puede ocurrir un enmascaramiento de este y se
puede perder la capacidad de entender la información contenida en el mensaje que se percibe.

La resonancia se ocasiona cuando un cuerpo entra en vibración por simpatía con una onda sonora
que incide sobre el y coincide su frecuencia con la frecuencia de oscilación del cuerpo o esta es
múltiplo entero de la frecuencia de la onda que le incide.

15- ¿Qué es la altura (tono) de un sonido?

Como ya sabemos la frecuencia es una entidad física y, por tanto, puede ser medida de forma
objetiva por diferentes medios. Por contra la altura o tono de un sonido es un fenómeno totalmente
subjetivo y, por tanto, no es posible medirlo de forma objetiva.

Normalmente cuando se aumenta la frecuencia de un sonido, su altura también sube, sin embargo,
esto no se da de forma lineal, o sea, no se corresponde la subida del valor de la frecuencia con la
percepción de la subida de tono.

La valoración subjetiva del tono se ve condicionada no sólo por el aumento de la frecuencia sino
también por la intensidad, y por el valor de dicha frecuencia. Para frecuencias inferiores a 1 kHz
(incluida esta), si se aumenta la intensidad el tono disminuye, entre 1 kHz y 5 kHz el tono es
prácticamente independiente de la intensidad que tenga, por encima de 5 kHz el tono aumenta si
aumenta la intensidad.

La unidad de altura es el "Mel". (en ocasiones se utiliza el "Bark" equivalente a 100"Mels").

16- ¿Qué es el timbre?

¿Por que podemos distinguir el sonido de un piano al de una trompeta, o el de un violín a una viola,
o la voz de nuestro hermano con la de un amigo?.

El timbre hace posible que cada instrumento pueda tener un color determinado y particular que lo
distingue de otros aun cuando su espectro sonoro pueda parecer similar.

El timbre esta formado por un conjunto de frecuencias de alturas sonoras fijas (ámbito de
formantes). De forma sencilla se puede decir que el timbre lo forma la frecuencia fundamental del
instrumento, más su composición armónica.
La frecuencia fundamental de dos instrumentos diferentes puede ser la misma, pero su
composición armónica es diferente y es lo que hace que los podamos distinguir. Por ejemplo: si
generamos una frecuencia de 440 Hz con un piano y con una guitarra, aun cuando ambos están
afinados en la misma frecuencia y generando la misma, cada uno suena diferente. Esto es debido
a que cada instrumento genera una serie de armónicos según la construcción del propio
instrumento, en el piano el arpa metálico y la caja generan una serie de armónicos con una serie
de niveles sonoros que le dan su sonido característico. En la guitarra la caja, las cuerdas etc. le
confieren a la misma frecuencia un sonido diferente.

La forma de ejecutar el instrumento y la intensidad hacen también que el timbre varíe, al hacer
variar su composición armónica.

17- ¿Qué es el efecto Doppler?

El efecto Doppler se origina cuando hay un movimiento relativo entre la fuente sonora y el oyente
cuando cualquiera de los dos se mueven con respecto al medio en el que las ondas se propagan.
El resultado es la aparente variación de la altura del sonido. Existe una variación en la frecuencia
que percibimos con la frecuencia que la fuente origina.

Para entenderlo mejor supongamos que estamos paradas en el andén de una estación, a lo lejos
un tren viene a gran velocidad con la sirena accionada, mientras el tren este lejos de nosotros
oiremos el silbido de la sirena como una frecuencia determinada, cuando el tren pase delante
nuestro y siga su camino, el sonido de la sirena cambia con respecto al estábamos oyendo y con
respecto al que vamos a oír una vez que el tren nos rebasa y sigue su camino.

La frecuencia que aparente se puede determinar según las siguientes fórmulas:

Fuente móvil

fx = (c/(c-u))fs

Receptor en movimiento:

fx = ((c-v)/c)fs

Ambos en movimiento:

fx = ((c-v)/(c-u))fs
fx = Frecuencia aparente
c = Velocidad del sonido
v = Velocidad del observador
u = Velocidad de la fuente
fs = Frecuencia de la fuente

18- ¿Qué es una octava, media octava y tercio de octava?

El termino de octava se toma de una escala musical, se considera el intervalo entre dos sonidos
que tienen una relación de frecuencias igual a 2 y que corresponde a ocho notas de dicha escala
musical. Por ejemplo: si comenzamos con una nota como DO, la octava completa será: DO-RE-MI-
FA-SOL-LA-SI-DO. Si el primer DO estaba afinado en 440 Hz el segundo estará en 880 Hz, ya que
hemos indicado que en la octava hay una relación de frecuencias igual a 2.

En el caso de un ecualizador gráfico de una octava, las frecuencias centrales de los filtros podían
ser las siguientes: 16 Hz - 31,5 Hz - 63 Hz - 125 Hz - 250 Hz - 500 Hz - 1kHz - 2 kHz - 4 kHz - 8
kHz - 16 kHz. En algunos casos la relación de 2:1 de la octava no se cumple exactamente.

Cuando se necesitan filtros de mayor precisión, de un ancho de banda mas estrecho, se puede
dividir la octava en valores más pequeños, por ejemplo: la media octava divide cada octava en dos,
y, por tanto, tendremos el doble de puntos que en una octava, siguiendo con el ejemplo empleado
en una octava tendríamos: 16 Hz - 22,4 Hz - 31,5 Hz - 45 Hz - 63 Hz - 90 Hz - 125 Hz - 180 Hz -
250 Hz - 355 Hz - 500 Hz - 710 Hz - 1kHz - 1,4 kHz - 2 kHz - 2,8 kHz - 4 kHz - 5,6 kHz - 8 kHz -
11,2 kHz - 16 kHz.

En el caso de un tercio de octava, cada intervalo de la octava se divide en tres partes con lo que
tendremos tres veces mas de filtros para poder ajustar, quedando los cortes como siguen: 16 Hz -
20 Hz - 25 Hz - 31,5 Hz - 40 Hz - 50 Hz - 63 Hz - 80 Hz - 100 Hz - 125 Hz - 160 Hz - 200 Hz - 250
Hz - 315 Hz - 400 Hz - 500 Hz - 630 Hz - 800 Hz - 1 kHz - 1,25 kHz - 1,6 kHz - 2 kHz - 2,5 kHz -
3,15 kHz - 4 kHz - 5 kHz - 6,3 kHz - 8 kHz - 10 kHz - 12,5 kHz - 16 kHz

19- ¿Qué es un filtro de ancho de banda constante?

Un filtro de ancho de banda constante consiste básicamente en un filtro de banda estrecha


sintonizable y constante. Esto nos permite seleccionar la frecuencia central que deseamos y
también el ancho de banda del filtro. El ancho de banda del filtro viene dado por el siguiente valor:

w = f2 - f1

Siendo w = ancho de banda del filtro, f2 = frecuencia superior y f1 = frecuencia inferior.


Y la frecuencia central del filtro se obtiene normalmente de:

fc = Raíz Cuadrada(f1*f2)

La frecuencia central se puede ajustar a cualquier punto del espectro y mantienen siempre el
mismo ancho de banda. Por ejemplo: supongamos que tenemos un filtro de ancho de banda
constante con un ancho de banda de 20 Hz, si lo colocamos de forma que la frecuencia inferior sea
100 Hz (f1) la superior será igual a 120 Hz y su frecuencia central será 109,54 Hz
aproximadamente. Si ahora nos desplazamos a un margen de frecuencias superior, f1 = 4.000 Hz,
f2 será igual a 4020 Hz y la frecuencia central será 4010 Hz. Como se ve el ancho de banda
siempre es constante y no varia al variar el punto de trabajo del filtro.

20- ¿Qué es un filtro de ancho de banda proporcional?

Los filtros de ancho de banda proporcional son filtros que cumplen la remisa de f2/f1 =constante, o
sea, que si dividimos la frecuencia superior por la inferior siempre nos tiene que dar un valor que
sea constante, por lo que el ancho de banda es proporcional a la frecuencia central. En el caso de
un filtro de octava y de tercio de octava la relación de proporción es :

Octava f2/f1 = 2

Tercio de Octava f2/f1 = 2^(1/3)

Como es fácil deducir el ancho de banda de este tipo de filtros varía al variar la frecuencia, cuanto
más subimos mayor es el ancho de banda, siempre manteniendo la proporción expresada según el
filtro sea de octava, tercio etc.

Cada vez que subimos una octava doblamos el ancho de banda del filtro. Por ejemplo supongamos
que estamos trabajando con un filtro de 1/3 de octava y nos situamos en la frecuencia de 100 Hz
tenemos que la frecuencia inmediatamente inferior es 80 Hz y la superior 125, podemos obtener la
relación de proporcionalidad del filtro según:

f2/f1 = constante

125/80 = 1,56

Podemos ver que tenemos un valor de 1,56 y que corresponde a un ancho de banda de
f2-f1 = 125-80 = 45 Hz.

Si ahora con el mismo valor de la proporción (1,56) colocamos el filtro en la frecuencia central de
200 Hz en lugar de los 100 Hz de antes, veremos que la proporción se mantiene pero el ancho de
banda aumenta justo al doble:

f2/f1 = 250/160 = 1,56

f2-f1 = 250 - 160 = 90 Hz

Cada vez que subamos la frecuencia central aumentara el ancho de banda del filtro en la
proporción expresada (1 octava =2 y 1/3 octava = 2^(1/3)). Cada vez que doblamos la frecuencia
se dobla el ancho de banda del filtro. Por lo tanto este tipo de filtros resultan más precisos en las
frecuencias bajas que en las altas, ya que en frecuencias como 8 kHz el ancho de banda aumenta
hasta 3.700 Hz mientras que como hemos visto para el mismo filtro en la frecuencia de 100 Hz
tiene un ancho de banda de 45 Hz.

Los filtros proporcionales con resoluciones de octava, tercio etc. son los mas utilizados tanto en
analizadores como en ecualizadores para fines musicales y acústicos.

21- ¿Qué es el ruido rosa?

El ruido rosa es un ruido cuyo nivel sonoro esta caracterizado por un descenso de tres decibelios
por octava.

Cuando el ruido rosa se visualiza en un analizador con filtros de octava, el ruido se ve como si
todas las bandas de octava tuviesen el mismo nivel sonoro, lo cual es cierto, pero el ruido rosa no
tiene el mismo nivel en todas las frecuencias.

Esto ocurre por que como hemos visto en el capitulo anterior los filtros de octava, tercio etc., son
filtros proporcionales y, por tanto, cada vez que subimos una octava, doblamos el ancho de banda
y por ese motivo el ruido rosa decrece 3 dB por octava, justo la proporción en que aumenta el
ancho de banda, el doble. De esta forma visualizamos el ruido rosa como un ruido de nivel
constante en todas las bandas de octava.

Se utiliza para analizar el comportamiento de salas, altavoces, equipos de sonido etc. Es una señal
conocida, mismo nivel en todas las bandas (sonido "plano") , y si lo amplificamos con un altavoz
dentro de una sala podemos conocer datos sobre el comportamiento acústico del altavoz, la sala
etc. Normalmente se genera entre 20 Hz y 20 kHz. Su sonido es muy parecido al que podemos oír
cuando se sintoniza entre dos emisoras de FM, en el espacio que se recibe únicamente el ruido, es
como un soplido.

22- ¿Qué es el ruido blanco?

El ruido blanco es un ruido cuyo nivel es constante en todas las frecuencias. Si lo visualizamos con
un analizador con filtros de octava, veremos que el espectro mostrado no es lineal como hemos
dicho que es el ruido blanco, si no que aumenta 3 dB por octava. Esto se debe al mismo fenómeno
que con el ruido rosa, al doblar la octava se dobla el ancho de banda y si se tenemos el mismo
nivel sonoro en todas las frecuencias, el nivel sonoro por octava se doblara y aumentara 3 dB con
respecto al anterior.

23- ¿Qué es la disminución espacial del nivel sonoro?

Si tenemos una fuente sonora determinada, y estamos situados a una distancia de ella, al alejarnos
o acercarnos el nivel de presión sonora varia según las características de la fuente, el lugar donde
se encuentre y la distancia entre otros factores. Podemos calcular el nivel de presión acústica
dentro de un local en cualquier punto con la siguiente formula:

Lp = Lw + 10 log ((Q/4*Pi*r*2)+(4/R))

Lp = Nivel de presión sonora.


Lw = Nivel de potencia de la fuente sonora en dB.
Q = Directividad de la fuente sonora.
r = distancia entre la fuente y el punto de medida en metros.
R = constante acústica del local (m2).

En espacios al aire libre se considera que cada vez que se dobla la distancia entre la fuente sonora
y el oyente, se disminuye el nivel sonoro en 6 dB. Por ejemplo supongamos que estamos
escuchando un altavoz a una distancia de 10 metros, si utilizamos un sonómetro y medimos el
nivel de presión acústica obtenemos un valor supuesto de 80 dB, si ahora nos distanciamos 10
metros mas, o sea, doblamos la distancia del punto inicial, obtendremos una lectura de 74 dB, 6 dB
menos que en el primer punto, si por ultimo nos alejamos 20 metros de este ultimo punto, doblando
así su distancia, estamos a 40 metros de la fuente, obtendremos también un descenso de 6 dB,
tendremos por tanto 68 dB.

”ptica
La óptica es la rama de la física que estudia el comportamiento de la luz y, más generalmente, de
las ondas electromagnéticas. Según el modelo utilizado para la luz, se distingue entre las
siguientes ramas, por orden creciente de precisión (cada rama utiliza un modelo simplificado del
empleado por la siguiente):
La óptica geométrica: Trata a la luz como un conjunto de rayos que cumplen el principio de Fermat.
Se utiliza en el estudio de la transmisión de la luz por medios homogéneos (lentes, espejos), la
reflexión y la refracción.
La óptica ondulatoria: Considera a la luz como una onda plana, teniendo en cuenta su frecuencia y
longitud de onda. Se utiliza para el estudio de difracción e interferencia.
La óptica electromagnética: Considera a la luz como una onda electromagnética, explicando así la
reflectancia y transmitancia, y los fenómenos de polarización y anisotropía.
La óptica cuántica u óptica física: Estudio cuántico de la interacción entre las ondas
electromagnéticas y la materia, en el que la dualidad onda-corpúsculo desempeña un papel crucial.
Fenómenos ópticos
1. difracción
2. refracción
3. reflexión
4. arco iris
5. ilusión óptica
6. Aberración longitudinal
7. Aumento óptico
En física, la difracción es un fenómeno característico de las ondas que consiste en la dispersión y
curvado aparente de las ondas cuando encuentran un obstáculo. La difracción ocurre en todo tipo
de ondas, desde ondas sonoras, ondas en la superficie de un fluído y ondas electromagnéticas
como la luz y las ondas de radio. También sucede cuando un grupo de ondas de tamaño finito se
propaga; por ejemplo, por culpa de la difracción, un haz angosto de ondas de luz de un láser deben
finalmente diverger en un rayo más amplio a una distancia suficiente del emisor.
Comparación entre los patrones de difracción e interferencia producidos por una doble rendija
(arriba) y cinco rendijas (abajo).El fenómeno de la difracción es un fenómeno de tipo interferencial y
como tal requiere la superposición de ondas coherentes entre sí. Los efectos de la difracción
disminuyen hasta hacerse indetectables a medida que el tamaño del objeto aumenta comparado
con la longitud de onda.
En el espectro electromagnético los rayos X tienen longitudes de onda similares a las distancias
interatómicas en la material. Es posible por lo tanto utilizar la difracción de rayos X como un
método para explorar la naturaleza de la estructura cristalina. Esta técnica permitió descubrir la
estructura de doble hélice del ADN en 1953. La difracción producida por una estructura cristalina
verifica la ley de Bragg.
Debido a la dualidad onda-corpúsculo característica de la mecánica cuántica es posible observar la
difracción de partículas como neutrones o electrones. En los inicios de la mecánica cuántica este
fue uno de los argumentos más claros a favor de la descripción ondulatoria que realiza la mecánica
cuántica de las partículas subatómicas.
La refracción (del latín fractum, "quebrado") es el cambio de dirección que experimenta una onda
electromagnética debido al cambio de velocidad cuando pasa de un medio con un índice de
refracción dado a un medio con otro índice de refracción distinto.
Un ejemplo de este fenómeno se ve cuando se sumerge un lápiz en un vaso con agua: el lápiz
parece quebrado.
También ocurre cuando la luz pasa por una capa de aire sobre una superficie caliente, produciendo
un espejismo.
Refracción de la luz
Refracción de la luz. Se produce cuando la luz pasa de un medio de propagación a otro con una
densidad óptica diferente, sufriendo un cambio de velocidad y un cambio de dirección si no incide
perpendicularmente en la superficie. Esta desviación en la dirección de propagación se explica por
medio de la ley de Snell. Esta ley, así como la refracción en medios no homogéneos, son
consecuencia del principio de Fermat, que indica que la luz se propaga entre dos puntos siguiendo
la trayectoria de recorrido óptico de menor tiempo.
Por otro lado, la velocidad de propagación de la luz en un medio distinto del vacío está en relación
con la longitud de la onda y, cuando un haz de luz blanca pasa de un medio a otro, cada color sufre
una ligera desviación. Este fenómeno es conocido como dispersión de la luz. Por ejemplo, al llegar
a un medio más denso, las ondas más cortas pierden velocidad sobre las largas (ej: cuando la luz
blanca atraviesa un prisma). Las longitudes de onda corta son hasta 4 veces más dispersadas que
las largas lo cual explica que el cielo se vea azulado, ya que para esa gama de colores el índice de
refracción es mayor y se dispersa más.
Refracción del sonido
Es la desviación que sufren las ondas cuando el sonido pasa de un medio a otro diferente. A
diferencia de lo que ocurre en la reflexión, en la refracción, el ángulo de refracción ya no es igual al
de incidencia.
El término reflexión puede tener distintos significados:
En ”ptica se refiere al fenómeno por el cual un rayo de luz que incide sobre una superficie es
reflejado. El ángulo con la normal a esa superficie que forman los rayos incidente y reflejado son
iguales. Se produce también un fenómeno de absorción diferencial en la superficie, por el cual la
energía y espectro del rayo reflejado no coinciden con la del incidente. Para una explicación más
detallada véase radiación electromagnética.
Hace más de tres siglos, Isaac Newton logró demostrar con ayuda de un prisma que la luz blanca
del Sol contiene colores a partir del rojo, pasando por el amarillo, por el verde y por el azul, hasta
llegar al violeta. Esta separación de la luz en los colores que la conforman recibe el nombre de
descomposición de la luz blanca.
El experimento de Newton es relativamente fácil de reproducir, pues no es necesario contar con
instrumental científico especial para llevarlo a cabo. Incluso hoy en día resulta ser uno de los más
hermosos e instructivos para los incipientes estudiantes de óptica en educación básica y medio
superior.
Pero muchos siglos antes de que naciera Newton la naturaleza ya había descompuesto la luz del
Sol una y otra vez ante los ojos de nuestros antepasados. Algunas veces, luego de una llovizna;
otras, después de una tormenta. Lo cierto es que el arco iris fue durante mucho tiempo un
fenómeno tan asombroso como sobrecogedor. Tomado en ocasiones como portador de augurios,
en otras como inspiración de leyendas, y siempre como una obra de arte, nunca ha dejado de
parecer maravilloso al ser humano.
La Teoría Elemental del arco iris fue, sin embargo, anterior a Newton. Desarrollada primero por
Antonius de Demini en 1611, fue retomada y refinada luego por René Descartes. Posteriormente, la
Teoría Completa del arco iris fue propuesta en forma inicial por Thomas Young y, más tarde,
elaborada en detalle por Potter y Airy.
Cuando la luz solar incide sobre las gotas de lluvia, éstas se encargan de dispersarla en todas
direcciones, pero en algunas mucho más que en otras. Los rayos del Sol involucrados con la
formación del arco iris salen de las gotas de lluvia con un ángulo de aproximadamente 138 grados
respecto de la dirección que llevaban antes de entrar en ellas. Este es el "ángulo del arco iris",
descubierto por René Descartes en el año de 1637. Si la luz saliera a 180 grados, entonces
regresaría por donde vino. Como el ángulo de salida es de sólo 138 grados, la luz no se refleja
exactamente hacia su origen. Esto hace posible que el arco iris sea visible para nosotros, que no
solemos encontramos exactamente entre el Sol y la lluvia. De manera que siempre, si nos
colocamos de frente a un arco iris, el Sol estará detrás de nosotros.
Para ser más precisos, es la luz amarilla la que es dispersada a 138 grados de su trayectoria
original. La luz de otros colores es dispersada en ángulos algo distintos. La luz roja del arco iris se
dispersa en una dirección ligeramente menor que 138 grados, mientras que la luz violeta sale de
las gotas de lluvia en un ángulo un poco mayor.
Un rayo de luz solar, de los que "hacen" un arco iris, cambia su dirección tres veces mientras se
mueve a través de una gota de lluvia: Primero entra en la gota, lo cual ocasiona que se refracte
ligeramente. Entonces se mueve hacia el extremo opuesto de la gota, y se refleja en la cara interna
de la misma. Finalmente, vuelve a refractarse cuando sale de la gota de lluvia en forma de luz
dispersa.La descomposición en colores es posible porque el índice de refracción de la gota de
agua es ligeramente distinto para cada longitud de onda, para cada color del arco iris.

La luz solar emerge de muchas gotas de lluvia a un tiempo. El efecto combinado es un mosaico de
pequeños destellos de luz dispersados por muchas gotas de lluvia, distribuido como un arco en el
cielo. Los diversos tamaños y formas de las gotas afectan la intensidad de los colores del arco iris.
Gotas pequeñas hacen un arco iris pálido y de colores con tonalidades pastel; gotas grandes
producen colores muy vivos. Además, las gotas grandes son aplastadas por la resistencia del aire
mientras caen. Esta distorsión ocasiona que el "final" del arco iris tenga colores más intensos que
la cresta. Quizás sea ésta la causa de la leyenda que sugiere la existencia de una olla que contiene
oro resplandeciente en el final del arco iris.

A veces, es posible ver también lo que se conoce como arco iris secundario, el cual es más débil y
presenta los colores invertidos. El arco iris primario, que hemos dado en llamar simplemente "arco
iris", es siempre un arco interior del arco iris secundario. Este segundo arco existe porque ciertos
rayos de luz se reflejan una vez más dentro de la gota y se dispersan luego en un ángulo de
aproximadamente 130 grados.

Es interesante señalar que ninguna luz emerge en la región entre los arco iris primario y
secundario. Esto coincide con algunas observaciones, que señalan que la región entre los dos
arcos es muy oscura, mientras que en la parte exterior del arco secundario y en la parte interior del
arco primario es visible una considerable cantidad de luz. Esta zona oscura es conocida como
"Banda de Alejandro".

Teóricamente, tres, cuatro y cinco reflexiones de los rayos solares dentro de las gotas de lluvia
producirán otros tantos arco iris. Los arcos tercero y cuarto están localizados entre el observador y
el Sol pero, debido a que la luz solar directa es muy brillante comparada con los arcos débiles,
probablemente el fenómeno nunca será observado. Sin embargo, el quinto arco iris se produce en
la misma parte del cielo que los arcos primario y secundario, y debería poder verse excepto por lo
tenue de su luz. Es posible, en un experimento de laboratorio, demostrar que se pueden conseguir
hasta 13 arcos iris visibles, aunque, lógicamente su luminosidad se reduce considerablemente.

En algunas ocasiones, cuando los arco iris primario y secundario son muy brillantes, se puede
observar un tercero dentro del primario y un cuarto fuera del secundario. A estos arcos se les llama
arcos supernumerarios y se deben a efectos especiales de interferencia luminosa.

Alguien que ve un arco iris, en realidad no está viendo cosa alguna que esté en un sitio fijo. El arco
iris es sólo un fantasma, una imagen. Se cuenta que un pasajero de un pequeño avión le pidió una
vez al piloto de la aeronave que cruzara el centro del arco iris. El arco iris nunca fue creciendo
conforme el avión volaba hacia él. Luego de un rato, el arco iris se desvaneció, pues el avión voló
fuera del área donde la lluvia lo producía. Así, este inocente pasajero se quedó con las ganas de
volar a través del arco iris.

Cuando alguien mira un arco iris, lo que está viendo en realidad es luz dispersada por ciertas gotas
de lluvia. Otra persona que se encuentre al lado del primer observador verá luz dispersada por
otras gotas. De manera que, aunque suene gracioso, puede decirse que cada quien ve su propio
arco iris, distinto (hablando en un sentido estricto) del que ven todos los demás.

Si las condiciones atmosféricas y el sitio de observación son perfectos, entonces la lluvia y el Sol
trabajan juntos para crear un anillo de luz completo, denominado arco iris circular.
Desgraciadamente, no es posible ver un arco iris circular desde la superficie de la Tierra, debido a
que el horizonte limita considerablemente el campo de visión. Así, aunque las condiciones
atmosféricas sean las que se requieren para un arco iris circular, no es posible admirar este bello
fenómeno porque la parte de abajo del círculo es bloqueada por el horizonte. De tal suerte que
siempre vemos los arco iris como arcos, mas no como círculos en el cielo.

Respecto de las condiciones para ver un arco iris se reducen a que el observador tiene que estar
localizado entre el sol y una lluvia de gotas esféricas (una lluvia uniforme). Es posible que el
observador crea que la lluvia no es uniforme donde él se encuentra, pero sí debe serlo desde
donde localizaría el arco iris. ¿Y cuando son las gotas esféricas? Las gotas son esféricas cuando
caen a una velocidad uniforme, constante. Esto es posible en condiciones de aceleración
gravitatoria contando con las fuerzas viscosas de oposición del aire. Cuando se cumple que la
velocidad de las gotas es uniforme, la gota adquiere un volumen máximo con la mínima superficie
(esfera). Sólo en estas condiciones es posible la dispersión luminosa dentro de la gota y por tanto
el arco iris, aunque ligeras variaciones de la esfera puedan dar diversas variaciones en un arco iris.
Por lo tanto, la lluvia no debe ser torrencial, ni estar afectada por el viento. Es por ello que no
siempre se contempla el arco iris cuando hay lluvia y sol.

Es importante notar la altura del Sol cuando uno observa un arco iris, pues es algo que ayuda a
determinar qué tanto alcanza uno a ver de él: cuanto más bajo se encuentre el Sol, más alta será la
cresta del arco iris y viceversa. Alguien que pueda elevarse un poco sobre la superficie de la Tierra,
se daría cuenta de que ciertos arco iris continúan por debajo del horizonte. Quienes escalan
montañas altas han logrado ver en ocasiones una buena parte de arco iris circulares completos.
Pero ni siquiera las montañas poseen la suficiente altura como para poder llegar a observar un
arco iris circular en su totalidad.

Los aviadores han reportado algunas veces haber visto genuinos arco iris circulares completos, los
cuales curiosamente han pasado inadvertidos para los pasajeros de sus aeronaves. Esto puede
deberse a que las ventanas de los viajeros son muy estrechas y ofrecen un campo de visión muy
reducido, a diferencia del impresionante campo visual que tiene el piloto.

Descomposición de la luz en una gota de agua.De manera que, si usted es de las personas que
viajan muy a menudo en avión, no desprecie el asiento de ventanilla. Porque, durante un día
lluvioso y con un poco de suerte, tal vez llegue a ver un círculo de brillantes colores suspendido en
el cielo azul.
Una ilusión óptica es cualquier ilusión del sentido de la vista, que nos lleva a percibir la realidad
erróneamente. Éstas pueden ser de carácter fisiológico (como el encandilamiento tras ver una luz
potente) o cognitivo (como la variación en el tamaño aparente de la luna, que parece ser más chica
cuando está sobre nosotros y más grande cuando la vemos cerca del horizonte).

Increiblemente, el cuadrado A es exactamente del mismo color que el cuadrado BNo están
sometidos a la voluntad y pueden variar entre una persona y otra, dependiendo de factores como:
agudeza visual, campimetría, daltonismo, astigmatismo y otros.

Entender estos fenómenos es útil para comprender las limitaciones del sentido visual del ser
humano y la posibilidad de distorsión, ya sea en lo relativo a la forma, el color, la dimensión y la
perspectiva de lo observado.

Muchos artistas han aprovechado las ilusiones ópticas para dar a sus obras un aspecto mágico, de
profundidad, de ambigüedad y contrastes.

El cine también produce una ilusión óptica, ya que una película consiste en una serie de fotografías
que al ser proyectadas, dan la sensación de movimiento aparente. Los efectos especiales de las
películas, también se basan en ilusiones ópticas.

Algunas ilusiones ópticas son:

Ilusión de la cuadrícula
Espejismo
Holograma
Estereograma

Aunque no lo parezca, las líneas verticales son iguales y paralelasMuchos artistas han trabajado
con las ilusiones ópticas, incluyen M. C. Escher, Salvador Dalí, Giuseppe Arcimboldo, Marcel
Duchamp, Oscar Reutersvär y algunos otros que han trabajado con la perspectiva.

La ilusión óptica también se usa en el cine, conocida es la técnica de la perspectiva forzada, que
nos hace ver maquetas pequeñas como escenarios reales y gigantes

Aberración longitudinal

En óptica la aberración longitudinal es la distancia a lo largo del eje óptico desde el foco de los
rayos paraxiales hasta el punto en que los rayos provenientes de los bordes exteriores de las
lentes o superficies reflectantes intersectan dicho eje.
En la aberración de cromatismo, la distancia, medida sobre el eje óptico, entre los focos de dos
colores patrón.
Termodinámica
Los sistemas físicos que encontramos en la Naturaleza consisten en un agregado de un número
muy grande de átomos.

La materia está en uno de los tres estados: sólido, líquido o gas: En los sólidos, las posiciones
relativas (distancia y orientación) de los átomos o moléculas son fijas. En los líquidos las distancias
entre las moléculas son fijas, pero su orientación relativa cambia continuamente. En los gases, las
distancias entre moléculas, son en general, mucho más grandes que las dimensiones de las
mismas. Las fuerzas entre las moléculas son muy débiles y se manifiestan principalmente en el
momento en el que chocan. Por esta razón, los gases son más fáciles de describir que los sólidos y
que los líquidos.

El gas contenido en un recipiente, está formado por un número muy grande de moléculas,
6.02·1023 moléculas en un mol de sustancia. Cuando se intenta describir un sistema con un número
tan grande de partículas resulta inútil (e imposible) describir el movimiento individual de cada
componente. Por lo que mediremos magnitudes que se refieren al conjunto: volumen ocupado por
una masa de gas, presión que ejerce el gas sobre las paredes del recipiente y su temperatura.
Estas cantidades físicas se denominan macroscópicas, en el sentido de que no se refieren al
movimiento individual de cada partícula, sino del sistema en su conjunto.

Conceptos básicos

Denominamos estado de equilibrio de un sistema


cuando las variables macroscópicas presión p,
volumen V, y temperatura T, no cambian. El estado
de equilibrio es dinámico en el sentido de que los
constituyentes del sistema se mueven
continuamente.
El estado del sistema se representa por un punto
en un diagrama p-V. Podemos llevar al sistema
desde un estado inicial a otro final a través de una
sucesión de estados de equilibrio.

Se denomina ecuación de estado a la relación que existe entre las variables p, V, y T. La ecuación
de estado más sencilla es la de un gas ideal pV=nRT, donde n representa el número de moles, y R
la constante de los gases R=0.082 atm·l/(K mol).

Se denomina energía interna del sistema a la suma de las energías de todas sus partículas. En un
gas ideal las moléculas solamente tienen energía cinética, los choques entre las moléculas se
suponen perfectamente elásticos, la energía interna solamente depende de la temperatura.

Trabajo mecánico hecho por o sobre el sistema.

Consideremos, por ejemplo, un gas dentro de un cilindro.


Las moléculas del gas chocan contra las paredes
cambiando la dirección de su velocidad, o de su momento
lineal. El efecto del gran número de colisiones que tienen
lugar en la unidad de tiempo, se puede representar por
una fuerza F que actúa sobre toda la superficie de la
pared.
Si una de las paredes es un pistón móvil de área A, y éste se desplaza dx, el intercambio de
energía del sistema con el mundo exterior puede expresarse como el trabajo realizado por la fuerza
F a lo largo del desplazamiento dx.

dW=-Fdx=-pAdx=-pdV

Siendo dV el cambio del volumen del gas.

El signo menos indica que si el sistema realiza trabajo (incrementa su volumen) su energía interna
disminuye, pero si se realiza trabajo sobre el sistema (disminuye su volumen) su energía interna
aumenta.

El trabajo total realizado cuando el sistema pasa del estado A cuyo volumen es VA al estado B cuyo
volumen es VB.

El calor
El calor no es una nueva forma de energía, es el nombre dado a una transferencia de energía de
tipo especial en el que intervienen gran número de partículas. Se denomina calor a la energía
intercambiada entre un sistema y el medio que le rodea debido a los choques entre las moléculas
del sistema y el exterior al mismo y siempre que no pueda expresarse macroscópicamente como
producto de fuerza por desplazamiento.

Se debe distinguir también entre los conceptos de calor y energía interna de una sustancia. El flujo
de calor es una transferencia de energía que se lleva a cabo como consecuencia de las diferencias
de temperatura. La energía interna es la energía que tiene una sustancia debido a su temperatura,
que es esencialmente a escala microscópica la energía cinética de sus moléculas.

El calor se considera positivo cuando fluye hacia el sistema, cuando incrementa su energía interna.
El calor se considera negativo cuando fluye desde el sistema, por lo que disminuye su energía
interna.

Cuando una sustancia incrementa su temperatura de TA a TB, el calor absorbido se obtiene


multiplicando la masa (o el número de moles n) por el calor específico c y por la diferencia de
temperatura TB-TA.

Q=nc(TB-TA)

Cuando no hay intercambio de energía (en forma de calor) entre dos sistemas, decimos que están
en equilibrio térmico. Las moléculas individuales pueden intercambiar energía, pero en promedio, la
misma cantidad de energía fluye en ambas direcciones, no habiendo intercambio neto. Para que
dos sistemas estén en equilibrio térmico deben de estar a la misma temperatura.

Primera ley de la Termodinámica


La primera ley no es otra cosa que el principio de conservación de la energía aplicado a un sistema
de muchísimas partículas. A cada estado del sistema le corresponde una energía interna U.
Cuando el sistema pasa del estado A al estado B, su energía interna cambia en

U=UB-UA
Supongamos que el sistema está en el estado A y realiza un trabajo W, expandiéndose. Dicho
trabajo mecánico da lugar a un cambio (disminución) de la energía interna de sistema

U=-W

También podemos cambiar el estado del sistema poniéndolo en contacto térmico con otro sistema
a diferente temperatura. Si fluye una cantidad de calor Q del segundo al primero, aumenta su
energía interna de éste último en

U=Q

Si el sistema experimenta una transformación cíclica, el cambio en la energía interna es cero, ya


que se parte del estado A y se regresa al mismo estado, U=0. Sin embargo, durante el ciclo el
sistema ha efectuado un trabajo, que ha de ser proporcionado por los alrededores en forma de
transferencia de calor, para preservar el principio de conservación de la energía, W=Q.

• Si la transformación no es cíclica U 0
• Si no se realiza trabajo mecánico U=Q
• Si el sistema está aislado térmicamente U=-W
• Si el sistema realiza trabajo, U disminuye
• Si se realiza trabajo sobre el sistema, U aumenta
• Si el sistema absorbe calor al ponerlo en contacto térmico con un foco a temperatura
superior, U aumenta.
• Si el sistema cede calor al ponerlo en contacto térmico con un foco a una temperatura
inferior, U disminuye.

Todo estos casos, los podemos resumir en una única ecuación que describe la conservación de la
energía del sistema.

U=Q-W

Si el estado inicial y final están muy próximos entre sí, el primer principio se escribe

dU=dQ-pdV

Transformaciones
La energía interna U del sistema depende únicamente del estado del sistema, en un gas ideal
depende solamente de su temperatura. Mientras que la transferencia de calor o el trabajo
mecánico dependen del tipo de transformación o camino seguido para ir del estado inicial al final.

Isócora o a volumen constante


No hay variación de volumen del gas, luego
W=0

Q=ncV(TB-TA)

Donde cV es el calor específico a volumen constante

Isóbara o a presión constante

W=p(vB-vA)
Q=ncP(TB-TA)

Donde cP es el calor específico a presión constante

Calores específicos a presión constante cP y a volumen constante cV


En una transformación a volumen constante dU=dQ=ncVdT

En una transformación a presión constante dU=ncPdT-pdV

Como la variación de energía interna dU no depende del tipo de transformación, sino solamente del
estado inicial y del estado final, la segunda ecuación se puede escribir como ncVdT=ncPdT-pdV

Empleando la ecuación de estado de un gas ideal pV=nRT, obtenemos la relación entre los calores
específicos a presión constante y a volumen constante

cV=cP-R

Para un gas monoatómico

Para un gas diatómico

La variación de energía interna en un proceso AB es U=ncV(TB-TA)


Se denomina índice adiabático de un gas ideal al cociente

Isoterma o a temperatura constante


pV=nRT

La curva p=cte/V que representa la transformación en un diagrama p-Ves una hipérbola cuyas
asíntotas son los ejes coordenados.

U=0

Q=W

Adiabática o aislada térmicamente, Q=0


La ecuación de una transformación adiabática la hemos obtenido a partir de un modelo simple de
gas ideal. Ahora vamos a obtenerla a partir del primer principio de la Termodinámica.

Ecuación de la transformación adiabática


Del primer principio dU=-pdV

Integrando

Donde el exponente de V se denomina índice adiabático del gas ideal

Si A y B son los estados inicial y final de una transformación adiabática se cumple que
Para calcular el trabajo es necesario efectuar una integración similar a la transformación isoterma.

Como podemos comprobar, el trabajo es igual a la variación de energía interna cambiada de signo

Si Q=0, entonces W=- U=-ncV(TB-TA)

• Química
Química es la ciencia que estudia la estructura, propiedades y transformaciones de la materia a
partir de su composición atómica, formando diferentes sustancias
Campo de trabajo: el átomo
Átomo de Helio Los orígenes de la teoría atómica se remontan a la Grecia antigua, a la escuela
filosófica de los atomistas. La base empírica para tratar a la teoría atómica de acuerdo con el
método científico se debe a un conjunto de trabajos aportados por Lavoiser, Proust, Richter, Dalton,
Gay-Lussac y Avogadro, entre otros, hacia principios del siglo XIX.

El átomo es la menor fracción de materia de interés directo para la química, está constituido por
diferentes partículas que poseen diferentes tipos de cargas, los electrones con carga negativa, los
protones con carga positiva y los neutrones que como su nombre indica son neutros (sin carga);
todos ellos aportan masa para contribuir al peso del átomo. El estudio explícito de las partículas
subatómicas es parte del dominio de la física, la química sólo está interesada en estas partículas
en tanto en cuanto éstas definan el comportamiento de átomos y moléculas.
Los átomos son las partes más pequeñas de un elemento (como el carbono, el hierro o el oxígeno).
Todos los átomos de un mismo elemento tienen la misma estructura electrónica (responsable esta
de la gran mayoría de las características químicas), pudiendo diferir en la cantidad de neutrones
(isótopos). Las moléculas son las partes más pequeñas de una sustancia (como el azúcar), y se
componen de átomos enlazados entre sí. Si tienen carga eléctrica, tanto átomos como moléculas
se llaman iones: cationes si son positivos, aniones si son negativos.

Como los átomos, las moléculas y los iones son muy pequeños, normalmente se trabaja con
enormes cantidades de ellos. El mol se usa como contador de unidades, como la docena (12) o el
millar (1000), y equivale a . Se dice que 12 gramos de carbono, o un gramo de hidrógeno, o 56
gramos de hierro, contienen aproximadamente un mol de átomos.

Dentro de los átomos, podemos encontrar un núcleo atómico y uno o más electrones. Los
electrones son muy importantes para las propiedades y las reacciones químicas.

Los enlaces son las uniones entre átomos para formar moléculas. Siempre que existe una
molécula es porque ésta es más estable que los átomos que la forman por separado. A la
diferencia de energía entre estos dos estados se le denomina energía de enlace.
Generalmente, los átomos se combinan en proporciones fijas para dar moléculas. Por ejemplo, dos
átomos de hidrógeno se combinan con uno de oxígeno para dar una molécula de agua. Esta
proporción fija se conoce como estequiometría.

Los enlaces son las uniones entre átomos para formar moléculas. Siempre que existe una
molécula es porque ésta es más estable que los átomos que la forman por separado. A la
diferencia de energía entre estos dos estados se le denomina energía de enlace.

Generalmente, los átomos se combinan en proporciones fijas para dar moléculas. Por ejemplo, dos
átomos de hidrógeno se combinan con uno de oxígeno para dar una molécula de agua. Esta
proporción fija se conoce como estequiometría.

Los orbitales son funciones matemáticas para describir procesos físicos: un orbital solo existe en el
sentido matemático, como pueden existir una suma, una parábola o una raíz cuadrada. Los átomos
y las moléculas son también idealizaciones y simplificaciones: un átomo sólo existe en vacío, una
molécula sólo existe en vacío, y, en sentido estricto, una molécula sólo se descompone en átomos
si se rompen todos sus enlaces.

En el "mundo real" sólo existen los materiales y las sustancias. Si se confunden los objetos reales
con los modelos teóricos que se usan para describirlos, es fácil caer en falacias lógicas.

En agua, y en otros disolventes (como la acetona o el alcohol), es posible disolver sustancias, de


forma que quedan disgregadas en las moléculas o iones que las componen (las disoluciones son
transparentes). Cuando se supera cierto límite, llamado solubilidad, la sustancia ya no se disuelve,
y queda, bien como precipitado en el fondo del recipiente, bien como suspensión, flotando en
pequeñas partículas (las suspensiones son opacas o traslúcidas).

Se denomina concentración a la medida de la cantidad de soluto por unidad de cantidad de


disolvente.

La concentración de una disolución se puede medir de diferentes formas, en función de la unidad


empleada para determinar las cantidades de soluto y disolvente. Las más usuales son:

g/l (Gramos por litro)


% p (Concentración porcentual en peso)
% V (Concentración porcentual en volumen)
M (Molaridad)
N (Normalidad)
m (molalidad)
x (fracción molar)
[editar]
Acidez
El pH es una escala logarítmica para describir la acidez de una disolución acuosa. Los ácidos,
como el zumo de limón y el vinagre, tienen un pH bajo (inferior a 7). Las bases, como la sosa o el
bicarbonato de sodio, tienen un pH alto (superior a 7).

Formulación y nomenclatura
La IUPAC, un organismo internacional, mantiene unas reglas para la formulación y nomenclatura
química. De esta forma, es posible referirse a los compuestos químicos de forma sistemática y sin
equívocos.

Mediante el uso de fórmulas químicas es posible también expresar de forma sistemática las
reacciones químicas, en forma de ecuación química.

Campos de la química

Doble hélice de la molécula de ADNBioquímica - la química de los seres vivos y los procesos de la
vida
Química analítica - determinación cualitativa y cuantitativa de la composición de las muestras
Química física - determinación de las leyes y las constantes fundamentales que rigen los procesos
Química inorgánica - síntesis y estudio de los compuestos que no se basan en cadenas de carbono
Química orgánica - síntesis y estudio de los compuestos basados en cadenas de carbono
Química técnica - la química aplicada a procesos industriales
y otras disciplinas de la química

Propiedades de la materia
En Física la materia es aquello de lo que están hechos los objetos que constituyen el Universo
observable, lo que en común tienen en su composición. La materia tiene dos propiedades que
juntas la caracterizan, y éstas son que ocupa un lugar en el espacio y que tiene masa. Junto con la
energía, de la que puede considerarse un caso, la materia forma la base de los fenómenos
objetivos. Como explicó Einstein, la materia y la energía son interconvertibles, de tal modo que
podríamos decir, en sus propias palabras, que la materia es energía superconcentrada y que la
energía es materia superdiluida.
La materia y sus propiedades
La materia es todo lo que existe en el Universo y está compuesto por partículas elementales.
La materia se organiza jerárquicamente en varios niveles. El nivel más complejo es la agrupación
en moléculas y éstas a su vez son agrupaciones de átomos.
Los constituyentes de los átomos, que sería el siguiente nivel son:
Protones: partículas cargadas de electricidad positiva.
Electrones: partículas cargadas de electricidad negativa.
Neutrones: partículas sin carga eléctrica.
A partir de aquí hay todo un conjunto de partículas subatómicas que acaban finalmente en los
quarks o constituyentes últimos de la materia.
Estados de agregación
Comúnmente la materia se presenta en uno de cuatro estados de agregación molecular: sólido,
líquido, gaseoso y plasma. De acuerdo con la teoría cinética molecular la materia se encuentra
formada por moléculas y estas se encuentran animadas de movimiento, el cual cambia
constantemente de dirección y velocidad cuando chocan o bajo el influjo de otras interacciones
físicas. Debido a este movimiento presentan energía cinética que tiende a separarlas, pero también
tienen una energía potencial que tiende a juntarlas. Por lo tanto el estado físico de una sustancia
puede ser:

Sólido: si la energía cinética es menor que la potencial.

Líquido: si la energía cinética y potencial son aproximadamente iguales.

Gaseoso: si la energía cinética es mayor que la potencial.

Plasma: Cuando la materia está muy caliente, tiene tanta energía cinética que los átomos no
pueden existir como tales y los componentes atómicos se disocian generando un gas altamente
ionizado y caliente. Dicho estado lo podemos encontrar en el sol.

A temperaturas extremadamente bajas se dan otros estados de la materia con propiedades


exóticas como la superfluidez.

Actualmente, 05 de Julio de 2005, se conocen hasta 9 estados de la materia, la mayoria de ellos se


dan en condiciones extremas de temperatura, presión , etc, como pueden ser los condensados de
Bose-Einstein o un gas de átomos que, a altas temperaturas, se comporta como un superfluido, o
fluido perfecto.

Ley de la conservación de la materia

Lavoiser un científico francés midió cuidadosamnete la masa de las sustancias antes y despues de
diversas reacciones químicas y llegó a la conclusión de que la materia no se puede crear ni
destruir, solon se transforma durante las reacciones. Lo anterior se conoce como la ley de la
conservación de la energía, y es una de las leyes más importantes de la Química. Se enuncia así:

La materia no se crea ni se destruye, sólo se transforma.


La conservación de la materia no es un hecho evidente. Por ejemplo, cuando cocinamos arroz o
cocemos unos pulpos, parece que la cantidad de materia aumenta o disminuye. Lo mismo
podemos pensar cuando engordamos o adelgazamos.Parece que la materia se crea cuando
engordamos y desaparece cuando adelgazamos. Sin Embargo, y aunque no sea evidente osea
obvio!, la cantidad de materia siempre es la misma, lo único que pasas es que se transforma en
otro tipo de materia o en energía.
Propiedades de la Materia Ordinaria
Propiedades generales
Las presentan los cuerpos sin distinción y por tal motivo no permiten diferenciar una sustancia de
otra. Algunas de las propiedades generales se les da el nombre de extensivas, pues su valor
depende de la cantidad de materia, tal es el caso de la masa, peso, volumen, la inercia, la energía,
impenetrabilidad, porosidad, divisibilidad, elasticidad, maleabilidad, tenacidad y dureza entre otras.

Propiedades características
Permiten distinguir una sustancia de otra. También reciben el nombre de propiedades intensivas
porque su valor es independiente de la cantidad de materia. Las propiedades características se
clasifican en:

Físicas
Es el caso de la densidad, el punto de fusión, el punto de ebullición, el coeficiente de solubilidad, el
índice de refracción, el módulo de Young y las propiedades organolépticas.

Químicas
Están contituidas por el comportamiento de las sustancias al combinarse con otras, y los cambios
con su estructura íntima como consecuencia de los efectos de diferentes clases de energía.

Ejemplos:

corrosividad de ácidos
poder calorífico
acidez
reactividad
Estequiometría
La estequiometría (del griego στοιχειον, stoicheion, letra o elemento básico constitutivo y μετρον,
métron, medida) hace referencia al número relativo de átomos de varios elementos encontrados en
una sustancia química y a menudo resulta útil en la calificación de una reacción química.

La estequiometría es el estudio de las relaciones cuantitativas en las reacciones químicas. Las


relaciones molares y másicas se pueden obtener de una ecuación balanceada. En la mayoría de
los problemas estequiométricos, las masas de los reactantes están dadas y se buscan las masas
de los productos. Se puede interpretar una ecuación química en términos del número de moléculas
(o iones o unidades fórmula) o en términos del número de moles de moléculas dependiendo de las
necesidades.

Química orgánica
La química orgánica es la química de los compuestos de carbono.
El nombre engañoso <<orgánico>> es una reliquia de los tiempos en que los compuestos químicos
se dividían en dos clases: inorgánicos y orgánicos, según su procedencia. Los compuestos
inorgánicos eran aquellos que procedían de los minerales, y los orgánicos, los que se obtenían de
fuentes vegetales y animales, o sea, de materiales producidos por organismos vivos. De hecho,
hasta aproximadamente 1850 muchos químicos creían que los compuestos orgánicos debían tener
su origen en organismos vivos y, en consecuencia, jamás podrían ser sintetizados a partir de
sustancias inorgánicas.

Los compuestos de fuentes orgánicas tenían en común lo siguiente: todos contenían el elemento
carbono. Aun después de haber quedado establecido que estos compuestos no tenían
necesariamente que proceder de fuentes vivas, ya que podían hacerse en el laboratorio, resultó
conveniente mantener el nombre orgánico para describir éstos y otros compuestos similares,
persistiendo hasta la fecha esta división entre compuestos inorgánicos y orgánicos.

Aunque aún hoy muchos compuestos del carbono se aíslan mejor a partir de fuentes vegetales y
animales, la mayoría de ellos se obtienen por síntesis. A veces se sintetizan a partir de sustancias
inorgánicas, como carbonatos y cianuros, pero más a menudo se parte de otros compuestos
orgánicos. Hay dos grandes fuentes de las que se pueden obtener sustancias orgánicas simples: el
petróleo y el carbón. (Ambas son <<orgánicas>> en el sentido tradicional, puesto que son producto
de la descomposición de plantas y animales.) Estas sustancias simples se emplean como
elementos básicos, a partir de los cuales se pueden hacer compuestos más complicados.

Reconocemos al petróleo y al carbón como combustibles fósiles, acumulados durante milenios y


no renovables que se están consumiendo a una velocidad alarmante, en particular el petróleo, para
satisfacer nuestra siempre creciente demanda de energía. Hoy, menos del 10% del petróleo
utilizado se consume en la fabricación de productos químicos; la mayor parte, sencillamente, se
quema para proporcionar energía. Afortunadamente, existen otras fuentes de energía: la solar, la
geotérmica y la nuclear, pero ¿dónde habremos de encontrar una reserva sustitutiva de materias
orgánicas? Tarde o temprano, por supuestos, tendremos que volver al lugar de donde proceden
originalmente los combustibles fósiles -la biomasa- aunque ahora directamente, prescindiendo de
los milenios que intervinieron. La biomasa es renovable y, utilizada adecuadamente, puede
perdurar en este planeta tanto como nosotros mismos. Mientras tanto, se ha sugerido que el
petróleo es demasiado valioso para ser quemado.

¿Qué tienen de especial los compuestos del carbono que justifique su separación de los otros
ciento y pico elementos de la tabla periódica? Al menos parcialmente, la respuesta parece ser
ésta: hay muchísimos compuestos del carbono, y sus moléculas pueden ser muy grandes y
complejas.

El número de compuestos que contienen carbono es muchas veces mayor que el número de los
que no lo contienen. Estos compuestos orgánicos se han dividido en familias que, en general, no
tienen equivalentes entre los inorgánicos.

Se conocen moléculas orgánicas que contienen miles de átomos, cuyo ordenamiento puede ser
muy complicado, aun en moléculas relativamente pequeñas. Uno de los principales problemas en
química orgánica es encontrar cómo se ordenan los átomos en las moléculas, o sea, determinar
las estructuras de los compuestos.

Hay muchas maneras en que estas complicadas moléculas pueden romperse o reordenarse para
generar moléculas nuevas; hay muchas formas de agregar átomos a estas moléculas o de sustituir
átomos nuevos por antiguos. Una parte importante de la química orgánica se dedica a encontrar
estas reacciones, cómo suceden y cómo pueden emplearse para sintetizar las sustancias que
queremos.
¿Que tiene de especial el carbono para formar tantos compuestos? La respuesta a esta pregunta
se le ocurrió a August Kekulé en 1854 durante un viaje en ómnibus en Londres.

<<Era una noche de verano. Regresaba en el último ómnibus absorto como siempre, por las calles
desiertas de la ciudad, que a otras horas están llenas de vida. De pronto los vi, los átomos
danzaban ante mis ojos... Vi cómo, frecuentemente, dos pequeños átomos se unían formando un
par; vi cómo uno más grande aceptaba dos más pequeños; cómo uno aún mayor sujetaba a tres e
incluso a cuatro de loa más pequeños, mientras el conjunto continuaba arremolinándose en una
danza vertiginosa. Vi cómo los más grandes formaban una cadena... Pasé parte de la noche
vertiendo al papel algunos esbozos de estas formas soñadas.>> ( August Kekulé, 1890.)

Los átomos de carbono pueden unirse entre sí hasta grados imposibles para los átomos de
cualquier otro elemento. Pueden formar cadenas de miles de átomos o anillos de todos los
tamaños; estas cadenas y anillos pueden tener ramificaciones y uniones cruzadas. A los carbonos
de estas cadenas y anillos se unen otros átomos ; principalmente de hidrógeno, pero también
de flúor, cloro, bromo, yodo, oxígeno, nitrógeno, azufre, fósforo y muchos otros. [Véase, a modo
de ejemplos, la celulosa (Sec. 39.11), la clorofila (Sec. 35.1) y la oxitocina (sec. 40.8).]

Cada ordenamiento atómico diferente corresponde a un compuesto distinto, y cada compuesto


tiene su conjunto de características químicas y físicas. No es sorprendente que hoy se conozcan
cerca de diez millones de compuestos del carbono y que este número aumente en medio millón
cada año. No es de sorprender que el estudio de su química sea un campo especializado.

La química orgánica es un campo inmensamente importante para la tecnología: es la química de


los colorantes y las drogas, del papel y las tintas, de las pinturas y los plásticos, de la gasolina y lo
neumáticos; es la química de nuestros alimentos y de nuestro vestuario.
La química orgánica es fundamental para la biología y la medicina. Los organismos vivos están
constituidos principalmente por sustancias orgánicas, además de agua; las moléculas de la
<<biología molecular>> son orgánicas. A nivel molecular, la biología es química orgánica.

Parte 2
La teoría estructural
<<La química orgánica actual está a punto de enloquecerme. Se me figura como un bosque
tropical primigenio lleno de las cosas más notables, una selva infinita y terrible en la que uno no se
atreve a penetrar porque parece que no hay salida. >> (Friedrich Wohler, 1835.)

¿Cómo podemos siquiera comenzar el estudio de una materia tan enormemente compleja? ¿Es
hoy la química orgánica como la veía Wohler hace siglo y medio? La selva aún está ahí- en gran
parte inexplorada- y en ella hay cosas mucho más notables que las que Wohler puedo haber
soñado. Sin embargo, mientras no vayamos demasiado lejos, ni demasiado aprisa, podremos
penetrar en ella sin el temor a perdernos, pues tenemos un mapa: la teoría estructural.
La teoría estructuras es la base sobre la cual se han acumulado millones de hechos acerca de
cientos de miles de compuestos individuales, ordenándolos en forma sistemática. Es la base sobre
la cual estos hechos pueden explicarse y comprenderse mejor.
La teoría estructural es el marco de ideas acerca de cómo se unen los átomos para formar
moléculas. Tiene que ver con el orden en que se juntan los átomos y con los electrones que los
mantienen unidos. Tiene que ver con las formas y tamaños de las moléculas que generan estros
átomos y con el modo de distribución de los electrones a su alrededor.

A menudo se presenta una molécula por un dibujo o un modelo; a veces por varios dibujos o varios
modelos. Los núcleos atómicos se presentan por letras o esferas de plástico, y los electrones que
los unen, por líneas, punto o varillas de plásticos. Estos modelos y dibujos aproximados son útiles
para nosotros sólo si entendemos lo qué representan. Interpretados en función de la teoría
estructural, nos revelan bastante acerca del compuesto cuyas moléculas representan; cómo
proceder para hacerlo, qué propiedades físicas se pueden esperar de él- punto de fusión, punto de
ebullición, densidad, tipo de disolventes en que se disolverá el compuesto, si será coloreado o no,
qué tipo de comportamiento químico esperar-, la clase de reactivos con los que reaccionará y el
tipo de productos que formará, y si reaccionará rápida y lentamente. Se podría saber todo esto
acerca de un compuesto desconocido para nosotros simplemente partiendo de su fórmula
estructural y de los que entendemos que ésta significa.

Parte 3
1.3 El enlace químico antes de 1926

Toda consideración de la estructura de las moléculas debe comenzar con un estudio de los enlaces
químicos, las fuerzas que mantienen unidos a los átomos en una molécula. Estudiaremos los
enlaces químicos en función de la teoría desarrollada antes de 1926, y luego en función de la
teoría actual. La introducción de la mecánica cuántica en 1926 provocó un gran cambio en las
ideas sobre la formación de las moléculas. Por conveniencia, aún suelen emplearse las
representaciones pictóricas y el lenguaje iniciales, más simples. Dándoles una interpretación
moderna.

En 1916 se describieron dos clases de enlace químico: el enlace iónico, por Walter Kossel
(Alemania), y el enlace covalente, por G. N. Lewis ( de la Universidad de California).
Tanto Kossel como Lewis basaron sus ideas en el siguiente concepto del átomo.
Un núcleo cargado positivamente está rodeado de electrones ordenados en capas o niveles
energéticos concéntricos. Hay un máximo de electrones que se pueden acomodar en cada capa:
dos en la primera, ocho en la segunda, ocho o dieciocho en la tercera, y así sucesivamente. La
estabilidad máxima se alcanza cuando se completa la capa externa, como en los gases nobles.
Tanto los enlaces iónicos como los covalentes surgen de la tendencia de los átomos a alcanzar
esta configuración electrónica estable.
El enlace iónico resulta de la transferencia de electrones, como, por ejemplo, en la formación del
fluoruro de litio. Un átomo de litio tiene dos electrones en su capa interna y uno en su capa
externa o de valencia; la pérdida de un electrón dejaría al litio con una capa externa completa de
dos electrones. Un átomo de flúor tiene dos electrones en su capa interna y siete en su capa de
valencia; la ganancia de un electrón daría el flúor una capa externa completa con ocho electrones.
El fluoruro de litio se forma por la transferencia de un electrón del litio al flúor; el litio tiene ahora
una carga positiva, y el flúor, una negativa. La atracción electrostática entre iones de carga opuesta
se denomina enlace iónico, el cual es típico en las sales formadas por combinación de elementos
metálicos (elementos electropositivos) del extremo izquierdo de la tabla periódica con los
elementos no metálicos ( elementos electronegativos) del extremo derecho.

El enlace covalente resulta de compartir electrones, como, por ejemplo, en la formación de la


molécula de hidrógeno. Cada átomo de hidrógeno tiene un solo electrón; al compartir un par de
electrones, ambos hidrógenos pueden completar sus capas de dos. Dos átomos de flúor, cada
uno con siete electrones. De forma similar, podemos visualizar la formación de HF, H2O, NH3, CH4
y CF4. También aquí la fuerza de unión es la atracción electrostática, esta vez entre cada electrón y
ambos núcleos.

H + H H H

F + F F F

H + F H F
H
2H + O H O

H
3H + N H N
H
H
4H + C H C
H
F
4 F + C F C F
F

El enlace covalente es típico de los compuestos del carbono; es el enlace de mayor importancia
en el estudio de la química orgánica.

Parte 4
1.4 Mecánica cuántica

En 1926 salió a la luz la teoría conocida como mecánica cuántica, cuyo desarrollo, en la forma más
útil para los químicos, se debe a Erwin Schrodinger (de la Universidad de Zurich), que desarrolló
expresiones matemáticas para describir el movimiento de un electrón en función de su energía.
Estas expresiones matemáticas se conocen como ecuaciones de onda, puesto que se basan en
el concepto de que el electrón no sólo presenta propiedades de partículas, sino también de ondas.
Una ecuación de onda tiene diversas soluciones, llamadas funciones de onda, y cada una
corresponde a un nivel de energía diferente para el electrón. Salvo para los sistemas más
simples, las matemáticas correspondientes a la obtención de soluciones consumen tanto tiempo
esto lo cambiarán algún día los computadores superveloces que sólo es posible obtener
soluciones aproximadas. Aun así, la mecánica cuántica da respuestas que concuerdan tan bien
con los hechos que es aceptada hoy día como la herramienta más útil para la comprensión de las
estructuras atómica y molecular.

<<La mecánica ondulatoria nos ha indicado lo que está sucediendo, y al nivel más profundo
posible... ha tomado los conceptos del químico experimental la percepción imaginativa que
poseían quienes vivieron en sus laboratorios y que permitieron que sus mentes recrearan
creativamente los hechos que habían descubierto y ha demostrado cómo todos encajaban; cómo,
si se quiere, todos ellos presentan una sola lógica, y cómo pueden develarse esta relación
escondida entre ellos.>> (C. A. Coulson. Londres, 1951.)

Parte 5
1.5 Orbitales atómicos

Una ecuación de onda no puede indicarnos exactamente el lugar en que se encuentra un electrón
en un instante particular ni lo rápido que se está moviendo; no nos permite dibujar una órbita
precisa en torno al núcleo. En cambio, nos revela la probabilidad de encontrar el electrón en
cualquier lugar particular.

La región en el espacio en la que es probable que se encuentre un electrón se denomina orbital.


Hay diferentes tipos de orbitales, con tamaño y formas diferentes, y que están dispuestos en torno
al núcleo de maneras específicas. El tipo particular de orbital que ocupa un electrón depende de
su energía. Nos interesan especialmente las formas de estos orbitales y sus posiciones
recíprocas, puesto que determinan o, más exactamente, puede considerarse que determinan las
disposición espacial de los átomos de una molécula e incluso ayudan a determinar su
comportamiento químico.

Es útil visualizar un electrón como si se difundiera para formar una nube. Esta nube se puede
imaginar como una especie de fotografía borrosa del electrón en rápido movimiento. La forma de
la nube es la forma del orbital. La nube no es uniforme, sino que es más densa en aquellas
regiones en las cuales la probabilidad de hallar el electrón es máxima, o sea, en aquellas regiones
donde la carga negativa promedio, o densidad electrónica, es máxima.

Veamos cuáles son las formas de algunos orbitales atómicos. El orbital correspondiente al nivel
energético más bajo se denomina 1s, y es una esfera cuyo centro coincide con el núcleo del
átomo, como se representa en la figura 1.1. Un orbital no tiene un límite definido, puesto que hay
una probabilidad, aunque muy pequeña, de encontrar el electrón esencialmente separado del
átomo, e incluso sobre otro átomo. Sin embargo, la probabilidad decrece muy rápidamente más
allá de cierta distancia del núcleo, de modo que la distribución de carga está bastante bien
representada por la nube electrónica de la figura 1.1a. Para simplificar, podemos incluso
representar un orbital como en la figura 1.1b, en la que la línea continua encierra la región donde el
electrón permanece durante la mayor parte del tiempo (por ejemplo, el 95%).
S

(a) (b)
Fig. 1.1 Orbitales atómicos: orbital s. El núcleo está en el centro.

En el nivel energético siguiente se encuentra el orbital 2s, que también es una esfera con su centro
en el núcleo atómico, y es naturalmente mayor que el 1s: la mayor energía (menor estabilidad) se
debe a la mayor distancia promedio entre el electrón y el núcleo, con la consiguiente disminución
de la atracción electrostática. (Considérese el trabajo que debe realizarse la energía a introducir en
el sistema para alejar un electrón del núcleo, que tiene carga opuesta.)

A continuación hay tres orbitales de igual energía, llamados orbitales 2p, ilustrados en la figura 1.2.
Cada orbital 2p tiene forma de huso y consta de dos lóbulos entre los cuales está el núcleo
atómico. El eje de cada orbital 2p es perpendicular a los ejes de los otros dos. Se diferencian por
los símbolos 2px, 2py y 2pz, en los que x, y y z son los ejes correspondientes.

(a)

y x
(b)
z
Pz

Px Py
x
y
(c)
Fig. 1.2 Orbitales atómicos: orbitales p. Ejes mutuamente perpendiculares.
(a) Sección transversal mostrando los dos lóbulos de un orbital individual.
(b) Forma aproximada de pares de elipsoides distorsionados.
(c) Representación como pares de esferas que no llegan a tocarse.

Parte 6
1.6 Configuración electrónica. Principio de exclusión de Pauli

Hay una serie de <<reglas>> que determinan el modo de distribución de los electrones de un
átomo, es decir, que determinan la configuración electrónica de un átomo.
La más fundamental de estas reglas es el principio de exclusión de Pauli: un orbital atómico
determinado puede ser ocupado por sólo dos electrones, que para ello deben tener espines
opuestos. Estos electrones de espines opuestos se consideran apareados. Electrones de igual
espín tienden a separarse lo máximo posible. Esta tendencia es el más importante de los factores
que determinan las formas y propiedades de las moléculas.

El principio de exclusión, desarrollado en 1925 por Wolfgang Pauli hijo, del Instituto de Física
Teórica de Hamburgo (Alemania), se considera la piedra angular de la química.

Los diez primeros elementos de la tabla periódica tienen las configuraciones electrónicas
indicadas en la tabla 1.1. Podemos apreciar que un orbital no se ocupa hasta que los orbitales de
energía más baja están llenos ( o sea, 2s después de 1s, 2p después de 2s).

Observamos que un orbital no es ocupado por un par de electrones hasta que otros orbitales de
igual energía no sean ocupados por un electrón ( los orbitales 2p). Los electrones 1s completan la
primera capa de dos, y los electrones 2s y 2p completan la segunda capa de ocho. Para elementos
más allá de los diez primeros hay una tercera capa que contiene un orbital 3s, orbitales 3p, y así
sucesivamente.

Parte 7
1.7 Orbitales moleculares

En las moléculas, al igual que en los átomos aislados, y de acuerdo con las mismas <<reglas>>,
los electrones ocupan orbitales. Estos orbitales moleculares se consideran centrados en torno a
muchos núcleos, cubriendo quizá la molécula entera; la distribución de núcleos y electrones es
simplemente la que da como resultado la molécula más estable.
Para facilitar las complicadísimas operaciones matemáticas, por lo general se emplean dos
supuestos simplificadores: (a) que cada par de electrones está localizado esencialmente cerca de
dos núcleos solamente y (b) que las formas de estos orbitales moleculares localizados, y su
disposición con respecto a los demás, están relacionadas de modo sencillo con las formas y
disposiciones de los orbitales atómicos de los átomos que componen la molécula.

La idea de los orbitales moleculares localizados o lo que podríamos llamar orbitales de enlace sin
duda es buena, puesto que, matemáticamente, este método de aproximación es válido para la
mayoría de las moléculas (pero no para todas). Además, esta idea se acerca bastante al concepto
clásico de los químicos, según el cual un enlace es una fuerza que actúa entre dos átomos y es
prácticamente independiente del resto de la molécula; no es accidental que este concepto haya
funcionado bien durante cien años. Es significativo que las moléculas excepcionales, para las
cuales las fórmulas clásicas no funcionan, son justamente las mismas para las que tampoco sirve
el enfoque orbital molecular localizado. (Veremos que aun estos casos se pueden manejar por
medio de una adaptación bastante sencilla de fórmulas clásicas, una adaptación que también se
asemeja a un método de aproximación matemática.)

El segundo supuesto, el de una relación entre orbitales atómicos y moleculares, es evidente, como
se apreciará en la siguiente sección. Ha demostrado ser tan útil que, en ciertos casos, se han
inventado orbitales determinados sólo para poder mantener dicho supuesto.

Parte 8
1.8 El enlace covalente

Consideramos ahora la formación de una molécula. Por conveniencia, imaginaremos que esto
sucede por aproximación de átomos individuales, aunque la mayoría de las moléculas no se
forman así. Construimos modelos físicos de moléculas con esferas de madera o plástico que
representan los diversos átomos; la ubicación de hoyos o broches nos indica cómo unirlos. Del
mismo modo, haremos modelos mentales de moléculas con átomos imaginarios; la ubicación de
los orbitales atómicos algunos de ellos imaginarios nos indicará cómo unir los átomos.

Para que se forme un enlace covalente, deben ubicarse dos átomos de manera tal que el orbital
de uno de ellos solape al orbital del otro; cada orbital debe contener solamente un electrón.
Cuando sucede esto, ambos orbitales atómicos se combinan para formar un solo orbital de enlace
ocupado por ambos electrones, que deben tener espines opuestos, es decir, deben estar
aparecidos. Cada electrón dispone del orbital de enlace entero, por lo que puede considerarse
como <<perteneciente>> a ambos núcleos atómicos.

Esta disposición de electrones y núcleos contiene menos energía es decir, es más estable que la
disposición en los átomos aislados; como resultado, la formación de un enlace va acompañada de
liberación de energía. La cantidad de energía (por mol) desprendida durante la formación del
enlace (o la cantidad necesaria para romperlo) se denomina energía de disociación del enlace.
Para un par dado de átomos, cuanto mayor sea el solapamiento de orbitales atómicos, más fuerte
será el enlace.

¿Qué es lo que da al enlace covalente su fuerza? Es el aumento de atracción electrostática. En los


átomos aislados, cada electrón es atraído por, y atrae a, un núcleo positivo; en la molécula, cada
electrón es atraído por dos núcleos positivos.
El concepto de <<solapamiento>> es el que proporciona el puente mental entre orbitales
atómicos y de enlace. El solapamiento de orbitales atómicos significa que el orbital de enlace
ocupa gran parte de la región espacial previamente cubierta por ambos orbitales atómicos. En
consecuencia, un electrón de un átomo puede permanecer en gran medida en su ubicación
original, favorable con respecto a <<su>> núcleo, y ocupar, al mismo tiempo, una posición
favorable similar con respecto al segundo núcleo; por supuesto, esto mismo vale para el otro
electrón.

El principio de solapamiento máximo, formulado por primera vez por Linus Pauling en 1931
(Instituto Tecnológico de California), ha sido clasificado en importancia sólo ligeramente por
debajo del principio de exclusión para la comprensión de la estructura molecular.

Como primer ejemplo, consideremos la formación de la molécula de hidrógeno, H2, a partir de dos
átomos. Cada átomo de hidrógeno tiene un electrón, el cual ocupa el orbital 1s. Como hemos visto,
éste es una esfera cuyo centro es el núcleo atómico. Para que se forme un enlace, ambos núcleos
deben acercarse lo suficiente para que se produzca el solapamiento de los orbitales atómicos
(Fig. 1.3). Para el hidrógeno, el sistema más estable resulta cuando la distancia entre los núcleos
es de 0.74 A, denominada longitud de enlace. A esta distancia, el efecto estabilizador del
solapamiento es exactamente compensado por la repulsión entre núcleos de igual carga. La
molécula de hidrógeno resultante contiene 104 kcal/mol menos de energía que los átomos a partir
de los cuales fue construida. Se dice que el enlace hidrógeno-hidrógeno tiene una longitud de 0.74
A y una fuerza de 104 kcal.

H H H
H
(a) (b)

H H H H

(c) (d)
Fig. 1.3 Formación de enlace: molécula de H2. (a) Orbitales s separados.
(b) Solapamiento de orbitales s. (c) y (d) El orbital de enlace o.

Este orbital de enlace tiene aproximadamente la forma que se espera obtener de la fusión de dos
orbitales s. Tal como indica la figura 1.3, tiene aspecto de salchicha, cuyo eje mayor coincide con
la línea que une los núcleos; en torno a este eje, es cilíndricamente simétrico, o sea, un corte de
esta salchicha es circular. Los orbitales de enlace que tienen este aspecto, se denominan orbitales
o (orbitales sigma) y los enlaces correspondientes son los enlaces o. Podemos imaginar la
molécula de hidrógeno como formada por dos núcleos sumergidos en una sola nube electrónica
con forma de salchicha. La densidad máxima de la nube está en la región entre ambos núcleos,
donde la carga negativa es atraída más intensamente por las dos cargas positivas.

El tamaño de la molécula de hidrógeno determinado, por ejemplo, por el volumen interior de la


superficie de probabilidad de 95% es considerablemente menor que el de un átomo de hidrógeno
individual. Aunque parezca extraño, de hecho es de esperar esta contracción de la nube
electrónica: la intensa atracción que ejercen dos núcleos sobre los electrones confiere mayor
estabilidad a la molécula que la de átomos de hidrógeno aislados; esto significa que los electrones
están sujetos más firmemente, están más próximos, que en los átomos.

Supongamos luego la formación de la molécula de flúor, F2, a partir de dos átomos. Según vemos
en la tabla de configuraciones electrónicas (Tabla 1.1), un átomo de flúor tiene dos elementos en el
orbital 1s y dos en cada uno de dos orbitales 2p; en el tercer orbital 2p hay un solo electrón no
apareado y disponible para formar un enlace. El solapamiento de este orbital p con uno similar
de otro átomo de flúor permite que los electrones se aparecen y que se forme el enlace (Fig. 1.4).
La carga electrónica se concentra entre ambos núcleos, de modo que el lóbulo posterior de cada
uno de los orbitales solapados se contrae hasta alcanzar un tamaño relativamente pequeño.
Aunque formado por el solapamiento de orbitales a atómicos de diferente tipo, el enlace flúor-
flúor tiene la misma forma general que el enlace hidrógeno-hidrógeno, por ser cilíndricamente
simétrico en torno a la línea de unión de los núcleos; también se denomina enlace o. El enlace
flúor-flúor tiene una longitud de 1.42 A y una fuerza de unas 38 kcal.

F F

(a)

F F F F

(c)
(b)
Fig. 1.4 Formación de enlace: molécula de F2. (a) Orbitales p separados.
(b) Solapamiento de orbitales p. (c) El orbital de enlace o.

Como indica el ejemplo, un enlace covalente resulta del solapamiento de dos orbitales atómicos
para formar un orbital de enlace ocupado por un par de electrones. Cada tipo de enlace covalente
una longitud y una fuerza características.
Parte 9
1.9 Orbitales híbridos: sp

A continuación, consideremos el cloruro de berilio, BeCI2.


El berilio (Tabla 1.1) carece de electrones no apareados. ¿Como podemos explicar su combinación
con dos átomos de cloro? La formación de enlaces es un proceso que libera energía
(estabilizante) y tiende a formar enlaces el máximo posible aunque esto conduzca a orbitales que
tengan poca relación con los orbitales atómicos considerados hasta ahora. Si queremos aplicar
aquí nuestro método mental de construcción de moléculas, habrá que modificarlo. Debemos
inventar un tipo imaginario de átomo de berilio, uno que esté a punto de enlazarse con dos átomos
de cloro.
1s 2p
2s

Be

Para llegar a este átomo divalente de berilio, efectuamos un pequeño cálculo electrónico. En primer
lugar, <<promovemos>> uno de los electrones 2s a un orbital p vacío.

1s 2s 2p
Un electrón promovido:
Be dos electrones no apareados

Esto proporciona dos electrones no apareados, necesarios para enlazar con dos átomos de cloro.
Sería de esperar ahora que el berilio formase un enlace de un tipo empleando el orbital p y uno de
otro tipo con el orbital s. Nuevamente, esto no corresponde a los hechos: se sabe que los dos
enlaces del cloruro de berilio son equivalentes.

1s 2s p

Be

Hibridación sp
sp
1s 2p

Be

Entonces hibridizemos los orbitales. Tomamos matemáticamente varias posibles combinaciones


de un orbital s y otro p, y se hallan los orbitales mixtos (híbridos) con el grado máximo de carácter
direccional (Fig. 1.5). Cuando más se concentra un orbital atómico en la dirección del enlace,
mayor será el solapamiento y más fuerte el enlace que puede formar. De estos cálculos se
obtienen tres resultados muy significativos: (a) el <<mejor>> orbital híbrido resulta mucho más
direccional que el orbital s o el p; (b) los dos orbitales mejores son exactamente equivalentes, y
(c) estos orbitales apuntan en direcciones opuestas, la disposición que les permite alejarse al
máximo entre sí (recuérdese el principio de exclusión de Pauli). El ángulo entre los orbitales es
entonces de 180º.

(a)

sp
sp

180º
(b) (c)

Fig. 1.5 Orbitales atómicos: orbitales híbridos sp (a) Corte transversal y forma aproximada de un
orbital individual, definitivamente dirigido a lo largo de un eje. (b) Representación como una esfera,
con omisión del pequeño lóbulo posterior. (c) Dos orbitales con ejes a lo largo de una línea recta.

Estos orbitales híbridos específicos se conocen como orbitales sp, puesto que se consideran como
el resultado de la mezcla de un orbital s y uno p, y tienen la forma indicada en la figura 1.5a; por
conveniencia, depreciaremos el pequeño lóbulo posterior y representaremos el delantero como una
esfera.

Construyamos el cloruro de berilio usando este berilio sp-hibridizado. Surge aquí un concepto
extremadamente importante: el ángulo de enlace. Para lograr el solapamiento máximo entre los
orbitales sp del berilio y los p de los cloruros, los dos núcleos de cloro deben encontrarse sobre
los ejes de los orbitales sp, es decir, deben estar localizados en lados exactamente opuestos del
átomo de berilio (Fig. 1.6). Por tanto, el ángulo entre los enlaces berilio-cloro debe ser de 180º.
CI p sp Be sp p CI

(a)

CI Be CI CI Be CI

(b) 180º
(c)
Fig. 1.6 Formación de enlaces: molécula de BeCI2. (a) Solapamiento de orbitales sp y p. (b) Los
orbitales de enlace o. (c) Forma de la molécula.

Experimentalmente, se ha demostrado que, según lo calculado, el cloruro de berilio es una


molécula lineal, con los tres átomos ubicados sobre una sola línea recta.

No hay nada de mágico en el aumento del carácter direccional que acompaña a la hibridación; los
dos lóbulos del orbital p son de fase opuesta (Sec. 33.2); la combinación con un orbital s significa
adición a un lado del núcleo, pero sustracción en el otro.

s p sp

Si se tiene curiosidad con respecto a las fases y su efecto sobre los enlaces, léanse las secciones
33.1 a 33.4, que permitirán entender este punto.

Parte 10
1.10 Orbitales híbridos: sp2

Veamos ahora el trifluoruro de boro, BF3. El boro (Tabla 1.1) tiene sólo un electrón no apareado,
que ocupa un orbital 2p. Para tres enlaces necesitamos tres electrones no apareados, por lo que
promovemos uno de los electrones 2s a un orbital 2p:
1s 2s 2p

B
Un electrón promovido:
tres electrones no apareados
2p
1s 2s

2p
2s
1s
B
Hibridación sp2
1s 2p2 2p

Si ahora queremos <<construir>> la molécula más estable posible, debemos <<hacer>> los enlaces
más fuertes posibles, para lo que hay que proporcionar los orbitales atómicos más intensamente
direccionales que se pueda. Nuevamente, la hibridación nos proporciona tales orbitales: tres de
ellos híbridos y exactamente equivalente entre sí. Cada uno tiene la forma indicada en la figura 1.7
y, como antes, despreciaremos el pequeño lóbulo posterior y representaremos el delantero como
una esfera.
(a)

sp sp2
sp2

120º
(b)
(c)
Fig. 1.7 Orbitales atómicos: orbitales híbridos sp2. (a) Corte transversal y forma aproximada de un
orbital aislado, definitivamente dirigido a lo largo de un eje. (b) Representación como una esfera,
con omisión del pequeño lóbulo posterior. (c) Tres orbitales, con ejes dirigidos hacia los vértices de
un triángulo equilátero.

Estos orbitales híbridos se llaman sp2, debido a que se consideran generados por la mezcla de un
orbital s y dos orbitales p. Se encuentran en un plano que incluye el núcleo atómico y dirigidos
hacia los vértices de un triángulo equilátero, de modo que el ángulo entre dos orbitales
cualesquiera es de 120º. Nuevamente, observamos la geometría que permite la separación
máxima posible de los orbitales: en este caso, es una disposición trigonal ( de tres vértices).

Cuando ordenamos los átomos para lograr el solapamiento máximo de cada uno de los orbitales
sp2 del boro con un orbital p del flúor, obtenemos la estructura ilustrada en la figura 1.8: una
molécula plana, con el átomo de boro en el centro de un triángulo y los tres átomos de flúor en los
vértices; cada ángulo de enlace es de 120º.

2
F sp sp2
2 B F
sp
F 120º

Fig. 1.8 Molécula de BF3.

Por experimentación se ha demostrado que el fluoruro de boro tiene esta estructura plana y
simétrica calculada por mecánica cuántica.
Parte 11
1.11 Orbitales híbridos: sp3

Consideremos ahora una de las moléculas orgánicas más simples, el metano, CH4.
El carbono (Tabla 1.1) tiene un electrón no apareado en cada uno de los dos orbitales p, por lo que
sería de esperar que formara el compuesto CH2. (Lo forma, pero el CH2 es una molécula altamente
reactiva cuyas propiedades se centran en torno a la necesidad de procurarle al carbono dos
enlaces adicionales.) Observamos nuevamente la tendencia a formar el máximo posible de
enlaces; en este caso, la combinación con cuatro átomos de hidrógeno.

1s 2s 2p
C

Para disponer de cuatro electrones no apareados, promovemos uno de los electrones 2s a un


orbital p vacío:

1s 2s 2p Un electrón promovido:
cuatro electrones no apareados
C

Una vez más, los orbitales más intensamente direccionales son híbridos: esta vez son orbitales sp3,
que resultan de la mezcla de un orbital s y tres p. Cada uno tiene la forma ilustrada en la figura 1.9;
tal como hemos hecho con los orbitales sp y sp2, despreciaremos al pequeño lóbulo posterior y
representaremos el delantero por medio de una esfera.
1s 2s 2p

Hibridación sp2

1s sp3

¿Qué disposición espacial tienen los orbitales sp3? Para nosotros, la respuesta no es una sorpresa:
aquella que les permite separarse al máximo. Se dirigen hacia los vértices de un tetraedro regular.
El ángulo entre dos orbitales cualesquiera es el tetraédrico de 109.5º

(a)

sp23

(b)
Fig. 1.9 Orbitales atómicos: Orbitales híbridos sp3.(a) Corte transversal y forma aproximada de un
orbital aislado, definitivamente dirigido a lo largo de un eje. (b) Representación como una esfera,
con omisión del pequeño lóbulo posterior. (c) Cuatro orbitales, con ejes dirigidos hacia los vértices
de un tetraedro.

(Fig. 1.9). AI igual que genera dos enlaces lineales o tres trigonales, la repulsión mutua entre
orbitales también genera cuatro enlaces tetraédricos.
El solapamiento de cada uno de los orbitales sp3 del carbono con un orbital s del hidrógeno genera
metano, con el carbono en el centro de un tetraedro regular y los cuatro hidrógenos en los vértices
(Fig. 1.10).

Se ha encontrado experimentalmente que el etano tiene la estructura altamente simétrica que


hemos armado. Cada enlace carbono-hidrógeno tiene exactamente la misma longitud, 1.10 A; el
ángulo entre cualquier par de enlaces es el tetraédrico de 109.5º. Se necesitan 104 kcal/mol para
romper uno de los enlaces del metano.

Así pues, en estas tres últimas secciones hemos visto que con los enlaces covalentes no sólo
están asociadas longitudes y energías de disociación de enlaces características, sino también
ángulos de enlace característicos; estos enlaces pueden relacionarse sin dificultad con la
disposición de los orbitales atómicos incluyendo los híbridos que intervienen en la formación de los
enlaces y se derivan por último del principio de exclusión de Pauli y de la tendencia de los
electrones no apareados a separarse al máximo.
A diferencia del enlace iónico, igualmente fuerte en todas las direcciones, el enlace covalente es
dirigido. Podemos comenzar a ver por qué la química del enlace covalente se ocupa tanto de la
forma y el tamaño moleculares.
Dado que los compuestos del carbono están unidos principalmente por enlaces covalentes, la
química orgánica también está muy interesada en la forma y el tamaño moleculares; para
ayudarnos en su estudio, utilizaremos con frecuencia modelos moleculares. En la figura 1.11 se
observa el metano representado por tres tipos diferentes de modelos: esferas y palillos, armazón
y semiesferas. Estas últimas están hechas a escala y reflejan con exactitud no solamente los
ángulos de enlace, sino también sus longitudes relativas y el tamaño de los átomos.

Parte 12
1.12 Pares de electrones no compartidos.

Dos compuestos conocidos, el amoniaco (NH3) y el agua (H2O), ilustran cómo pares de electrones
no compartidos pueden afectar a la estructura molecular.

2p
1s 2s
N

Hibridación sp3
1s sp3

El nitrógeno del amoniaco se asemeja al carbono del metano: tiene hibridación sp3, pero tiene
solamente tres electrones no apareados (Tabla 1.1), que ocupan tres de los orbitales sp3. El
solapamiento de cada uno de esos orbitales con el orbital s de un átomo de hidrógeno genera
amoniaco (Fig. 1.12). El cuarto orbital sp3 del nitrógeno contiene un par de electrones.
Si ha de haber solapamiento máximo, y por tanto fuerza máxima de enlace, los tres núcleos de
hidrógeno deben localizarse en tres vértices de un tetraedro, mientras que el cuarto deberá ser
ocupado por un par de electrones no compartido. Si se consideran sólo núcleos atómicos, la
molécula de amoniaco debería tener forma piramidal, con el nitrógeno en el ápice y los hidrógenos
en los vértices de una base triangular. Cada ángulo de enlace debería ser el tetraédrico de 109.5º.
Se ha encontrado experimentalmente que el amoniaco tiene la forma piramidal calculada por
mecánica cuántica. Los ángulos de enlace son de 107º, ligeramente menores que el valor
predicho, por lo que se ha sugerido que el par de electrones no compartido ocupa más espacio que
cualquiera de los átomos de hidrógeno, tendiendo así a comprimir ligeramente los ángulos de
enlace. La longitud del enlace nitrógeno-hidrógeno es de 1.01 A; se necesitan 103 kcal/mol para
romper uno de los enlaces del amoniaco.
El orbital sp3 ocupado por el par de electrones no compartido es una región de alta densidad
electrónica. Esta región es una fuente de electrones para átomos y moléculas que los buscan, lo
que confiere al amoniaco sus propiedades básicas ( Sec. 1.22).

Pueden concebirse dos configuraciones adicionales para el amoniaco, pero ninguna satisface los
hechos.
(a) Como el nitrógeno está unido a otros tres átomos, podríamos haberlo concebido utilizando
orbitales sp2, como hace el boro en el trifluoruro de boro. Pero el amoniaco no es una molécula
plana, por lo que debemos rechazar esta posibilidad. El par de electrones no compartido del
nitrógeno es el responsable de la diferencia entre el NH3 y el BF3; estos electrones necesitan
alejarse de los que están en los enlaces carbono-hidrógeno, y la forma tetraédrica lo hace posible.
(b) Podríamos haber imaginado al nitrógeno empleando simplemente los orbitales p para el
solapamiento, puesto que proporcionarían los tres electrones no apareados necesarios; pero esto
generaría ángulo de enlace de 90º - recuérdese que los orbitales p son perpendiculares entre sí -,
en contraste con los ángulos observados de 107º. Más importante aún es que el par no
compartido se encontraría sumergido en un orbital s, y por los momentos dipolares (Sec. 1.16) se
envidia que no es así. Es evidente que la estabilidad ganada por el empleo de los orbitales sp3
fuertemente direccionales en la formación de enlaces compensa sobradamente la promoción de un
par no compartido de un orbital s a otro sp3 más energético.

Un hecho adicional acerca del amoniaco, es que la espectroscopia revela que la molécula sufre
inversión, es decir, se vuelve de dentro afuera (Fig. 1.13). Entre una disposición piramidal y la otra
equivalente hay una barrera energética de sólo 6 kcal/mol, energía que es proporcionada por
colisiones moleculares; aun a temperatura ambiente, la fracción de colisiones suficientemente
violentas para realizar la tarea es tan grande que la conversión entre disposiciones piramidales
sucede con gran velocidad.

H
H H
N

N
H H
N

Fig. 1.13 Inversión del amoniaco.


Compárese el amoniaco con el metano, el cual no sufre inversión. El par no compartido
desempeña el papel de un enlace carbono-hidrógeno en la determinación de la forma más estable,
la tetraédrica, de la molécula. Pero, a diferencia de un enlace carbono-hidrógeno, el par no
compartido no puede mantener una disposición tetraédrica particular: una vez apunta en una
dirección, y al instante siguiente, en la opuesta.

2p
1s 2s
O

Hibridación sp3
1s sp3

Finalmente, consideremos el agua, H2O. La situación es análoga a la del amoniaco, excepto que el
oxígeno sólo tiene dos electrones no apareados, por lo que solamente se enlaza con dos átomos
de hidrógeno, que ocupan dos vértices de un tetraedro; los otros dos están ocupados por pares de
electrones no compartidos (Fig. 1.14).

Según las mediciones, el ángulo H - O - H es de 105º, menor que el ángulo tetraédrico calculado y
menor aún que el ángulo en el amoniaco. Aquí tenemos dos voluminosos pares de electrones no
compartidos que comprimen los ángulos de enlace. La longitud del enlace oxígeno-hidrógeno es
0.96 A; se necesitan 118 kcal/mol para romper uno de los enlaces del agua.
Si examinaremos la figura 1.15 podremos ver la gran semejanza que existe entre la forma de las
moléculas de metano, amoniaco y agua, que, debido a la comparación que hemos utilizado, se
debe a la semejanza de los enlaces.

Debido a los pares de electrones no compartidos del oxígeno, el agua es básica, aunque no tan
marcadamente como el amoniaco (sec. 1.22).

Parte 13
1.13 Fuerzas intramoleculares

Debemos recordar que el método específico para la construcción mental de moléculas que
estamos aprendiendo a usar es artificial: es un proceso puramente intelectual que comprende
solapamientos imaginarios de orbitales imaginarios. Hay otras posibilidades, igualmente artificiales,
que emplean modelos mentales o físicos diferentes. Nuestro conjunto de modelos atómicos
mentales sólo contendrá tres <<clases>> de carbono: tetraédrico (hibridado sp3), trigonal (hibridado
sp2) y digonal (hibridado sp). Descubriremos que con este conjunto se puede lograr un trabajo
extraordinario en la construcción de cientos de miles de moléculas orgánicas.
Sin embargo, cualquiera que sea el modo de establecerla, vemos que la estructura verdadera de
una molécula es el resultado neto de una combinación de fuerzas repulsivas y atractivas, que están
relacionadas con la carga y el espín electrónicos.

(a) Fuerzas repulsivas. Los electrones tienden a mantenerse separados al máximo, porque tienen
la misma carga, y también cuando no están apareados, porque tienen igual espín (principio de
exclusión de Pauli). Núcleos atómicos de igual carga también se repelen mutuamente.
(b) Fuerzas atractivas: Los electrones son atraídos por núcleos atómicos lo mismo que los núcleos
por los electrones debido a su carga opuesta, y por ello tiende a ocupar la región entre dos
núcleos; el espín opuesto permite (aunque, por sí mismo, no lo estimule realmente) que dos
electrones ocupen la misma región.

En el metano, por ejemplo, los cuatro núcleos de hidrógeno se hallan separados al máximo. La
distribución de los ocho electrones enlazantes es tal que cada uno ocupa la región deseable cerca
de dos núcleos - el orbital de enlace - y, sin embargo, exceptuando a su pareja, se sitúa lo más
lejos posible de los demás electrones. Podemos visualizar cada electrón aceptado -quizá
renuentemente, debido a sus cargas similares - un compañero de orbital con espín opuesto, pero
manteniéndose alejado al máximo del resto de los electrones, y aun, como se mueve dentro de los
confines difusos de su orbital, haciendo lo posible para evitar la cercanía de su inquieto
compañero.

Parte 14
1.14 Energía de disociación de enlace. Homólisis y heterólisis

Hemos visto que cuando se combinan átomos para formar una molécula se libera energía. Para
descomponer una molécula en sus átomos, debe consumirse una cantidad de energía equivalente.
La cantidad de energía que se consume o libera cuando se rompe o forma un enlace se conoce
como energía de disociación de enlace, D, y es característica del enlace específico. La tabla 1.2
contiene los valores medidos para algunas energías de disociación de enlaces. Puede apreciarse
que varía mucho, desde enlaces débiles, como I - I (36 kcal/mol), hasta enlaces muy fuertes,
como H - F (136 kcal/mol). Aunque los valores aceptados pueden variar a medida que mejoran
los métodos experimentales, hay ciertas tendencias claras.

No debemos confundir la energía de disociación de enlace (D) con otra medida de fuerza de
enlace, llamada energía de enlace (E). Si comenzamos con el metano, por ejemplo, y rompemos
sucesivamente cuatro enlaces carbono-hidrógeno, encontraremos cuatro energías de disociación
de enlace diferentes:
CH4 CH3 + H D(CH3-H)=104 Kal/mol

CH3 CH2 + H D(CH2-H)=106

CH2 CH + H D(CH-H)=106

CH C + H D(C-H)=81

Por otra parte, la energía de enlace carbono-hidrógeno en el metano, E(C - H), es un solo valor
promedio:

CH4 C + 4H H=397 kcal/mol, E(C-H)=397/4=99kcal/mol

Encontraremos que, en general, las energías de disociación de enlaces son más útiles para
nuestros propósitos.

Hasta el momento, hemos hablado de romper moléculas en dos átomos, o en un átomo y un grupo
de ellos, de modo que de los dos electrones que forman el enlace uno se queda con cada
fragmento; esta ruptura de enlace se denomina homólisis. También encontraremos reacciones que
implican ruptura de enlaces de un tipo diferente, heterólisis, en la que ambos electrones del
enlace quedan en un mismo fragmento.

CH4 C + 4H H=397 kcal/mol, E(C-H)=397/4=99kcal/mol

(Estas palabras proceden del griego: homo, el mismo; hetero, diferente, y lisis, pérdida. Para un
químico, lisis significa <<ruptura>> , como, por ejemplo, hidrólisis, <<ruptura por agua>>.)
Las energías de disociación de enlaces indicadas en la tabla 1.2 corresponden a homólisis, por lo
que son energías de disociación homolítica de enlaces. Pero también se han medido para la
heterólisis: algunas de estas energías de disociación heterolítica de enlaces se presentan en la
tabla 1.3.

Si examinamos estos valores, observaremos que son considerablemente mayores que los de la
tabla 1.2. La heterólisis simple de una molécula neutra genera, desde luego, un ión positivo y otro
negativo. La separación de estas partículas de carga opuesta consume gran cantidad de energía:
alrededor de 100 kcal/mol más que la separación de partículas neutras. Por consiguiente, en la
fase gaseosa, la disociación de enlaces generalmente sucede por homólisis, que es la vía más
fácil. Pero en un disolvente ionizante (Sec. 6.5) el modo preferido de ruptura es la heterólisis.

Parte 15
1.15 Polaridad de los enlaces

Aparte de las propiedades ya descritas, algunos enlaces covalentes tienen otra: la polaridad. Dos
átomos unidos por un enlace covalente comparten electrones, y sus núcleos son mantenidos en
la misma nube electrónica. Pero en la mayoría de los casos, estos núcleos no comparten los
electrones por igual: la nube es más densa en torno a un átomo que en torno al otro. En
consecuencia, un extremo del enlace es relativamente negativo, y el otro, relativamente positivo,
es decir, se forma un polo negativo y otro positivo. Se dice que éste es un enlace polar o que tienen
polaridad.
Podemos indicar la polaridad empleando los símbolos &+ y &-, que indican cargas parciales + y -.
(Se dice <<delta más>> y <<delta menos>>.) Por ejemplo:

Cabe esperar que un enlace covalente sea polar si une átomos que difieren en su tendencia a
atraer electrones, es decir, que difieren en electronegatividad. Es más, cuanto mayor sea la
diferencia en electronegatividad, más polar será el enlace.
Los elementos más electronegativos son los que se encuentran en el extremo superior derecho
del sistema periódico. De los elementos que encontraremos en química orgánica, la
electronegatividad más elevada la presenta el flúor, luego el oxígeno, seguido del nitrógeno y el
cloro, a continuación el bromo y, finalmente, el carbono. El hidrógeno no difiere mucho en
electronegatividad del carbono; no se sabe con certeza si es más electronegativo o menos.

Las polaridades de los enlaces están íntimamente ligadas tanto a las propiedades físicas como a
las químicas. La polaridad de los enlaces puede conducir a polaridades de moléculas, afectando
considerablemente a los puntos de fusión y ebullición, y a la solubilidad. La polaridad también
determina el tipo de reacción que puede suceder en ese enlace, e incluso afecta a la reactividad
de los enlaces cercanos.

Parte 16
1.16 Polaridad de las moléculas

Una molécula es polar cuando el centro de la carga negativa no coincide con el de la positiva. Tal
molécula constituye un dipolo: dos cargas iguales y opuestas separadas en el espacio. A menudo
se usa el símbolo → para caracterizar un dipolo, en el que la flecha apunta desde el extremo
positivo hacia el negativo. La molécula tiene un momento dipolar µ, que es igual a la magnitud de
la carga, e, multiplicada por la distancia, d, entre los centros de las cargas:

µ = e x d
en en en
unidades u.e.s. cm
Debye, D

Es posible medir los momentos dipolares de moléculas por un método que no puede describirse
aquí; algunos de los valores obtenidos se dan en la tabla 1.4. Nos interesan los valores de los
momentos dipolares como indicaciones de las polaridades relativas de diversas moléculas.

Es un hecho que ciertas moléculas son polares, lo que ha dado origen a la especificación de que
ciertos enlaces son polares. Nos hemos ocupado primero de la polaridad de los enlaces
simplemente porque es conveniente considerar que la polaridad de una molécula es una
combinación de las polaridades de los enlaces individuales.
Moléculas como H2, O2, N2, CI2 y Br2 tienen momentos dipolares nulos, o sea, no son polares. Los
dos átomos idénticos de cada una de estas moléculas tienen, por supuesto, la misma
electronegatividad y comparten electrones por igual; e es cero y, por consiguiente, también lo es
µ.
Una molécula como el fluoruro de hidrógeno tiene el considerable momento dipoalr de 1.75 D. A
pesar de que es una molécula pequeña, el flúor, muy electronegativo, atrae fuertemente los
electrones: aunque d es pequeña, e es grande y, en consecuencia, µ lo es también.
El metano y el tetracloruro de carbono, CCI4, tiene momentos dipolares nulos. Lógicamente, sería
de esperar que los enlaces individuales al menos los del tetracloruro de carbono fuesen polares,
pero debido a la disposición tetraédrica, altamente simétrica, sus momentos se anulan (Fig. 1.16).
Sin embargo, en el cloruro de metilo, CH3CI, la polaridad del enlace carbono-cloro no se anula, por
lo que tiene un momento dipolar de 1.86 D. Así, la polaridad de una molécula no sólo depende de
la polaridad de sus enlaces individuales, sino también de sus direcciones, es decir, de la forma de
la molécula.

El amoniaco tiene un momento dipolar de 1.46 D, el cual podría considerarse como un momento
dipolar neto (una suma vectorial) resultante de los momentos de los tres enlaces individuales, y su
dirección sería la indicada en el diagrama. El momento dipolar de 1.84 D del agua se podría
interpretar de forma similar.

¿Que tipo de momento dipolar cabría esperar para el trifluoruro de nitrógeno, NF3, que es
piramidal como el amoniaco? El flúor es el elemento más electronegativo de todos por lo que sin
duda debería atraer fuertemente los electrones del nitrógeno; los enlaces N - F deberían ser muy
polares y su suma vectorial debería ser grande, mucho mayor que para el amoniaco, con sus
enlaces N-H moderadamente polares.

¿Cual es la realidad? El trifluoruro de nitrógeno tiene un momento dipolar de solamente 0.24 D; no


es mayor que el del amoniaco, sino mucho menor.
¿Como podemos explicar esto? Hemos olvidado el par de electrones no compartido. En el NF3 (al
igual que en el NH3) este par ocupa un orbital sp3 y debe contribuir con un momento dipolar en
dirección opuesta al del momento neto de los enlaces N-F (Fig. 1.17);
estos momentos opuestos son casi de la misma magnitud, y el resultado es un momento pequeño
cuya dirección desconocemos. El momento observado para el amoniaco se debe muy
probablemente al par no compartido, aumentado por la suma de los momentos de enlace. De
modo análogo, los pares de electrones no compartidos del agua deben contribuir a su momento
dipolar y, de hecho, al de cualquier molécula en al que aparecen.
Los momentos dipolares pueden dar información valiosa acerca de la estructura de las moléculas.
Por ejemplo, pueden descartarse cualquier estructura para el tretracloruro de carbono que dé lugar
a una molécula polar basándose tan sólo en el momento dipolar, que respalda así la estructura
tetraédrica. (Sin embargo, no la confirma, puesto que se pueden concebir otras estructuras que
también darían como resultado una molécula no polar.)

Los momentos dipolares de la mayoría de los compuestos no se han medido nunca; para estas
sustancias debemos predecir la polaridad a partir de sus estructuras. Con nuestros conocimientos
sobre electronegatividad podemos estimar la polaridad de enlace; con los ángulos de enlace
podemos estimar la polaridad de las moléculas, considerando también los pares de electrones no
compartidos.

Parte 17
1.17 Estructura y propiedades físicas

Acabamos de estudiar una propiedad física de los compuestos: el momento dipolar. También nos
conciernen otras, como los puntos de fusión y ebullición, y la solubilidad en un disolvente
determinado. Las propiedades físicas de un compuesto nuevo dan indicaciones valiosas sobre su
estructura, y a la inversa, la estructura de una sustancia a menudo nos dice qué propiedades
físicas esperar de ella.

Al intentar la síntesis de un compuesto nuevo, por ejemplo, debemos planificar una serie de
reacciones para convertir una sustancia que tenemos en la que queremos; además, debemos
desarrollar un método para separar nuestro producto de todos los demás compuestos que forman
parte de la mezcla reaccionante: reactivos no consumidos, disolvente, catalizador, subproductos.
Generalmente, el aislamiento y la purificación del producto consumen más tiempo y esfuerzo que
la propia preparación. La posibilidad de aislar el producto por destilación depende de su punto de
ebullición y de los puntos de ebullición de los contaminantes; su aislamiento por recristalización
depende de su solubilidad en varios disolventes y de la de los contaminantes. El éxito en
laboratorio a menudo depende de una adecuada predicción de propiedades físicas a partir de la
estructura. Los compuestos orgánicos son sustancias reales, no solamente colecciones de letras
escritas sobre un trozo de papel, por lo que debemos aprender a manejarlas.

Hemos visto que hay dos tipos extremos de enlaces químicos, generados por transferencia de
electrones, y covalentes, formado por electrones compartido. Las propiedades físicas de un
compuesto dependen en gran medida del tipo de enlaces que mantienen unidos los átomos de una
molécula.

Parte 18
1.18 Punto de fusión
En un sólido cristalino las partículas que actúan como unidades estructurales iones o moléculas se
hallan ordenadas de una forma muy regular y simétrica; hay un modelo geométrico que se repite
en el cristal.
Fusión es el cambio desde una disposición muy ordenada de partículas en el retículo cristalino al
más desordenado que caracteriza a los líquidos (véanse Figs. 1.18 y 1.19). La fusión se produce
cuando se alcanza una temperatura a la cual la energía térmica de las partículas es
suficientemente grande como para vencer las fuerzas intracristalinas que las mantienen en
posición.
Un compuesto iónico forma cristales en los que las unidades estructurales son iones. El cloruro de
sodio sólido, por ejemplo, está constituido por iones sodio positivos y iones cloruro negativos que
se alternan de un modo muy regular. Cada ión positivo está rodeado equidistantemente por seis
iones negativos; uno a cada lado, uno arriba y otro abajo, uno al frente y otro detrás. A su vez, cada
ión negativo está rodeado de forma análoga por seis positivos. No hay nada que podamos llamar
molécula de cloruro de sodio; un ión sodio determinado no <<pertenece>> a ningún ión cloruro en
particular; seis cloruros lo atraen por igual. El cristal es una estructura muy fuerte y rígida, pues las
fuerzas electrostáticas que mantienen a cada ión en posición son poderosas. Estas poderosas
fuerzas interiónicas sólo se superan a una temperatura muy elevada: el cloruro de sodio tiene un
punto de fusión de 801ºC.

Los cristales de otros compuestos iónicos son semejantes a los del cloruro de sodio, en el sentido
de que tienen un retículo iónico, aunque la disposición geométrica exacta puede ser diferente. En
consecuencia, éstos también tienen puntos de fusión elevados. Muchas moléculas contienen tanto
enlaces iónicos como covalentes: el nitrato de potasio, KNO3, por ejemplo, está formado por iones
K+ y NO3-; los átomos de oxígeno y nitrógeno del ión NO3- se mantienen unidos entre sí por
enlaces covalentes. Las propiedades físicas de compuestos como éste están determinadas en
gran medida por los enlaces iónicos; el nitrato de potasio tiene aproximadamente el mismo tip de
propiedades físicas que el cloruro de sodio.
Un compuesto no iónico, aquel cuyos átomos se mantienen unidos entre sí por enlaces covalentes,
forma cristales en los que las unidades estructurales son moléculas. Para que ocurra la fusión,
deben ser superadas que mantienen juntas a estas moléculas; en general, estas fuerzas
intermoleculares son muy débiles, comparadas con las fuerzas que unen los iones. Para fundir el
cloruro de sodio debemos suministrar energía suficiente para romper los enlaces iónicos entre el
Na+ y el CI-; para fundir el metano, CH4, no necesitamos suministar energía suficiente para romper
los enlaces covalentes entre el carbono y el hidrógeno, basta con proporcionar energía suficiente
para separar mole´culas de CH4 entre sí. Al contrario que el cloruro de sodio, el metano se funde a
-183ºC.

Parte 19
1.19 Fuerzas intermoleculares

¿Qué tipo de fuerzas mantienen juntas las moléculas neutras? Al igual que las interiónicas, estas
fuerzas parecen ser de naturaleza electrostática, en las que cargas positivas atraen cargas
negativas. Hay dos clases de fuerzas intermoleculares: interaccione dipolo-dipolo y fuerzas de Van
der Waals.
La interacción dipolo-dipolo es la atracción que ejerce el extremo positivo de una molécula polar
por el negativo de otras semejante. En el cloruro de hidrógeno, por ejemplo, el hidrógeno
relativamente positivo de una molécula es atraído por el cloro relativamente negativo de otra:
Como resultado de esta interacción dipolo-dipolo, las moléculas polares por lo general se unen
entre sí más firmemente que las no polares de peso molecular comparable; esta diferencia entre la
intensidad de las fuerzas intermoleculares se refleja en las propiedades físicas de los compuestos
implicados.
Un tipo de atracción dipolo-dipolo particularmente fuerte es el enlace por puente de hidrógeno, en
el cual un átomo de hidrógeno sirve como puente entre dos átomos electronegativos, sujetando a
uno con un enlace covalente, y al otro, con fuerzas puramente electrostáticas. Cuando el hidrógeno
se encuentra unido a un átomo muy electronegativo, la nube electrónica se distorsiona
considerablemente hacia éste, exponiendo el núcleo del hidrógeno. La fuerte carga positiva del
escasamente protegido núcleo del hidrógeno es atraída por la carga negativa del átomo
electronegativo de una segunda molécula. Esta atracción tiene una fuerza de unas 5 kcal/mol, por
lo que es mucho más débil que el enlace covalente unas 50-100 kcal/mol- que lo mantiene unido al
primer átomo electronegativo. Es, sin embargo, bastante más fuerte que otras atracciones dipolo-
dipolo. En las fórmulas, Los enlaces por puentes de hidrógeno se indican generalmente por una
línea de puntos:

H H H H
H F H F H O H O H N H N H N H O
H H H H H

Para que un enlace por puente de hidrógeno sea importante, ambos átomos electronegativos
deben ser del grupo F, O, N. Sólo es suficientemente positivo un hidrógeno enlazado a uno de
estos elementos y sólo estos tres elementos deben su efectividad especial a la carga negativa
concentrada sobre sus átomos pequeños.
Deben existir fuerzas entre las moléculas de un compuesto no polar, puesto que aun estas
sustancias se pueden solidificar. Tales atracciones se conocen como fuerzas de Van der Waals. Su
existencia está explicada por la mecánica cuántica y podemos describir su origen
aproximadamente como sigue: la distribución promedio de carga en torno a una molécula de
metano, por ejemplo, es simétrica, por lo que no hay un momento dipolar neto. Sin embargo, los
electrones se desplazan, de modo que un instante cualquiera esa distribución probablemente se
distorsionará y habrá un pequeño dipolo. Este dipolo momentáneo afectará a la distribución de
electrones en otra molécula cercana de metano; el extremo negativo un dipolo de orientación
opuesta en la molécula vecina:

A pesar de que los dipolos momentáneos y los inducidos cambian constantemente, resulta una
atracción neta entre ambas moléculas.
Estas fuerzas de Van der Waals son de muy corto alcance: sólo actúan entre las partes de
moléculas diferentes que están en contacto íntimo, es decir, entre sus superficies. Veremos que la
reacción enttre la magnitud de las fuerzas de Van der Waals y el área de las superficies
moleculares (Sec. 3.12) nos ayudará a comprender el efecto del tamaño y las formas moleculares
sobre las propiedades físicas.

Cada átomo tiene con respecto a otros con los que no esté unido - ya sea en otra molécula o en
otra parte de la misma - un <<tamaño>> efectivo, conocido como su radio de Van der Waals. A
medida que se acercan dos átomos no alcanzados, aumenta la atracción entre ellos, que llega al
máximo justamente cuando se tocan, es decir, cuando la distancia entre los núcleos es igual a la
suma de los radios de Van der Waals. Si son forzados a juntarse aún más, la atracción es
rápidamente reemplazada por repulsión de Van der Waals, de modo que los átomos no
alcanzados aceptan juntarse, pero resisten vigorosamente la sobrecarga.
Veremos que las fuerzas de Van der Waals, tanto atractivas como repulsivas, son importantes para
comprender la estructura molecular.

En el capítulo 6 analizaremos con detalle todas estas fuerzas intermoleculares, este tipo de
enlaces secundarios.

Parte 20
1.20 Punto de ebullición.

Aunque en un líquido las partículas tienen un arreglo menos regular y gozan de mayor libertad de
movimiento que en un cristal, cada una de ellas es atraída por muchas otras. La ebullición implica
la separación de moléculas individuales, o pares de iones con carga opuesta, del seno del líquido
(Véanse Figs. 1.20 y 1.21). Esto sucede cuando se alcanza una temperatura suficiente para que la
energía térmica delas partículas supere las fuerzas de cohesión que las mantienen en el líquido.

En el estado líquido, la unidad de un compuesto iónico es de nuevo el ión. Cada ión es retenido
firmemente por varios otros de carga opuesta. Una vez más, no hay nada que podamos
denominar realmente molécula. Se necesita mucha energía para que un par de iones de carga
opuesta pueda abandonar el líquido; la ebullición sólo se produce a temperatura muy alta. El punto
de ebullición del cloruro de sodio, por ejemplo, es de 1413ºC. En el estado gaseoso tenemos un
par iónico, que puede considerarse como una molécula de cloruro de sodio.
En el estado líquido, la unidad de un compuesto no iónico es de nuevo la molécula. Aquí, las
débiles fuerzas intermoleculares interaccione dipolo-dipolo y fuerzas de Van der Waals son más
fáciles de vencer que las considerables fuerzas Inter.-iónicas de los compuestos iónicos, por lo que
la ebullición se produce a temperatura mucho más bajas. El metano no polar hierve a 161.5ºC, y el
cloruro de hidrógeno polar a sólo -85ºC.

Los líquidos cuyas moléculas se mantienen unidas por puentes de hidrógeno se denominan
líquidos asociados. La ruptura de estos puentes requiere una energía considerable, por lo que un
líquido asociado tiene un punto de ebullición anormalmente elevado para un compuesto de su peso
molecular y momento dipolar. El fluoruro de hidrógeno, por ejemplo, hierve a una temperatura 100
grados más alta que el cloruro de hidrógeno, más pesado, pero no asociados; el agua hierve a una
temperatura 160 grados más alta que el sulfuro de hidrógeno.
También hay compuestos orgánicos que contienen oxígeno o nitrógeno con puentes de hidrógeno
Consideremos el metano, por ejemplo, y reemplacemos uno de sus hidrógenos por un grupo
hidroxilo, -OH. El compuesto resultante, CH3OH, es metanol, el miembro más pequeño de la familia
de los alcoholes. Estructuralmente, no sólo se parece al metano, sino también al agua:
H H
H C H H O H H C O H
H H
Metano Agua Metanol

Al igual que el agua, se trata de un líquido asociado, cuyo punto de ebullición es


<<anormalmente>> elevado para un compuesto de su tamaño y polaridad.

CH3
CH3 O H O
H

Cuanto más grandes son las moléculas, más fuertes son las fuerzas de Van der Waals. Se
conservan otras propiedades - polaridad, puentes de hidrógeno -, pero el punto de ebullición
aumenta con el tamaño molecular. Los puntos de ebullición de sustancias orgánicas son bastante
más elevados que el de la pequeña molécula no polar del metano, pero rara vez encontramos
puntos de ebullición por encima de 350ºC; a temperaturas más elevadas, comienzan a romperse
los enlaces covalentes dentro de las moléculas, con lo que compiten la descomposición y la
ebullición. Para bajar el punto de ebullición y así minimizar la descomposición, a menudo se
realiza la destilación de compuestos orgánicos a presión reducida.
Parte 21
1.21 Solubilidad

Cuando se disuelve un sólido o un líquido, las unidades estructurales iones o moléculas se separan
unas de otras y el espacio entre ellas pasa a ser ocupado por moléculas de disolvente. Durante la
disolución, igual que en la fusión y la ebullición, debe suministrarse energía para vencer las fuerzas
Inter.-iónicas o intermoleculares. ¿De dónde proviene esta energía? La que se requiere para
romper los enlaces entre las partículas del soluto es aportada por la formación de enlaces entre
partículas de soluto y moléculas de disolvente: las fuerzas atractivas anteriores son reemplazadas
por otras nuevas.
Ahora bien, ¿cómo son estos enlaces que se establecen entre el soluto y el disolvente?
Consideremos primero el caso de los solutos iónicos.
Se necesita una cantidad considerable de energía para vencer las poderosas fuerzas
electrostáticas que sostienen un retículo iónico. Sólo el agua y otros disolventes muy polares
pueden disolver apreciablemente compuestos iónicos. ¿Qué tipo de enlaces se forman entre iónes
y un disolvente polar? Por definición, una molécula polar tiene un extremo positivo y otro negativo;
por tanto, hay atracción electrostática entre un ión positivo y el extremo negativo de una molécula
de disolvente, y entre un ión negativo y la parte positiva de la molécula de disolvente. Estas
atracciones se llaman enlaces ión-dipolo. Cada uno de estos enlaces ión-dipolo es relativamente
débil, pero en conjunto aportan suficiente energía para vencer las fuerzas interiónicas del cristal.
En la solución, cada ión está rodeado por muchas moléculas de disolvente, por lo que se dice que
está solvatado; si el disolvente es agua, se dice que el ión está hidratado. En solución, tanto en
estado sólido como líquido, la unidad de una sustancia como el cloruro de sodio en el ión, aunque
en este caso es un ión solvatado (véase Figura 1.22).

+
_ _
+
+ _ _
_ +
_

+ + +
_ _
_
_ + _ + +
+ + _
+ _

Para que un disolvente pueda disolver compuestos iónicos, debe tener también una constante
dieléctrica elevada, o sea, debe poseer propiedades altamente aislantes para disminuir la atracción
entre iones de carga opuesta cuando están solvatados.
El agua debe sus relevantes propiedades como disolvente de sustancias iónicas, no solamente a
su polaridad y asu elevada constante dieléctrica, sino también a otro factor: contiene el grupo -OH,
por lo que puede formar puentes de hidrógeno. El agua solvata tanto cationes como aniones; los
cationes en su polo negativo (básicamente, sus electrones no compartidos), y los aniones, por
medio de puentes de hidrógeno.
Pasemos ahora a la disolución de solutos no iónicos.
Las características de la solubilidad de compuestos no iónicos están determinadas principalmente
por su polaridad. Las sustancias no polares o débilmente polares se disuelven en disolventes no
polares o ligeramente polares; los compuestos muy polares lo hacen en disolventes no polares o
ligeramente polares; los compuestos muy polares lo hacen en disolventes de alta polaridad. <<Una
sustancia disuelve a otra similar>>, es una regla empírica muy útil. El metano es soluble en
tetracloruro de carbono, porque las fuerzas que mantienen unidas las moléculas de metano y las
de tetracloruro de carbono - las interacciones de Van der Waals - son reemplazadas por otras muy
similares, las que unen moléculas de tetracloruro de carbono a moléculas de metano.
Ni el metano ni el tetracloruro de carbono son apreciablemente solubles en agua, cuyas
moléculas, muy polares, se atraen mutuamente por interacciones dipolo-dipolo muy intensas: los
puentes de hidrógeno; por otra parte, sólo podría haber fuerzas atractivas muy débiles entre las
moléculas de agua y las no polares de metano o de tetracloruro de carbono.
Por el contrario, el metanol, CH3OH, compuesto orgánico muy polar, es totalmente soluble en
agua. Los puentes de hidrógeno entre las moléculas de agua y las de metanol pueden reemplazar
fácilmente a los puentes de hidrógeno similares formados entre diferentes moléculas de metanol y
diferentes moléculas de agua.
La comprensión de la naturaleza de las soluciones es fundamental para entender la química
orgánica. La mayoría de las reacciones orgánicas se efectúan en solución, y es cada vez más
evidente que el disolvente hace mucho más que simplemente unir moléculas diferentes para que
puedan reaccionar entre sí. El disolvente está implicado en las reacciones que tienen lugar en él;
cuánto y en qué forma está implicado es algo que empieza a saberse ahora. En el capítulo 6,
cuando estudiamos un poco más las reacciones orgánicas y cómo se realizan, volveremos sobre
este tema - que apenas tocamos aquí y examinaremos en detalle la función del disolvente.

Parte 22
1.22 Acidos y bases

Al pasar ahora de las propiedades físicas a la químicas, revisemos brevemente un tema conocido
que es fundamental para la comprensión de la química orgánica: acidez y basicidad.
Los términos ácido y base se han definido de varias formas, correspondiendo cada definición a un
modo particular de considerar las propiedades de acidez y basicidad. Nos será útil observar ácidos
y bases desde dos de estos puntos de vista; el que elijamos dependerá del problema que se
tenga a mano.
De acuerdo con la definición de Lowry-Bronsted, un ácido es una sustancia que entrega un protón,
y una base, una que lo acepta. Al disolver ácido sulfúrico en agua, el ácido H2SO4 entrega un
protón (núcleo de hidrógeno) a la base H2O para formar el nuevo ácido H3O+ y la nueva base
HSO4-. Cuando el cloruro de hidrógeno reacciona con el amoniaco, el ácido HCI entrega un protón
a la base NH3 para formar el nuevo ácido NH4+ y a la nueva base CI-.

H2SO4 + H2O H3O+ + HSO4-


Acido más Base más Acido más Base más
fuerte fuerte débil débil

HCI + NH3 NH4+ + CI-


Acido más Base más Acido más Base más
fuerte fuerte débil débil

Según la definición de Lowry-Bronsted, la fuerza de un ácido depende de su tendencia a entregar


un protón, a la de una base, de su tendencia a aceptarlo. El ácido sulfúrico y el cloruro de
hidrógeno son ácidos fuertes, puesto que tiende a entregar un rpotón con mucha facilidad; a la
inversa, el ión bisulfato, HSO4-, y el ión cloruro deben ser necesariamente bases débiles, puesto
que demuestran poca tendencia a adherirse a protones. En las dos reacciones que acabamos de
describir, el equilibrio favorece la formación del ácido y la base más débiles.
Si se mezclan H2SO4 y NaOH acuosos, el ácido H3O+ (ión hidronio) entrega un protón a la base
OH- para formar el nuevo ácido H2O y la nueva base H2O. Al mezclar NH4CI y NaOH acuosos, el
ácido NH4+ (ión amonio) entrega un protón a la base OH- para formar
H3O+ + OH- H2O + H2O
Acido más Base más Acido más Base más
fuerte fuerte débil débil

NH4+ + OH- H2O + NH3


Acido más Base más Acido más Base más
fuerte fuerte débil débil

el nuevo ácido H2O y la nueva base NH3. En ambos casos, la base fuerte, el ión hidróxido, ha
aceptado un protón para formar el ácido débil H2O. Si disponemos estos ácidos en el orden
indicado, debemos disponer necesariamente las bases (conjugadas) correspondientes en orden
opuesto.
Fuerza ácida H2SO4 > H3O+ > NH4+ > H2O
HCI
Fuerza básica HSO4- < H2O < NH3 < OH-
CI-

Al igual que el agua, muchos compuestos orgánicos que contienen oxígeno pueden actuar como
bases y aceptar protones; el alcohol etílico y el dietil éter, por ejemplo, forman los iones oxonio I y
II. Por conveniencia, a menudo nos referimos a una estructura del tipo I como un alcohol
protonado, y a una del tipo II, como un éter protonado.

C2H5OH + H2SO4 C2H5OH + HSO4-


Alcohol etílico H
I
Un ion oxonio
Alcohol etílico protonado

(C2H5)2O + HCI (C2H5)2O H + CI-


Dietil éter II
Un ion oxonio
Dietil éter protonado
Según la definición de Lewis, una base es una sustancia que puede suministrar un par de
electrones para formar un enlace covalente, y un ácido, una que puede recibir un par de electrones
para formar un enlace covalente. De este modo, un ácido es un aceptor de pares de electrones, y
una base, un donante de pares de electrones. Este es el más fundamental de los conceptos ácido-
base, y también el más general, ya que incluye todos los demás conceptos. Un protón es un ácido,
pues es deficiente en electrones y necesita un par de ellos para completar su capa de valencia. El
ión hidróxido, el amoniaco y el agua son bases, pues tienen pares de electrones disponibles que
pueden compartir. En el trifluoruro de boro, BF3, el boro sólo tiene seis electrones en su capa
externa, por lo que tiende a aceptar otro par para completar su octeno. El trifluoruro de boro es un
ácido, y se combina como bases como el amoniaco o el dietil éter.

F F
F B + :NH3 F B :NH3
F F
Acido Base

F F
F B + O(C2H5)2 F B O(C2H5)2
F F
Acido Base

El cloruro de aluminio, AICI3, es un ácido por la misma razón. El cloruro estánnico, SnCI4, tiene un
octeto completo en el estaño, pero puede aceptar pares de electrones adicionales (por ejemplo, en
SnCI62-), por lo que también es un ácido.

Indicamos una carga formal negativa sobre el boro en estas fórmulas porque tiene un electrón más
uno del par compartido con oxígeno o nitrógeno de lo que puede neutralizar por medio de su carga
nuclear; correspondientemente, se indica el nitrógeno u oxígeno con una carga formal positiva.

Encontraremos que el concepto de Lewis de ácidos y bases es fundamental para la comprensión


de la química orgánica. Para dejar bien claro que hablemos de este tipo de ácido o base,
emplearemos a menudo la expresión ácido de Lewis (o base de Lewis) o, a veces, ácido (o base)
en el sentido de Lewis.
Al igual que las físicas, las propiedades químicas dependen de la estructura molecular. ¿Cuáles
son las características de la estructura de una molécula que nos permite diagnosticar su carácter
ácido o básico? Podemos intentar contestar a esta pregunta ahora de una forma general, aunque
más adelante volveremos a ella muchas veces.
Para ser ácida en el sentido de Lowry-Bronsted, una molécula debe contener, desde luego,
hidrógeno. En gran medida, el grado de acidez lo determina la clase de átomo unido al hidrógeno
y, en particular, la capacidad de ese átomo para acomodar el par de electornes que el ión
hidrógeno saliente deja atrás. Esta capacidad parece depender de varios factores, los que
incluyen (a) la electronegatividad del átomo, y (b) su tamaño. Así, dentro de un periodo
determinado de la tabla periódica, la acidez aumenta con el aumento de la electronegatividad:
Acidez H-CH3 < H-NH2 < H-OH < H-F
H-SH < H-CI

Y dentro de un grupo determinado, la acidez aumenta con el tamaño:

Acidez H-F < H-CI < H-Br < H-I


H-OH < H-SH< H-SeH

Entre los compuestos orgánicos, puede esperarse que tengan una acidez de Lowry-Bronsted
apreciable aquellos que contienen los grupos O - H, N - H y S - H.
Para que una molécula sea ácida en el sentido de Lewis, debe ser deficiente en electrones; en
particular, buscaríamos en ella un átomo con sólo un sexteto electrónico.

Para ser básica, tanto en el sentido de Lowry-Bronsted como en el de Lewis, una molécula debe
disponer de un par de electrones para compartir. Su disponibilidad está determinada en gran
medida por el átomo que los contiene: su electronegatividad, su tamaño y su carga. La función de
estos factores es aquí necesariamente opuesta a lo que hemos observado para la acidez: cuanto
mejor acomode el átomo al apr de electrones, menos disponibles estará éste par ser compartido.

Parte 23
1.23 Isomería

Antes de comenzar el estudio sistemático de las distintas clases de compuestos orgánicos, veamos
un concepto adicional que ilustra particularmente bien la importancia fundamental de la estructura
molecular: el concepto de isomería.
El compuesto alcohol etílico es un líquido que hierve a 78ºC. Su análisis (por métodos que se
describen más adelante, sec. 2.27) demuestra que contiene carbono, hidrógeno y oxígeno en la
proporción 2C:6H:IO. Su espectro de masas indica que su peso molecular es 46, por lo que su
fórmula molecular debe ser C2H6O. Es un conpuesto bastante reactivo; por ejemplo, si se deja
caer un trozo de sodio metálico en un tubo de ensayo que contiene alcohol etílico, se produce un
burbujeo vigoroso y se consume el sodio; se desprende hidrógeno gaseoso y queda un compuesto
de fórmula C2H5ONa. También reacciona con ácido yodhídrico para formar agua y un compuesto
de fórmula C2H5I.
El compuesto dimetil éter es un gas con punto de ebullición de -24ºC. Es, evidentemente, una
sustancia diferente del alcohol etílico: no sólo difiere en sus propiedades físicas, sino también en
las químicas. No reacciona con el sodio metálico. Como el alcohol etílico, reacciona con el ácido
yodhídrico, pero da un compuesto de fórmula CH3I. El análisis del dimetil éter indica que contiene
carbono, hidrógeno y oxígeno en la misma proporción que el alcohol etílico, 2C:6H:IO; tiene el
mismo peso molecular, 46. Concluimos que tiene la misma fórmula molecular, C2H6O.
Tenemos aquí dos sustancias, alcohol etílico y dimetil éter, que tienen la misma fórmula molecular,
C2H6O, y, sin embargo, son dos compuestos claramente diferentes. ¿Cómo podemos explicar su
existencia? La respuesta es que difieren en su estructura molecular. El alcohol etílico tiene la
estructura representada por I y el dimetil éter la representada por II. Veremos que las diferencias en
propiedades físicas y químicas de estos dos compuestos pueden explicarse fácilmente a partir de
sus diferencias estruturales.

Los compuestos diferentes que tienen la misma fórmula molecular se llaman isómeros ( del griego:
isos, igual, y meros, parte). Contienen igual número de las mismas clases de átomos, pero éstos
están unidos entre sí de manera distinta. Los isómeros son compuestos diferentes, porque tienen
estructuras moleculares distintas.
Esta diferencia en estructura molecular genera propiedades distintas; son estas diferencias las que
nos revelan que estamos tratando compuestos diferentes. En algunos casos, la diferencia
estructural y por consiguiente las propiedades distintas es tan marcada que los isómeros se
clasifican en familias químicas diferentes como, por ejemplo, alcohol etílico y dimetil éter. En otros
casos, la diferencia estructural es tan sutil que sólo puede describirse en función de modelos
tridimensionales. Entre estos dos extremos hay otros tipos de isomería

Termodinámica
Primera ley Termodinamica

Permítase que un sistema cambie de un estado inicial de equilibrio , a un estado final de


equilibrio , en un camino determinado, siendo el calor absorbido por el sistema y el
trabajo hecho por el sistema. Después calculamos el valor de . A continuación cambiamos
el sistema desde el mismo estado hasta el estado final , pero en esta ocasión por u n camino
diferente. Lo hacemos esto una y otra vez, usando diferentes caminos en cada caso. Encontramos
que en todos los intentos es la misma. Esto es, aunque y separadamente dependen
del camino tomado, no depende, en lo absoluto, de cómo pasamos el sistema del estado
al estado , sino solo de los estados inicial y final (de equilibrio).

Del estudio de la mecánica recordará, que cuando un objeto se mueve de un punto inicial a otro
final , en un campo gravitacional en ausencia de fricción, el trabajo hecho depende solo de las
posiciones de los puntos y no, en absoluto, de la trayectoria por la que el cuerpo se mueve. De
esto concluimos que hay una energía potencial, función de las coordenadas espaciales del cuerpo,
cuyo valor final menos su valor inicial, es igual al trabajo hecho al desplazar el cuerpo. Ahora, en la
termodinámica, encontramos experimentalmente, que cuando en un sistema ha cambiado su
estado al , la cantidad dependen solo de las coordenadas inicial y final y no, en
absoluto, del camino tomado entre estos puntos extremos. Concluimos que hay una función de las
coordenadas termodinámicas, cuyo valor final, menos su valor inicial es igual al cambio en
el proceso. A esta función le llamamos función de la energía interna.

Representemos la función de la energía interna por la letra . Entonces la energía interna del
sistema en el estado , , es solo el cambio de energía interna del sistema, y esta cantidad
tiene un valor determinado independientemente de la forma en que el sistema pasa del estado al
estado f: Tenemos entonces que:
Como sucede para la energía potencial, también para que la energía interna, lo que importa es su
cambio. Si se escoge un valor arbitrario para la energía interna en un sistema patrón de referencia,
su valor en cualquier otro estado puede recibir un valor determinado. Esta ecuación se conoce
como la primera ley de la termodinámica, al aplicarla debemos recordar que se considera
positiva cuando el calor entra al sistema y que será positivo cuando el trabajo lo hace el
sistema.

A la función interna , se puede ver como muy abstracta en este momento. En realidad, la
termodinámica clásica no ofrece una explicación para ella, además que es una función de estado
que cambia en una forma predecible. ( Por función del estado, queremos decir, que exactamente,
que su valor depende solo del estado físico del material: su constitución, presión, temperatura y
volumen.) La primera ley de la termodinámica, se convierte entonces en un enunciado de la ley de
la conservación de la energía para los sistemas termodinámicos.

La energía total de un sistema de partículas , cambia en una cantidad exactamente igual a la


cantidad que se le agrega al sistema, menos la cantidad que se le quita.

Podrá parecer extraño que consideremos que sea positiva cuando el calor entra al sistema y
que sea positivo cuando la energía sale del sistema como trabajo. Se llegó a esta convención,
porque fue el estudio de las máquinas térmicas lo que provocó inicialmente el estudio de la
termodinámica. Simplemente es una buena forma económica tratar de obtener el máximo trabajo
con una maquina de este tipo, y minimizar el calor que debe proporcionársele a un costo
importante. Estas naturalmente se convierten en cantidades de interés.

Si nuestro sistema sólo sufre un cambio infinitesimal en su estado, se absorbe nada más una
cantidad infinitesimal de calor y se hace solo una cantidad infinitesimal de trabajo , de tal
manera que el cambio de energía interna también es infinitesimal. Aunque y no son
diferencias verdaderas, podemos escribir la primera ley diferencial en la forma:

Podemos expresar la primera ley en palabras diciendo: Todo sistema termodinámico en un estado
de equilibrio, tiene una variable de estado llamada energía interna cuyo cambio en un
proceso diferencial está dado por la ecuación antes escrita.

La primera ley de la termodinámica se aplica a todo proceso de la naturaleza que parte de un


estado de equilibrio y termina en otro. Decimos que si un sistema esta en estado de equilibrio
cuando podemos describirlo por medio de un grupo apropiado de parámetros constantes del
sistema como presión ,el volumen, temperatura, campo magnético y otros la primera ley sigue
verificándose si los estados por los que pasa el sistema de un estado inicial (equilibrio), a su estado
final (equilibrio), no son ellos mismos estados de equilibrio. Por ejemplo podemos aplicar la ley de
la termodinámica a la explosión de un cohete en un tambor de acero cerrado.

Hay algunas preguntas importantes que no puede decir la primera ley. Por ejemplo, aunque nos
dice que la energía se conserva en todos los procesos, no nos dice si un proceso en particular
puede ocurrir realmente. Esta información nos la da una generalización enteramente diferente,
llamada segunda ley de la termodinámica, y gran parte de los temas de la termodinámica
dependen de la segunda ley.

Segunda ley de la termodinámica


Las primeras máquinas térmicas construidas, fueron dispositivos muy eficientes. Solo una pequeña
fracción del calor absorbido de la fuente de la alta temperatura se podía convertir en trabajo útil.
Aun al progresar los diseños de la ingeniería, una fracción apreciable del calor absorbido se sigue
descargando en el escape de una máquina a baja temperatura, sin que pueda convertirse en
energía mecánica. Sigue siendo una esperanza diseñar una maquina que pueda tomar calor de un
depósito abundante, como el océano y convertirlo íntegramente en un trabajo útil. Entonces no
seria necesario contar con una fuente de calor una temperatura más alta que el medio ambiente
quemando combustibles. De la misma manera, podría esperarse, que se diseñara un refrigerador
que simplemente transporte calor, desde un cuerpo frío a un cuerpo caliente, sin que tenga que
gastarse trabajo exterior. Ninguna de estas aspiraciones ambiciosas violan la primera ley de la
termodinámica. La máquina térmica sólo podría convertir energía calorífica completamente en
energía mecánica, conservándose la energía total del proceso. En el refrigerador simplemente se
transmitiría la energía calorifica de un cuerpo frío a un cuerpo caliente, sin que se perdiera la
energía en el proceso. Nunca se ha logrado ninguna de estas aspiraciones y hay razones para que
se crea que nunca se alcanzarán.

La segunda ley de la termodinámica, que es una generalización de la experiencia, es una


exposición cuyos artificios de aplicación no existen. Se tienen muchos enunciados de la segunda
ley, cada uno de los cuales hace destacar un aspecto de ella, pero se puede demostrar que son
equivalentes entre sí. Clausius la enuncio como sigue: No es posible para una máquina cíclica
llevar continuamente calor de un cuerpo a otro que esté a temperatura más alta, sin que al mismo
tiempo se produzca otro efecto (de compensación). Este enunciado desecha la posibilidad de
nuestro ambicioso refrigerador, ya que éste implica que para transmitir calor continuamente de un
objeto frío a un objeto caliente, es necesario proporcionar trabajo de un agente exterior. Por
nuestra experiencia sabemos que cuando dos cuerpos se encuentran en contacto fluye calor del
cuerpo caliente al cuerpo frío. En este caso, la segunda ley elimina la posibilidad de que la energía
fluya del cuerpo frío al cuerpo caliente y así determina la dirección de la transmisión del calor. La
dirección se puede invertir solamente por medio de gasto de un trabajo.

Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a las siguientes: es
completamente imposible realizar una transformación cuyo único resultado final sea el de cambiar
en trabajo el calor extraído de una fuente que se encuentre a la misma temperatura. Este
enunciado elimina nuestras ambiciones de la máquina térmica, ya que implica que no podemos
producir trabajo mecánico sacando calor de un solo depósito, sin devolver ninguna cantidad de
calor a un depósito que esté a una temperatura más baja.

Para demostrar que los dos enunciados son equivalentes, necesitamos demostrar que si
cualquiera de los enunciados es falso, el otro también debe serlo. Supóngase que es falso el
enunciado de Clausius, de tal manera que se pudieran tener un refrigerador que opere sin que se
consuma el trabajo. Podemos usar una máquina ordinaria para extraer calor de un cuerpo caliente,
con el objeto de hacer trabajo y devolver parte del calor a un cuerpo frío.

Pero conectando nuestro refrigerador “perfecto” al sistema, este calor se regresaría al cuerpo
caliente, sin gasto de trabajo, quedando así utilizable de nuevo para su uso en una máquina
térmica. De aquí que la combinación de una maquina ordinaria y el refrigerador “perfecto” formará
una máquina térmica que infringe el enunciado de Kelvin-Planck. O podemos invertir el argumento.
Si el enunciado Kelvin-Planck fuera incorrecto, podríamos tener una máquina térmica que
sencillamente tome calor de una fuente y lo convierta por completo en trabajo. Conectando esta
máquina térmica “perfecta” a un refrigerador ordinario, podemos extraer calor de un cuerpo
ordinario, podemos extraer calor de un cuerpo caliente, convertirlo completamente en trabajo, usar
este trabajo para mover un refrigerador ordinario, extraer calor de un cuerpo frío, y entregarlo con
el trabajo convertido en calor por el refrigerador, al cuerpo caliente. El resultado neto es una
transmisión de calor desde un cuerpo frío, a un cuerpo caliente, sin gastar trabajo, lo infringe el
enunciado de Clausius.

La segunda ley nos dice que muchos procesos son irreversibles. Por ejemplo, el enunciado de
Clausius específicamente elimina una inversión simple del proceso de transmisión de calor de un
cuerpo caliente, a un cuerpo frío. Algunos procesos, no sólo no pueden regresarse por sí mismos,
sino que tampoco ninguna combinación de procesos pueden anular el efecto de un proceso
irreversible, sin provocar otro cambio correspondiente en otra parte.

Tercera ley de la termodinámica

En el análisis de muchas reacciones químicas es necesario fijar un estado de referencia para la


entropia. Este siempre puede escogerse algún nivel arbitrario de referencia cuando solo se
involucra un componente; para las tablas de vapor convencionales se ha escogido 320F. Sobre la
base de las observaciones hechas por Nernst y por otros, Planck estableció la tercera ley de la
termodinámica en 1912, así:

la entropia de todos los sólidos cristalinos perfectos es cero a la temperatura de cero absoluto.

Un cristal “perfecto” es aquel que esta en equilibrio termodinámica. En consecuencia, comúnmente


se establece la tercera ley en forma más general, como:

La entropia de cualquier sustancia pura en equilibrio termodinamico tiende a cero a medida que la
temperatura tiende a cero.

La importancia de la tercera ley es evidente. Suministra una base para el calculo de las entropías
absolutas de las sustancias, las cuales pueden utilizarse en las ecuaciones apropiadas para
determinar la dirección de las reacciones químicas. Una interpretación estadística de la tercera ley
es más bien sencilla, puesto que la entropia se ha definido como:

En donde k es la constante de Bolzmall es la probabilidad termodinámica. En vista de la


anterior disertación, la tercera ley equivale a establecer que:

cuando 0.

Esto significa que sólo existe una forma de ocurrencia del estado de energía mínima para una
sustancia que obedezca la tercera ley. Hay varios casos referidos en la literatura en donde los
cálculos basados en la tercera ley no están desacuerdo con los experimentos. Sin embargo, en
todos los casos es posible explicar el desacuerdo sobre la base de que la sustancia no es “pura”,
esto es, pueda haber dos o más isótopos o presentarse moléculas diferentes o, también, una
distribución de no equilibrio de las moléculas. En tales casos hay más de un estado cuántico en el
cero absoluto y la entropia no tiende a cero.

Calor y Temperatura

Mediante el contacto de la epidermis con un objeto se perciben sensaciones de frío o de calor,


siendo está muy caliente. Los conceptos de calor y frío son totalmente relativos y sólo se pueden
establecer con la relación a un cuerpo de referencia como, por ejemplo, la mano del hombre.
Lo que se percibe con más precisión es la temperatura del objeto o, más exactamente todavía, la
diferencia entre la temperatura del mismo y la de la mano que la toca. Ahora bien, aunque la
sensación experimentada sea tanto más intensa cuanto más elevada sea la temperatura, se trata
sólo una apreciación muy poco exacta que no puede considerarse como medida de temperatura.
Para efectuar esta ultima se utilizan otras propiedades del calor, como la dilatación, cuyos efectos
son susceptibles.

Con muy pocas excepciones todos los cuerpos aumentan de volumen al calentarse y diminuyen
cuando se enfrían. En caso de los sólidos, el volumen suele incrementarse en todas las direcciones
se puede observar este fenómeno en una de ellas con experiencia del pirometró del cuadrante.

El, pirometro del cuadrante consta de una barra metálica apoyada en dos soportes, uno de los
cuales se fija con un tornillo, mientras que el otro puede deslizarse y empujar una palanca acodada
terminada por una aguja que recorre un cuadrante o escala cuadrada. Cuando, mediante un
mechero, se calienta fuertemente la barra, está se dilata y el valor del alargamiento, ampliado por
la palanca, aparece en el cuadrante.

Otro experimento igualmente característico es el llamado del anillo de Gravesande. Este aparato se
compone de un soporte del que cuelga una esfera metálica cuyo diámetro es ligeramente inferior al
de un anillo el mismo metal por el cual puede pasar cuando las dos piezas están a l a misma
temperatura. Si se calienta la esfera dejando el anillo a la temperatura ordinaria, aquella se dilata y
no pasa por el anillo; en cambio puede volver a hacerlo una vez enfriada o en el caso en que se
hayan calentando simultáneamente y a la misma temperatura la esfera y el anillo.

La dilatación es, por consiguiente, una primera propiedad térmica de los cuerpos, que permite
llegar a la noción de la temperatura. La segunda magnitud fundamental es la cantidad de calor que
se supone reciben o ceden los cuerpos al calentarse o al enfriarse, respectivamente. La cantidad
de calor que hay que proporcionar a un cuerpo para que su temperatura aumente en un numero de
unidades determinado es tanto mayor cuanto más elevada es la masa de dicho cuerpo y es
proporcional a lo que se denomina calor especifico de la sustancia de que está constituido. Cuando
se calienta un cuerpo en uno de sus puntos, el calor se propaga a los que son próximos y la
diferencia de temperatura entre el punto calentado directamente y otro situado a cierta distancia es
tanto menor cuando mejor conducto del calor es dicho cuerpo. Si la conductabilidad térmica de un
cuerpo es pequeña, la transmisión del calor se manifiesta por un descenso rápido de la
temperatura entre el punto calentado y otro próximo. Así sucede con el vidrio, la porcelana, el
caucho, etc. En el caso contrario, por ejemplo con metales como el cobre y la plata, la
conductabilidad térmica es muy grande y la disminución de temperatura entre un punto calentado y
el otro próximo es muy reducida.

Se desprende de lo anterior que el estudio del calor sólo puede hacerse después de haber definido
de una manera exacta los dos términos relativos al propio calor, es decir, la temperatura, que se
expresa en grados, y la cantidad de calor, que se expresa en calorías. Habrá que definir después
algunas propiedades específicas de los cuerpos en su manera de comportarse con respecto al
calor y la conductabilidad térmica.

Energía calorifica

La suma de la energía potencial y de la energía sintética de un sistema no permanece siempre


constante.

De una manera general, la energía mecánica total de un sistema disminuye con el frotamiento y los
choques. Si por ejemplo, se frena un cuerpo durante su caída por un plano inclinado, de forma que
su velocidad permanezca constante, se producirá una disminución de su energía potencial sin que
aumente su energía cinética. Pero, en todos los fenómenos de esta naturaleza se produce calor.
Así el fósforo de las cerillas se inflama por frotamiento, las herramientas se calientan al labrar los
metales, etc. Sí una bala de plomo se dispara contra una placa de acero, se puede alcanzar, en el
momento del choque, una temperatura superior a su punto de fusión. El calor debe, por
consiguiente, considerarse como una forma de energía, hipótesis que se ve corroborada por la
posibilidad de producir trabajo mecánico consumiendo calor, por ejemplo, en las maquinas de calor.

¿ Porque el Cielo es Azul ?

El azul del cielo y el rojo de la puesta del sol, se deben a un fenómeno llamado <<difusión>>.
Cuando la luz del sol pasa por la atmósfera de la Tierra, mucha de la luz es recogida por las
moléculas del aire y cedida otra vez en alguna otra dirección. El fenómeno es muy similar a la
acción de las ondas del agua sobre los objetos flotantes. Si, por ejemplo, las ondulaciones
procedentes de una piedra arrojada a un estanque de agua inmóvil encuentran algún corcho
pequeño flotando en su superficie, el corcho cabecea subiendo y bajando con la frecuencia de las
ondas que pasan.

La luz se describe como actuando del mismo modo sobre moléculas del aire y finas partículas de
polvo. Una vez puestas en vibración por una onda luminosa, una molécula o una partícula pueden
emitir de nuevo luz absorbida, algunas veces en la misma dirección, pero generalmente en
cualquier otra.

Los experimentos demuestran, de acuerdo con la teoría de la difusión, que las ondas más cortas
se difunden más fácilmente que las más largas. Para ser más específicos, la difusión es
inversamente proporcional a la cuarta potencia de la longitud de onda.

Difusión ∝ 1/λ4

De acuerdo con esta ley las ondas cortas de la luz violeta se difunden diez veces más fácilmente
que las ondas largas de la luz roja. Los otros colores se difunden en proporciones intermedias. Así
cuando la luz solar entra en la atmósfera de la Tierra, la luz violeta y la azul, se difunden más,
seguidas del verde, amarilla, anaranjada y roja, en el orden indicado.

Para cada diez ondas violetas ( λ = 0,00004 cm ) difundidas en un haz, hay sólo una onda roja ( λ
= 0,00007 cm ).

Violeta azul verde amarillaanaranjada roja

10 7 5 3 2 1

A mediodía, en un día claro cuando el Sol está directamente en el cenit, el cielo entero aparece
como azul claro. Este es el color compuesto de la mezcla de colores difundidos más efectivamente
por las moléculas del aire. Puesto que el azul claro del triángulo de los colores se obtiene de la
mezcla aditiva de violeta, azul, verde y amarillo.

Las puestas de sol son rojas, la luz del cielo esta polarizada linealmente en bastante grado, como
puede comprobarse sin dificultad mirando al cielo directamente hacia arriba, a través de una lamina
polarizante, puesto que la luz difusa es sustraída del haz original, que resulta debilitado durante
este proceso.

Escalas de medición de la temperatura


Las dos escalas de temperatura de uso común son la Celsius (llamada anteriormente
‘’centígrada’’) y la Fahrenheit. Estas se encuentran definidas en términos de la escala Kelvin, que
es las escala fundamental de temperatura en la ciencia. La escala Celsius de temperatura usa la
unidad ‘’grado Celsius’’ (símbolo 0C), igual a la unidad ‘’Kelvin’’. Por esto, los intervalos de
temperatura tienen el mismo valor numérico en las escalas Celsius y Kelvin. La definición original
de la escala Celsius se ha sustituido por otra que es más conveniente. Sí hacemos que Tc
represente la escala de temperatura, entonces:

Tc = T - 273.150

relaciona la temperatura Celsius Tc (0C) y la temperatura Kelvin T(K). Vemos que el punto triple del
agua (=273.16K por definición), corresponde a 0.010C. La escala Celsius se definió de tal manera
que la temperatura a la que el hielo y el aire saturado con agua se encuentran en equilibrio a la
presión atmosférica - el llamado punto de hielo - es 0.00 0C y la temperatura a la que el vapor y el
agua liquida, están en equilibrio a 1 atm de presión -el llamado punto del vapor- es de 100.00 0C.

La escala Fahrenheit, todavía se usa en algunos países que emplean el idioma ingles
aunque usualmente no se usa en el trabajo científico. Se define que la relación entre las escalas
Fahrenheit y Celsius es:

De esta relación podemos concluir que el punto del hielo (0.000C) es igual a 32.0 0F, y que el punto

del vapor (100.00C) es igual a 212.0 0F, y que un grado Fahrenheit es exactamente igual del

tamaño de un grado celcius.

Entropía

La entropía, como todas las variables de estado, dependen sólo de los estados del sistema, y
debemos estar preparados para calcular el cambio en la entropía de procesos irreversibles,
conociendo sólo los estados de principio y al fin. Consideraremos dos ejemplos:

1.- Dilatación libre: Dupliquemos el volumen de un gas, haciendo que se dilate en un recipiente
vacío, puesto que no se efectúa reacción alguna contra el vacío, y, como el gas se
encuentra encerrado entre paredes no conductoras, . por la primera ley se entiende que
o:
donde y se refieren a los estados inicial y final (de equilibrio). Si el gas es ideal, depende
únicamente de la temperatura y no de la presión o el volumen, y la ecuación implica que
.

En realidad, la dilatación libre es irreversible, perdemos el control del medio ambiente una vez que
abrimos la llave. Hay sin envergo, una diferencia de entropía , entre los estados de

equilibrio inicial y final, pero no podemos calcularla con la ecuación , por

que esta relación se aplica únicamente a trayectorias reversibles; si tratamos de usar la ecuación,
tendremos inmediatamente la facultad de que Q = 0 para la dilatación libre - además - no sabremos
como dar valores significativos de T en los estados intermedios que no son de equilibrio.

Entonces, ¿Cómo calcularemos Sf - Si para estos estados?, lo haremos determinando una


trayectoria reversible (cualquier trayectoria reversible) que conecte los estados y f, para así
calcular el cambio de entropía de la trayectoria. En la dilatación libre, un trayecto reversible
conveniente (suponiendo que se trate de un gas ideal) es una dilatación isotérmica de VI a Vf
(=2Vi). Esto corresponde a la dilatación isotérmica que se lleva a cabo entre los puntos a y b del
ciclo del Carnot.

Esto representa un grupo de operaciones muy diferentes de la dilatación libre y tienen en común
la única condición de que conectan el mismo grupo de estados de equilibrio, y f. De la ecuación

y el ejemplo 1 tenemos.

Esto es positivo, de tal manera que la entropía del sistema aumenta en este proceso adiabático
irreversible. Nótese que la dilatación libre es un proceso que, en la naturaleza se desarrolla por sí
mismo una vez iniciado. Realmente no podemos concebir lo opuesto, una compresión libre en la
que el gas que en un recipiente aislado se comprima en forma espontanea de tal manera que
ocupe solo la mitad del volumen que tiene disponible libremente. Toda nuestra experiencia nos dice
que el primer proceso es inevitable y virtualmente, no se puede concebir el segundo.

2.- Transmisión irreversible de calor. Como otro ejemplo, considérense dos cuerpos que son
semejantes en todo, excepto que uno se encuentra a una temperatura TH y el otro a la temperatura
TC, donde TH> TC. Si ponemos ambos objetos en contacto dentro de una caja con paredes no
conductoras, eventualmente llegan a la temperatura común Tm, con un valor entre TH y TC; como la
dilatación libre, el proceso es irreversible, por que perdemos el control del medio ambiente, una vez
que colocamos los dos cuerpos en la caja. Como la dilatación libre, este proceso también es
adiabático (irreversible), por que no entra o sale calor en el sistema durante el proceso.
Para calcular el cambio de entropía para el sistema durante este proceso, de nuevo debemos
encontrar un proceso reversible que conecte los mismos estados inicial y final y calcular el cambio

de entropía, aplicando la ecuación al proceso. Podemos hacerlo, si

imaginamos que tenemos a nuestra disposición un deposito de calor de gran capacidad calorífica,
cuya temperatura T este bajo nuestro control, digamos, haciendo girar una perilla. Primero
ajustamos, la temperatura del deposito a TH a Tm, quitando calor al cuerpo caliente al mismo
tiempo. En este proceso el cuerpo caliente pierde entropía, siendo el cambio de esta magnitud

Aquí T1 es una temperatura adecuada escogida entre TH y Tm y Q es el calor extraído. En seguida


ajustamos la temperatura de nuestro depósito a Tc y lo colocamos en contacto con el segundo
cuerpo (el más frío). A continuación elevamos lentamente (reversiblemente) la temperatura del
depósito de Tc a Tm, cediendo calor al cuerpo frío mientras lo hacemos. El cuerpo frío gana entropía
en este proceso, siendo su cambio .

Aquí T2 es una temperatura adecuada, escogida para que quede entre Tc y Tm y Q es el calor
agregado. El calor Q agregado al cuerpo frío es igual al Q extraído del cuerpo caliente. Los dos
cuerpos se encuentran ahora en la misma temperatura Tm y el sistema se encuentra en el estado
de equilibrio final. El cambio de entropía para el sistema completo es:

Como T1>T2, tenemos Sf >Si. De nuevo, como para la dilatación libre, la entropía del sistema
aumenta en este proceso reversible y adiabático. Nótese que, como la dilatación libre, nuestro
ejemplo de la conducción del calor es un proceso que en la naturaleza se desarrolla por sí mismo
una vez que se ha iniciado. En realidad no podemos concebir el proceso opuesto, en el cual, por
ejemplo, una varilla de metal en equilibrio térmico a la temperatura del cuarto espontáneamente se
ajuste de tal manera, que un extremo quede más caliente y en el otro más frío. De nuevo, la
naturaleza tiene la preferencia irresistible para que el proceso se efectúe en una dirección
determinada y no en la opuesta.

En cada uno de estos ejemplos, debemos distinguir cuidadosamente el proceso real (irreversible)
(dilatación libre o transmisión del calor) y el proceso reversible que se introdujo, para que se
pudiera calcular el cambio de entropía en el proceso real.

Podemos escoger cualquier proceso reversible, mientras conecte los mismos estados inicial y final
que el proceso real; todos estos procesos reversibles llevarán al mismo cambio de entropía porque
ella depende sólo los estados inicial y final y no de los procesos que los conectan, tanto si son
reversibles como si son irreversibles.

• Biología
La biología (del griego «βιος» bios, vida, y «λογος» logos, estudio) es una de las ciencias naturales
que tiene como objeto de estudio la materia viva y más especificamente su origen y evolución; así
como de su propiedades (génesis, nutrición, morfogénesis, reproducción, patogenia, etc.). La
biología se ocupa tanto de la descripción de las características y los comportamientos de los
organismos individuales, como de las especies en su conjunto, así como de la reproducción de los
seres vivos y de las interacciones entre ellos y el entorno. En otras palabras, se preocupa de la
estructura y la dinámica funcional comunes a todos los seres vivos con el fin de establecer las
leyes generales que rigen la vida orgánica y los principios explicativos fundamentales de ésta.

La palabra biología en su sentido moderno parece haber sido introducida independientemente por
Gottfried Reinhold Treviranus (Biologie oder Philosophie der lebenden Natur, 1802) y por Jean-
Baptiste Lamarck (Hydrogéologie, 1802). Generalmente se dice que el término fue acuñado en
1800 por Karl Friedrich Burdach, aunque se menciona en el título del tercer volumen de
Philosophiae naturalis sive physicae dogmaticae: Geologia, biologia, phytologia generalis et
dendrologia, por Michael Christoph Hanov publicado en 1766.

La biología abarca un amplio espectro de campos de estudio que a menudo se tratan como
disciplinas independientes. Juntas, estudian la vida en un amplio campo de escalas. La vida se
estudia a escala atómica y molecular en la biología molecular, en la bioquímica y en la genética
molecular. Desde el punto de vista celular, se estudia en la biología celular, y a escala multicelular,
se estudia en la fisiología, la anatomía y la histología. La biología del desarrollo estudia el
desarrollo o la ontogenia de un organismo individual.

Ampliando el campo a más de un organismo, la genética trata el funcionamiento de la herencia de


los padres a su descendencia. La etología trata el comportamiento de los grupos, esto es, de más
de un individuo. La genética de poblaciones observa una población entera y la sistemática trata los
linajes entre especies. Las poblaciones interdependientes y sus hábitats se examinan en la
ecología y la biología evolutiva. Un nuevo campo de estudio es la astrobiología (o xenobiología),
que estudia la posibilidad de la vida más allá de la Tierra.

Las clasificaciones de los seres vivos son muy numerosas, se proponen, desde la tradicional
división en dos reinos establecida por Linneo en el siglo XVII, entre animales y plantas, hasta las
propuestas actuales de los sistemas cladísticos con tres dominios que comprenden más de 20
reinos.

La biología estudia la variedad de formas de vida. En sentido horario: E. coli, Sauce japonés,
gacela, y escarabajo Goliath.T

Historia de la biología
La biología se ha desarrollado a lo largo del tiempo gracias a los aportes de notables
investigadores que dedicaron su vida al estudio de la naturaleza.

Entre los más destacados se encuentra el filósofo griego Aristóteles. Fue el más grande naturalista
de la Antigüedad, estudió y describió más de 500 especies animales; estableció la primera
clasificación de los organismos que no fue superada hasta el siglo XVIII por Carl Linné.

Carl Linné estableció una clasificación de las especies conocidas hasta entonces, basándose en el
concepto de especie como un grupo de individuos semejantes, con antepasados comunes. Agrupó
a las especies en géneros, a éstos en órdenes y, finalmente, en clases, considerando sus
características.
Estrechamente vinculado con el aspecto taxonómico, Linneo propuso el manejo de la nomenclatura
binominal, que consiste en asignar a cada organismo dos palabras en latín, un sustantivo para el
género y un adjetivo para la especie, lo que forma el nombre científico que debe subrayarse o
destacarse con otro tipo de letra en un texto. El nombre científico sirve para evitar confusiones en
la identificación y registro de los organismos.

Otro científico que hizo una gran contribución a la biología fue Charles Darwin, autor del libro
denominado El Origen de las Especies. En él expuso sus ideas sobre la evolución de las especies
por medio de la selección natural. Esta teoría originó, junto con la teoría celular y la de la herencia
biológica, la integración de la base científica de la biología actual.

La herencia biológica fue estudiada por Gregor Mendel, quien hizo una serie de experimentos para
estudiar cómo se heredan las características de padres a hijos, con lo que asentó las bases de la
Genética. Uno de sus aciertos fue elegir chícharos para realizar sus experimentos, estos
organismos son de fácil manejo ocupan poco espacio, se reproducen con rapidez, muestran
características fáciles de identificar entre los padres e hijos y no son producto de una combinación
previa.

Por otra parte, Louis Pasteur demostró la falsedad de la hipótesis de la generación espontánea al
comprobar que un ser vivo procede de otro. El suponía que la presencia de los microorganismos
en el aire ocasionaba la descomposición de algunos alimentos y que usando calor sería posible
exterminarlos, este método recibe actualmente el nombre de pasterización o pasteurización.

Pasteur asentó las bases de la bacteriología, investigó acerca de la enfermedad del gusano de
seda; el cólera de las gallinas y, desarrolló exitosamente la vacuna del ántrax para el ganado y la
vacuna antirrábica.

Alexandr Ivánovich Oparin, en su libro El origen de la vida sobre la Tierra (1936) dio una
explicación de cómo pudo la materia inorgánica transformarse en orgánica y cómo esta última
originó la materia viva.

James Watson y Francis Crick elaboraron un modelo de la estructura del ácido desoxirribonucleico,
molécula que controla todos los procesos celulares tales como la alimentación, la reproducción y la
transmisión de caracteres de padres a hijos. La molécula de DNA consiste en dos bandas
enrolladas en forma de doble hélice, esto es, parecida a una escalera enrollada.

Entre los investigadores que observaron el comportamiento animal destaca Konrad Lorenz quien
estudió un tipo especial de aprendizaje conocido como impresión o impronta. Para verificar si la
conducta de las aves de seguir a su madre es aprendida o innata, Lorenz graznó y caminó frente a
unos patitos recién nacidos, mismos que lo persiguieron, aun cuando les brindó la oportunidad de
seguir a su madre o a otras aves. Con esto Lorenz demostró que la conducta de seguir a su madre
no es innata sino aprendida.

Principios de la biología
A diferencia de la física, la biología no suele describir sistemas biológicos en términos de objetos
que obedecen leyes físicas inmutables descritas por las matemáticas. No obstante, la biología se
caracteriza por seguir algunos principios y conceptos de gran importancia, entre los que se
incluyen: la universalidad, la evolución, la diversidad, la continuidad, la homeóstasis y las
interacciones.

Universalidad: bioquímica, células y el código genético

Representación esquemática de la molécula de ADN, la molécula portadora de la información


genética.Artículo principal: Vida
Hay muchas constantes universales y procesos comunes que son fundamentales para conocer las
formas de vida. Por ejemplo, todas las formas de vida están compuestas por células, que están
basadas en una bioquímica común, que es la química de los seres vivos. Todos los organismos
perpetúan sus caracteres hereditarios mediante el material genético, que está basado en el ácido
nucleico ADN, que emplea un código genético universal. En la biología del desarrollo, la
característica de la universalidad también está presente: por ejemplo, el desarrollo temprano del
embrión sigue unos pasos básicos que son muy similares en mucho organismos metazoos.

Evolución: el principio central de la biología


Uno de los conceptos centrales de la biología es que toda vida desciende de un origen común que
ha seguido el proceso de la evolución. De hecho, esta es una de las razones por la que los
organismos biológicos exhiben una semejanza tan llamativa en las unidades y procesos que se
han discutido en la sección anterior. Charles Darwin estableció la credibilidad de la teoría de la
evolución al articular el concepto de selección natural (a Alfred Russell Wallace se le suele
reconocer como codescubridor de este concepto). Con la llamada síntesis moderna de la teoría
evolutiva, la deriva genética fue aceptada como otro mecanismo fundamental implicado en el
proceso.

Se llama filogenia al estudio de la historia evolutiva y las relaciones genealógicas de las estirpes.
Las comparaciones de secuencias de ADN y de proteínas, facilitadas por el desarrollo técnico de la
biología molecular y de la genómica, junto con el estudio comparativo de fósiles u otros restos
paleontológicos, generan la información precisa para el análisis filogenético. El esfuerzo de los
biólogos por abordar científicamente la comprensión y la clasificación de la diversidad de la vida,
han dado lugar al desarrollo de diversas escuelas en competencia, como la fenética, que puede
considerarse superada, o la cladística. No se discute que el desarrollo muy reciente de la
capacidad de descifrar sobre bases sólidas la filogenia de las especies, está catalizando una nueva
fase de gran productividad en el desarrollo de la biología.

Diversidad: variedad de organismos vivos

Árbol filogenético de los seres vivos basado en datos sobre su rARN. Los tres reinos principales de
seres vivos aparecen claramente diferenciados: bacterias, archaea, y eucariotas tal y como fueron
descritas inicialmente por Carl Woese. Otros árboles basados en datos genéticos de otro tipo
resultan similares pero pueden agrupar algunos organismos en ramas ligeramente diferentes,
presumiblemente debido a la rápida evolución del rARN. La relación exacta entre los tres grupos
principales de organismos permanece todavía como un importante tema de debate.A pesar de la
unidad subyacente, la vida exhibe una asombrosa diversidad en morfología, comportamiento y
ciclos vitales. Para afrontar esta diversidad, los biólogos intentan clasificar todas las formas de
vida. Esta clasificación científica refleja los árboles evolutivos (árboles filogenéticos) de los
diferentes organismos. Dichas clasificaciones son competencia de las disciplinas de la sistemática
y la taxonomía. La taxonomía sitúa a los organismos en grupos llamados taxa, mientras que la
sistemática trata de encontrar sus relaciones.

Tradicionalmente, los seres vivos se han venido clasificando en cinco reinos:

Monera —
Protista —
Fungi —
Plantae —
Animalia
Sin embargo, actualmente este sistema de cinco reinos se cree desfasado. Entre las ideas más
modernas, generalmente se acepta el sistema de tres dominios:

Archaea (originalmente Archaebacteria) —


Bacteria (originalmente Eubacteria) —
Eucariota
Estos ámbitos reflejan si las células poseen núcleo o no, así como las diferencias en el exterior de
las células. Hay también una serie de "parásitos" intracelulares que, en términos de actividad
metabólica son cada vez menos vivos:

Virus —
Viroides —
Priones
El reciente descubrimiento de una nueva clase de virus, denominado Mimivirus, ha causado que se
proponga la existencia de un cuarto dominio debido a sus características particulares, en el que por
ahora solo estaría incluído ese organismo.

Continuidad: el antepasado común de la vida


Se dice que un grupo de organismos tiene un antepasado común si tiene un ancestro común.
Todos los organismos existentes en la Tierra descienden de un ancestro común o, en su caso, de
recursos genéticos ancestrales. Este último ancestro común universal, esto es, el ancestro común
más reciente de todos los organismos, se cree que apareció hace alrededor de 3.500 millones de
años (véase origen de la vida).

La noción de que "toda vida proviene de un huevo" (del latín "Omne vivum ex ovo") es un concepto
fundacional de la biología moderna, y viene a decir que siempre ha existido una continuidad de la
vida desde su origen inicial hasta la actualidad. En el siglo XIX se pensaba que las formas de vida
podían aparecer de forma espontánea bajo ciertas condiciones (véase abiogénesis). Los biólogos
consideran que la universalidad del código genético es una prueba definitiva a favor de la teoría del
descendiente común universal (DCU) de todas las bacterias, archaea, y eucariotas (véase sistema
de tres dominios).
Homeostasis: adaptación al cambio
La homeostasis es la propiedad de un sistema abierto para regular su medio interno para mantener
unas condiciones estables, mediante múltiples ajustes de equilibrio dinámico controlados por
mecanismos de regulación interrelacionados. Todos los organismos vivos, sean unicelulars o
pluricelulares tienen su propia homeostasis. Por poner unos ejemplos, la homeostasis se manifesta
celularmente cuando se mantiene una acidez interna estable (pH); a nivel de organismo, cuando
los animales de sangre caliente mantienen una temperatura corporal interna constante; y a nivel de
ecosistema, al consumir dióxido de carbono las plantas regulan la concentración de esta molécula
en la atmósfera. Los tejidos y los órganos también pueden mantener su propia homeostasis.

Interacciones: grupos y entornos

Simbiosis entre un pez payaso del género de los Amphipriones y las anémonas de mar. El pez
protege a las anémonas de otros peces comedores de anémonas mientras que los tentáculos de
las anémonas protegen al pez payaso de sus depredadores.Todos los seres vivos interactúan con
otros organismos y con su entorno. Una de las razones por las que los sistemas biológicos pueden
ser difíciles de estudiar es que hay demasiadas interacciones posibles. La respuesta de una
bacteria microscópica a la concentración de azúcar en su medio (en su entorno) es tan compleja
como la de un león buscando comida en la sabana africana. El comportamiento de una especie en
particular puede ser cooperativo o agresivo; parasitario o simbiótico. Los estudios se vuelven
mucho más complejos cuando dos o más especies diferentes interactúan en un mismo ecosistema;
el estudio de estas interacciones es competencia de la ecología.

Alcance de la biología
La biología se ha convertido en una iniciativa investigadora tan vasta que generalmente no se
estudia como una única disciplina, sino como un conjunto de subdisciplinas. Aquí se considerarán
cuatro amplios grupos.

El primero de ellos consta de disciplinas que estudian las estructuras básicas de los sistemas
vivos: células, genes, etc.;
el segundo grupo considera la operación de estas estructuras a nivel de tejidos, órganos y cuerpos;
una tercera agrupación tiene en cuenta los organismos y sus historias; la última constelación de
disciplinas está enfocada a las interacciones.
Sin embargo, es importante señalar que estos límites, agrupaciones y descripciones son una
descripción simplificada de la investigación biológica. En realidad los límites entre disciplinas son
muy inseguros y, frecuentemente, muchas disciplinas se prestan técnicas las unas a las otras. Por
ejemplo, la biología de la evolución se apoya en gran medida de técnicas de la biología molecular
para determinar las secuencias de ADN que ayudan a comprender la variación genética de una
población; y la fisiología toma préstamos abundantes de la biología celular para describir la función
de sistemas orgánicos.

Estructura de la vida

Esquema de una tipica célula animal con sus orgánulos y estructurasArtículos principales: Biología
molecular, Biología celular, Genética, Biología del desarrollo, Bioquímica
La biología molecular es el estudio de la biología a nivel molécular. El campo se solapa con otras
áreas de la biología, en particular con la genética y la bioquímica. La biología molecular trata
principalmente de comprender las interacciones entre varios sistemas de una célula, incluyendo la
interrelación de la síntesis de proteínas de ADN y ARN y del aprendizaje de cómo se regulan estas
interacciones.

La biología celular estudia las propiedades fisiológicas de las células, así como sus
comportamientos, interacciones y entorno; esto se hace tanto a nivel microscópico como molecular.
La biología celular investiga los organismos unicelulares como bacterias y células especializadas
de organismos pluricelulares como los humanos.

La comprensión de la composición de las células y de cómo funcionan éstas es fundamental para


todas las ciencias biológicas. La apreciación de las semejanzas y diferencias entre tipos de células
es particularmente importante para los campos de la biología molecular y celular. Estas
semejanzas y diferencias fundamentales permiten unificar los principios aprendidos del estudio de
un tipo de célula, que se puede extrapolar y generalizar a otros tipos de células.

La genética es la ciencia de los genes, herencia y la variación de los organismos. En la


investigación moderna, la genética proporciona importantes herramientas de investigación de la
función de un gen particular, esto es, el análisis de interacciones genéticas. Dentro de los
organismos, generalmente la información genética se encuentra en los cromosomas, y está
representada en la estructura química de moléculas de ADN particulares.

Los genes codifican la información necesaria para sintetizar proteínas, que a su vez, juegan un
gran papel influyendo (aunque, en muchos casos, no lo determinan completamente) el fenotipo
final del organismo.

La biología del desarrollo estudia el proceso por el que los organismos crecen y se desarrollan.
Con origen en la embriología, la biología del desarrollo actual estudia el control genético del
crecimiento celular, la diferenciación celular y la morfogénesis, que es el proceso por el que se
llega a la formación de los tejidos, de los órganos y de la anatomía.

Los organismos modelo de la biología del desarrollo incluyen el gusano redondo Caenorhabditis
elegans, la mosca de la fruta Drosophila melanogaster, el pez cebra Brachydanio rerio, el ratón
Mus musculus, y la hierba Arabidopsis thaliana.

Fisiología de los organismos


La fisiología estudia los procesos mecánicos, físicos y bioquímicos de los organismos vivos, e
intenta comprender cómo funcionan todas las estructuras como una unidad. El funcionamiento de
las estructuras es un problema capital en biología.

Tradicionalmente se han dividido los estudios fisiológicos en fisiología vegetal y fisiología animal
aunque los principios de la fisiología son universales, no importa que organismo particular se está
estudiando. Por ejemplo, lo que se aprende de la fisiología de una célula de levadura puede
aplicarse también a células humanas.
El campo de la fisiología animal extiende las herramientas y los métodos de la fisiología humana a
las especies animales no humanas. La fisiología vegetal también toma prestadas técnicas de los
dos campos.

La anatomía es una parte importante de la fisiología y considera cómo funcionan e interactúan los
sistemas orgánicos de los animales como el sistema nervioso, el sistema inmunológico, el sistema
endocrino, el sistema respiratorio y el sistema circulatorio. El estudio de estos sistemas se
comparte con disciplinas orientadas a la medicina, como la neurología, la inmunología y otras
semejantes. La anatomía comparada estudia los cambios morfofisiológicos que han ido
experimentando las especies a lo largo de su historia evolutiva, valiéndose para ello de las
homologías existentes en las especies actuales y el estudio de restos fósiles.

Por otra parte, más allá del nivel de organización organísmico, la Ecofisiología estudia los procesos
fisiológicos que tienen lugar en las interacciones entre organismos, a nivel de comunidades y
ecosistemas, así como de las interrelaciones entre los sistemas vivos y los inertes (como por
ejemplo el estudio de los Ciclos biogeoquímicos o los intercambios biosfera-atmósfera).

Diversidad y evolución de los organismos

En el campo de la genética de poblaciones la evolución de una población de organismos puede


representarse como un recorrido en un espacio de adaptación. Las flechas indican el flujo de la
población sobre el espacio de adaptación y los puntos A, B y C representarían máximos de
adaptabilidad locales. La bola roja indica una población que evoluciona desde una baja adaptación
hasta la cima de uno de los máximos de adaptación.Artículos principales: Biología de la evolución,
Botánica, Zoología
La biología de la evolución trata el origen y la descendencia de las especies, así como su cambio a
lo largo del tiempo, esto es, su evolución.

La biología de la evolución es un campo global porque incluye científicos de diversas disciplinas


tradicionalmente orientadas a la taxonomía. Por ejemplo, generalmente incluye científicos que
tienen una formación especializada en organismos particulares, como la teriología, la ornitología o
la herpetología, aunque usan estos organismos como sistemas para responder preguntas
generales de la evolución. Esto también incluye a los paleontólogos que a partir de los fósiles
responden preguntas acerca del modo y el tempo de la evolución, así como teóricos de áreas tales
como la genética poblacional y la teoría de la evolución. En los años 90 la biología del desarrollo
hizo una reentrada en la biología de la evolución desde su exclusión inicial de la síntesis moderna
a través del estudiode la biología evolutiva del desarrollo. Algunos campos relacionados que a
menudo se han considerado parte de la biología de la evolución son la filogenia, la sistemática y la
taxonomía.

La dos disciplinas tradicionales orientadas a la taxonomía más importantes son la botánica y la


zoología. La botánica es el estudio científico de las plantas. La botánica cubre un amplio rango de
disciplinas científicas que estudian el crecimiento, la reproducción, el metabolismo, el desarrollo,
las enfermedades y la evolución de la vida de la planta.

La zoología es la disciplina que trata el estudio de los animales, incluyendo la fisiología, la


anatomía y la embriología. La genética común y los mecanismos de desarrollo de los animales y
las plantas se estudia en la biología molecular, la genética molecular y la biología del desarrollo. La
ecología de los animales está cubierta con la ecología del comportamiento y otros campos.

Clasificación de la vida
El sistema de clasificación dominante se llama taxonomía de Linneo, e incluye rangos y
nomenclatura binomial. El modo en que los organismos reciben su nombre está gobernado por
acuerdos internacionales, como el Código Internacional de Nomenclatura Botánica (CINB o ICBN
en inglés), el Código Internacional de Nomenclatura Zoológica (CINZ o ICZN en inglés) y el Código
Internacional de Nomenclatura Bacteriana (CINB o ICNB en inglés). En 1997 se publicó un cuarto
borrador del biocódigo (BioCode) en un intento de estandarizar la nomenclatura en las tres áreas,
pero no parece haber sido adoptado formalmente. El Código Internacional de Clasificación y
Nomenclatura de Virus (CICNV o ICVCN en inglés) permanece fuera del BioCode.

Organismos en interacción

La ecología estudia la distribución y la abundancia de organismos vivos y las interacciones de


estos organismos con su entorno. El entorno de un organismo incluye tanto su hábitat, que se
puede describir como la suma de factores abióticos locales como el clima y la geología, así como
con los otros organismos con los que comparten ese hábitat. Las interacciones entre organismos
pueden ser inter o intraespecíficas, y estas relaciones se pueden clasificar según si para cada uno
de los agentes en interacción resulta beneficiosa, perjudicial o neutra.

Uno de los pilares fundamentales de la ecología es estudiar el flujo de energía que se propaga a
través de la red trófica, desde los productores primarios hasta los consumidores y detritívoros,
perdiendo calidad dicha energía en el proceso al disiparse en forma de calor. El principal aporte de
energía a los ecosistemas es la energía proveniente del sol, pero las plantas (en ecosistemas
terrestres, o las algas en los acuáticos) tienen una eficiencia fotosintética limitada, al igual que los
herbívoros y los carnívoros tienen una eficacia heterotrófica. Esta es la razón por la que un
ecosistema siempre podrá mantener un mayor número y cantidad de herbívoros que de carnívoros,
y es por lo que se conoce a las redes tróficas también como "pirámides", y es por esto que los
ecosistemas tienen una capacidad de carga limitada (y la misma razón por la que se necesita
mucho más territorio para producir carne que vegetales).

Los sistemas ecológicos se estudian a diferentes niveles, desde individuales y poblacionales


(aunque en cierto modo puede hablarse de una "ecología de los genes", infraorganísmica), hasta
los ecosistemas completos y la biosfera, existiendo algunas hipótesis que postulan que esta última
podría considerarse en cierto modo un "supraorganismo" con capacidad de homeostasis. La
ecología es una ciencia multidisciplinar y hace uso de muchas otras ramas de la ciencia, al mismo
tiempo que permite aplicar algunos de sus análisis a otras disciplinas: en teoría de la comunicación
se habla de Ecología de la información, y en marketing se estudian los nichos de mercado. Existe
incluso una rama del pensamiento económico que sostiene que la economía es un sistema abierto
que debe ser considerado como parte integrante del sistema ecológico global.

La etología, por otra parte, estudia el comportamiento animal (en particular de animales sociales
como los insectos sociales, los cánidos o los primates), y a veces se considera una rama de la
zoología. Los etólogos se han ocupado, a la luz de los procesos evolutivos, del comportamiento y
la comprensión del comportamiento según la teoría de la selección natural. En cierto sentido, el
primer etólogo moderno fue Charles Darwin, cuyo libro La expresión de las emociones en los
animales y hombres influyó a muchos etólogos posteriores al sugerir que ciertos rasgos del
comportamiento podrían estar sujetos a la misma presión selectiva que otros rasgos meramente
físicos.

El especialista en hormigas E.O.Wilson despertó una aguda polémica en tiempos más recientes
con su libro de 1980 Sociobiología: La Nueva Síntesis, al pretender que la Sociobiología debería
ser una disciplina matriz, que partiendo de la metodología desarrollada por los etólogos, englobase
tanto a la Psicología como a la antropología o la Sociología y en general a todas las ciencias
sociales, ya que en su visión la naturaleza humana es esencialmente animal. Este enfoque ha sido
criticado por autores como el genético R.C.Lewontin por exhibir un reduccionismo que en última
instancia justifica y legitima las diferencias instituidas socialmente.

La etología moderna comprende disciplinas como la neuroetología, inspiradas en la cibernética y


con aplicaciones industriales en el campo de la robótica y la neuropsiquiatría. También toma
prestados muchos desarrollos de la teoría de juegos, especialmente en dinámicas evolutivas, y
algunos de sus conceptos más populares son el de Gen egoísta, creado por Richard Dawkins o el
de Meme.

Biología celular y molecular


La biología celular persigue la comprensión de las funciones de la célula (unidad estructural básica
de la materia viva).

Los seres vivos atendiendo a su organización celular se clasificarán en acelulares (virus, viroides) y
celulares, siendos estos a su vez clasificados en eucariotas y procariotas.

Para alcanzar sus objetivos, los biólogos celulares se ven obligados a estudiar los componentes de
la célula a nivel molecular (biología molecular).

Componentes pricipales del estudio celular:

membrana plasmática
citoesqueleto
núcleo celular
ribosomas
retículo endoplásmico
aparato de Golgi
mitocondrias
cloroplastos
lisosomas
peroxisomas
vacuolas
pared celular
La célula es una unidad mínima de un organismo capaz de actuar de manera autónoma. Todos los
organismos vivos están formados por células, y en general se acepta que ningún organismo es un
ser vivo si no consta al menos de una célula. Algunos organismos microscópicos, como bacterias y
protozoos, son células únicas, mientras que los animales y plantas están formados por muchos
millones de células organizadas en tejidos y órganos.

Aunque los virus y los extractos acelulares realizan muchas de las funciones propias de la célula
viva, carecen de metabolismo, capacidad de crecimiento y reproducción (características propias de
los seres vivos) y, por tanto, no se consideran organismos vivos. La biología celular estudia las
células en función de su constitución molecular y la forma en que cooperan entre sí para constituir
organismos muy complejos, como el ser humano. Para poder comprender cómo funciona el cuerpo
humano sano, cómo se desarrolla y envejece y qué falla en caso de enfermedad, es
imprescindible conocer las células que lo constituyen.

A continuación trataremos de analizar más profundamente el comportamiento, estructura, y todo lo


relacionado con la célula

Características generales de las células

Hay células de formas y tamaños muy variados. Algunas de las células bacterianas más pequeñas
tienen forma cilíndrica de menos de una micra (1 micra es igual a una millonésima de metro ). En el
extremo opuesto se encuentran las células nerviosas, corpúsculos de forma compleja con
numerosas prolongaciones delgadas que pueden alcanzar varios metros de longitud (las del cuello
de la jirafa constituyen un ejemplo espectacular). Casi todas las células vegetales tienen entre 20 y
30 micras de longitud, forma poligonal y pared celular rígida. Las células de los tejidos animales
suelen ser compactas, entre 10 y 20 micras de diámetro y con una membrana superficial
deformable y casi siempre muy plegada.

Pese a las muchas diferencias de aspecto y función, todas las células están envueltas en una
membrana —llamada membrana plasmática— que encierra una sustancia rica en agua llamada
citoplasma.

En el interior de las células tienen lugar numerosas reacciones químicas que le permiten crecer,
producir energía y eliminar residuos. El conjunto de estas reacciones se llama metabolismo
(término que proviene de una palabra griega que significa cambio). Todas las células contienen
información hereditaria codificada en moléculas de ácido desoxirribonucleico (ADN); esta
información dirige la actividad de la célula y asegura la reproducción y el paso de los caracteres a
la descendencia.

Estas y otras numerosas similitudes (entre ellas muchas moléculas idénticas o casi idénticas)
demuestran que hay una relación evolutiva entre las células actuales y las primeras que
aparecieron sobre la tierra.

Composición química

En los organismos vivos no hay nada que contradiga las leyes de la química y la física. La química
de los seres vivos, objeto de estudio de la bioquímica, está dominada por compuestos de carbono
y se caracteriza por reacciones acaecidas en solución acuosa y en un intervalo de temperaturas
pequeño. La química de los organismos vivientes es muy compleja, más que la de cualquier otro
sistema químico conocido. Está dominada y coordinada por polímeros de gran tamaño, moléculas
formadas por encadenamiento de subunidades químicas; las propiedades únicas de estos
compuestos permiten a células y organismos crecer y reproducirse. Los tipos principales de
macromoléculas son las proteínas, formadas por cadenas lineales de aminoácidos; los ácidos
nucleicos, ADN y ARN, formados por bases nucleotídicas, y los polisacáridos, formados por
subunidades de azúcares.

MEMBRANA CELULAR

Características

La célula puede existir como entidad individual porque su membrana regula el pasaje de materiales
hacia su exterior e interior. La membrana celular, o también llamada membrana plasmática solo
mide de 7 a 9 nanómetros de espesor.

Todas las membranas de la célula, incluso las que rodean a los diversos orgánulos, poseen esta
misma estructura, pero existen diferencias en la composición de sus lípidos y, en particular, en la
cantidad y tipo de proteínas y carbohidratos.

Estas diferencias imparten a las membranas de distintos tipos de células y a los distintos orgánulos
propiedades singulares que pueden correlacionarse con diferencias en la función de la membrana.

La membrana celular no es fija, sino dinámica, pues es capaz de modificarse, y en ese proceso
genera canales o poros y otras modificaciones que veremos después.

Debido a dicha estructura fluida las moléculas pueden desplazarse a través de ella y así se
establece una comunicación del citoplasma con el medio externo.

El paso de sustancias por la membrana plasmática permite el intercambio entre el citoplasma y el


ambiente exterior. Este paso es selectivo, esto es, la membrana selecciona las sustancias
(moléculas) que han de pasar en uno u otro sentido.

Funciones de la membrana plasmática

• Regula el pasaje de sustancias hacia su exterior y viceversa:

La incorporación de nutrientes y la eliminación de deshechos, se hace en muchos casos


atravesando la membrana plasmática. Este transporte es posible mediante la propia membrana.

En otros casos, sobre todo en los de célula libre (organismos unicelulares) o cuando el tamaño de
las partículas no permiten que pasen a través de la membrana, esta se deforma, englobando las
partículas. En células animales que usan como alimento a nutrientes complejos, es necesario
someterlo previamente a una transformación (digestión) para convertirlos en sustancias más
simples que puedan atravesar la membrana celular.

• La membrana plasmática es capaz de detectar cambios del ambiente:

Las células responden a los estímulos de forma muy variada, pero la mayor parte responde con un
movimiento o con la elaboración de algún producto (secreción). En ellos participa la membrana
plasmática y el citoplasma. Los movimientos celulares pueden dar lugar al desplazamiento de toda
la célula, es decir a su locomoción; o bien quedar reducidos a cambios de posición de algunas de
sus partes. El tipo de movimiento originado puede ser muy variable: por emisión de pseudopodos,
por cilios, por flagelos; incluso movimientos endocelulares que afectan al citoplasma celular.

• La membrana plasmática aísla y protege a la célula del medio externo:


En este caso actúa como una verdadera muralla, en algunos casos permitiendo o no que entren
sustancias, esto va a determinar si la membrana es permeable (si deja pasar a las sustancias),
impermeable (si no deja pasar sustancias) y semipermeable si es una combinación de ambas.

¿Cómo se mueven las células? Todas las células exhiben algún tipo de movimiento. Hasta las
células vegetales, encasilladas en una rígida pared celular. Hasta el momento se identifican dos
mecanismos de movimiento celular:

Por proteína celular: Los músculos esqueléticos de los vertebrados contienen intrincados
conjuntos contráctiles que consisten en filamentos proteicos. las dos proteínas principales de la
musculatura esquelética son actina y miosina. A estas proteínas se les suele conocer como
proteínas musculares. Sin embargo, ahora se sabe que la actina en particular existe en una gran
variedad de células, incluso en vegetales. Como se recordara los microfilamentos del citoesqueleto
consisten en subunidades de actina. Dispuesta en estos microfilamentos, la actina participa en el
movimiento de la célula y en el movimiento interno celular. Las proteínas contráctiles intervienen en
procesos celulares muy diversos. Los citólogos están llegando a la conclusión de que las proteínas
"musculares" son comunes a todas las células y la intrincada maquinaria contráctil de las células
de los músculos esqueléticos es una especialización es una evolución reciente.

Por cilios y flagelos: Son estructuras largas finas (0.2 micrómetros) que parten de la superficie
de muchas células eucariotas. Excepto por su longitud los cilios y flagelos poseen la misma
estructura. Cuando son más cortas y más numerosas se les suele llamar cilias; cuando son más
cortas y menos numerosas, flagelos: las células procariotas también poseen flagelos, pero su
estructura es muy distinta.

En las eucariotas y en algunos animales pequeños las cilias y flagelos se asocian con la
locomoción del organismo. Por ejemplo, un tipo de Paramecium tiene unas 17000 cilias, cada una
de unos 10 micrómetros de longitud, que lo propulsan por el agua de manera coordinada. Otros
organismos unicelulares, como los miembros del género de los Chlamydomonas, sólo tienen 2
flagelos en látigo que sobresalen del extremo anterior del organismo y lo desplazan por el agua.

Muchas células que revisten la superficie del cuerpo humano también son ciliadas. Estas cilias no
mueven a la célula, sino que sirven para arrastrar sustancias ambientales a lo largo de la superficie
celular. Por ejemplo las cilias del tracto respiratorio, que pulsan hacia arriba cualquier sustancia
inhalada accidentalmente.

Casi todas las cilias y flagelos de los eucariotas tienen la misma estructura: nueve pares de
microtúbulos fusionados que forman un anillo en torno a otros dos microtúbulos solitarios centrales.

Mecanismos de transporte

La difusión

La difusión es el fenómeno en donde una sustancia que se encuentra concentrada en sector se


difumina hacia otros sectores. Esto mismo pasa en las células. El agua, el oxígeno, el dióxido de
carbono y algunos otras moléculas simples difunden con libertad a través de las membranas
celulares. La difusión también es uno de los medios principales por los cuales las sustancias se
desplazan dentro de la célula. Uno de los de los factores principales que limitan el tamaño celular
es su dependencia a la difusión, que es, en esencia un proceso lento, salvo si las distancias son
muy cortas. Como se aprecia en la figura este proceso adquiere creciente lentitud y menor
eficiencia a medida que la distancia cubierta por las moléculas que se difunden aumenta. La rápida
diseminación de una sustancia un volumen grande, no se debe en particular a la difusión. Del
mismo modo, en muchas células el transporte de materiales se acelera mediante circulación activa
del citoplasma. Para una difusión eficiente no sólo se requiere un volumen relativamente pequeño,
sino también un gradiente de concentración acentuado. Las células mantienen estos gradientes
con sus actividades metabólicas, con lo cual se acelera la difusión. Asimismo, dentro de la célula a
menudo se producen materiales un sitio y se les usa en otros

Endocitosis y exocitosis

En otros tipos de procesos de transporte participan vacuolos que se forman a partir de la


membrana celular o se fusionan con ella. En la endocitosis el material que será captado por la
célula se adhiere a las áreas especiales de la membrana celular y hace que esta se abulte hacia
adentro, produciendo un pequeño saco o vacuolo que engloba a la sustancia. Este vacuolo se
libera dentro del citoplasma. Este proceso también puede funcionar a la inversa. Por ejemplo
muchas sustancias se exportan desde las células en vesículas o vacuolos formados por los
cuerpos de Golgi. Los vacuolos se desplazan hasta la superficie de la célula. Al llegar a la
superficie celular, la membrana del vacuolo se fusiona con la membrana de la célula y su contenido
se expulsa así hacia el exterior. Este proceso es la exocitosis.

Como se verá en la figura, la superficie de la membrana que mira hacia al interior de un vacuolos
es equivalente a la superficie que mira hacia el exterior de la célula: del mismo modo, la superficie
de la membrana del vacuolo que mira hacia el citoplasma es equivalente a la superficie
citoplasmática de la membrana celular. El material necesario para la expansión de la membrana
celular a medida que crece la célula, sería transportado ya listo, desde los cuerpos de Golgi hasta
la membrana, mediante un proceso similar a la exocitosis. También hay evidencia que las
porciones de la membrana celular que se utilizan para formar vacuolos endocitóticos vuelven a la
membrana en la exócitosis, de modo que los lípidos y proteínas de la membrana se reciclen

Fagocitosis

Es cuando la sustancia que ha ser captada por la célula mediante endocitosis es un sólido, como
una célula bacteriana, dicho proceso se le denomina fagocitosis, de la palabra griega fago,
"comer". Muchos organismos unicelulares como las amebas, se alimentan de esta manera y los
glóbulos blancos del torrente sanguíneo humano engloban bacterias y otros invasores en vacuolos
fagocitarios. A veces los lisosomas se fusionan con los vacuolos, descargando en ellos sus
enzimas y dirigiendo o destruyendo así su contenido. A la captación de moléculas disueltas, en
lugar de partículas, se le da a veces el nombre de pinocitosis, aunque en principio es lo mismo que
la fagocitosis. La pinocitosis no sólo ocurre en organismos unicelulares, sino también en
pluricelulares. una célula en la cual se le observó con frecuencia es el óvulo humano. A medida que
el óvulo madura en el ovario d la mujer, es rodeado por la "células nodrizas" que le transmitirían
principios nutritivos los que son captados por el óvulo mediante pinocitosis.

A los sistemas de transporte de membrana en los que intervienen moléculas portadoras, pero, en
esencia son similares porque todos dependen de la capacidad de la membrana para "reconocer"
determinadas moléculas. Esta capacidad, por supuesto es consecuencia de miles de millones de
años de un proceso evolutivo y comenzó, según podemos discernir, con la formación de una frágil
película en torno de unas pocas moléculas orgánicas, que separó así a estas moléculas de su
ambiente externo y les permitió mantener el tipo de organización en particular que reconocemos
como vida.

Osmosis y transporte activo

Se dice que la membrana que permite el pasaje de algunas sustancias y bloquea el de otras es,
selectivamente permeable. El movimiento de moléculas de agua a través de este tipo de
membrana es un caso especial de difusión que se conoce como osmosis. La osmosis ocasiona
una transferencia neta de agua desde una solución con potencial hídrico más alto hacia otra que
tiene un potencial más bajo. En ausencia de otros factores que influyen en el potencial hídrico, en
la osmosis el agua se desplaza desde una región donde la concentración de solutos es menor,
hacia una región donde la concentración de solutos es mayor. La presencia de soluto reduce el
potencial hídrico y crea así un gradiente de potencial hídrico a lo largo del cual el agua se difunde.
La presión osmótica refleja el potencial osmótico de la solución, es decir, la tendencia del agua a
atravesar una membrana hacia la solución.

Existen muchos mecanismos para hacer que las moléculas hidrofílicas y los iones atraviesen la
membrana.

Primero, en la membrana existirían aberturas por las cuales pueden difundir moléculas de agua.
Estas aberturas pueden ser poros permanentes creados por la estructura terciaria de algunas
proteínas integrales o aberturas momentáneas debido a los movimientos de las moléculas lipídicas
de la membrana. Otras moléculas polares también pueden pasar por estas aberturas si son lo
suficientemente pequeñas. La permeabilidad de la membrana para estos solutos es inversamente
proporcional al tamaño de las moléculas.

Segundo, algunas proteínas integrales de la membrana actúan como portadoras acarreando en


ambas direcciones moléculas que no pueden atravesar con facilidad la membrana por difusión a
causa de su tamaño o polaridad. Estas proteínas transportadoras son muy selectivas porque una
portadora en particular puede aceptar a una molécula y excluir a otra casa idéntica. Además, la
molécula proteica no se altera de modo permanente en el proceso de transporte. En este sentido
las moléculas transportadoras son como enzimas, y a los efectos de destacar eso, se les denominó
permeasas, estas no producen cambios químicos necesariamente, en las moléculas con las cuales
interacciona.

Algunas proteínas portadoras sólo transportan sustancias a través de la membrana si el gradiente


de concentración es favorable, este transporte asistido por portadoras se conoce como difusión
facilitada. Como es propulsado por el gradiente de concentración, lleva moléculas de una región
concentrada a otra no tan concentrada.

Otros portadores transportan moléculas venciendo el gradiente de concentración, este proceso


requiere energía, y se le conoce como transporte activo

Citoplasma

El citoplasma comprende todo el volumen de la célula, salvo el núcleo. Engloba numerosas


estructuras especializadas y orgánulos, como se describirá más adelante.

La solución acuosa concentrada en la que están suspendidos los orgánulos se llama citosol. Es un
gel de base acuosa que contiene gran cantidad de moléculas grandes y pequeñas, y en la mayor
parte de las células es, con diferencia, el compartimiento más voluminoso (en las bacterias es el
único compartimento intracelular). En el citosol se producen muchas de las funciones más
importantes de mantenimiento celular, como las primeras etapas de descomposición de moléculas
nutritivas y la síntesis de muchas de las grandes moléculas que constituyen la célula. Aunque
muchas moléculas del citosol se encuentran en estado de solución verdadera y se desplazan con
rapidez de restringidas un lugar a otro por difusión libre, otras están ordenadas de forma rigurosa.
Estas estructuras ordenadas confieren al citosol una organización interna que actúa como marco
para la fabricación y descomposición de grandes moléculas y canaliza muchas de las reacciones
químicas celulares a lo largo de vías.

A continuación se verán algunas de las estructuras que se encuentran al interior del citoplasma.

Citoesqueleto
El gran avance en la microcoscopía electrónica, permitió la visualización tridimensional del interior
de la célula, la cual ha revelado interacciones insospechadas entre las estructuras proteicas
filamentosas del interior del citoplasma. Estas estructuras internas forman el citoesqueleto interno,
que mantiene la forma de la célula, le permite moverse, fija a sus orgánulos y dirige su "transito".
En el citoesqueleto se identificaron cuatro tipos de estructura: microtúbulos, microfilamentos, fibras
internas y microtrabéculas.

• Los microtúbulos: miden de 20 a 25 nanómetros de diámetro y en muchas células parecen


extenderse desde el centro para ir a terminar cerca de la superficie celular. Estos
microtúbulos desempeñan un papel importante en la división celular y proporcionan un
andamiaje temporal para la construcción de otras estructuras celulares. También son los
componentes claves de los cilios y flagelos, estructuras permanentes que muchos tipos de
célula usan para su locomoción.

• Los microfilamentos: son unos fino filos proteicos de sólo3 a 6 nanómetros de diámetro que
consisten en moléculas de una proteína globular conocida como actina. Lo mismo que los
microtúbulos la célula los puede armar y desarmar con facilidad. Los microfilamentos
intervienen en la movilidad celular. En las células que se mueven mediantes cambios
graduales de forma, como las amebas, aparecen concentrados en haces o en una maya
cerca del borde móvil.

• Las fibras intermedias: como su nombre lo sugiere tienen un tamaño promedio, entre el de
los microtúbulos y el de los microfilamentos, pues su diámetro es de 7 a 10 nanómetros. A
diferencia de los microtúbulos y de los microfilametos, que consisten en subunidades de
proteína globular, las fibras intermedias están constituidas por proteínas fibrosas y la célula
no puede desarmarlas con facilidad una vez que se han formado. Se supone que estas
poseen una estructura con forma de soga semejante a la del colágeno y su densidad es
máxima en las células sometidas a esfuerzos mecánicos.

• Los elementos del citoesqueleto descubiertos en épocas más recientes son las
mictotrabéculas, fibras a modo de mechones, que constituyen una densa red que
interconecta a todas las otras estructuras citoplasmáticas, aunque todavía no se conoce
bien su composición química, se supone que contienen proteínas.

Si bien el citoesqueleto confiere a la célula una estructura tridimensional muy ordenada, no es


rígido ni permanente, sino que se trata de una armazón dinámica que se modifica y traslada según
las actividades de la célula.

Mitocondria

Las mitocondrias son estructuras pequeñas, elongadas y ocasionalmente esféricas de 1 a 5


microm de longitud. El número de mitocondrias por célula varía con el tipo de célula, la edad y
especie, siendo de un pocos cientos a miles. Su función principal es la respiración celular - dentro
de ella se llevan a cabo los procesos de conversión energética del ciclo del ácido tricarboxílico
(CATC), transporte de electrones y fosforilación oxidativa, por consecuencia, son de importancia
crítica en el reciclado de la energía almacenada después de la cosecha.

La mitocondria está rodeada por una membrana doble - la externa es relativamente porosa,
mientras que la interna contiene numerosos dobleces llamados crestas, mientras más activa sea la
célula más crestas tendrá la mitocondria. Las proteínas del transporte de electrones se encuentran
en la superficie de las crestas. Muchas de las enzimas involucradas en el CATC se encuentran
libres dentro de la matriz de la mitocondria, así como el ARN y ADN mitocondriales, que controlan
la síntesis de algunas enzimas mitocondriales. El incremento en el número de mitocondrias ocurre
durante el incremento en el tamaño de las células.
Centriolos y cuerpos basales

Muchas células, especialmente eucariotas poseen centriolos, que son pequeños cilindros de unos
0.2 micrómetros de diámetro, que están formados por 9 tripletes de microtúbulos. Estos centriolos
se disponen en pares con sus ejes perpendiculares entre sí, en el centro de la célula cerca del
núcleo.

El centriolo forma parte del huso mitótico durante la división celular en animales y tendría alguna
responsabilidad en el desplazamiento de los cromosomas.

Debajo de cada cilio y flagelo se encuentra un cuerpo basal de idéntica estructura que los
centriolos.

Cuerpos de Golgi

Cada cuerpo de Golgi consiste en unos sacos membranosos aplanados que se hallan apilados
flojamente los unos sobre los otros y están rodeados por túbulos y vesículas. El cuerpo de Golgi
cumple la función de recibir vesículas procedentes del retículo endoplásmico, modificar las
membranas de las vesículas, procesar más su contenido y distribuir el producto terminado a otras
partes de las células, en particular a la superficie celular. En consecuencia, servirían de centros de
empaquetamiento y distribución.

En el cuerpo de Golgi tiene lugar el montaje final de las proteínas y carbohidratos que están en la
superficie de las membranas celulares. En las células vegetales, los cuerpos de Golgi también
reúnen a algunos componentes de las células, donde se les ensambla. Los cuerpos de Golgi
existen en la mayoría de las células eucarióticas, las células de los animales suelen contener de 10
a 20 cuerpos de Golgi y las de las plantas pueden contener varios centenares.

Plastos o plastidios

Los plastidios son orgánulos membranosos que sólo existen en las células de las plantas y de las
algas. Están rodeados por dos membranas, lo mismo que la mitocondrias, y poseen un sistema
membranoso interno que puede formar intrincados plegamientos. Los plástidos maduros son de
tres tipos.

Los leucoplastos (leuco = blanco) almacenan almidón o, a veces, proteínas o aceites. Los
leucoplastos tienden a ser numerosos en órganos de almacenamiento como raíces, el nabo, o
tubérculos, ejemplo en la papa.

Los cromoplastos (cromo = color) contienen pigmentos y se asocian con el intenso color
anaranjado y amarillo de frutos, flores, hojas otoñales y zanahorias.

Los cloroplastos (cloro = verde) son los plastidios que contienen la clorofila y en los cuales
tiene lugar la fotosíntesis.

Lisosomas

Los lisosomas tienen una estructura muy sencilla, semejantes a vacuolas, rodeados solamente por
una membrana, contienen gran cantidad de enzimas digestivas que degradan todas las moléculas
inservibles para la célula.
Funcionan como "estómagos" de la célula y además de digerir cualquier sustancia que ingrese del
exterior, vacuolas digestivas ingieren restos celulares viejos para digerirlos también, llamados
entonces vacuolas autofágicas

Llamados "bolsas suicidas" porque si se rompiera su membrana, las enzimas encerradas en su


interior , terminarían por destruir a toda la célula.

Los lisosomas se forman a partir del Retículo endoplásmico rugoso y posteriormente las enzimas
son empaquetadas por el Complejo de Golgi.

Son vesículas englobadas por una membrana que se forman en el aparato de Golgi y que
contienen un gran número de enzimas digestivas (hidrolíticas y proteolíticas) capaces de romper
una gran variedad de moléculas. La carencia de algunas de estas enzimas puede ocasionar
enfermedades metabólicas como la enfermedad de Tay-Sachs

Las enzimas proteolíticas funcionan mejor a pH ácido y, para conseguirlo la membrana del
lisosoma contiene una bomba de protones que introduce H+ en la vesícula. Como consecuencia de
esto, el lisosoma tiene un pH inferior a 5.0.

Las enzimas lisosomales son capaces de digerir bacterias y otras sustancias que entran en la
célula por fagocitosis, u otros procesos de endocitosis. Eventualmente, los productos de la
digestión son tan pequeños que pueden pasar la membrana del lisosoma volviendo al citosol
donde son recicladas

Los lisosomas utilizan sus enzimas para reciclar los diferentes orgánulos de la célula,
englobándolos, digiriéndoles y liberando sus componentes en el citosol. De esta forma los
orgánulos de la célula se están continuamente reponiendo. El proceso de digestión de los
orgánulos se llama autofagia. Por ejemplo, las células hepáticas se reconstituyen por completo una
vez cada dos semanas. Otra función de los lisosomas es la digestión extracelular en heridas y
quemaduras, preparando y limpiando el terreno para la reparación del tejido.

Retículo endoplásmico

Es una red de sacos aplanados, túbulos y conductos intercomunicantes que existen en las células
eucariotas. La cantidad de retículo endoplasmático de una célula no es fija, sino que disminuye o
aumenta según la actividad celular.

Existen dos tipos de retículo endoplasmático, el rugoso (con ribosomas adheridos) y el liso (sin
ribosomas). El retículo endoplásmico rugoso predomina en las células que elaboran gran cantidad
de proteínas para exportar. Este retículo se continua con la membrana externa de la envoltura
nuclear, que también tiene ribosomas adheridos. Muchas veces el retículo endoplásmico rugoso
comprende unos grandes sacos aplanados que se llaman cisternas. Si se permite que las células
dedicadas a la síntesis de proteínas capten aminoácidos radiactivos, los marcadores radiactivos se
detectan primero en la membrana del retículo endoplásmico rugoso y poco después dentro de sus
cisternas. La porción inicial de proteínas sintetizadas en este retículo endoplásmico consiste en un
"líder" de aminoácidos hidrofóbicos que contribuiría al transporte de la proteína a través de la doble
capa lipídica hacia el interior del retículo. La molécula proteica recién sintetizada pasa del retículo
endoplasmático rugoso al liso y luego a los cuerpos de Golgi. En el curso de este andar de un
orgánulo a otro, la molécula experimenta un proceso adicional que comprende el clivaje de la
secuencia inicial de aminoácidos hidrofóbicos y, a menudo, la adición de grupos carbohidrato a la
proteína.

Las células que intervienen en la síntesis de lípidos poseen grandes cantidades de retículo
endoplásmico liso. También se presenta en las células hepáticas, donde intervendría en diversos
procesos de destoxificación. Por ejemplo en animales de experimentación, a los que se le da por la
boca grandes cantidades de fenobarbital, la cantidad de retículo endoplásmico liso de las células
hepáticas aumenta varias veces. En retículo endoplásmico liso también intervendría en la
degradación hepática del glucógeno a glucosa. Además, como ya señalamos, serviría de conducto
para el material que pasa desde el retículo endoplásmico rugoso a los cuerpos de Golgi.

Ribosomas

Son los orgánulos celulares más numerosos. Estos orgánulos están presentes en todas las células
y están asociados al retículo endoplásmico rugoso, formando juntos lo que se denomina el
ergatoplasma. Tienen forma de elipsoide suavemente alargado y su tamaño en seco es de 170Å x
170Å x 200Å (Å= angström = 1/100000000 cm). Están compuestos de dos subunidades, fácilmente
disociables y aislables por ultracentrifugación, que se caracterizan por sus coeficientes de
sedimentación. Con frecuencia, los ribosomas se asocian entre ellos para formar complejos
denominados polirribosomas o polisomas. Estos desempeñan una función biológica muy
importante ya que son el soporte activo de la síntesis proteica celular. Intervienen en la unión del
mRNA, del tRNA y en la formación del enlace peptídico durante la síntesis del ribosoma de las
paredes celulares. En cuanto a composición podemos distinguir dos tipos de componentes:

a) Componentes de alto peso molecular, que son los ácidos ribonucleicos y las proteínas.
Contienen en la célula eucariota un 50% de ARN y un 50% de proteínas.

b) Componentes de bajo peso molecular, que son los iones de magnesio y las di y poliaminas. Los
iones magnésicos son necesarios para la integridad estructural del ribosoma; su falta conduce a la
disociación de las subpartículas y a la degradación enzimática de RNA ribosómico.

Vacuolas y perixosomas

Además de los orgánulos y del citoesqueleto, el citoplasma de muchas células, en particular de las
células vegetales, contiene vacuolas. La vacuola es un espacio del citoplasma ocupado por agua y
solutos, rodeado por una membrana simple.

Es característico que las células vegetales inmaduras posean muchas vacuolas, pero a medida
que estas maduran, las numerosas vacuolas pequeñas comienzan a formar una gran vacuola
central llena de líquido que después se convierte en un importante medio de sostén de la célula.
Además, la vacuola agranda a la célula, incluso la superficie expuesta al ambiente, con inversión
mínima de materiales estructurales de parte de la célula.

Las vesículas, más comunes en los animales, poseen la misma estructura general que las
vacuolas y se distinguen por su tamaño, pues suelen medir menos de 100 nanómetros de
diámetro, mientras que las vacuolas son más grandes.

Otro tipo de vesícula que contiene destructivas son los perixosomas. Los perixosomas son unas
vesículas en las cuales células degrada purinas (una de las dos categorías principales de base
nitrogenada). En los perixosomas de las plantas también ocurren una serie de reacciones bajo la
luz solar cuando la célula contiene concentraciones relativamente grandes de oxígeno. Estas
reacciones y la degradación de las purinas producen peróxido de hidrogeno (H2O2), que es
sumamente tóxico para las células vivas pero los perixosomas contienen otra enzima que
inmediatamente desdobla al peróxido de hidrogeno en agua y oxígeno, evitando que la célula se
lesione.

Núcleo
En las células eucarioticas el núcleo es un cuerpo grande, menudo esférico, que por lo general es
la estructura que más se destaca dentro de la célula. Esta rodeado por dos membranas
lipoproteicas, que juntas forman la envoltura nuclear. Entre estas dos membranas hay un espacio
de veinte a cuarenta nanómetros, pero a intervalos frecuentes se hallan fusionadas para crear unos
poros por los cuales pasan materiales entre el núcleo y el citoplasma. Los poros que se hallan
rodeados por unos grandes gránulos que contienen proteína y están dispuestos en forma
octogonal, forman un conducto estrecho que pasa a través de la doble capa lipídica fusionada.

Los cromosomas están dentro del núcleo. Cuando la célula no está dividiéndose, los cromosomas,
sólo se ven como una maraña de delgados filamentos que se denomina cromatina. El cuerpo más
conspicuo del interior del núcleo es el nucleolo. En general hay dos nucleolos por núcleo, aunque
muchas veces se ve uno solo en una micrografía. El nucleolo es el sitio donde se construyen las
subunidades ribosómicas.

Funciones del núcleo

Los conocimientos actuales sobre el papel del núcleo en la vida de las células comenzaron con
algunas de las primeras observaciones microscópicas. Una de las más importante fue realizada
hace más de un siglo por el embriólogo alemán Oscar Hertwig con óvulos y espermatozoides del
erizo de mar. Los erizos de mar producen grandes cantidades de óvulos y espermatozoides. Los
óvulos son relativamente grandes y, por lo tanto, fáciles de observar. Se fecundan en el agua
exterior y no en un medio interno, como sucede con los vertebrados terrestres. Mirando con su
microscopio como se fecundaban los óvulos, Hertwig notó que sólo se requería de un
espermatozoide además a medida que el espermatozoide penetraba en el óvulo, su núcleo se
liberaba y se fusionaba con el núcleo ovular. Esta observación confirmaba por otros hombres de
ciencia y en otros tipos de organismo, fue importante, para establecer que el núcleo es el portador
de la información hereditaria, el único vínculo entre el padre y los hijos es el núcleo del
espermatozoide.

Otro indicio de la importancia del núcleo surgió merced a las observaciones de Walther Flemming,
también hace unos cien años, él observó la "danza de los cromosomas" que ocurre cuando las
células eucarióticas se dividen y reconstruyó minuciosamente la sucesión de acontecimientos.
Desde la época de Flemming se hicieron diversos experimentos para explorar el papel del núcleo
celular. En un sencillo experimento se eliminó el núcleo de una ameba mediante microcirugía. La
ameba dejó de dividirse y murió pocos días después, en cambio si en las 24 horas consecutivas a
la eliminación del núcleo original se le implantaba el núcleo de otra ameba, la célula sobrevivía y se
dividía con normalidad.

A comienzo de la década del 1930 Joachim Hämmerling estudió las funciones comparativas del
núcleo y del citoplasma, aprovechando algunas propiedades inusuales del alga marina
Acetabularia. El cuerpo de Acetabularia consiste en una célula enorme de 2 a 5 centímetros de
altura, él experimentó con esta alga e interpretó que estos resultados significan que bajo la
dirección del núcleo se producen ciertas sustancias que determinan la forma del sombrero de la
alga. Estas sustancias se acumulan en el citoplasma, razón por la cual el primer sombrero formado
después de haber transplantado el núcleo tuvo una forma intermedia, pero para el momento en que
se formó el segundo las sustancias determinantes del mismo que había en el citoplasma antes del
transplante, se habían agotado y la forma del sombrero estuvo por completo bajo el control del
nuevo núcleo.

Estos experimentos indican que el núcleo desempeña dos funciones cruciales para la célula.
Primero es el portador de la información hereditaria que determina las características de células
hijas. Segundo, como indicaba el trabaja de Hämmerling, el núcleo ejerce una actividad incesante
sobre las actividades de las células, asegurando que se sinteticen en las cantidades y tipos
necesarios las moléculas complejas que la célula requiere
Estructuras nucleares

• Jugo nuclear o cariolinfa: se encuentra encerrado dentro de la membrana nuclear, es un


líquido en el se encuentran suspendidos los componentes principales del núcleo.

• Nucléolo: en realidad el nucléolo no es una entidad estructural, sino una aglomeración de


asas de cromatina de cromosomas distintos. Por ejemplo, 10 de 46 cromosomas humanos
aportan tales asas de cromatina al nucleolo.

En el nucléolo se producen los ribosomas. Los ribosomas de las células eucarióticas se parecen a
los de los procariotas en que consisten en dos subunidades, cada una constituida por ARN y
proteínas, y en que en ellos se traduce ARNm a proteína, pero difieren en que los ribosomas
eucarióticos son mucho mas grandes que los procarióticos y en sus proteínas individuales y sus
ARN son distintos.

Tres de los cuatro ARNr se transcriben en las asas del nucléolo. Las proteínas ribosómicas, que se
traducen en el citoplasma a partir del ARNm, se mandan de nuevo al núcleo, donde se combinan
con los ARNr. Luego las subunidades de los ribosomas se exportan hacia al citoplasma.

El nucléolo no tiene membrana alguna.

Pueden existir uno o más nucleolos por núcleo, estas estructuras son sumamente variables, ya que
a menudo cambian de forma y tamaño.

Cuando una célula se esta dividiendo los nucleolos suelen desaparecer y, luego, reaparecen
rápidamente una vez que la división celular ha terminado.

• Membrana nuclear: es la membrana que rodea al núcleo y lo separa del protoplasma


adyacente. Al igual que la membrana plasmática, está formada por protoplasma y es
lipoproteica.

Regula la constante salida y entrada de sustancias al núcleo

Esta membrana es doble y está atravesada por gran cantidad de pequeños poros, a través de los
cuales pueden pasar algunas sustancias desde el núcleo al citoplasma y viceversa.

• Cromatina: está constituida por filamentos larguísimos, que en el "núcleo en reposo",


cuando no se moviendo, parecen desenrollados o despiralizados y enredados unos con
otros.

Están constituidos químicamente por ácido desoxirribonucleico (ADN) y proteínas. El ADN es la


sustancia portadora de la información hereditaria y, controla las actividades celulares, es decir,
dirige la vida de la célula.

Cuando la célula va a dividirse, la cromatina se condensa, los filamentos se enrollan en espiral y se


hacen muy visibles al microscopio óptico. A estas estructuras se les denominan cromosomas
(cromo = color; soma = cuerpo).

Estructura de un cromosoma: el cuerpo de un cromosoma recibe el nombre de brazo. El


cromosoma presenta divisiones o entradas que se denominan constricciones. La constricción
primaria se ubica en el punto donde se unen los brazos.
Dentro de la constricción hay una zona clara, el centrómero. En ella se observan estructuras
proteicas, los cinetocoros.

Aparte de una constricción primaria hay a veces una constricción secundaria y un cuerpo redondo
llamado satélite. Como dato interesante más de la mitad de la cromatina consiste en proteínas,
estas proteínas son de centenares de tipos distintos.

Biología molecular, se ocupa del estudio de la bases moleculares de la vida; es decir, relaciona las
estructuras de las biomoléculas con las funciones específicas que desempeñan en la célula y en el
organismo.

La estructura del ADN

La presentación del modelo estructural del ADN (ácido desoxirribonucleico) por Francis Harry
Compton Crick y Watson en 1953, fue el verdadero inicio de la biología molecular. La importancia
de este hecho se debe, por un lado a que es la molécula que transmite la información hereditaria
de generación en generación (véase Genética), y por otro a que la propia estructura muestra cómo
lo logra. El ADN es una molécula de doble hélice, compuesta por dos hebras complementarias
unidas entre sí por puentes entre las bases: adenina (A), guanina (G), citosina (C) y timina (T). La A
de una hebra se aparea siempre con la T de la hebra complementaria, y del mismo modo, la G con
la C. Durante la replicación o duplicación, las dos hebras simples se separan y cada una de ellas
forma una nueva hebra complementaria, incorporando bases, la A se unirá a la T de la hebra
molde, la G lo hará con la C y así sucesivamente. De esta manera se obtiene otra molécula de
ADN, idéntica a la original y por tanto, el material genético se ha duplicado. Este material incluye
toda la información necesaria para el control de las funciones vitales de las células y del
organismo. Durante la división celular, las dos células hijas reciben igual dotación genética; de este
mismo modo se reparte el material hereditario a la descendencia, cuando se reproduce un
organismo.

A partir del ADN se produce ARN y a partir del ARN se producen proteínas

La copia precisa de la información genética contenida en el ADN nos lleva a la cuestión de cómo
esta información modela las actividades de la célula. El siguiente paso necesario para la
comprensión de este proceso fue el conocimiento de la transcripción, mecanismo mediante el cual,
el ADN forma la molécula de ARN correspondiente, en forma de una hebra simple. Tal como ocurre
en la replicación del ADN, la información genética se transcribe de forma fiel mediante la adición de
bases complementarias. Después, el ARN mensajero (ARNm) se traslada a los orgánulos celulares
llamados ribosomas, donde se lleva a cabo la traducción de proteínas. El código genético gobierna
la traducción, que se basa en la correspondencia que existe entre 3 bases o triplete de la
secuencia del ARN y un aminoácido específico de la secuencia proteica. El triplete ACC provoca la
adición de treonina en la secuencia proteica que se está formando, CCC la de prolina y así
sucesivamente. Por lo tanto la información contenida en la secuencia lineal de bases del ADN
codifica la síntesis de una secuencia lineal de aminoácidos de una proteína. De tal manera, que un
cambio en las bases del ADN conlleva un cambio en la proteína correspondiente. Por ejemplo, un
cambio de la base A por C en el triplete ACC produciría la adición de prolina en lugar de treonina.
Las proteínas son muy específicas, es decir tienen funciones biológicas muy concretas, con lo cual
un cambio que afecte a la función que realizan, provocaría una alteración estructural o fisiológica
en el organismo. Estas diferencias en la información genética del ADN, son las responsables de las
diferencias heredadas entre individuos, tales como el color de ojos o las enfermedades genéticas
como la hemofilia. A partir del ADN se sintetiza ARN y a partir del ARN se sintetizan proteínas, éste
es el llamado "dogma central de la biología molecular".

Clonación génica e hibridación


Aunque el gran avance de la biología molecular fue durante la década de 1950, la verdadera
expansión de esta ciencia comenzó en la década de 1960 con el descubrimiento de la clonación de
genes. Esta técnica permitió aislar fragmentos libres de ADN puro a partir del genoma. Así, fue
posible secuenciar fragmentos de ADN, en los cuales estaban incluidos los genes. Todo esto se
completó con la puesta en marcha de la técnica de la hibridación, que consiste en el marcaje con
isótopos radioactivos de una molécula clónica de ADN, de la cual se conserva sólo una hebra (ADN
desnaturalizado o monocatenario). Después de este tratamiento, el fragmento sonda se emplea
para detectar secuencias complementarias en presencia de ADN o ARN. Ed Southern, puso en
marcha un procedimiento que se llama absorción de Southern y que se describe a continuación.
Un ADN genómico que contiene un gen X, se corta en fragmentos que se separan según su
tamaño, y se transfieren a un filtro. Al filtro con los fragmentos de ADN, se le aplica ARN o ADN
marcado radiactivamente, de secuencia complementaria a la del gen X (fragmento sonda), que
delatará al gen X al unirse a él. El método de absorción de Nothern es similar al anterior, el ADN
que contiene el gen X, se une al ARN sonda de distintos tejidos, permitiendo así detectar el gen y
cuantificarlo en los distintos tejidos. Estas técnicas han hecho posible recopilar una gran cantidad
de información sobre la estructura y la expresión génica.

Genes interrumpidos

El empleo del método de absorción de Southern para el estudio de la estructura génica condujo a
un importante hallazgo en el campo de la biología molecular. Este consiste en el descubrimiento de
la existencia, en los organismos eucariotas (plantas y animales), de regiones del ADN llamadas
exones (que se expresan), que contienen información para la codificación de proteínas y están
interrumpidas por otras secuencias del ADN, llamadas intrones (que no se expresan). Estos
intrones se transcriben junto a los exones a moléculas de ARN y son eliminados durante el proceso
de maduración del ARN. Este ocurre en el interior del núcleo celular y el resultado es una molécula
de ARNm sin interrupciones, es decir, sólo con los exones. Este ARNm maduro se traslada al
citoplasma celular y se une a los ribosomas, donde tiene lugar la traducción o síntesis de proteínas.

El significado de los intrones no está claro, pero permiten diferentes combinaciones de los exones
presentes en el ARN inmaduro, que se procesará de distinta manera según los tipos de células.
Este sistema de maduración alternativa produce proteínas relacionadas pero diferentes a partir del
mismo gen.

Control de la transcripción

La técnica de absorción de Nothern se puede emplear para detectar la presencia de moléculas de


ARNm, procedentes de genes determinados, en extractos de tejido intacto. Estos estudios se
complementan con la hibridación in situ, que detecta el ARNm en células individuales, y de esta
forma se conoce su distribución en el tejido. La conclusión es que, en la mayoría de los casos, el
ARNm codificador de una proteína específica, está presente sólo en los tejidos y en las células
donde se expresa la proteína. De forma similar, los precursores inmaduros de moléculas de ARN
que contengan aún intrones, no son detectados en los tejidos si no están presentes el ARNm o las
proteínas.

En consecuencia, en la mayoría de los casos, la producción de proteínas diferentes en los distintos


tejidos está regulada por los genes que se han transcrito en cada tejido, lo cual determina a su vez
la eliminación de intrones y la traducción de proteínas. Esto se demuestra midiendo la proporción
de transcripción de un gen específico en diferentes tejidos, donde la proteína puede estar presente
o ausente.

La síntesis de proteínas distintas en los tejidos es vital para la comprensión de las diferencias
funcionales de los mismos y está controlada por la transcripción. Además, la transcripción está
regulada por factores de transcripción, los cuales se unen a secuencias específicas del ADN (las
regiones reguladoras) y activan este proceso. Puede ser que cada tejido tenga los factores
específicos que activan la transcripción de genes concretos, pero también es posible que estén
presentes, de forma inactiva, en todas las células. En ese caso se activarían por señales
específicas, como una modificación posterior a su síntesis, por ejemplo por adición de residuos
fosfato (fosforilación). Esto activará la transcripción de los genes que respondan a la señal.

Secuenciación del ADN

Al igual que se estudia la expresión y la estructura de los genes se puede conocer, mediante el
sistema de secuenciación de ADN, su orden lineal de bases. El método más utilizado fue ideado
por Frederick Sanger en 1977 y en la actualidad se emplea en el Proyecto Genoma Humano, que
intenta secuenciar por completo el genoma humano. Gracias a esta técnica se puede conocer,
utilizando el código genético, la secuencia lineal de las cuatro bases, AGCT y por consiguiente, la
secuencia de aminoácidos de la proteína correspondiente. Es más sencillo secuenciar el ADN que
hacerlo en la proteína correspondiente, por lo tanto en la actualidad, la secuencia de aminoácidos
se determina de forma indirecta a partir del gen correspondiente. La utilidad de este método se
pone de manifiesto con el estudio de enfermedades genéticas. Se secuencia un gen involucrado en
una enfermedad, en individuos sanos y en individuos enfermos y al comparar ambas secuencias se
descubre la alteración de la proteína que provoca la enfermedad. La variación de tan sólo una base
puede provocar la sustitución de un aminoácido por otro, e incluso puede dañar un segmento del
ADN, alterando así la porción correspondiente de proteína.

Estructura y función de las proteínas

La función biológica de una proteína está determinada por la secuencia de aminoácidos que la
componen y por la configuración espacial (estructura plegada en el espacio). En la década de
1960, John Kendrew, propuso el modelo de estructura espacial de la mioglobina, a partir de la
proteína purificada y mediante cristalografía de rayos X. A continuación, Max Peratz lo hizo con una
molécula más compleja, la hemoglobina. La hemoglobina está compuesta por cuatro subunidades
tipo mioglobina. Para conocer el orden de aminoácidos de una proteína se secuencia ADN, sin
embargo, el análisis estructural de la misma se realiza sintetizando proteína a partir de un gen
clónico (gen idéntico, que se inserta por ejemplo, en el genoma de una bacteria). De este modo se
obtiene proteína en gran cantidad. Además se pueden introducir cambios específicos en el ADN
genómico, mediante una mutación localizada, para que la bacteria sintetice una proteína alterada.
Los estudios de proteínas alteradas, han logrado demostrar la relación de la secuencia de
aminoácidos con la estructura y función de la proteína resultante.

Anatomía y fisiología
Anatomía es el estudio de la estructura, situación y relaciones de las diferentes partes del cuerpo
de animales o plantas. Anatomía (del griego, anatomē, ‘disección’), rama de las ciencias naturales
relativa a la organización estructural de los seres vivos. Es una ciencia muy antigua, cuyos
orígenes se remontan a la prehistoria. Durante siglos los conocimientos anatómicos se han basado
en la observación de plantas y animales diseccionados. Sin embargo, la comprensión adecuada de
la estructura implica un conocimiento de la función de los organismos vivos. Por consiguiente, la
anatomía es casi inseparable de la fisiología, que a veces recibe el nombre de anatomía funcional.
La anatomía, que es una de las ciencias básicas de la vida, está muy relacionada con la medicina y
con otras ramas de la biología.

Es conveniente subdividir el estudio de la anatomía en distintos aspectos. Una clasificación se


basa según el tipo de organismo en estudio; en este caso las subdivisiones principales son la
anatomía de las plantas y la anatomía animal. A su vez, la anatomía animal se subdivide en
anatomía humana (ver más adelante) y anatomía comparada, que establece las similitudes y
diferencias entre los distintos tipos de animales. La anatomía también se puede dividir en procesos
biológicos, por ejemplo, anatomía del desarrollo (estudio de los embriones) y anatomía patológica o
estudio de los órganos enfermos. Otras subdivisiones, como la anatomía quirúrgica y la anatomía
artística (como por ejemplo en la obra Hombre de Vitruvio de Leonardo da Vinci), se basan en la
relación de la anatomía con otras actividades bajo el título general de anatomía aplicada. Otra
forma más de subdividir la anatomía depende de las técnicas empleadas, como por ejemplo la
microanatomía, que se basa en las observaciones obtenidas con ayuda del microscopio (véase el
apartado sobre historia de la anatomía).

Hay una obra extraordinaria "The vertebrate Body" by Alfred Sherwood Romer & Thomas S
Parsons, de la que había traducción al español en Salvat (1981). Introduce el concepto de
Neotenia, y datos por demás interesantes, como que los peces en su craneo poseen el mismo
número de huesos que el Humano, etc.

Clasificación
Anatomía animal
Anatomía humana
Anatomía vegetal
La fisiología (del griego physis, naturaleza, y logos, conocimiento, estudio) es la ciencia biológica
que estudia las funciones de los cuerpos organizados.

En función del tipo de organismo vivo, podemos distinguir dos grandes grupos:

Fisiología vegetal
Fisiología animal y dentro de ésta la humana

Anatomia y Fisiologia humana


El cuerpo humano es un aglomerado de unos cincuenta billones de células, agrupadas en tejidos y
organizadas en ocho aparatos (locomotor, respiratorio, digestivo, excretor, circulatorio, endocrino,
nervioso y reproductor). Sus elementos constitutivos básicos podrían adquirirse en cualquier parte
por un puñado de monedas, pero la vida que alberga estos átomos reunidos con un propósito
concreto, lo convierten en un ser de valor incalculable, imposible de calcular con criterios
terrenales.

La célula, precisamente, es la unidad de la vida. Todas las células comparten unos elementos
esenciales, como son la membrana protectora, el citoplasma, rico en organelas y el núcleo. El
núcleo, es el cerebro organizador de la célula, pero sigue un plan general coordinado, escrito en
100.000 genes, ordenados en 23 pares de cromosomas.

El organismo humano parece saber que de la unión nace la fuerza, pues las células se organizan
en tejidos, órganos, aparatos y sistemas para realizar sus funciones.

Existen cuatro tejidos básicos, que son el epitelial, el conjuntivo, el muscular y el nervioso, con los
que el organismo se relaciona, se protege, secreta sustancias, mantiene su forma, se desplaza,
coordina sus funciones y relaciones con el medio.
A pesar de su enorme rendimiento, el cuerpo humano sigue en constante evolución, pero es un
recién llegado al planeta. De hecho si se considera que la vida se instauro en la tierra hace 24
horas, el ser humano apenas ha vivido los últimos 3 segundos. (tiempo geológico).

Anatomía

Es la rama de las ciencias biológicas que trata de la forma y estructura de los organismos.

Se halla íntimamente ligada con la

fisiología

Es una rama de las ciencias biológicas que trata de las funciones normales del cuerpo.

Se emplean dos métodos especiales para el estudio de la anatomía, el sistemático y el topográfico.


En el primero se considera el cuerpo formado por sistemas de órganos o aparatos que son
similares por su origen y estructura y están asociados en la realización de ciertas funciones.

Las divisiones de la anatomía sistematica son:

Osteología: Descripción del esqueleto.

Artrología: Descripción de las articulaciones.

Miología: Descripción de los musculos.

Esplacnologia: se subdivide en:

a. Sistema Digestivo b. Sistema Respiratorio c. Sistema Urogenital: que se divide en:

* ”rganos Urinarios * ”rganos Genitales

Angiología : Descripción de los órganos de la circulación.

Neurología: Descripción del sistema nervioso.

Estiología: Descripción de los órganos de los sentidos.

El termino anatomía topográfica designa los métodos con que se determinan exactamente las
posiciones relativas de varias partes del cuerpo, presupone un conocimiento de la anatomía
sistemica.

ANATOMÍA Y FISIOLOGÍA SISTEMICA

SISTEMA OSTEOARTICULAR

El cuerpo humano es una complicada estructura de más de doscientos huesos, un centenar de


articulaciones y más de 650 musculos actuando coordinadamente.Gracias a la colaboración entre
huesos y musculos, el cuerpo humano mantiene su postura, puede desplazarse y realizar múltiples
acciones.
El conjunto de huesos y cartílagos: forma el Esqueleto

El hueso es un tejido sorprendente, ya que combina células vivas (osteocitos) y materiales inertes
(sales de calcio). De esta unión, surge la fuerza, pero también la ligereza y la resistencia de los
huesos. Los huesos se están renovando constantemente.

Las funciones del esqueleto son múltiples:

Sostiene al organismo y protege a los órganos delicados, a la vez que sirve de punto de inserción a
los tendones de los musculos, Además, el interior de los huesos largos aloja la medula ósea, un
tejido noble que fabrica glóbulos rojos y blancos. La cabeza esta constituida por el cráneo y la cara.
Es una sucesión compleja de huesos que protegen el encéfalo y a otros órganos del sistema
nervioso central. También da protección a los órganos de los sentidos, a excepción de el tacto que
se encuentra repartido por toda la superficie de la piel.

La Columna Vertebral es un pilar recio, pero un poco flexible, formada por una treintena de
vértebras que cierra por detrás la caja torácica. En la porción dorsal de la columna, se articula con
las costillas.

El tórax es una caja semirrigida que colabora activamente durante la respiración.

En el cuerpo humano existen 208 huesos :

26 en la columna vertebral

8 en el cráneo

14 en la cara
8 en el oído

1 hueso Hioides

25 en el tórax

64 en los miembros superiores

62 en los miembros inferiores

Hay varios tipos de huesos :

Largos, como los del brazo o la pierna

Cortos, como los de la muñeca o las vértebras

Planos, como los de la cabeza

Algunas características:

son duros. Están formados por una substancia blanda llamada osteina y por una sustancia dura
formada por sales minerales de calcio.Los huesos largos tienen en su parte media un canal central
relleno de médula amarilla, y las cabezas son esponjosas y están llenas de médula roja.

Su función :

Dar consistencia al cuerpo.

Ser el apoyo de los musculos y producir los movimientos.

Sirven como centro de maduración de eritrocitos (glóbulos rojos).

División Del Cuerpo Humano Para El Estudio Del Sistema ”seo:

El cuerpo humano se divide de la siguiente manera para que sea mas comprensible y universal :

Cabeza Tronco Extremidades

Huesos De La Cabeza

Los huesos del Cráneo son 8 y forman una caja resistente para proteger el cerebro.

Los huesos de la cara son 14. Entre ellos los mas importantes son los Maxilares (Superior e
inferior) que se utilizan en la masticación.

Huesos Del Tronco

La clavícula y el omóplato, que sirven para el apoyo de las extremidades superiores.

Las costillas que protegen a los pulmones, formando la caja toraxica.


El esternón, donde se unen las costillas de ambos lados. (anterior)

Las vértebras, forman la columna vertebral y protegen la médula espinal, también articulan las
costillas. (posterior)

La Pelvis (ilion, isquión y pubis), en donde se apoyan las extremidades inferiores.

Huesos De Las Extremidades Superiores

Clavícula, omoplato y humero formando la articulación del hombro

El húmero en el brazo.

El Cúbito y el Radio en el antebrazo.

El carpo, formado por 8 huesecillos de la muñeca.

Los metacarpianos en la mano .

Las falanges en los dedos.

Huesos De Las Extremidades Inferiores

La pelvis y el fémur formando la articulación de la cadera

El fémur en el muslo

La rótula en la rodilla.

La tibia y el peroné, en la pierna

El tarso, formado por 7 huesecillos del talón.


El metatarso en el pie

Las falanges en los dedos.

Las Articulaciones

Son las uniones entre los huesos. Unas son fijas y se llaman suturas (Las de los huesos del
cráneo)

Semimóviles: las de las vértebras entre ellas están los discos invertebrales.

móviles: las del codo y la rodilla. En este caso, para evitar el roce entre los huesos, éstos terminan
en un cartílago articular rodeado de una bolsa o cápsula sinovial, llena de un líquido aceitoso
llamado Sinovia, que actúa como lubrificante y amortiguador del roce. entre las dos cápsulas esta
el Menisco articular.

Hay un hueso suelto a nivel de la base de la lengua; llamado hioides, en la que sustenta en sus
movimientos.

SISTEMA DIGESTIVO

El aparato digestivo es un largo tubo, con importantes glándulas empotradas, que transforma las
complejas moléculas de los alimentos en sustancias simples y fácilmente utilizables por el
organismo.

Estos compuestos nutritivos simples son absorbidos por las vellosidades intestinales, que tapizan
el intestino delgado. Así pues, pasan a la sangre y nutren todas y cada una de las células del
organismo
Desde la boca hasta el ano, el tubo digestivo mide unos once metros de longitud. En la boca ya
empieza propiamente la digestión. Los dientes trituran los alimentos y las secreciones de las
glándulas salivales los humedecen e inician su descomposición química. Luego, el bolo alimenticio
cruza la faringe, sigue por el esófago y llega al estomago, una bolsa muscular de litro y medio de
capacidad, cuya mucosa secreta el potente jugo gástrico, en el estomago, el alimento es agitado
hasta convertirse en una papilla llamada quimo.

A la salida del estomago, el tubo digestivo se prolonga con el intestino delgado, de unos siete
metros de largo, aunque muy replegado sobre si mismo. En su primera porción o duodeno recibe
secreciones de las glándulas intestinales, la bilis y los jugos del páncreas. Todas estas secreciones
contienen una gran cantidad de enzimas que degradan los alimentos y los transforma en
sustancias solubles simples.

El tubo digestivo continua por el intestino grueso, de algo mas de metro y medio de longitud. Su
porción final es el recto, que termina en el ano, por donde se evacuan al exterior los restos
indigeribles de los alimentos.

Descripción Anatómica

Para Observar un torso con la disposición de los órganos pulsa Aqui

El tubo digestivo está formado por:

boca, esófago, estómago, intestino delgado que se divide en duodeno, yeyuno, íleon.
El intestino grueso que se compone de: ciego y apéndice, colon y recto.

El hígado (con su vesícula Biliar) y el páncreas forman parte del aparato digestivo, aunque no del
tubo digestivo.

Esófago :

El esófago es un conducto musculo membranoso que se extiende desde la faringe hasta el


estómago. De los incisivos al cardias porción donde el esófago se continua con el estómago hay
unos 40 cm. El esófago empieza en el cuello, atraviesa todo el tórax y pasa al abdomen a través
del hiato esófagico del diafragma. Habitualmente es una cavidad virtual. (es decir que sus paredes
se encuentran unidas y solo se abren cuando pasa el bolo alimenticio).

Estómago :

El estómago es un órgano que varia de forma según el estado de repleción (cantidad de contenido
alimenticio presente en la cavidad gástrica) en que se halla, habitualmente tiene forma de J.
Consta de varias partes que son : Fundos, cuerpo, antro y pìloro. Su borde menos extenso se
denomina curvatura menor y la otra curvatura mayor. El cardias es el limite entre el esófago y el
estomago y el piloro es el limite entre estómago y duodeno. En un individuo mide
aproximadamente 25cm del cardias al pìloro y el diámetro transverso es de 12cm.

Intestino delgado:

El intestino delgado se inicia en el pìloro y termina en la válvula ileoceal, por la que se une a la
primera parte del intestino grueso. Su longitud es variable y su calibre disminuye progresivamente
desde su origen hasta la válvula ileocecal.

El duodeno, que forma parte del intestino delgado, mide unos 25 - 30 cm de longitud; el intestino
delgado consta de una parte próxima o yeyuno y una distal o íleon; el limite entre las dos porciones
no es muy aparente. El duodeno se une al yeyuno después de los 30cm a partir del piloro.

El yeyuno-ìleon es una parte del intestino delgado que se caracteriza por presentar unos extremos
relativamente fijos: El primero que se origina en el duodeno y el segundo se limita con la válvula
ileocecal y primera porción del ciego. Su calibre disminuye lenta pero progresivamente en dirección
al intestino grueso. El limite entre el yeyuno y el íleon no es apreciable.

Intestino grueso:

El intestino grueso se inicia a partir de la válvula ileocecal en un fondo de saco denominado ciego
de donde sale el apéndice vermiforme y termina en el recto. Desde el ciego al recto describe una
serie de curvas, formando un marco en cuyo centro están las asas del yeyunoìleon. Su longitud es
variable, entre 120 y 160 cm, y su calibre disminuye progresivamente, siendo la porción más
estrecha la región donde se une con el recto o unión rectosigmoidea donde su diámetro no suele
sobrepasar los 3 cm, mientras que el ciego es de 6 o 7 cm. En el intestino grueso se diferencian
varias porciones entre ellas tenemos:

La primera porción que esta constituida por un saco ciego, situada inferior a la válvula ileocecal y
que da origen al apéndice vermicular. La segunda porción es denominada como colon ascendente
con una longitud de 15cm, para dar origen a la tercera porción que es el colon transverso con una
longitud media de 50cm, originándose una cuarta porción que es el colon descendente con 10cm
de longitud, por ultimo se diferencia el colon sigmoideo, recto y ano. El recto es la parte terminal del
tubo digestivo. Es la continuación del colon sigmoideo y termina abrièndose al exterior por el orificio
anal.

Páncreas :

Es una glándula íntimamente relacionada con el duodeno, el conducto excretor del páncreas, que
termina reunièndose con el colèdoco a través de la ampolla de Vater, sus secreciones son de
importancia en la digestión de los alimentos.

Hígado :

Es la mayor viscera del cuerpo pesa 1500 gms Consta de dos lóbulos. Las vías biliares son las
vías excretoras del hígado, por ellas la bilis es conducida al duodeno. normalmente salen dos
conductos: derecho e izquierdo, que confluyen entre sì formando un conducto único. el conducto
hepático, recibe un conducto más fino, el conducto cìstico, que proviene de la vesícula biliar
alojada en la cara visceral de hígado. De la reunión de los conductos cìstico y el hepático se forma
el colèdoco, que desciende al duodeno, en la que desemboca junto con el conducto excretor del
páncreas. La vesícula biliar es un reservorio musculomembranoso puesto en derivación sobre las
vías biliares principales. No suele contener mas de 50-60 cm de bilis. Es de forma ovalada o
ligeramente piriforme y su diámetro mayor no es de 8 a 10 cm .

Bazo:

El bazo, por sus principales funciones se debería considerar un órgano del sistema circulatorio. Su
tamaño depende de la cantidad de sangre que contenga.

Fisiología Del Tubo Digestivo:

El tubo digestivo se encarga de la digestión de los alimentos ingeridos, para que puedan ser
utilizados por el organismo. El proceso de digestión comienza en la boca, donde los alimentos son
cubiertos por la saliva, triturados y divididos por la acción de la masticación y una vez formado el
bolo , deglutidos. El estomago no es un órgano indispensable para la vida, pues aunque su
extirpación en hombres y animales causa ciertos desordenes digestivos, no afecta
fundamentalmente la salud.

En el hombre, la función esencial del estomago es reducir los alimentos a una masa semifluida de
consistencia uniforme denominada quimo, que pasa luego al duodeno. El estomago también actúa
como reservorio transitorio de alimentos y por al acidez de sus secreciones, tiene una cierta acción
antibacteriana.

El quimo pasa el piloro a intervalos y penetra al duodeno donde es transformado por las
secreciones del páncreas, intestino delgado e hígado; continuándose su digestión y absorción. El
quimo sigue progresando a través del intestino delgado hasta llegar al intestino grueso.

La válvula ileocecal obstaculiza el vaciamiento demasiado rápido del intestino delgado e impide el
reflujo del contenido del intestino grueso al intestino delgado. La principal función del intestino
grueso es la formación, transporte y evacuación de las heces. Una función muy importante es la
absorción de agua. En el ciego y el colon ascendentes las materias fecales son casi liquidas y es
allí donde se absorbe la mayor cantidad de agua y algunas sustancias disueltas, pero aun en
regiones mas dístales (recto y colon sigmoideo) se absorben líquidos.

Las heces permanecen en el colon hasta el momento de la defecación.


SISTEMA MUSCULAR

Los musculos son los motores del movimiento. Un musculo, es un haz de fibras, cuya propiedad
mas destacada es la contractilidad. Gracias a esta facultad, el paquete de fibras musculares se
contrae cuando recibe orden adecuada. Al contraerse, se acorta y se tira del hueso o de la
estructura sujeta. Acabado el trabajo, recupera su posición de reposo.

Los musculo estriados son rojos, tienen una contracción rápida y voluntaria y se insertan en los
huesos a través de un tendón, por ejemplo, los de la masticación, el trapecio, que sostiene erguida
la cabeza, o los gemelos en las piernas que permiten ponerse de puntillas. Por su parte los
musculos lisos son blanquecinos, tapizan tubos y conductos y tienen contracción lenta e
involuntaria. Se encuentran por ejemplo, recubriendo el conducto digestivo o los vasos sanguíneos
(arterias y venas). El musculo cardiaco es un caso especial, pues se trata de un musculo estriado,
de contracción involuntaria.

El cuerpo humano se cubre de unos 650 musculos de acción voluntaria. Tal riqueza muscular
permite disponer de miles de movimientos. Hay musculos planos como el recto del abdomen, en
forma de huso como el bíceps o muy cortos como los interoseos del metacarpo. Algunos musculos
son muy grandes, como el dorsal en la espalda, mientras otros muy potentes como el cuadriceps
en el muslo. Además los musculos sirven como protección a los órganos internos así como de dar
forma al organismo y expresividad al rostro.

Los musculos son conjuntos de células alargadas llamadas fibras. Están colocadas en forma de
haces que a su vez están metidos en unas vainas conjuntivas que se prolongan formando los
tendones, con lo que se unen a los huesos. Su forma es variable. La más típica es la forma de
huso (gruesos en el centro y finos en los extremos).

Sus Propiedades :

Son blandos.

Pueden deformarse.

Pueden contraerse.

Su misión esencial es mover las diversas partes del cuerpo apoyàndose en los huesos.

En el cuerpo humano hay más de 650 musculos.

Para Observar un dibujo del sistema muscular pulsa Aqui

Para Observar un gráfico del sistema muscular, con todos sus nombres pulsa Aqui

Los más importantes son :

En la Cabeza

Los que utilizamos para masticar, llamados Maceteros.

El mùsculo que permite el movimiento de los labios cuando hablamos: Orbicular de los labios.
Los que permiten abrir o cerrar los párpados : Orbiculares de los ojos. Los que utilizamos para
soplar o silbar, llamados Bucinadores.

En el Cuello

Los que utilizamos para doblar la cabeza hacia los lados o para hacerla girar : se llaman Esterno -
cleido - mastoideos.

Los que utilizamos para moverla hacia atrás: Esplenio.

En El Tronco. (Visión Posterior).

Los utilizados en la respiración : Intercostales, Serratos, en forma de sierra, el diafragma que


separa el tórax del abdomen. Los pectorales, para mover el brazo hacia adelante y los dorsales,
que mueven el brazo hacia atrás. Los trapecios, que elevan el hombro y mantienen vertical la
cabeza.

En Los Brazos

El Deltiodes que forma el hombro.

El Biceps Braquial que flexiona el antebrazo sobre el brazo.

El Tríceps Branquial que extiende el antebrazo.


Los pronadores y supinadores hacen girar la muñeca y la mano. (Antebrazo)

Los flexores y extensores de los dedos. Musculos de la Mano

En Las Extremidades Inferiores

Los gluteos que forman las nalgas.

El sartorio que utilizamos para cruzar una pierna sobre la otra.

El Bíceps crural está detrás, dobla la pierna por la rodilla.

El tríceps está delante, extiende la pierna.

Los gemelos son los que utilizamos para caminar, forman la pantorrilla, terminan en el llamado
tendón de Aquiles.

Los flexores y extensores de los dedos. (musculos del pie)

Hay Dos Clases De Musculos

Los que hemos citado, cuya contracción puede ser rápida y Voluntaria : Se llaman musculos
estriados o rojos.

Los musculos intestinales de contracción lenta e involuntaria; son los llamados musculos lisos y
blancos.

Los musculos realizan el trabajo de extensión y de flexión, para aquello tiran de los huesos, que
hacen de palancas. Otro efecto de trabajo de los musculos es la producción de calor. Para ello
regulan el funcionamiento de centros nerviosos.

En ellos se reciben las sensaciones, para que el sistema nervioso elabore las respuestas
conscientes a dichas sensaciones.

Los musculos gastan mucho oxigeno y glucosa, cuando el esfuerzo es muy fuerte y prolongado,
provocando que los musculos no alcancen a satisfacer sus necesidades, dan como resultado los
calambres y fatigas musculares por acumulación de toxinas musculares, estos estados
desaparecen con descanso y masajes que activen la circulación, para que la sangre arrastre las
toxinas presentes en la musculatura

SISTEMA NERVIOSO

El sistema nervioso es el rector y coordinador de todas las funciones, conscientes e inconscientes


del organismo, consta del sistema cerebroespinal (encéfalo y medula espinal), los nervios y el
sistema vegetativo o autónomo.

A menudo, se compara el sistema nervioso con un computador: porque las unidades periféricas
(órganos internos u órganos de los sentidos) aportan gran cantidad de información a través de los
cables de transmisión (nervios) para que la unidad de procesamiento central (cerebro), provista de
su banco de datos (memoria), la ordene, la analice, muestre y ejecute.
Sin embargo, la comparación termina aquí, en la mera descripción de los distintos elementos. La
informática avanza a enormes pasos, pero aun esta lejos el día que se disponga de un ordenador
compacto, de componentes baratos y sin mantenimiento, capaz de igualar la rapidez, la sutileza y
precisión del cerebro humano.

El sistema nervioso central realiza las mas altas funciones, ya que atiende y satisface las
necesidades vitales y da respuesta a los estímulos. Ejecuta tres acciones esenciales, que son la
detección de estímulos, la transmisión de informaciones y la coordinación general.

El Cerebro es el órgano clave de todo este proceso. Sus diferentes estructuras rigen la
sensibilidad, los movimientos, la inteligencia y el funcionamiento de los órganos. Su capa mas
externa, la corteza cerebral, procesa la información recibida, la coteja con la información
almacenada y la transforma en material utilizable, real y consciente.

El Sistema Nervioso es la relación entre nuestro cuerpo y el exterior, además regula y dirige el
funcionamiento de todos los órganos del cuerpo.

Las Neuronas: son la unidad funcional del sistema nervioso, por ellas pasan los impulsos
nerviosos.

División del Sistema Nervioso

Genéricamente se divide en:

· Sistema Nervioso Central S.N.C


· Sistema Nervioso Autónomo S.N.A

El Sistema Nervioso Central se divide en Encéfalo, Medula y Nervios Periféricos.

El Encéfalo:

Es la masa nerviosa contenida dentro del cráneo. esta envuelta por las meninges, que son tres
membranas llamadas: duramadre, piamadre y aracnoides. El encéfalo consta de tres partes:

Cerebro, Cerebelo y Bulbo Raquídeo.

El Cerebro:

Es la parte mas importante, esta formado por la sustancia gris (por fuera) y la sustancia blanca (por
dentro), su superficie no es lisa sino que tienes unas arrugas o salientes llamadas
circunvoluciones; y unos surcos denominados cisuras, las mas notables son llamadas las cisuras
de Silvio y de Rolando. Esta dividido incompletamente por una hendidura en dos partes, llamados
hemisferios cerebrales. En los hemisferios se distinguen zonas denominadas lóbulos, que llevan el
nombre del hueso en que se encuentran en contacto. Pesa unos 1.200gr Dentro de sus principales
funciones están las de controlar y regular el funcionamiento de los demás centros nerviosos,
también en el se reciben las sensaciones y se elaboran las respuestas conscientes a dichas
situaciones. Es el órgano de las facultades intelectuales: atención, memoria ...etc.

El cerebelo::

Esta situado detrás del cerebro y es más pequeño (120 gr.); tiene forma de una mariposa con las
alas extendidas. Consta de tres partes: Dos hemisferios cerebelosos y el cuerpo vermiforme. Por
fuera tiene sustancia gris y en el interior sustancia blanca, esta presenta una forma arborescente
por lo que se llama el árbol de la vida.Coordina los movimientos de los musculos al caminar.
El Bulbo Raquídeo:

Es la continuación de la medula que se hace más gruesa al entrar en el cráneo. Regula el


funcionamiento del corazón y de los musculos respiratorios, además de los movimientos de la
masticación, la tos, el estornudo, el vomito ... etc. Por eso una lesión en el bulbo produce la muerte
instantánea por paro cardio- respiratorio irreversible.

La Medula Espinal:

La medula espinal es un cordón nervioso, blanco y cilíndrico encerrada dentro de la columna


vertebral.Su función más importante es conducir, mediante los nervios de que está formada, la
corriente nerviosa que conduce las sensaciones hasta el cerebro y los impulsos nerviosos que lleva
las respuestas del cerebro a los musculos.

Los Nervios

Son cordones delgados de sustancia nerviosa que se ramifican por todos los órganos del cuerpo.
Unos salen del encéfalo y se llaman nervios craneales. Otros salen a lo largo de la medula espinal:

Son los nervios raquídeos.

La Memoria, Inteligencia Y Sueño

La inteligencia es la capacidad de adaptarse a las situaciones nuevas. De hecho, no se trata de


una habilidad fija, sino mas bien una suma de facultades relacionadas, otorgados por la corteza
cerebral, la capa nerviosa que recubre todo el cerebro humano.

Tanto la definición de la inteligencia como la medición han suscitado siempre recelos y criticas. Sin
embargo, muchos tests de inteligencia establecen su puntuación a partir de un promedio, al que se
ha dado un valor 100. así, se determina que el 70% de la población posee un cociente intelectual
(CI) normal, situado entre 85 y 115. Una buena herencia y un ambiente propicio son dos
circunstancias esenciales para que una persona pueda desarrollar todo su potencial intelectual.

La memoria es otra facultad maravillosa del cerebro humano, pues permite registrar datos y
sensaciones, revivirlos a voluntad después de minutos o años después. La memoria es una sola,
pero se distinguen tres niveles, según cuanto tiempo se recuerda una información, esta es la
memoria inmediata, de solo unos segundos, la memoria a corto plazo, de unas horas a unos pocos
días, y la memoria a largo plazo, en que los datos se graban a fuego y pueden recordarse toda la
vida.
Inteligencia y memoria son dos facultades que un cerebro soñoliento realiza a duras penas y sin
ningún lucimiento.

El sueño es imprescindible para vivir, en especial el sueño profundo, en que el cuerpo se abandona
a la relajación y el cerebro se enfrasca en una frenética actividad onírica (actividad de los sueños y
pesadillas).

SISTEMA CIRCULATORIO

La sangre es el fluido que circula por todo el organismo a través del sistema circulatorio, formado
por el corazón y los vasos sanguíneos. De hecho, la sangre describe dos circuitos
complementarios. En la circulación pulmonar o circulación menor la sangre va del corazón a los
pulmones, donde se oxigena o se carga con oxigeno y descarga el dioxido de carbono.

En la circulación general o mayor, la sangre da la vuelta a todo el cuerpo antes de retornar al

corazón.

Los Vasos sanguíneos (arterias, capilares y venas) son conductos musculares elásticos que
distribuyen y recogen la sangre de todos los rincones del cuerpo.

El Corazón es un musculo hueco, del tamaño del puño (relativamente), encerrado en el centro del
pecho. Como una bomba, impulsa la sangre por todo el organismo. realiza su trabajo en fases
sucesivas. Primero se llenan las cámaras superiores o aurículas, luego se contraen, se abren las
válvulas y la sangre entra en las cavidades inferiores o ventrículos. Cuando están llenos, los
ventrículos se contraen e impulsan la sangre hacia las arterias.

El corazón late unas setenta veces por minuto y bombea todos los días unos 10.000 litros de
sangre.

La sangre es un tejido liquido, compuesto por agua, sustancias disueltas y células sanguíneas. Los
glóbulos rojos o hematies se encargan de la distribución del oxigeno; los glóbulos blancos efectúan
trabajos de limpieza (fagocitos) y defensa (linfocitos), mientras que las plaquetas intervienen en la
coagulación de la sangre. Una gota de sangre contiene unos 5 millones de glóbulos rojos, de 5.000
a 10.000 glóbulos blancos y alrededor de 250.000 plaquetas.

El aparato circulatorio sirve para llevar los alimentos y el oxigeno a las células, y para recoger los
desechos que se han de eliminar después por los riñones, pulmones, etc. De toda esta labor se
encarga la sangre, que está circulando constantemente.
La Sangrees un liquido rojo, viscoso de sabor salado y olor especial. En ella se distinguen las
siguientes partes : el plasma, los glóbulos rojos, los glóbulos blancos y las plaquetas.

El plasma sanguíneo es la parte liquida, es salado de color amarillento y en él flotan los demás
componentes de la sangre, también lleva los alimentos y las sustancias de desecho recogidas de
las células. El plasma cuando se coagula la sangre, origina el suero sanguíneo.

Los Glóbulos Rojos o Hematies tienen forma de discos y son tan pequeños que en cada milímetro
cúbico hay cuatro a cinco millones, miden unas siete micras de diámetro, no tienen núcleo por eso
se consideran células muertas, tiene un pigmento rojizo llamado hemoglobina que les sirve para
transportar el oxigeno desde los pulmones a las células.

Los Glóbulos Blancos o Leucocitos Son mayores pero menos numerosos (unos siete mil por
milímetro cúbico), son células vivas que se trasladan, se salen de los capilares y se dedican a
destruir los microbios y las células muertas que encuentran por el organismo. También producen
antitoxinas que neutralizan los venenos de los microorganismos que producen las enfermedades.

Las Plaquetas Son células muy pequeñas, sirven para taponar las heridas y evitar hemorragias.

Partes Del Aparato Circulatorio Consta de :

Un órgano central, el corazón y un sistema de tubos o vasos, las arterias, los capilares y las venas.
Corazón

Es un órgano hueco y musculoso del tamaño de un puño, rodeado por el Pericardio. Situado entre
los pulmones, dividido en cuatro cavidades : dos Aurículas y dos Ventrículos. Entre la Aurícula y el
Ventrículo derecho hay una válvula llamada tricúspide, entre Aurícula y Ventrículo izquierdos está la
válvula mitral. Las gruesas paredes del corazón forman el Miocardio.

Las Arterias

Son vasos gruesos y elásticos que nacen en los Ventrículos aportan sangre a los órganos del
cuerpo por ellas circula la sangre a presión debido a la elasticidad de las paredes.

Del corazón salen dos Arterias :

Arteria Pulmonar que sale del Ventrículo derecho y lleva la sangre a los pulmones.

Arteria Aorta sale del Ventrículo izquierdo y se ramifica, de esta ultima arteria salen otras
principales entre las que se encuentran:

Las caròtidas: Aportan sangre oxigenada a la cabeza.

Subclavias: Aportan sangre oxigenada a los brazos.

Hepática: Aporta sangre oxigenada al hígado.

Esplènica: Aporta sangre oxigenada al bazo.

Mesentèricas: Aportan sangre oxigenada al intestino.

Renales: Aportan sangre oxigenada a los riñones.

Ilíacas: Aportan sangre oxigenada a las piernas.

Para Observar como se superponen las arterias a los huesos pulsa Aqui
Los Capilares

Son vasos sumamente delgados en que se dividen las arterias y que penetran por todos los
órganos del cuerpo, al unirse de nuevo forman las venas.

Las Venas

Son vasos de paredes delgadas y poco elásticas que recogen la sangre y la devuelven al corazón,
desembocan en las Aurículas.

En la Aurícula derecha desembocan :

La Cava superior formada por las yugulares que vienen de la cabeza y

las subclavias (venas) que proceden de los miembros superiores.

La Cava inferior a la que van las Ilíacas que vienen de las piernas, las renales de los riñones, y la
suprahèpatica del hígado.

La Coronaria que rodea el corazón.

En la Aurícula izquierda desemboca las cuatro venas pulmonares que traen sangre desde los
pulmones y que curiosamente es sangre arterial.

· Para Observar un gráfico con las venas y arterias del cuerpo pulsa aqui

Funcionamiento Del Corazón


El corazón tiene dos movimientos :

Uno de contracción llamado Sístole y otro de dilatación llamado Diástole. Pero la Sístole y la
Diástole no se realizan a la vez en todo el corazón, se distinguen tres tiempos :

Sístole Auricular : se contraen las Aurículas y la sangre pasa a los ventrículos que estaban vacíos.

Sístole Ventricular : los ventriculos se contraen y la sangre que no puede volver a las aurículas por
haberse cerrado las válvulas bicúspide y tricúspide, sale por las arterias pulmonar y aorta. Estas
también tienen sus válvulas llamadas válvulas sigmoideas, que evitan el reflujo de la sangre.

Diástole general : Las Aurículas y los Ventrículos se dilatan y la sangre entran de nuevo a las
aurículas.

Los golpes que se producen en la contracción de los Ventrículos originan los latidos, que en el
hombre oscilan entre 70 y 80 latidos por minuto.

El Sistema Linfático

La linfa es un liquido incoloro formado por plasma sanguíneo y por glóbulos blancos, en realidad es
la parte de la sangre que se escapa o sobra de los capilares sanguíneos al ser estos porosos.

Las venas linfáticas tienen forma de rosario por las muchas válvulas que llevan, también tienen
unos abultamientos llamados ganglios que se notan sobre todo en las axilas, ingle, cuello etc. En
ellos se originan los glóbulos blancos.

SISTEMA RESPIRATORIO

La respiración es un proceso involuntario y automático, en que se extrae el oxigeno del aire


inspirado y se expulsan los gases de desecho con el aire espirado.

El aire se inhala por la nariz, donde se calienta y humedece. Luego, pasa a la faringe, sigue por la
laringe y penetra en la traquea.

A la mitad de la altura del pecho, la traquea se divide en dos bronquios que se dividen de nuevo,
una y otra vez , en bronquios secundarios, terciarios y, finalmente, en unos 250.000 bronquiolos.

Al final de los bronquiolos se agrupan en racimos de alvéolos, pequeños sacos de aire, donde se
realiza el intercambio de gases con la sangre.

Los pulmones contienen aproximadamente 300 millones de alvéolos, que desplegados ocuparían
una superficie de 70 metros cuadrados, unas 40 veces la extensión de la piel.

La respiración cumple con dos fases sucesivas, efectuadas gracias a la acción muscular del
diafragma y de los musculos intercostales, controlados todos por el centro respiratorio del bulbo
raquídeo. En la inspiración, el diafragma se contrae y los musculos intercostales se elevan y
ensanchan las costillas. La caja torácica gana volumen y penetra aire del exterior para llenar este
espacio.

Durante la espiración, el diafragma se relaja y las costillas descienden y se desplazan hacia el


interior. La caja torácica disminuye su capacidad y los pulmones dejan escapar el aire hacia el
exterior.
Proporciona el oxigeno que el cuerpo necesita y elimina el Diòxido de Carbono o . gas carbònico
que se produce en todas las células.

Consta de dos partes :

Vías respiratorias

Pulmones

Las Vías Respiratorias

Están formadas por la boca y las fosas nasales, la faringe, la laringe, la traquea, los bronquios y los
bronquiolos.

La Laringe es el órgano donde se produce la voz, contiene las cuerdas vocales y una especie de
tapón llamado epiglotis para que los alimentos no pasen por las vías respiratorias.

La traquea es un tubo formado por unos veinte anillos cartilaginosos que la mantienen siempre
abierta, se divide en dos ramas: los Bronquios.

Los Bronquios y los Bronquiolos son las diversas ramificaciones del interior del pulmón, terminan
en unos sacos llamadas alvéolos pulmonares que tienen a su vez unas bolsas más pequeñas o
vesículas pulmonares, están rodeadas de una multitud de capilares por donde pasa la sangre y se
purifica y se realiza el intercambio gaseoso.

Los pulmones son dos masas esponjosas de color rojizo, situadas en el tórax a ambos lados del
corazón, el derecho tiene tres partes o lóbulos; el izquierdo tiene dos partes.

La Pleura Es una membrana de doble pared que rodea a los pulmones.

Respiración Consiste en tomar oxigeno del aire y desprender el diòxido de carbono que se produce
en las células.

Tienen tres fases :

1. Intercambio en los Pulmones.

2. El transporte de gases.

3. La respiración en las células y tejidos.

El Intercambio En Los Pulmones

El aire entra en los pulmones y sale de ellos mediante los movimientos respiratorios que son dos:
En la Inspiración el aire penetra en los pulmones porque estos se hinchan al aumentar el volumen
de la caja torácica. Lo cual es debido a que el diafragma desciende y las costillas se levantan.

En la espiración el aire es arrojado al exterior ya que los pulmones se comprimen al disminuir de


tamaño la caja torácica, pues el diafragma y las costillas vuelven a su posición normal.

Respiramos unas 17 veces por minuto y cada vez introducimos en la respiración normal ½ litro de
aire. El número de inspiraciones depende del ejercicio, de la edad etc. la capacidad pulmonar de
una persona es de cinco litros. A la cantidad de aire que se pueda renovar en una inspiración
forzada se llama capacidad vital; suele ser de 3,5 litros.

Cuando el aire llega a los alvéolos, parte del oxigeno que lleva atraviesa las finisimas paredes y
pasa a los glóbulos rojos de la sangre. Y el diòxido de carbono que traía la sangre pasa al aire, así
la sangre venenosa se convierte en sangre arterial esta operación se denomina hematosis.

Transporte De Los Gases

El oxigeno tomado en los alvéolos pulmonares es llevado por los glóbulos rojos de la sangre hasta
el corazón y después distribuido por las arterias a todas las células del cuerpo.

El diòxido de carbono es recogido en parte por los glóbulos rojos y parte por el plasma y
transportado por las venas cavas hasta el corazón y de allí es llevado a los pulmones para ser
arrojado al exterior.

La Respiración De Las Células

Toman el oxigeno que les lleva la sangre y/o utilizan para quemar los alimentos que han absorbido,
allí producen la energía que el cuerpo necesita y en especial el calor que mantiene la temperatura
del cuerpo humano a unos 37 grados.

Genética
La genética es la parte de la Biología que trata de la herencia y de todo lo relacionado con ella.

La genética se basa en el estudio de genes, hechos de ADN (ácido desoxirribonucleico).


Teorías de la herencia
Preformismo: Se decía que los gametos tenían un pequeño hombrecillo, que al fecundarse éste
aumentaba de tamaño. Los científicos que creían que el hombrecillo se encontraba en el gameto
masculino, se llamaban espermatistas; mientras que los que creían que se encontraba en el
femenino se denominaban ovistas-
Epigénesis: Afirmaba que en los gametos de ambos sexos se encontraba un fluido, que luego de la
fecundación se fusionaban, originando distintos órganos para formar al embrión.
Pangénesis: Teoría postulada por Aristóteles que mencionaba que cada órgano y estructura del
cuerpo produce pequeños sedimentos llamados gémulas, que por vía sanguínea llegaban a los
gametos. El individuo se formaría gracias a la fusión de las gémulas de las células.
Mitosis
Meiosis
Genotipo
Fenotipo
Las teorías de la herencia datan ya de los siglos V y IV a.C., la genética (el estudio científico de la
herencia) no comenzó realmente hasta los siglos XVIII y XIX. Se observó la transmisión de
generación en generación de determinados caracteres de vegetales y animales a fin de
proporcionar una base racional para mejorar los cultivos y el ganado. Pero a medida que el tiempo
avanzaba se fue estudiando y analizando el tema con los seres vivos.

Pero si analizamos tiempo atrás, el avance más significativo en el campo de la genética se debió al
monje austriaco Gregor Mendel (1822 - 1884), que observó ciertas características específicas de la
planta del guisante y contó la cantidad de individuos en los que aparecían estos rasgos a lo largo
de varias generaciones. Concentrándose en apenas algunos caracteres y determinando en que
proporción de cada generación estaban presentes, consiguió demostrar patrones específicos de
herencia. El carácter discreto y la segregación independiente de las características genéticas que
observó se conocieron como “leyes de la herencia de Mendel” , y se aplican a la mayoría de los
sistemas genéticos.

Con el tiempo surgió la clonación, el cual es un proceso por el cual un organismo produce
descendientes con la misma información genética y que por lo tanto son idénticos entre sí.

El primer caso de clonación animal fue “Dolly” la oveja. Un equipo de científicos escoceses
encabezado por Lan Wilmut logró el 23 de febrero de 1997 crear la primera oveja obtenida por
medio de la clonación.

Actualmente se está analizando hacer clones humanos, a fin de obtener órganos humanos para
hacer transplantes, u otras cosas. Pero como todas las cosas esto tiene consecuencias, como por
ejemplo por esto se tendría que hacer la clonación en embriones humanos. Esto es muy cruel ya
que con esto se están matando pequeñas vidas.

Se espera de este tema que los científicos utilicen la clonación inteligentemente y que no nos
lleguen a defraudar ya que son los únicos que pueden llegar más allá de la ciencia para estudiar lo
desconocido y para lograr vivir en un mundo mejor.

ADN

ADN es la abreviatura del ácido desoxirribonucleico. Constituye el material genético de los


organismos. Es el componente químico primario de los cromosomas y el material del que los genes
están formados. En las bacterias el ADN se encuentra en el citoplasma mientras que en
organismos más complejos, tales como plantas, animales y otros organismos multicelulares, la
mayoría del ADN reside en el núcleo celular. Se conoce desde hace más de cien años. El ADN fue
identificado inicialmente en 1868 por Friedrich Miescher, biólogo suizo, en los núcleos de las
células del pus obtenidas de los vendajes quirúrgicos desechados y en el esperma del salmón. Él
llamó a la sustancia nucleína, aunque no fue reconocida hasta 1943 gracias al experimento
realizado por Oswald Avery.

Su función es dictar las instrucciones para fabricar un ser vivo idéntico a aquel del que proviene (o
casi similar, en el caso de mezclarse con otra cadena como es el caso del la reproducción sexual).

Estructura

Los componentes del ADN (polímero) son los nucleótidos (monómeros); cada nucleótido está
formado por un grupo de fosfato, una desoxirribosa y una base nitrogenada. Existen cuatro bases:
dos purínicas (o púricas) denominadas adenina (A) y guanina (G) y dos pirimidínicas (o pirimídicas)
denominadas citosina (C) y timina (T). La estructura del ADN es una pareja de largas cadenas de
nucleótidos. La estructura de doble hélice (ver figura) del ADN no fue descubierta hasta 1953 por
James Watson y Francis Crick (el artículo A Structure for Deoxyribose Nucleic Acid fue publicado el
25 de abril de 1953 en Nature¹ y dejaba claro el modo en que el ADN se podía "desenrollar" para
que fuera posible su lectura o copia). Una larga hebra de ácido nucleico está enrollada alrededor
de otra hebra formando un par entrelazado. Dicha hélice mide 3,4 nm de paso de rosca y 2,37 nm
de diámetro, y está formada, en cada vuelta, por 10,4 pares de nucleótidos enfrentados entre sí por
sus bases nitrogenadas. El rasgo fundamental es que cada base nitrogenada de una hebra "casa"
con la base de la otra, en el sentido de que la adenina siempre se enfrenta a la timina (lo que se
denomina A-T) y la guanina siempre a la citosina (G-C). La adenina se une a la timina mediante
dos puentes de hidrógeno, mientras que la guanina y la citosina lo hacen mediante tres puentes de
hidrógeno; de ahí que una cadena de ADN que posea un mayor número de parejas de C-G sea
más estable. Este emparejamiento corresponde a la observación ya realizada por Erwin Chargaff
(1905-2002) de que en todas las muestras la cantidad de adenina es siempre la misma que la
timina, e igualmente con la guanina y la citosina. La cantidad de purinas (A+G) es siempre igual a
la cantidad de pirimidinas (T+C). Así una purina (adenina y guanina), de mayor tamaño, está
siempre emparejada con una pirimidina (timina y citosina), más pequeña, siendo de este modo
uniforme la doble hélice (no hay "bultos" ni "estrechamientos"). Se estima que el genoma humano
haploide tiene alrededor de 3.000 millones de pares de bases. Dos unidades de medida muy
utilizadas son la kilobase (kb) que equivale a 1.000 pares de bases, y la megabase (Mb) que
equivale a un millón de pares de bases.

Capacidad para contener información: lenguaje codificado en la secuencia de pares de nucleótidos

Capacidad de replicación: dar origen a dos copias iguales

Capacidad de mutación: justificando los cambios evolutivos

Promotor
El promotor es una secuencia de ADN que permite que un gen sea transcrito, sirve para dar la
señal de comienzo a la ARN polimerasa. El promotor ADN determina cuál de las dos cadenas de
ADN será copiada.

Enlace de hidrógeno

La adhesión de las dos hebras de ácido nucleico se debe a un tipo especial de unión química
conocido como enlace de hidrógeno o puente de hidrógeno. Los puentes de hidrógeno son uniones
más débiles que los típicos enlaces químicos, tales como interacciones hidrófobas, enlaces de Van
der Waals, etc... Esto significa que las dos hebras de la hélice pueden separarse con relativa
facilidad, quedando intactas.

Papel de la secuencia

En un gen, la secuencia de los nucleótidos a lo largo de una hebra de ADN se transcribe a un ARN
mensajero (ARNm) y esta secuencia a su vez se traduce a una proteína que un organismo es
capaz de sintetizar o "expresar" en uno o varios momentos de su vida, usando la información de
dicha secuencia.

La relación entre la secuencia de nucleótidos y la secuencia de aminoácidos de la proteína viene


determinada por el código genético, que se utiliza durante el proceso de traducción o síntesis de
proteínas. La unidad codificadora del código genético es un grupo de tres nucleótidos (triplete),
representado por las tres letras iniciales de las bases nitrogenadas (por ej., ACT, CAG, TTT).
Cuando estos tripletes están en el ARN mensajero se les llama codones. En el ribosoma cada
codón del ARN mensajero interacciona con una molécula de ARN de transferencia (ARNt) que
contenga el triplete complementario (denominado anticodón). Cada ARNt porta el aminoácido
correspondiente al codón de acuerdo con el código genético, de modo que el ribosoma va uniendo
los aminoácidos para formar una nueva proteína de acuerdo con las "instrucciones" de la
secuencia del ARNm. Existen 64 codones posibles, por lo cual corresponde más de uno para cada
aminoácido; algunos codones indican la terminación de la síntesis, el fin de la secuencia
codificante; estos codones de terminación o codones de parada son UAA, UGA y UAG (en inglés,
nonsense codons o stop codons).

En muchas especies de organismos, sólo una pequeña fracción del total de la secuencia del
genoma codifica proteínas; por ejemplo, sólo un 3% del genoma humano consiste en exones que
codifican proteínas. La función del resto por ahora sólo es especulación, es conocido que algunas
secuencias tienen afinidad hacia proteínas especiales que tienen la capacidad de unirse al ADN
(como los homeodominios, los complejos receptores de hormonas esteroides, etc.) que tienen un
papel importante en el control de los mecanismos de trascripción y replicación. Estas secuencias
se llaman frecuentemente secuencias reguladoras, y los investigadores asumen que sólo se ha
identificado una pequeña fracción de las que realmente existen. El llamado ADN basura representa
secuencias que no parecen contener genes o tener alguna función; la presencia de tanto ADN no
codificante en genomas eucarióticos y las diferencias en tamaño del genoma representan un
misterio que es conocido como el enigma del valor de C.
Algunas secuencias de ADN desempeñan un papel estructural en los cromosomas: los telómeros y
centrómeros contienen pocos o ningún gen codificante de proteínas, pero son importantes para
estabilizar la estructura de los cromosomas. Algunos genes codifican ARN: ARN ribosómico, ARN
de transferencia), ARN interferentes (ARNi, que son ARN que bloquean la expresión de genes
específicos). La estructura de intrones y exones de algunos genes (como los de inmunoglobulinas
y protocadherinas) son importantes por permitir cortes y armados alternativos del pre-ARN
mensajero que hacen posible la síntesis de diferentes proteínas a partir de un mismo gen (sin esta
capacidad no existiría el sistema inmunológico). Algunas secuencias de ADN no codificante
representan pseudogenes que tienen valor evolutivo ya que permiten la creación de nuevos genes
con nuevas funciones. Otros ADN no codificantes proceden de la duplicación de pequeñas
regiones del ADN; esto tiene mucha utilidad ya que el rastreo de estas secuencias repetitivas
permite estudios sobre el linaje humano

La secuencia también determina la susceptibilidad del ADN para ser cortado por determinadas
enzimas de restricción, lo que se aplica en la realización de la técnica de RFLP, popularmente
conocida como la Huella genética, que se usa para determinar la identidad y la paternidad de
personas, aunque esta poderosa técnica también tiene aplicaciones en agricultura, ganadería y
microbiología. (Actualmente también se le llama Huella genética a variaciones de la técnica de
PCR en la que no se utilizan enzimas de restricción sino fragmentos amplificados de ADN.)

El ADN como almacén de información

En realidad se puede considerar así, un almacén de información (mensaje) que se trasmite de


generación en generación, conteniendo toda la información necesaria para construir y sostener el
organismo en el que reside. Se puede considerar que las obreras, de este mecanismo son las
proteínas. Estas pueden ser estructuralescomo las proteínas de los músculos, cartílagos, pelo, etc.,
o bien funcionalescomo las de la hemoglobina, o las innumerables enzimas, del organismo. La
función principal de la herencia es la especificación de las proteínas, siendo el ADN una especie de
planoo recetapara nuestras proteínas. Unas veces la modificación del ADN que provoca disfunción
proteica lo llamamos enfermedad, otras veces, en sentido beneficioso, dará lugar a lo que
conocemos como evolución. Las alrededor de treinta mil proteínas diferentes en el cuerpo humano
están hechas de veinte aminoácidosdiferentes, y una molécula de ADN debe especificar la
secuencia en que se unan dichos aminoácidos. El ADN en el genoma de un organismo podría
dividirse conceptualmente en dos, el que codifica las proteínasy el que no codifica. En el proceso
de elaborar una proteína, el ADN de un gen se lee y se transcribe a ARN. Este ARN sirve como
mensajero entre el ADN y la maquinariaque elaborará las proteínas y por eso recibe el nombre de
ARN mensajero. El ARN mensajero instruye a la maquinaria que elabora las proteínas, para que
ensamble los aminoácidos en el orden preciso para armar la proteína. El dogma centralde la
genéticaes que el flujo de actividad y de información es: ADN → ARN → proteína; pocas veces la
información fluye del ARN al ADN.

El ADN basura

El mal llamado ADN basura corresponde a secuencias del genoma procedentes de duplicaciones,
translocaciones y recombinaciones de virus, etc, que parecen no tener utilidad alguna. No deben
confundirse con los intrones. Corresponde a más del 90% de nuestro genoma, que cuenta con
30.000 ó 40.000 genes.
Genes

Un gen es una secuencia lineal de nucleótidos de ADN o ARN que es esencial para una función
específica, bien sea en el desarrollo o en el mantenimiento de una función fisiológica normal. Es
considerado como la unidad de almacenamiento de información y unidad de herencia al transmitir
esa información a la descendencia. La realización de esta función no requiere de la traducción del
gen ni tan siquiera su transcripción. Los genes están localizados en los cromosomas en el núcleo
celular y se disponen en línea a lo largo de cada uno de los cromosomas. Cada gen ocupa en el
cromosoma una posición determinada llamada locus. El conjunto de genes de una especie se
denomina genoma.

Algunas enfermedades como la anemia de células falciformes pueden ser ocasionadas por un
cambio en un solo gen (uno de los 30.000 genes que constituyen el plan para todo el cuerpo
humano).

Los genes están dispuestos en orden a lo largo de la cadena de ADN en el cromosoma, de manera
similar a una sarta de cuentas. En la mayoría de los casos, existen genes apareados de cada
padre en los cromosomas apareados y en las posiciones apareadas a lo largo de la cadena de
ADN dentro del cromosoma. Estos genes aparecen en pares que corresponden a uno de la madre
y uno del padre.

Los genes pueden ser dominantes o recesivos. Los rasgos genéticos dominantes son aquellos que
se presentan cuando un gen del par de genes puede controlar el rasgo para el cual ese par de
genes codifica. Mientras que los rasgos genéticos recesivos precisan que ambos genes del par
trabajen en conjunto para controlar el rasgo.

Tipos de genes

Genes estructurales, que codifican proteínas, que podrían ser reguladoras de genes, o codifican
ARN específicos que sólo se transcriben. Muchos genes se encuentran constituidos por regiones
codificantes (exones) interrumpidas por regiones no codificantes (intrones) que son eliminadas en
la formación del ARN. La secuencia de bases presente en el ARN determina la secuencia de
aminoácidos de la proteína por medio del código genético.

Genes reguladores sin transcriptos, como:

Genes o secuencias de replicación que especifican el sitio de iniciación y terminación de la


replicación del ADN.

Genes de recombinación que proporcionan los sitios de unión para las enzimas de recombinación.

Genes de segregación que son los sitios específicos para que las fibras del huso mitótico durante
la meiosis se adhieran a los cromosomas durante la segregación en mitosis y meiosis.

Genes de secuencias del ADN que reconocen e interactúan con proteínas, hormonas y otras
moléculas.

Secuencias de repetición y secuencias sin sentido. Cromosomas

Al examinar con el microscopio una célula en división indirecta, y perfectamente teñida con uno de
los colorantes habituales, pueden verse en el interior del núcleo unos cuerpos muy teñidos, que se
llaman cromosomas.
Estructura: Cada cromosoma está formado por dos brazos articulados entre sí a nivel de una
esferita llamada centrómero. Según la disposición y la longitud de los brazos, se reconocen tres
tipos de cromosomas:

• Acrocentrico: Uno de los brazos es muy pequeño y el cromosoma toma la forma de un


filamento.
• Submetacentrico: Uno de los brazos es más corto que el otro y el cromosoma tiene la
forma de una L mayúscula.
• Metacéntrica: Los dos brazos tienen la misma longitud y el cromosoma parece una V
mayúscula.

Función: Los cromosomas rigen fenómenos de variación, mutación, herencia y evolución de los
seres vivos.

¿Cómo y cuando se transmite el material genético?

En la reproducción sexual intervienen gametas masculinas y femeninas. Éstas tienen una


característica que las diferencia fundamentalmente del resto de las células: durante su formación
se produce una división celular llamada meiosis. Como consecuencia de la meiosis tienen la mitad
de cromosomas y por eso se las llama células haploides.

Cuando las gametas masculina y femenina se unen, se forma una célula huevo que contienen la
información genética proveniente de las dos gametas. Entonces, esta célula tiene el número de
cromosomas completo y por eso es diploide, con la información necesaria para formar un nuevo
ser.

Todas las células que se originan a partir de la célula huevo también tienen dos juegos de
cromosomas para el mismo tipo de información genética. Los cromosomas de un mismo tipo se
llaman cromosomas homólogos.

Homocigoto - Heterocigoto

El gen para un carácter, por ejemplo el color de ojos, puede presentarse en dos formas o más (ojos
azules, verdes, marrones). A cada una de las formas se la llama alelo.

En un individuo, el gen para un carácter se encuentra en dos cromosomas homólogos: un


cromosoma que proviene del padre y el otro, de la madre. Es decir que cada carácter tiene dos
genes, y por lo tanto dos alelos; los alelos ocupan el mismo lugar en los cromosomas homólogos.

• Si los dos alelos (uno en cada cromosoma) son iguales, se dice que el individuo es
homocigota para ese carácter.
• Cuando los dos alelos son distintos, se dice que el individuo es heterocigota para ese
carácter.

Alelos, Genotipo y Fenotipo

Se denominan caracteres alelos o alelomorfos a dos rasgos que contrastan y que por lo tanto no
pueden heredarse en forma conjunta.

Por ejemplo, el pelo rizado y el pelo lacio.


Se denomina genotipo a la constitución genética del organismo, y fenotipo a la apariencia exterior
de determinado rasgo o carácter, como negro, blanco, rizado, lacio.

¿Quién fue Gregor Mendel?

El austriaco Gregorio Mendel es considerado el precursor de la genética, ya que experimentando


con arvejas enuncio con suma precisión las leyes de la herencia, que hoy llevan su nombre. En
1868 fueron publicadas en un diario de su país, pero no despertaron interés científico y
permanecieron ignoradas por más de 30 años, hasta que tres investigadores (Vries, holandés; Von
Tschermak, austriaco; y Correns, alemán) llegaron a las mismas conclusiones independientemente,
entonces fueron reconocidos los trabajos dejados por Mendel, los cuales se conocen como leyes
cuantitativas o leyes de Mendel, que estudian la proporción en que se transmiten los caracteres de
padres a hijos y a través de varias generaciones.

Leyes de Mendel

teoría general sobre la herencia, conocida como leyes de Mendel.

Primera ley de Mendel

Si se cruzan dos razas puras para un determinado carácter, los descendientes de la primera
generación son todos iguales entre sí y, a su vez, iguales a uno de sus progenitores, que es el
poseedor del alelo dominante. Mendel elaboró este principio al observar que si cruzaba dos razas
puras de plantas del guisante, una de semillas amarillas y otra de semillas verdes, la descendencia
que obtenía, a la que él denominaba F1, consistía únicamente en plantas que producían semillas
de color amarillo. Estas plantas debían tener, en el gen que determina el color de la semilla, los dos
alelos que habían heredado de sus progenitores, un alelo para el color verde y otro para el color
amarillo; pero, por alguna razón, sólo se manifestaba este último, por lo que se lo denominó alelo
dominante, mientras que al primero se le llamó alelo recesivo.

Segunda ley de Mendel

Los alelos recesivos que, al cruzar dos razas puras, no se manifiestan en la primera generación
(denominada F1), reaparecen en la segunda generacion (denominada F2) resultante de cruzar los
individuos de la primera. Ademas la proporción en la que aparecen es de 1 a 3 respecto a los
alelos dominantes. Mendel cruzó entre sí los guisantes de semillas amarillas obtenidos en la
primera generación del experimento anterior. Cuando clasificó la descendencia resultante, observó
que aproximadamente tres cuartas partes tenían semillas de color amarillo y la cuarta parte
restante tenía

las semillas de color verde. Es decir, que el carácter « semilla de color verde », que no había
aparecido en ninguna planta de la primera generación, sí que aparecía en la segunda aunque en
menor proporcion que el carácter « semilla de color amarillo

Tercera ley de mendel

Los caracteres que se heredan son independientes entre si y se combinan al azar al pasar a la
descendencia, manifestandose en la segunda generacion filial o F2. En este caso, Mendel
selecciono para el cruzamiento plantas que diferian en dos caracteristicas, por ejemplo, el color de
los guisantes (verdes o amarillos) y su superficie (lisa o arrugada). Observo que la primera
generaci6n estaba compuesta unicamente por plantas con guisantes amarillos y lisos,
cumpliendose la primera ley. En la segunda generaci6n, sin embargo, aparecian todas las posibles
combinaciones de caracteres, aunque en las proporciones siguientes: 1/16 parte de guisantes
verdes y rugosos, 3/16 de verdes y lisos, 3/16 de amarilios y rugosos y por ultimo 9/16 de amarillos
y lisos. Esto le indujo a pensar que los genes eran estructuras independientes unas de otras y, por
lo tanto, que unicamente dependia del azar la combinaci6n de los mismos que pudiese aparecer en
la descendencia.

La Genetica despues de Mendel: Teoria Cromosomica de la herencia

A principios de este siglo, cuando las tecnicas para el estudio de la celula ya estaban
suficientemente desarrolladas, se pudo determinar que los genes estaban formados por acido
desoxirribonucleico

(ADN) y ademas se encontraban dentro de unas estructuras que aparecian en el citoplasma justo
antes de cada proceso de divisi6n celular. A estas estructuras se las denomin6 cromosomas,
termino que

significa « cuerpos coloreados », por la intensidad con la que fijaban determinados colorantes al
ser teñidos para poder observarlos al microscopio. Ademas se vio que estos aparecian repetidos
en la

celula formando un numero determinado de parejas de cromosomas homologos caracteristico de


cada especie, uno de los cuales se heredaba del padre y el otro de la madre. Tambien se pudo
comprobar que el numero de pares de cromosomas no dependia de la complejidad del ser vivo. Asi
por ejemplo, en el hombre se contabilizaron 23 pares de cromosomas, mientras que en una planta
como el trigo podian encontrarse hasta 28 pares.

En base a estos descubrimientos y a los estudios realizados en 1906 por el zoologo


estadounidense Thomas H. Morgan sobre los cromosomas de la mosca del vinagre (Drosophila
melanogaster), se pudo

elaborar la teoria cromos6mica de la herencia donde se establecia de manera inequívoca la


localizac16n fisica de los genes en la celula. Gracias a esta teoria se pudo dar tambien una
explicaci6n definitiva a

los casos en los que no se cumplian con exactitud las leyes de Mendel anteriormente citadas.

De manera parecida a Mendel, Morgan se dedic6 a cruzar de manera sistematica diferentes


variedades de moscas del vinagre. Estas moscas ofrecian muchas ventajas con respecto a los
guisantes ya que

tienen un ciclo vital muy corto, producen una gran descendencia, son faciles de cultivar, tienen tan
s6lo cuatro cromosomas y presentan caracteristicas hereditarias facilmente observables, como el
color de

los ojos, la presencia o ausencia de alas, etcetera.

Herencia de genes ligados

La investigacion con las moscas del vinagre proporcionó a Morgan evidencias de que los
caracteres no eran heredados siempre de forma independiente tal y como habia postulado Mendel
en su tercera ley. Supuso que al haber solo cuatro cromosomas diferentes, muchos genes debian
estar «ligados», es decir, debian compartir el mismo cromosoma y por ello mostrar una Clara
tendencia a transmitirse juntos a la descendencia. No obstante, las conclusiones realizadas por
Mendel años atras, no dejaban de ser correctas para los genes «no ligados». Solo la casualidad
hizo que Mendel escogiese para los cruces de sus plantas caracteristicas determinadas por genes
situados en cromosomas distintos.

Herencia ligada al sexo

En uno de sus primeros experimentos, Morgan cruzó un macho de moscas de ojos rojos
(normales) con una hembra que habia encontrado casualmente y que tenia los ojos blancos. Las
moscas que obtuvo en esta primera generacion o F1 tenian todas los ojos rojos, tal y como se
describe en la primera ley de Mendel. Pero cuan-

do cruzó entre si estas moscas para obtener la segunda generación filial o F2, descubrió que los
ojos blancos solo aparecian en las moscas macho y ademas como un caracter recesivo. Por
alguna razón, la caracteristica «ojos blancos» no era transmitida a las moscas hembras,
incumpliendo, al menos parcialmente, la segunda ley de Mendel. Al mismo tiempo, en sus
observaciones al microscopio, Morgan habia advertido con extrañeza

que entre los cuatro pares de cromosomas de los machos, habia una pareja en la que los
cromosomas homólogos no tenian exactamente la misma forma. Era como si a uno de ellos le
faltase un trozo, por lo que a partir de ese momento a esta pareja se la denomin6 cromosomas XY.
Sin embargo en la hembra, la misma pareja de cromosomas homólogos no presentaba ninguna
diferencia entre ellos, por lo que se la denominó cromosomas XX. Morgan pensó que los
resultados anómalos del cruzamiento anterior se debian a que el gen que determinaba el color de
los ojos se encontraba en la porción que faltaba en el cromosoma Y del macho.

Por tanto, en el caso de las hembras (xx) al existir dos alelos, aunque uno de ellos fuese el
recesivo (ojos blancos), el carácter manifestado era el normal (ojos rojos). En los machos, sin
embargo, al disponer Únicamente de un alelo (el de su único cromosoma X), el carácter recesivo si
que podia ser observado. De esta manera quedaba tambien establecido que el sexo se heredaba
como un carácter más del organismo.

Bioquímica
Bioquímica es el estudio químico de los seres vivos, especialmente de la estructura y función de
sus componentes químicos específicos, como son las proteínas, carbohidratos, lípidos y ácidos
nucléicos, además de otras pequeñas moléculas presentes en las células.

La Investigación en Bioquímica
El comienzo de la bioquímica puede muy bien haber sido el descubrimiento de la primera enzima,
la diastasa, en 1833 por Anselme Payen. En 1828, Friedrich Wöhler publicó un artículo acerca de la
síntesis de urea, probando que los compuestos orgánicos pueden ser creados artificialmente, en
contraste con la creencia, comúnmente aceptada durante mucho tiempo; de que la generación de
estos compuestos era posible sólo en el interior de los seres vivos. Desde entonces, la bioquímica
ha avanzado, especialmente desde la mitad del siglo XX con el desarrollo de nuevas técnicas
como la cromatografía, la difracción de rayos X, marcaje por isótopos, y el microscopio electrónico.
Estas técnicas abrieron el camino para el análisis detallado y el descubrimiento de muchas
moléculas y rutas metabólicas de las células, como la glicólisis y el ciclo de Krebs.

Hoy en día los avances de la bioquímica son usados en cientos de áreas, desde la genética hasta
la biología molecular, de la agricultura a la medicina. Probablemente una de las primeras
aplicaciones de la bioquímica fue la producción de pan usando levaduras, hace 5000 años.
El pilar fundamental de la investigación bioquímica se centra en las propiedades de las proteinas,
muchas de las cuales son enzimas. Por razones históricas la bioquímica del metabolismo de la
célula ha sido intensamente investigado, importantes líneas de investigación actuales incluyen el
código genético (ADN, ARN, síntesis de proteínas, dinámica de la membrana celular y ciclos
energéticos).

Categorías
La bioquímica está conformada por la química de sustancias que pueden ser catalogadas
fundamentalmente en estos epígrafes:

Esquema de una tipica célula animal con sus orgánulos y estructurasCarbohidratos


Lípidos
Proteínas y Aminoácidos
Ácidos nucléicos
Se divide en varias ramas tales como:

Bioquímica Celular (o Biología Celular): Es una área de la Biología, dónde prima el estudio de la
célula, es decir, el comportamiento interno, como por ejemplo, los organelos y las señales de
comunicación intracelular, y su comportamiento externo, como señales extracelulares y
intercelulares (a otras células), así como también su entorno (Matriz Extracelular (MEC o en Inglés
ECM)), el cual juega un papel muy importante en su funcionamiento y comportamiento.

Representación esquemática de la molécula de ADN, la molécula portadora de la información


genética.Genética: Es un área de la Biotecnología dónde se estudia principalmente el DNA (en
español ADN), y el RNA (ARN), para entender la función de cada una de sus partes, su
codificación, para luego intentar identificar ciertas patologías, rasgos, e incluso modificarlas.
Laboratorio Clínico: Área propia de la Bioquímica, en la cual se analizan el Perfil Bioquímico de las
personas para diagnosticar algún tipo de patología médica.
Inmunología: Área de la Medicina, la cual se interesa por la reacción del organismo frente a
organismos como las bacterias y otros como los Virus (que no son organismos (no son seres
vivos)). todo esto tomando en cuenta la reacción y funcionamiento del Sistema Inmune en cada
una de las intervenciones de estos extraños en el organismo humano.
Farmacología: Área de la Química-Framacéutica, que estudia como afectan ciertas sustancias
Químicas al funcionamiento celular en el organismo.
BIOELEMENTOS

Son los elementos químicos que forman parte de la materia viva. Son todos los del sistema
periódico salvo los gases nobles y tierras raras.

Se clasifican en 3 grupos
• PRIMARIOS: son los más abundantes, en conjuntos representan >96% y son [C, H, O, N,
P, S]. Todos ellos son elementos electronegativos, pueden compartir electrones (ENLACES
COVALENTES). De todos, el más importante es el C (puede formar cadenas carbonadas.)
• SECUNDARIOS: (<4%). INDISPENSABLES; aquellos que están en todos los sv. [Ca, Na,
Mg, K, Cl, Fe, Si, Cu, Mn, Br, F, I]...VARIABLES; no están en todos los sv [Al, Br, Zn, Ti, V,
Pb]
• OLIGOELEMENTOS: (<0,1 %), Ejemplo. Co; Cianocobalamina, vitamina b12,
imprescindible para fabricar hemoglobina.

2. BIOMOLÉCULAS

Compuestos químicos que forman parte de los sv.

Hay de dos tipos: A - INORGÁNICAS: son comunes para los sv y para los seres inertes: gases
respiratorios, agua y sales minerales.

B - ORGÁNICAS: son exclusivos de los sv. Glúcidos, lípidos, proteínas, biocatalizadores y ácidos
nucleicos.

3. los gases respiratorios

Son el O2 y el CO2. En la mayor parte de los animales, los líquidos circulatorios transportan O2y
CO2, pero estos gases son pocos solubles en agua (son apolares y el agua es polar), entonces
son transportados. Unidos a sustancias transportadoras (pigmentos respiratorios)(HEMOGLOBINA,
pigmento rojo que tiene Fe y existe en los vertebrados. Hemoglobina + O2 = OXIHEMOGLOBINA,
está presente en la sangre oxigenada. Transporta el O2 desde los centros respiratorios hasta cada
una de las células. Si, HEMOGLOBINA + CO2 = CARBOXIHEMOGLOBINA, y forma la sangre no
oxigenada, y transporta el CO2 desde las células hasta los centros respiratorios.)

En algunos animales el líquido circulatorio no transporta gases (insectos), éstos animales tienen un
sistema de tráqueas que llevan O2 directamente a cada una de las células. En los vegetales los
gases respiratorios nunca son transportados por la SAVIA.

4. el agua en los seres vivos

Todos los sv tienen agua

PROPIEDADES DEL AGUA:

Agua 18 umas (líquido, debería ser gas)

Masa molecular

CO2 44 umas (gas)

Es líquida a Tª ambiente, H2O; H y O enlaces covalentes, y los electrones que se comparten están
más cerca del O que del H (O-, H+). La molécula de agua se comporta como un dipolo. Entre los
distintos dipolos de agua se establecen unos enlaces “débiles”, llamados puentes de hidrógeno,
éstos enlaces dificultan el libro movimiento de las moléculas de agua, que por tanto deja de ser un
gas y se comporta como un líquido.
PUENTE DE HIDR”GENO. Son enlaces débiles, establecidos entre el H electropositivo y cualquier
grupo electronegativo.


IONIZA las sustancias disueltas en ella (polares)
• Tiene un elevado calor específico(cantidad de calor que hay que suministrar a la sustancia
para elevar su Tª.
• Tiene elevado calor de vaporización.
• El agua es un líquido incompresible.
• El agua es la única sustancia que al disminuir la Tª, su volumen aumenta, por tanto, la
densidad del hielo es inferior a la del agua líquida.

LAS FUNCIONES DEL AGUA

• Actuar como esqueleto hidrostático [líquido amniótico]


• El agua nos e congela casi nunca, de forma que, el hábitat acuático permanece líquido.
• Función termorreguladora. Además ayuda a bajar la Tª corporal, mediante la sudoración.
• Todas las reacciones químicas del organismo (METABOLISMO), tienen lugar en disolución
acuosa.
• El agua es el disolvente universal de las sustancias polares, y se utiliza como medio de
transporte.

5. sales minerales.

En los sv se hallan de 2 formas.

Se hallan precipitadas, en forma de sales (CaCo3,concha molusca, f. Estructural

Disueltas en H2O, disociadas en Iones.

CATIONES (+) Na+, K+, Ca++, Mg++, Fe++, Fe+++

ANIONES (-) Cl-, carbonatos, fosfatos- , nitratos-, sulfatos-

PROPIEDADES DE LAS DISOLUCIONES.

I DIFUSI”N, reparto equitativo de las moléculas de soluto entre los de disolvente, son homogéneas.
II ”SMOSIS, El paso de disolvente, a través de una membrana semipermeable, desde una
disolución hipotónica, hacia otra hipertónica, hasta alcanzar el equilibrio osmótico (disoluciones
isotónicas). Una disolución es hipotónica con respecto a otra que será hipertónica, cuando la 1ª
tiene una concentración inferior a la 2ª. Cuando las 2 disoluciones tienen la misma concentración,
son isotónicas. La osmosis es muy importante en los sv, porque la mayor parte de las membranas
biológicas, son semi impermeables.[hipo-, hiper+]

III ACIDEZ - ALCALINIDAD (pH), Una disolución es ácida cuando es capaz de ceder protones. Una
disolución es básica cuando es capaz de captar protones.

Para medir el grado de acidez-alcalinidad, hay una escala logarítmica, llamada “escala del pH”
(pH>7 alcalina; pH<7 ácida; pH =7 neutra)

El organismo necesita trabajar dentro de unos límites del pH, “pH fisiológico.” Para mantener el pH
dentro de los límites del pH fisiológico, hay unas sustancias llamadas DISOLUCIONES TAMP”N,
cada disolución tampón consta de una pareja de componentes.

componente levemente ácido

componente levemente básico (=alcalino)

• pH > pH fisiológico ALCALOSIS

actúa el componente levemente ácido alcalosis compensada

• pH < pH fisiológico ACIDOSIS

actúa el componente levemente básico acidosis compensada

6. glúcidos (=hidratos de carbono)(=carbohidratos)

CARACTERÍSTICAS GENERALES

• Compuesto formado por C, H y O


• Generalmente posee sabor dulce
• Suelen ser sustancias energéticas
• Compuestos polares
• Solubles en agua
6.1 monosacáridos

Son glúcidos no hidrolizables [(HIDR”LISIS: rotura química de una molécula en otras más
pequeñas por la acción del agua)]

Químicamente se nombran “Polihidroxialdehidos” (=aldosas) ó Polihidroxicetonas (=cetosas)

¿Polihidroxialdehidos? Muchos OH más grupo aldehído. En cada C tiene un OH excepto en uno,


que se llama carbono carbonilo, y ahí hay un grupo aldehído.

¿Polihidroxicetonas? Muchos OH más grupo cetona. En cada C tiene un OH excepto en uno, que
se llama carbono carbonilo, y ahí hay un grupo cetona.

• 2 compuestos son isómeros cuando tienen la misma fórmula empírica pero distinta fórmula
desarrollada. •

Hay monosacáridos de 3 C, se llaman triosas (aldotriosas, cetotriosas)

Hay monosacáridos de 5 C, se llaman pentosas (aldopentosas, cetopentosas)

Hay monosacáridos de 6 C, se llaman hexosas (aldohexosas, cetohexosas)

Las osas (aldosas y cetosas) del mismo número de átomos de C son compuestos isómeros.

TRIOSAS

•ALDOTRIOSAS •CETOTRIOSAS

GLICERALDEHIDO DIHIDROXIACETONA

C3H6O3 C3H6O3

Decimos que un C es asimétrico cuando está unido a 4 sustituyentes distintos.


Siempre que un compuesto tenga al menos un C asimétrico, aparece un tipo especial de isomería
llamada ESTEROISOMERIA, con dos isómeros.

• De forma D: aquel isómero que tiene el OH del C asimétrico, más alejado del principio a la
derecha

• De forma L: aquel isómero que tiene el OH del C asimétrico más alejado del principio, a la
izquierda.

PENTOSAS

•ALDOPENTOSAS •CETOPENTOSAS

RIBOSA RIBULOSA

La D-RIBOSA es un componente

del ARN.

La D-RIBULOSA interviene en la fotosíntesis captando CO2 atmosférico.

Hay un compuesto derivado de la D-RIBOSA, no es una aldopentosa y una cetopentosa que es un


dexiazúcar. Y se llama D-2-DESOXIRIBOSA[(*)]

HEXOSAS

•ALDOHEXOSAS

GALACTOSA

GLUCOSA MANOSA

•CETOHEXOSAS

FRUCTOSA

6.2 disacáridos

Son glúcidos hidrolizables, formado por monosacáridos (HOL”SIDOS), concretamente por 2


monosacáridos unidos entre sí a través de un enlace O-glucosídico con desprendimiento de una
molécula de H2O.

MIRAR LOS EJEMPLOS DE DISACÁRIDOS EN EL CUADERNO

6.3 polisacáridos

Glúcidos hidrolizables (ósidos), formados sólo por monosacáridos, en concreto por muchos a
través de enlaces O-glucosídicos.
TIPOS: • Polimetizado (repetidos sucesivamente) en forma

Son fáciles de hidrolizar ya que los sv poseemos enzimas para romper los enlaces O- glucosídicos.
Todo polisacárido polimerizado en forma tiene una función energética.

• Polimetizados en forma , son difíciles de hidrolizar porque normalmente no poseemos enzimas


para degradar esos enlaces. Son estructurales, dan soporte.

EJEMPLOS:

Almidón polímero de -D-glucosa, al ser , tiene función energética, es de origen exclusivamente


vegetal. La enzima que hidroliza el almidón se llama AMILASA, y está en todos los sv. Es
producido en la fotosíntesis, en los cloroplastos.

Glucógeno polímero de -D-glucosa, = energética. Su origen es exclusivamente animal, es


fabricado en los músculos ye n el hígado. Representa una reserva de glucosa.

Celulosa polímero de -D-glucosa, = estructura, forma parte de todas las paredes celulares de
todas las células vegetales. La enzima que hidroliza la celulosa se llama CELULASA y es muy rara
en los sv. Únicamente la poseen algunos protozoos.

Quitina es un polímero de -N-acetil glucosamina, = estructural, es el compuesto nitrogenado más


abundante en la naturaleza, forma parte de la pared celular de hongos. Y sobretodo forma el
exoesqueleto de artrópodos (invertebrados con patas articuladas) [cangrejo]

6.4 heteróxidos

Glúcidos hidrolizables formados por monosacáridos y otras sustancias (AGLUC”N). Dependiendo


de la naturaleza del aglucón hay diversos tipos de heteróxidos.

• GLUCOLÍPIDOS son los que tienen como aglucón un lípido (glúcido + lípido)

• GLUCOPROTEINAS como aglucón una proteína

7.lípidos

• Características generales
o Formado por C, H, y O
o HETEROGENEIDAD, química y funcional
o Compuestos apolares (insolubles en agua pero solubles en disoluciones apolares
7.1 ácidos grasos

Son ácidos orgánicos (grupo carboxilo -COOH) de número par de átomos de carbono y de cadena
larga (a partir de 8C)

• DOS TIPOS
o Saturados = sin dobles enlaces. Son sólidos a tª ambiente
o Insaturados = al menos 1 doble enlace. Son líquidos a tª ambiente

7.2 Grasas (=acilglicéridos)

Lípidos saponificables (producen jabones) sencillos, originados al “ESTERIFICAR” 3 ácidos grasos


con glicerol [[glicerol = propanotriol]]

[(ESTERIFICAR unir mediante puentes de oxígenos o enlaces éster)]

Hay dos tipos de grasa; SATURADAS aquellas que poseen ac. Grasos saturados. Son sólidas a tª
ambiente. Se llaman genéricamente mantecas (=sebos) y suelen proceder de animales
HOMEOTERMOS. Su ingestión excesiva, eleva los niveles de colesterol.

;INSATURADAS aquellas que poseen ac. Grasos insaturados. Son líquidos a tª ambiente. Se
llaman genéricamente aceites y proceden generalmente de vegetales y de animales
POIQUILOTERMOS.

¿PARA QUE SIRVEN LAS GRASAS?

• Son sustancias de reserva energética.


• Actúan como aislantes térmicos.
• Son apolares, actúan como impermeables.
• Producen jabones cuando reaccionan con los hidróxidos (SAPONIFICACI”N)

7.3 CERAS (=CÉRIDOS)


Lípidos saponificables, sencillos, originados por un ácidos graso esterificado con un monoalcohol
de cadena larga (>8C)

- Propiedades de las ceras:

• Son fuertemente APOLARES .

• Son moléculas de gran tamaño.

• Sólidas a tª ambiente.

- Funciones

• Una propiedad de las ceros, Son impermeabilizantes.

• No son energéticas.

• Se utilizan como sustancias defensivas.

• Pueden ser estructurales.

7.4 fosfolípidos

Lípidos saponificables, complejos, formados por 1 alcohol (puede ser glicerol), 2 ac. Grasos, 1
ácido fosfórico y 1 alcohol nitrogenado.

• Los FOSFOLÍPIDOS son moléculas anfipáticas en las que coexisten porciones polares y
apolares.
• Son componentes fundamentales del sistema nervioso.

Glicerol

ac. graso

P ácido fosfórico

Alcohol nitrogenado

7.5 glucolípidos

Lípidos saponificables, complejos, formados por un alcohol (que puede ser glicerol) uno o dos ac.
Grasos y 1 glúcido (que puede ser mono o disacárido)

Los glucolípidos son sustancias anfipáticas, son componentes del sistema nervioso.

monosacárido

7.6 propiedades de las moléculas anfipáticas.


• En disolución acuosa se orientan dé forma que se origina una MICELA - BICAPA en la cuál
las porciones apolares(hidrofóbicas) quedan hacía el interior de la bicapa y las polares
(hidrofílicas) hacía el exterior. La existencia de la micela - bicapa origina 2 medios acuosos,
uno externo y otro interno.
o El EXTERNO sería el extracelular

Por lo cuál se originan

o El INTERNO sería el intracelular

las membranas celulares, es decir todos los lípidos anfipáticos son lípidos de membrana.
(MICELAfigura espacial en forma de esfera)

Toda membrana celular está formada por lípidos anfipáticos.

* MEDIO ACUOSO INTRACELULAR

+ MEDIO ACUOSO EXTRACELULAR

7.7 TERPENOS

Lípidos in saponificables (no jabones), no derivados de ac. Grasos. Originados a partir de la


polimerización (repetición sucesiva) del isopreno (2 metil 1,3 butadieno)

Es APOLAR porque no tiene OH sueltos.

Son todos de origen vegetal.

7.8 esteroides

Lípidos in saponificables, no derivados de ac grasos, derivados del ESTERANO

esterano

• VITAMINA D favorece la calcificación ósea


• HORMONAS SEXUALES aquellas que tienen relación con los caracteres sexuales.
• SALES BILIARES son producidas en el hígado y sirve para EMULSIONAR las grasas en el
duodenos.
• COLESTEROL imprescindible para dar consistencia a las membranas celulares. El
colesterol en la sangre se asocia con proteínas formando LIPOPROTEÍNAS.
Colesterol -HDL ”colesterol bueno”(envía el colesterol al hígado para su eliminación)

Colesterol -LDL malo, se deposita en las arterias

“ ” -VLDL// produciendo una placa sólida, “ATEROMA”, que provoca dificultades circulatorias
formando aterosclerosis, la ingestión excesiva de grasas saturadas eleva los niveles “de colesterol
malo”

7.9 icosanoides

Lípidos in saponificables, derivados de un ácido graso de 20 C (ICO = 20 C).

Hay muchos icosanoides, los más comunes se llaman PROSTAGLANDINAS, los efectos de estos
icosanoides son muy variables.

• Reducen la presión arterial


• Favorecen la secreción de mucus gástrico
• Provocan reacciones inflamativas y dolorosas
• Eleva la tª corporal (fiebre)

Su síntesis se ve inhibida por el ácido acetilsalicílico.

8. proteínas

Compuestos orgánicos formados por C, H, O y N. Pueden tener P, S y metales. Son


macromoléculas formadas por la polimerización de unidades más pequeñas llamadas aminoácidos.
Son polares.

8.1 aminoácidos

Compuestos orgánicos que poseen: grupo carboxilo (-COOH)(ácido)

grupo amino (-NH2)

Fórmula general: H

NH2 C COOH

R cualquier cadena carbonada, variando el grupo R, se obtienen distintos aminoácidos (aa).

En las proteínas hay un total de 20 aminoácidos (aminoácidos proteicos)

EJEMPLOS: Si R=...

H GLICINA

CH3 ALANINA

CH2OH SERINA
Los aminoácidos son POLARES. Disueltos en agua están ionizados. El grupo ácido cede un protón
que capta el grupo amino

NH3+ C COO-

• ¿Cómo se unen los aminoácidos entre sí?

Se unen mediante un enlace P. EPTÍDICO (enlace AMIDA) establecido entre el grupo ácido de un
aminoácido y el amino del siguiente con desprendimiento de una molécula de agua. Si se unen dos
aminoácidos se forma un DIPÉPTIDO, 2; tripéptido, 4; tetrapéptido... muchos; se forma una
POLIPÉPTIDO.

8.2 estructura de las proteínas

PRIMARIA

Secuenciación lineal de aminoácidos (aa). Tiene una serie de propiedades.

• Molécula lineal con dos extremos


o C-terminal [aquel aminoácido que tiene el grupo ácido libre.]
o N-terminal [aquel aminoácido que tiene el grupo amino libre]
• Molécula secuenciada (=ordenada( que se nombra siempre empezando por el N-terminal.
• Molécula específica [(cada especie tiene sus propias proteinas distintas de las de
otras)(incluso dentro de una misma especie cada individuo tiene proteínas distintas de las
de cualquier otro)] Si un individuo recibe directamente proteinas procedentes de otro, no
las reconoce como propias y elabora una reacción de rechazo. Excepcionalmente los
gemelos monocigóticos son genéticamente idénticos y tienen las mismas proteínas.

E. SECUNDARIA

Plegamiento Espacial REGULAR de la estructura primaria. Se estabiliza mediante enlaces no


covalentes (“débiles”)

- hélice

-lámina (=lámina plegada)

E. TERCIARIA

Plegamiento espacial de la estructura secundaria. Se estabiliza con enlaces no covalentes.

GLOBULAR. Son químicamente activas y solubles en agua.

FIBROSA. De forma alargada, químicamente inactivas e insolubles en agua (ESTRUCTURAL)


Llamamos DESNATURALIZACI”N a la desestabilización (=ROTURA) de la estructura secundaria y
de la estructura terciaria. Por ejemplo: calor y ciertas sustancias químicas. Una proteína
desnaturalizada es una proteína infuncional.

E. CUATERNARIA

Sólo la poseen aquellas proteínas formadas por más de una cadena y consiste en la disposición
espacial de cada una de esas cadenas.

8.3 clasificación de las proteínas

Según su composición química

Proteínas formadas sólo por AMINOÁCIDOS [=HOLOPROTEÍNAS]

GLOBULARES

FIBROSAS

Por aminoácidos y “algo más”[=HETEROPROTEÍNAS]

Grupo proteico (aa)

G. prostético (otras sustancias)

GLUCOPROTEINAS heteroproteínas cuyo grupo prostático es un glúcido

Lipoproteínas heteroproteínas cuyo grupo prostático es un lípido

Nucleoproteínas heteroproteínas cuyo grupo prostático es un ácido nucleico.

fosfoproteinas heteroproteínas cuyo grupo prostático es un ácido fosfórico

cromo proteínas heteroproteínas cuyo grupo prostático es un pigmento

Según su función.

ESTRUCTURALES: Aquellas que dan soporte.

Queratina fibroina (consistencia en la seda) osteína (tejido óseo)

CONTRÁCTILES: Aquellas que realizan un trabajo mecánico.

Actina y Miosina

DEFENSIVAS: Aquellas que protegen a un sv

Anticuerpos: (=GLOBULINAS) llamamos antígeno a toda sustancia extraña que el organismo no


reconoce como propia. Un anticuerpo es una proteína, que el organismo fabrica de forma
específica frente a un determinado antígeno, utilizando el mecanismo de la inmunidad.
TRANSPORTADORAS

Hemocianina Hemoglobina

HOMEOSTÁTICAS: Aquellas que colaboran en la homeostaisa (=mantenimiento de las


condiciones de equilibrio en el medio interno)

Fibrinógeno (disuelta en la sangre, en contacto con una herida se transforma en fibrina (sólida) que
contribuye a formar un coágulo.

T”XICAS

Toxina botulínica (proteína mortal) [lata abollada hacía afuera]

HORMONALES

CATALÍTICAS: (catálisis, aceleración de las reacciones químicas) ENZIMAS.

Insulina: hormona hipoglucemiante

NUTRITIVAS: Aquellas que se utilizan como fuente de aa.

9.biocatalizadores

Sustancias químicas que aceleran la velocidad de las reacciones bioquímicas

• Prescindible desde el punto de vista químico


• Imprescindible desde el punto de vista biológico.

Varios tipos

• Oligoelementos
• Hormonas sustancias producidas por las células endocrinas que actúan a través del
sistema circulatorio. Químicamente 2 tipos.
o Proteicas (insulina)
o Esteroides (sexuales)

Hay hormonas en vegetales [FITOHORMONAS]; y en animales, tanto invertebrados como en


vertebrados.

• Vitaminas conjunto químicamente sencillos derivados de glúcidos o lípidos. Son lábiles


(=se estropean con facilidad, se deterioran con el calor y con la oxidación.) Son
compuestos esenciales para los animales (esencial = imprescindible y no lo pueden
fabricar). Han de ser ingeridas en la dieta procedentes de alimentos (de origen vegetal y
microbiana).
o ACCI”N; no se sabe cuál es su función, algunas colaboran con las enzimas y se
llaman COENZIMAS. Son necesarias en pequeñas dosis, en exceso :
HIPERVITAMINOSIS, en déficit: HIPOVITAMINOSIS y produce enfermedades.
• ENZIMAS
o Proteínas catalíticas (definición)
o Estructura química: son heteroproteínas con dos partes. Una parte formada por
aminoácidos y otra parte formada por otra sustancias.
 Inorgánicas cofactor
 Orgánicas coenzimas

Cofactor (inor)

ENZIMA COMPLETA = aminoácidos +

Coenzima (org)

o ¿Cómo actúan las enzimas?

A(sustrato) B (producto) // Con y sin enzima. Con enzima la velocidad es mayor, porque la enzima
se une de forma específica al sustrato haciéndolo que el salto energético para pasar de A, a B sea
menor.

“CADA ENZIMA S”LO RECONOCE UN DETERMINADO SUSTRATO”

Enzima 1

S2 E2

o Nomenclatura de la enzimas

Sufijo -ASA

Aludiendo a la acción que cataliza (HIDROLASA)

Prefijo Aludiendo al sustrato al que actúa (LIPASA)

Aludiendo al sustrato sobre el que actúa y a la reacción que cataliza (GLUTÁMICO-


DESHIDROGENASA[actúa sobre el ácido glutámico, quitándole hidrógeno.

o Factores que influyen en la acción enzimáticas

 Superficie de contacto. Enzima-Sustrato(E - S)[cuanto mayor sea la


superficie de contacto E-S mayor será la actividad enzimática]

 PH: cada enzima tiene un pH óptimo de actuación y unos límites por


encima o por debajo de los cuales la enzima deja de actuar.

 Temperatura: cada enzima tiene una Tª óptima de actuación y unos límites


por encima o por debajo de los cuales la enzima deja de actuar.

10. ácidos nucleicos


Compuestos formados por: C, H, O, N y P . Se hallan fundamentalmente en el núcleo de la célula.
Son macromoléculas (la ostia) formada por la polimerización de unidades más pequeñas llamadas
NUCLE”TIDOS.

10.1 los nucleótidos

Es un compuesto formado por:

-una pentosa-D-RIBOSA - un ácido fosfórico

-D-2-DESOXIRRIBOSA

ADENINA

-Una base nitrogenada PÚRICA GUANINA

TIMINA

PIRIMIDÍNICA CITOSINA

LIRACILO

Ver cuaderno -D-Ribosa + Uracilo + Ac. fosfórico

Los nucleótidos se unen entre sí de la siguiente forma. El C3 del primer nucleótido pierde un OH, el
ac fosforico del C5 del 2º nucleótido pierde un OH, se forma un puente de oxígeno y se desprende
1 H2O.

Ver el ejemplo del cuaderno.

10.2 ácido desoxirribonucleico (ADN)

• El ADN es una molécula formada por nucleótidos que poseemos.


o -D-2-desoxirribosa

o 1 molécula de ácido fosfórico

Púrica A, G

o 1 base nitrogenada

Pirimidinica, T, C [Uracilo NO]

El ADN humano tiene una longitud de 3.000.000.000 de pares de nucleótidos.

¿Qué estructura espacial tiene el ADN?

En 1957 unos científicos con CHARGAFF observaron que todos los ADN de todos los sv tienen
una característica común. La cantidad de [A] = [T] [(concentración de adenina o la de timina)] y hay
[G]=[C].
En 1953, WATSON y CRICK establecieron el modelo de doble hélice de ADN.

La molécula de ADN está formada por una doble cadena de nucleótidos plegada espacialmente en
forma de hélice. Las dos cadenas son complementarias, si en una hay nucleótido de ADENINA, en
la complementaria hay nucleótido de TININA, y lo mismo con GUASINA y CITOSINA. Ambas
cadenas son antiparalelas, es decir, poseen la misma dirección pero sentidos opuestos (3'5' y 5'3').
Lo que hace que las bases nitrogenadas queden hacía el interior de la doble hélice y las
desoxirribosas y los ácidos fosfóricos hacía el exterior.

La doble hélice se estabiliza mediante puentes de hidrógeno establecidos entre A-T(2) y G-C(3).

Si se destruyen los puentes de hidrógeno, el ADN se desnaturaliza.

En el ADN están contenidos los caracteres hereditarios y es exclusivo de cada sv.

10.3 el ácido ribonucleico. (=ARN)

-Sus nucleótidos contienen: Púricas =A, G

1 ácido fosforico + D-Ribosa + Base nitrogenada

Pirimidinica: C, U [timina NO]

-El ARN puede estar dentro y fuera del núcleo de la célula y su misión es “interpretar y ejecutar las
órdenes escritas ene l ADN.”Hay diversos tipos de ARN

o ARNn (ARN nucleolar) nucleolo y se cree que sirve para fabricar ribosomas.

o ARNr (ARN ribosómico) forma parte de los ribosomas (citoplasma), es el lugar


donde se fabrican las proteínas.

o ARNm (ARN mensajero) “copia” las órdenes contenidas en un fragmento de ADN y


las saca al citoplasma, en concreto a los ribosomas, para su posterior utilización.
El mensajero es fabricado en el núcleo, copia el ADN según el principio de
complementariedad de las bases y es utilizado en el ribosoma, e inmediatamente
después es destruido[ADN A T C G]

[ARN U A G C]
o ARNt (ARN transferente) está en el citoplasma y su misión es aportar aa para
fabricar proteínas según las órdenes contenidas en el mensajero con las
equivalencias del código genético.

•GLUCOSA - monosacárido más abundante, es el azúcar de la sangre (la única) y el azúcar de


algunas frutas.

•GALACTOSA - es un componente de la lactosa.

•FRUCTOSA - es el azúcar de todas las frutas.

Normalmente los monosacáridos se hallan ciclados, gracias ala formación de un puente de


oxígeno(que sacas de la fórmula) entre el C carbonilo y el penúltimo de la cadena lineal

Ciclos metabólicos
Etimológicamente el origen de la palabra metabolismo procede del griego metabolé (μεταβολισμος)
que significa cambio, transformación.

El metabolismo es el conjunto de reacciones bioquímicas común en todos los seres vivos, que
ocurren en las células, para la obtención e intercambio de materia y energía con el medio ambiente
y síntesis de macromoléculas a partir de compuestos sencillos con el objetivo de mantener los
procesos vitales (nutrición, crecimiento, relación y reproducción) y la homeostasis.

Cada una de las sustancias que se producen en este conjunto de reacciones metabólicas se
denominan compuestos endógenos o metabolitos.

Los objetivos del metabolismo son:


Obtención de energía química que es almacenada en los enlaces químicos fosfato del ATP.
Transformación de sustancias químicas externas en moléculas utilizables por la célula.
Construcción de materia orgánica propia a partir de la energía y de las moléculas obtenidas del
medio ambiente. Estos compuestos orgánicos almacenan gran cantidad de energía en sus
enlaces.
Catabolismo de estas moléculas para obtener la energía que necesitan las células para realizar
diferentes tipos de trabajo biológico.
Tradicionalmente se ha separado el metabolismo en anabolismo y catabolismo, según las
necesidades energéticas de las células o las necesidades de síntesis de determinadas moléculas:
Estos dos procesos, catabolismo y anabolismo integran el metabolismo celular.

Tipos de metabolismo:
Metabolismo autótrofo fotosintético: La fuente de carbono procede del anhídrido carbónico (CO2) y
la energía de la luz solar.
Metabolismo autótrofo quimiolitotrófico: La fuente de carbono también procede del CO2 pero la
energía procede de reacciones químicas exotérmicas inorgánicas.
Metabolismo heterótrofo: La fuente de carbono procede de moléculas orgánicas y la energía
procede de la oxidación de estás moléculas orgánicas absorbidas a través de la membrana celular.
Dentro del metabolismo energético se distinguen distintas etapas con una secuencia de reacciones
bioquímicas concretas o rutas metabólicas y que reciben un nombre específico según el
compuesto que originan o la función que integran, como por ejemplo:
Glucólisis.
Ciclo de Krebs.
Fosforilación oxidativa.
Metabolismo basal. Es el consumo de energía de una persona acostada y en reposo. Representa
el gasto energético necesario para mantener las funciones vegetativas (respiración, circulación,
etc.).
La glucólisis o glicólisis o ruta de EMBDEN-MEYERHOF es la secuencia metabólica consistente en
diez reacciones enzimáticas, en la que se oxida la glucosa produciendo dos moléculas de piruvato
y dos equivalentes reducidos de NADH o NADH, que al introducirse en la cadena respiratoria,
producirán dos moléculas de ATP.

La glucólisis es la única vía en los animales que produce ATP en ausencia de oxígeno. Los
organismos primitivos se originaron en un mundo cuya atmósfera carecía de 02 y por esto, la
glucólisis se considera como la vía metabólica más primitiva y por lo tanto, está presente en todas
las formas de vida actuales. Es la primera parte del metabolismo energético y en las células
eucariotas ocurre en el citoplasma.

En esta fase, por cada molécula de glucosa se forman 2 ATP y 2 NADH


La reacción global de la glucólisis es:
Glucosa + 2 NAD+ + ADP + 2 Pi → 2 NADH + 2 piruvato + 2 ATP + 2 H2O + 4 H+

Partes de la glucólisis
La glucólisis se divide en dos partes:

En la primera parte la glucosa es fosforilada con el gasto energético de una molécula de ATP y la
presencia de una enzima glucoquinasa para dar glucosa-6-fosfato, que se isomeriza para formar
fructosa-6-fosfato con la ayuda de la enzima fructofosfoisomerasa. A partir de la fructosa-6-fosfato y
con gasto de otra molécula de ATP se forma la fructosa-1,6-bifosfato. Hasta esta parte se gastan
dos moléculas de ATP. Esta es una reacción irreversible en la que intervienen la glucosa y el ATP,
además de ser indispensable el catión Mg2+ y consta de cinco reacciones bioquímicas.
En la segunda parte de la glucólisis, la fructosa-1,6-bifosfato se escinde en dos moléculas:
gliceraldheído-3-fosfato y dihidroxiacetona-fosfato, por medio de una enzima aldolasa. La
dihidroxiacetona-fosfato se transforma en gliceraldheido-3-fosfato por lo que la glucólisis se
multiplica por dos a partir de aquí. El gliceraldheído-3-fosfato, libera un electron que es aceptado
por un NAD+ (que se transforma en NADH); mediante esta reacción la molécula acepta a un Pi.
Este mismo P, en el siguiente paso es liberado para formar una molécula de ATP (2 por cada
molécula de glucosa. En el noveno paso, se obtiene una molécula de ac. pirúvico mediante una
reacción en la que se forma otro ATP. El rendimiento total de la glucólisis es de 2 ATP y 2 NADH
(que dejarán los electrones H en la cadena de transporte de electrones para formar 3 ATP por cada
electrón). Con la molécula de ac. pirúvico, mediante un paso de oxidación intermedio (en el que un
grupo acetilo se une a la CoA, formando acetilCoA), se puede entrar al Ciclo de Krebs (que junto
con la cadena de transporte de electrones se denomina "respiración".
El ciclo de Krebs o del ácido cítrico, se compone de una serie de reacciones químicas que ocurren
en la vida de la célula y su metabolismo. Fue descubierto por Sir Hans Adolf Krebs (1900-1981).
Dicho ciclo se produce dentro de la mitocondria en las eucariotas y en el citoplasma en las
procariotas. Es parte del desarrollo del metabolismo en los organismos aeróbicos (utilizando
oxígeno como parte de la respiración celular). Los organismos anaeróbicos usan otro mecanismo,
como es la glucólisis, otro proceso de fermentación independiente al oxígeno.

El ciclo de Krebs es una ruta anfibólica, catabólica y anabólica a la vez. Su finalidad es oxidar el
acetil-CoA (acetil coenzima A) que se obtiene de la degradación de hidrato de carbono, ácidos
grasos y aminoácidos a dos moléculas de CO2.

El balance final es:

Acetil-CoA + 3 NAD+ + FAD + GDP + Pi + H2O --> 2 CO2 + 3 NADH + 3H+ + FADH2 + GTP + CoA

Salud y enfermedad
Salud es una condición que todos tratamos de alcanzar y mantener, pues de ella depende- en gran
medida- nuestra felicidad.

El continuo proceso de adaptación al medio ambiente que vive nuestro organismo - del cual te
hemos hablado en números anteriores- está precisamente destinado a lograr un adecuado estado
de salud.

En esta oportunidad, Icarito te enseñará algo más sobre este tema y su concepto contrario:
enfermedad.

Ven con nosotros en este saludable recorrido...

Bienestar completo

Los términos salud y enfermedad tienen significados más trascendentes que los que habitualmente
se les asignan.

Ello se refleja en la definición que ha hecho la Organización Mundial de la Salud (OMS) de salud:
"un estado de completo bienestar físico, mental y social, y no sólo la ausencia de enfermedad o
afecciones".

Esto nos recuerda que el hombre no es sólo es un ser físico, sino también un ser psíquico y social.

Por lo tanto, enfermedad - además de estar postrado en cama- incluye la pérdida, alteración o
desorden de las óptimas condiciones tanto físicas, como mentales y sociales.

Preocupación social
Un organismo sano permite al hombre realizar normalmente sus actividades.

Mientras mejor es el estado de salud de una comunidad, mayor es la aptitud para el trabajo. Hay
más producción, más fuentes de riqueza y, por consiguiente, más bienestar general.

Por ello, la salud es una preocupación de toda la sociedad por prevenir y combatir las
enfermedades.

En este contexto, la definición de la OMS nos hace mirar la salud desde una perspectiva más
amplia que simple la ausencia de afecciones o enfermedades.

Así, podemos decir que tampoco se alcanza un adecuado estado de salud cuando - por ejemplo- la
vivienda es mala, escasean los alimentos, hay poca agua potable, no existe una convivencia
armoniosa, o el modo de vida está marcado por la adicción a los tóxicos, o el estrés y la angustia
imperan en la vida de las personas
Clasificación de las enfermedades

El hombre ha luchado constantemente contra la enfermedad, buscando la prolongación de la vida y


defendiendo la salud.

En la segunda mitad del siglo XIX, ilustres científicos consagraron su vida a esta tarea. Entre ellos,
Eduardo Jenner, Louis Pasteur, Roberto Koch, Joseph Lister.

El biólogo francés Louis Pasteur (1822-1895) destaca brillante porque fue el primero en formular
una hipótesis sobre la existencia de los microbios, y demostrar su validez. Por ello es considerado
uno de los más grandes investigadores de la ciencia moderna.

Distintos tipos

Día a día se descubren nuevas enfermedades y sus causas, así como también los remedios y las
vacunas para combatirlas.

Los cientificos han clasificado las dolencias de acuerdo a distintos tipos, que te detallamos a
continuación:

Enfermedades nutricionales: se producen cuando la alimentación es inadecuada, ya sea en calidad


o en cantidad. Por ejemplo la desnutrición y la obesidad.
Enfermedades infectocontagiosas: causadas por microbios patógenos. Por ejemplo cólera, Sida y
tuberculosis.
Enfermedades degenerativas: originadas por la degeneración o desgaste de un órgano. Ejemplo:
arterioesclerosis.
Enfermedades funcionales: caracterizadas por el anormal funcionamiento de algún o algunos
órganos del cuerpo. Por ejemplo, bocio y enanismo.
Enfermedades mentales: son perturbaciones en la conducta de la persona y, por lo tanto, alteran
su equilibrio psicológico. Por ejemplo, esquizofrenia y neurosis.
Enfermedades traumáticas: originadas por golpes o accidentes. Por ejemplo, fracturas y esguinces.
Enfermedades hereditarias: causadas por factores que residen dentro del propio organismo, por
herencia de los padres. Por ejemplo, la hemofilia.
Enfermedades alérgicas: se deben a la acción conjunta de un factor interno y otro factor externo,
ocasionando el fenómeno de la alergia. Esta puede ser de naturaleza respiratoria, cutánea o
digestiva. Por ejemplo: asma y edema.
Enfermedades profesionales: son aquellas que se desarrollan como resultado del ejercicio de una
determinada actividad o profesión. Por ejemplo: las lesiones pulmonares de los mineros y los
problemas auditivos de los radioperadores.
Agentes patógenos

De los distintos tipos de enfermedades que te presentamos, queremos que conozcas algo más de
aquellas de tipo infectocontagioso, por la influencia que ellas han ejercido en el quehacer humano.

Los agentes que producen las enfermedades infectocontagiosas o transmisibles, se presentan


como una gran variedad de microorganismos o gérmenes patógenos, llamados así pues generan
estos males.

La mayoría de los agentes patógenos son parásitos (viven a expensas de otro). Algunos de ellos
no causan daño, por lo tanto, aunque estén presentes en un organismo no aparecen síntomas de
enfermedad.

Además, pese a que gran parte de las enfermedades infecciosas están relacionadas con la
presencia de parásitos, no todos los parásitos son patógenos, y no todos los patógenos son
parásitos.

En las siguientes páginas, revisaremos algunos de los agentes patógenos más conocidos en la
actualidad.

Los Virus

Una de las mejores maneras de aprender qué son los virus es analizando las caraterísticas que los
diferencian de otros agentes patógenos.

Los virus no presentan una estructura celular, no se mueven por sí solos y no pueden desarrollar
actividades vitales en forma independiente.

Cuando los virus se reproducen, lo hacen dentro de las células vivas a las cuales infectan. Se
puede decir que los virus son parásitos obligados: viven sólo cuando invaden células vivas, y
pueden ser cultivados sólo en tejidos vivos.
Los virus tienen un tamaño pequeñísimo. El diámetro de aquellos que son responsables de las
enfermedades humanas varía entre las 15 y 300 millonésimas de milímetro.

¿Son los virus seres vivos?

Esta es una interrogante que muchos científicos se han planteado.


Ello se debe a que los virus presentan características tanto de la materia viva como de la materia
inerte.
De la materia viva: los virus se reproducen. Para existir requieren células vivas, y por eso son
necesariamente parásitos.
De la materia inerte: son capaces de cristalizar. Cuando se les extrae de la materia que parasitan,
pueden permenecer así definitivamente, pero si entran de nuevo a una célula viva, vuelven a
reproducirse.
Algunos biólogos consideran a los virus como una etapa de transición entre lo vivo y lo no vivo.
Algunas enfermedades humanas producidas por los virus son: gripe, paperas, poliomelitis, rubéola,
sarampión, sida y viruela.

Las bacterias

Corrientemente la palabra bacteria se asocia a enfermedad; sin embargo las bacterias patógenas
constituyen una minoría del total.

Las bacterias son organismos microscópicos unicelulares, que se encuentran en cualquier parte en
la cual pueda existir vida y -la mayoría de las veces- en gran número.

Para el hombre, no todas las bacterias son patógenas. Muchas de ellas son útiles para actividades
como la agricultura y en el propio organismo humano. Por ejemplo, la flora bacteriana del intestino,
permite digerir la celulosa de algunos alimentos, y las llamadas saprófitas, realizan la putrefacción
de las materias orgánicas.

Atendiendo a su forma, las bacterias pueden ser clasificadas en:

Esféricas o cocos.
Alargadas o bacilos.
Espiriladas o espirilos.
La razón por la cual muchas bacterias son parásitas es que ellas carecen de clorofila, por lo que no
pueden sintetizar sus nutrientes. Por lo mismo son patógenas, causando la enfermedad por la
producción de una sustancia tóxica llamada toxina.

Las condiciones indispensables para que las bacterias puedan reproducirse son: que tengan
alimento, que haya oxígeno, que exista la temperatura adecuada - idealmente 37 grados Celsius-,
y que exista humedad y oscuridad.

De este modo, la bipartición de ellas se produce, en término medio, una vez cada 30 minutos. Así,
en el lapso de 24 horas, las bacterias podrían llegar en un organismo a la fabulosa cantidad de 75
billones de descendientes.

La naturaleza lucha fuertemente contra este avasallador avance, ya que -de lo contrario- el mundo
estaría lleno de bacterias. Lo hace

limitando las sustancias que las nutren y mediante la producción -por parte de las mismas
bacterias- de excreciones que disminuyen su posterior desarrollo.
Conozcamos otros gérmenes

Además de los virus y las bacterias, existen otros gérmenes patógenos que queremos que
conozcas.

Ellos son las rickettsias, los hongos y los protozoos, responsables de molestas afecciones al
organismo humano.

Rickettsias

Se trata de un pequeño grupo de microorganismos causantes de algunas enfermedades


infecciosas.

Las rickettsias son de menor tamaño que las bacterias y más grandes que los virus. Poseen
características de estos dos grupos. Son unicelulares, y se reproducen por fisión (igual que las
bacterias), pero sólo pueden crecer y reproducirse en células vivas (como los virus).

Su nombre proviene del apellido del bacteriólogo estadounidense Howard T. Rickett, quien murió
afectado de tifus petequial, del cual es responsable la rickettsia provazeki.

Otras enfermedades humanas producidas por estos microorganismos son el tifus exantemático
-transmitido por los piojos-, el tifus murino- trasmitido por ratas y pulgas-, la fiebre maculosa-
trasmitida por las garrapatas-, y la viruela rickettsial - transmitida por ácaros-.

Hongos
Son microorganismos celulares vegetales, sin clorofila. Esto los convierte en heterótrofos, lo que
quiere decir que no sintetizan su alimento y dependen de otros seres para sobrevivir.

En algunos casos, los hongos sintetizan sustancias de gran utilidad, como la penicilina.
Generalmente viven sobre sustancias en descomposición.

Las afecciones producidas por las especies patógenas que existen en este grupo de
microorganismos se llaman micosis.En el hombre dañan de preferencia la piel, por ejemplo, el pie
de atleta y la tiña.

Protozoos

Son animales unicelulares y su tamaño varía entre dos y veinte micrones, movilizándose por medio
de pseudópodos, cilios o flagelos.

Las formas de los protozoos son tan variadas, que no podría hacerse una caracterización de ellos.

Ejercen su acción patógena sobre animales superiores y en el hombre.

Muchas de las llamadas enfermedades tropicales son producidas por los protozoos. Por ejemplo la
malaria -transmitida por el mosquito Anopheles-, la denominada enfermedad del sueño -transmitida
por la mosca tse tse-, y la enfermedad de Chagas -transmitida por la vinchuca.

La cadena infecciosa: tres eslabones fundamentales

Para todos los microbios patógenos es esencial la existencia de un medio de propagación desde la
fuente infecciosa hasta el individuo, al cual llegan por determinadas "puertas de entrada".

Esto nos lleva a distinguir los tres eslabones fundamentales de la cadena infecciosa: fuente
infecciosa, medio de propagación y hombre sano.

a) Fuente infecciosa: es aquella de donde provienen los microbios. Puede ser un hombre o un
animal. Por ejemplo, en los casos de la rabia y la peste bubónica podemos identificar como fuentes
infecciosas al perro y la rata, respectivamente. Y en el de la tuberculosis, el hombre mismo.

b) Medios de propagación: es el o los agentes que hacen posible el traslado de los microbios
desde la fuente infecciosa hasta el hombre sano. Por ejemplo, el aire.

Algunos microbios patógenos se transmiten por contacto directo, como ocurre con las
enfermedades de transmisión sexual, entre ellas la sífilis, la gonorrea y el Sida.
El alimento y el agua son dos de las vías más importantes de propagación de gérmenes. Males
como la fiebre tifoidea, el cólera, la diarrea y la hepatitis, se originan de esta forma.

c) Hombre sano: organismo sin problema que es invadido por los microbios patógenos.

Etapas de una enfermedad

Uno de los aspectos fundamentales de las enfermedades infectocontagiosas es su carácter


evolutivo. Es decir, el mal evoluciona desde una fase de incubación a otra de invasión y
localización, hasta llegar a una fase final. Esta puede ser el restablecimiento de la salud o la
muerte del paciente.

Analicemos las etapas de una enfermedad cuando ésta se supera.

Período de incubación: comprende desde la entrada de los gérmenes al organismo hasta la


aparición de los primeros síntomas. En esta etapa se multiplican los microbios en el interior del
cuerpo.
Período de desarrollo: hay una lucha entre el microbio patógeno y el organismo. Aparecen los
síntomas propios de la enfermedad.
Período de convalecencia: el organismo se recupera lentamente. En esta etapa son necesarios
una adecuada alimentación y bastante reposo.

Defensas orgánicas: el organismo da la pelea

El organismo humano tiene tres barreras básicas para combatir las enfermedades
infectocontagiosas: la piel y las mucosas (externas e internas), la sangre y los órganos linfáticos.

La piel es el revestimiento externo del organismo, incluyendo sus salientes y entrantes. Su espesor
varía entre dos y cinco milímetros, y está compuesta por dos capas fundamentales: la epidermis o
externa y la dermis o interna.
La epidermis mide aproximadamente 1 milímetro. Sus células externas están muertas y constituyen
una serie de laminillas superpuestas, que forman una barrera para impedir la penetración de los
microbios.

La dermis posee -entre otras estructuras- vasos sanguíneos, vasos linfáticos, glándulas
sudoríparas, glándulas sebáceas y bulbos pilosos (raíces de los pelos).

Las mucosas son membranas que tapizan las cavidades externas de nuestro organismo. Secretan
una sustancia viscosa llamada mucus. En las vías respiratorias, las mucosas están provistas de
cilios vibrátiles. Estos se mueven para rechazar y empujar hacia el exterior sustancias y partículas
ajenas a nuestro organismo. Dichas sustancias y partículas sirven de vehículo a agentes
patógenos.
La cantidad de mucus secretado aumenta en los estados infecciosos o en las inflamaciones como
por ejemplo, en gripes o inflamaciones en las vías respiratorias.

La sangre está constituída por dos partes: una líquida y otra figurada. Para cumplir con su labor
defensiva, cuenta con dos mecanismos, que son la fagocitosis y la reacción antígeno-anticuerpo.

Los órganos linfáticos están diseminados por todo el cuerpo, y por ellos circula la linfa. Si las
bacterias llegan a penetrar en ellos son detenidas por los filtros que constituyen los ganglios
linfáticos. En los ganglios linfáticos, las bacterias son atacadas por los glóbulos blancos, retenidas
y fagocitadas. Si la infección es muy grande, los ganglios se inflaman y duelen.
La inmunidad puede ser definida como la capacidad que tiene el organismo para resistirse a la
infección por microorganismos patógenos.

Pueden distinguirse dos tipos de inmunidad:

Inmunidad natural: es aquella con la cual el individuo nace. Se produce por los anticuerpos que la
madre transfiere al hijo, durante el embarazo, a través de la placenta. También se llama inmunidad
innata.
Inmunidad adquirida: puede dividirse en activa y en pasiva.
a) Inmunidad activa: surge cuando el organismo crea anticuerpos como consecuencia de alguna
enfermedad o por vacunación.

b) Inmunidad pasiva: se produce cuando los anticuerpos son suministrados al organismo por medio
de sueros. Esta inmunidad es temporal, porque después de un tiempo el cuerpo elimina dichos
anticuerpos.

• Psicología
Psicología del griego psique (ψυχη): alma y logos (λογος): tratado, ciencia. Literalmente significaría
ciencia del alma, sin embargo, contemporáneamente se le conceptualiza como el miestudio de:

El comportamiento de los organismos individuales en interacción con su ambiente.


Los procesos subjetivos de los individuos.
Los procesos de comunicación desde lo individual a lo microsocial.
En cuanto a la metodología utilizada, la Psicología ha discurrido tanto por caminos científicos como
no-científicos. Dentro de los caminos científicos, han existido tradicionalmente dos opciones de
investigación:

La psicología entendida como ciencia básica o experimental, enmarcada en la tradición positivista,


y que utilíza un método científico de tipo cuantitativo, a través de la contrastación de hipótesis, con
variables cuantificables en contextos experimentales, y apelando además a otras áreas de estudio
científico para ejemplificar mejor sus conceptos.
El intento de comprender el fenómeno psicológico en su complejidad real ha intentado, desde una
perspectiva más amplia, la utilización de metodologías cualitativas de investigación, que
enriquecen la descripción e interpretación de procesos que, mediante la experimentación clásica,
resultan más difíciles de abarcar, sobre todo en ámbitos clínicos.
La mayor parte de los estudios se realizan en seres humanos. No obstante, es habitual el estudio
del comportamiento de animales, tanto como un tema de estudio en sí mismo (ver cognición
animal, etología), como para establecer medios de comparación entre especies (psicología
comparativa), punto que a menudo resulta controversial.

A pesar de la diversificación de métodos por los cuales la Psicología ha intentado validarse como
disciplina científica, en el intento de comprender la complejidad de los seres humanos, muchas
veces los psicólogos o profesionales del área han considerado útiles desarrollos teóricos y
prácticos que escapan al conocimiento de tipo científico, llegando algunas escuelas a criticar lo
limitante que puede llegar a ser el método científico cuando se utiliza como forma única de estudiar
los fenómenos psicológicos (un caso típico al respecto es el de la psicología humanista)

Desde otra perspectiva, la Psicología constituye un campo de estudios intermedio entre "lo
biológico" y "lo social". En cuanto a lo biológico, aunque la Psicología no implica sino el estudio
fenomenológico del sistema nervioso, progresivamente y en la medida que la comprensión del
funcionamiento del cerebro y la mente han avanzado, los aportes de la neurobiología se han ido
incorporando a la investigación psicológica, a través de la neuropsicología y las neurociencias
cognitivas.

En cuanto a lo social, la Psicología difiere de la sociología, la antropología, la economía y las


ciencias políticas, en la medida en que su objeto de estudio es el comportamiento individual y el de
grupos pequeños en interrelación, más que de grupos medianos o grandes colectividades de
individuos (culturas o sociedades).

Historia de la Psicología
Cronología
1879 estructuralismo (Willhelm Wundt) Primer laboratorio de psicología

Si bien la Psicología empezó a ser reconocida como disciplina científica distinguible de la filosofía o
la fisiología a fines del Siglo XIX, tiene sus raíces en periodos más antiguos de la historia de la
humanidad.

Psicología Premoderna
En el Papiro Ebers (aprox. 1550 AC) es posible encontrar una breve descripción de la depresión
clínica. Aunque el texto está lleno de encantamientos y recetas mágicas para alejar demonios y
otras supersticiones, también es evidencia de una larga tradición de práctica empírica y
observación de este tipo de problemáticas.

A pesar del origen griego de la palabra "psicología", en la cultura helénica sólo existen referencias
a la psique (esto es, alma o espíritu), como una fuente de preocupación de los filósofos post-
socráticos (Platón y Aristóteles en particular) ante cuestionamientos acerca de si el hombre, desde
el nacimiento, contaba con ciertas conocimientos y habilidades, o si esto lo adquiría con la
experiencia. Asímismo, los cuestionamientos se relacionaban con la capacidad del hombre para
conocer el mundo.

Estas interrogantes, desde su introducción, contaron con un gran número de aportaciones de la


filosofía, que intentaban dar cuenta de la naturaleza de la psique, sus aptitudes, y los contenidos
adquiridos. No fue sino hasta el siglo XVI que hubo planteamientos pre-científicos al respecto.
René Descartes, por ejemplo, como filósofo racionalista, afirmaba que el cuerpo funcionaba como
una máquina mecánica perfecta, distinguiéndola del alma porque esta era independiente y única,
con algunas ideas innatas que serían determinantes para ordenar la experiencia que los individuos
tendrían del mundo. Por otra parte, Thomas Hobbes y John Locke, de la tradición empírica inglesa,
le daban un lugar preponderante a la experiencia en el conocimiento humano, destacando
especialmente el papel de los sentidos para recoger información del mundo físico, de lo cual se
desprendía el concepto de verificación de las ideas correctas por contrastación con la información
sensorial.

A pesar de estos aportes, en el siglo XVI la psicología aún era considerada algo así como parte de
la teología, pero la aparición de las disciplinas médicas impulsó la concepción de lo espiritual (lo
relacionado con el alma) en términos de funciones cerebrales. Aquí puede situarse las referencias
de Thomas Willis a la psicología en "La doctrina del Alma", y su tratado de anatomía de 1672 "De
Anima Brutorum" ("Dos discursos acerca del alma de los brutos").

Fue el siglo XIX el escenario en que aparecieron los primeros intentos de adoptar métodos
específicos para ahondar en el conocimiento del comportamiento humano, que es lo que hoy se
entiende como psicología científica, hecho que históricamente es asociado al alemán Willhelm
Wundt (1832-1920). Este profesor de medicina y fisiología de la Universidad de Leipzig fundó en
aquella ciudad el primer Instituto de Psicología en el mundo, y el primer laboratorio científico de
Psicología, en el año 1879. Se considera que este hecho marca la fundación de la Psicología como
ciencia formal.

Las Escuelas de fines del s. XIX y comienzos del s. XX


Wundt y sus discípulos se concentraron en el estudio de los contenidos de la consciencia,
mediante el método de la introspección rigurosa, que consistía en la descripción de las
percepciones y sensaciones que el observador tenía ante la estimulación ([[visiónen Psicología y
las primeras escuelas psicológicas empezaron a establecerse: el estructuralismo de Wundt y
Titchener, y el funcionalismo del médico y filósofo William James. El primero se concentraba en la
forma y la estructura de los contenidos de la conciencia, y el segundo en los actos y funciones de
la mente.

En 1920, John Watson publicó el ensayo que definiría la escuela que se conocería como
conductismo, y para entonces el neurólogo Sigmund Freud ya había avanzado en la concepción de
su propia escuela, el psicoanálisis. Dichas escuelas siguieron desarrollándose, la primera con el
trabajo de B.F. Skinner y la segunda a través del trabajo de autores como Carl Gustav Jung, Anna
Freud, Melanie Klein, Erik Erikson y Erich Fromm.

Funciones psicológicas
Tradicionalmente, estas funciones han sido estudiadas por la Psicología cognitiva, y se han
planteado para cada uno diferentes modelos que explican sus mecanismos a la base. Pero, al
menos en su definición, se puede describir lo siguiente:

Atención: Es comprendida como el mecanismo mediante el cual el ser humano hace conscientes
ciertos contenidos de su mente por sobre otros. El estudio de la atención ha desarrollado modelos
para explicar cómo un organismo dirige este proceso de focalización consciente de varios objetos
en forma simultánea o secuencial. Una de las principales preguntas en el estudio de la atención es
sobre la utilidad de este mecanismo (no es necesario para aprender la mayoría de las cosas que
aprendemos) y su relación con el estudio de la conciencia
Percepción: Es entendida como el modo en que el cuerpo y la mente cooperan para establecer la
conciencia de un mundo externo. Algunas de las preguntas en el estudio de la percepción son: cuál
es la estructura mental que determina la naturaleza de nuestra experiencia, cómo se logra
determinar las relaciones entre los elementos percibidos, cómo discriminamos entre los distintos
elementos para nombrarlos o clasificarlos, cómo se desarrolla durante el ciclo vital esta capacidad.
Memoria: Es el proceso por el cual un sistema, en este caso el ser humano, retiene información,
para luego poder utilizar. Permite independizar al organismo del entorno (de la información
existente en el momento) y relacionar distintos contenidos. El estudio de la memoria ha intentado
comprender la forma en que se codifica la infomación, en que se almacena, y la manera en que se
recupera para ser usada.
Pensamiento: Puede ser definido por el conjunto de procesos cognitivos que le permiten al
organismo elaborar la información percibida o almacenada en la memoria. Este ámbito ha
implicado clásicamente el estudio del razonamiento y la resolución de problemas
Lenguaje: Se puede definir como un sistema representativo de signos y reglas para su
combinación, que constituye una forma simbólica de comunicación específica entre los seres
humanos. En relación a este tema la investigación ha girado en relación a preguntas como: qué
tipo de reglas se establecen para el manejo del lenguaje, cómo se desarrolla el lenguaje en el
transcurso del ciclo vital, qué diferencias hay entre el lenguaje humano y la comunicación en otras
especies, qué relación existe entre lenguaje y pensamiento.
Psicología del Aprendizaje
La Psicología del aprendizaje se ocupa de los procesos que producen cambios relativamente
permanentes en el comportamiento del individuo (aprendizaje). Es una de las áreas más
desarrolladas y su estudio ha permitido elucidar algunos de los procesos fundamentales
involucrados en el aprendizaje como proceso completo:

Habituación.
Sensibilización.
Condicionamiento clásico.
Condicionamiento operante.
Psicología Evolutiva o del Desarrollo
Centrada en el desarrollo del ser humano a través de las distintas etapas de la vida, la Psicología
del desarrollo busca comprender la manera en que las personas perciben, entienden y actúan en el
mundo y cómo esas percepciones van cambiando de acuerdo a la edad (ya sea por maduracion o
por aprendizaje). Dentro de esta área el foco de atención puede centrarse en el desarrollo físico,
intelectual o cognitivo, emocional, sexual, social, moral...

Los investigadores que estudian niños utilizan una serie de métodos únicos de indagación para
comprometerlos en tareas experimentales prediseñadas. Estas tareas a menudo semejan juegos y
actividades que resulten entretenidas para los niños, al mismo tiempo que útiles desde un punto de
vista científico.

Además del estudio del comportamiento de niños, los psicólogos del desarrollo también estudian a
individuos en otras etapas vitales, y principalmente, los momentos en que se producen las
transiciones entre una etapa y otra (por ejemplo, la pubertad, o la adolescencia tardía).

Psicología de la Personalidad
Durante todo el siglo XX los psicólogos se preocuparon por extender las concepciones ya
existentes, especialmente en medicina, sobre los tipos de contextura física y sus relaciones con
disposiciones comportamentales. A partir de este conocimiento se diseñaron varios modelos de
factores de la personalidad y pruebas para determinar el conjunto de rasgos que caracterizaban a
una persona. Hoy en día, la personalidad se entiende como un conjunto de rasgos relativamente
permanentes y estables en el tiempo, que caracterizan el comportamiento de un individuo. El
estudio de la personalidad sigue siendo vigente y dominado por el llamado modelo de cinco
factores de la personalidad: neuroticismo, extroversión, agradabilidad, apertura y conciencia.

Psicología del Arte


Campo de la psicología que estudia los fenómenos de la creación y de la percepción artística
desde un punto de vista psicológico. Aportes como los de Gustav Fechner, Sigmund Freud, la
escuela de la Gestalt (dentro de la que destaca el desarrollo de Rudolph Arnheim), Lev Vygotski y
Howard Gardner han sido cruciales en el desarrollo de esta disciplina.

Psicología: Ciencias Aplicadas

La Psicología Clínica es la aplicación de la psicología en la comprensión, tratamiento y asesoría de


la psicopatología, y temas relacionados con la salud mental o conductual. Tradicionalmente, la
psicología clínica está asociada a la consejería y a la psicoterapia, aunque algunos enfoques
modernos consideran una aproximación más bien ecléctica, incluyendo una diversidad de técnicas
terapéuticas. De manera usual, a no ser que trabajen en conjunto con psiquiatras, los psicólogos
clínicos no prescriben psicofármacos.

Los psicólogos clínicos trabajan principalmente con un modelo de práctica científico, en donde las
problemáticas clínicas se formulan en términos de hipótesis a ser comprobadas, a través de la
información recopilada de los encuentros con el paciente/cliente, que da cuenta de su estado
mental. Algunos psicólogos clínicos pueden enfocarse en el manejo clínico de pacientes con daño
cerebral, lo cual se conoce como neuropsicología clínica, la cual implica por lo general
entrenamientos adicionales de las funciones cerebrales comprometidas.

En el último tiempo, y particularmente en Estados Unidos, se ha producido una separación cada


vez mayor entre los psicólogos que realizan investigaciones académicas en el ámbito universitario
y los psicólogos clínicos especializados. Muchos psicólogos académicos creen que los clínicos
emplean terapias que se basan en teorías ya desacreditadas o sin evidencias de apoyo empírico
acerca de su efectividad. Por otro lado, los clínicos creen que los académicos ignoran la
experiencia adquirida por el hecho de tratar directa y continuamente con pacientes/clientes. Estos
desacuerdos han dado como resultado la formación de la Sociedad Americana de Psicología
(American Psychological Society, APS) por parte de los psicólogos dedicados a la investigación,
para distinguirse de la Asociación Americana de Psicología (American Psychological Asociation,
APA).
Psicología Educativa y Educacional
La psicología educativa es una ciencia interdisciplinar que se identifica con dos campos de
estudios diferentes, pero interdependientes entre sí. Por un lado, las ciencias psicológicas, y, por
otro, las ciencias de la educación.

Podríamos decir que se refiere al estudio de aquella conducta que resulta un aprendizaje para el
individuo.Está muy relacionada con todos los aspectos del desarrollo humano. La psicología no
solo se ocupa del aprendizaje positivo, sino también del negativo.

Tiene funciones preventivas para orientar el desarrollo de las mejores potencialidades humanas de
la manera mas apropiada, y una gran importancia para el conocimiento de los principios
fundamentales, que tienen mucho valor para el ser humano y cuyo objetivo es estudiar la conducta
humana que debe representar una contribución valiosa en el hombre - en su vida cotidiana.

Mediante el estudio de la psicología educativa averiguamos los resortes que impulsan nuestro
desarrollo y nuestra conducta, así logramos conocer los factores que han intervenido o que
intervienen, beneficiosa o perjudicialmente en el desenvolvimiento de nuestras potencialidades

Psicología de las Organizaciones, Industrial o de los Recursos Humanos


La Psicología Organizacional trata de estudiar el comportamiento de las personas en su ambiente
de trabajo. Además de estudiar las organizaciones como un ente dinámico y en desarrollo, la
importancia de los grupos, del líder y de la motivación. Comportamiento Organizacional

Psicología Social de la Salud


Dentro del campo de la psicología social, destaca por su novedoso planteamiento, el estudio de los
procesos de salud desde una perspectiva psicosocial. A diferencia del enfoque clínico, centrado en
el individuo, la psicología social de la salud abre una discusión sobre los factores psicosociales
implicados en la adopción (o no) de conductas conducentes a la salud.
Enfoque teórico y representantes.
Este enfoque conductual se centra en la teoría cognitiva desarrollada por Bandura de la
Universidad de Standford a partir de conductismo social. Una vertiente europea se encuentra en la
línea de investigación que Ralf Schwarzer en la Universidad de Berlin. En España podemos
encontrar a José María León Rubio en la Universidad de Sevilla.

Psicología Comunitaria o Social-Comunitaria


Si bien existen múltiples definiciones disponibles se puede convenir que la Psicología Comunitaria
es un campo de especialización en el que se privilegia una óptica analitica que considera los
fenómenos de grupos, colectivos o comunidades a partir de factores sociales y ambientales, a fin
de realizar para ellos o con ellos acciones o influencias -planificadas o no-, orientadas al
mejoramiento de las condiciones de vida de los sujetos. La metodología que utiliza privilegia un
enfoque territorial, participativo para quienes están involucrados en sus procesos de intervención,
intentando generar cambios de largo plazo en los sistemas sociales en los que esos grupos,
colectivos o comunidades están insertos.

Si bien el uso de los conceptos psicología comunitaria y psicología social-comunitaria suelen


significar un mismo campo profesional, el nombre psicología social-comunitaria tiene su origen en
la necesidad de diferenciación disciplinar percibida por los grupos de profesionales psicólogos de
centroamérica y sudamérica a finales de los años setenta, en lo que comúnmente ha sido
denominado crisis de relevancia de la psicología social. Como bases fundamentales de esta
propuesta es posible identificar el trabajo en terreno, aplicado sobre problemas concretos in situ
(en el lugar de manifestación del fenómeno social), con un caracter participativo que permita la
involucración de diversos actores a nivel territorial resguardando el protagonismo de los sectores
mas carenciados en la búsqueda de sus propias soluciones.

Como ha sido planteado por sus diversos exponentes a partir de la década del ochenta en América
Latina, entre los que se cuentan Maritza Montero, Irma Serrano-García, Gerardo Marín e Ignacio
Martín-Baró (S.J.), entre muchos otros, sus principales referentes son la educación popular, la
investigación acción participante de Orlando Fals-Borda, la teología de la liberación, la sociología
militante, la tecnología social de Jacobo Varela, la sociología del desarrollo, el trabajo comunitario,
y las influencias de la psicología social aplicada europea de finales de los setenta.
Psicología Jurídica o Forense
La configuración de la Psicología Jurídica se fundamenta como una especialidad que desenvuelve
un amplio y específico ámbito entre las relaciones del mundo del Derecho y la Psicología tanto en
su vertiente teórica, explicativa y de investigación, como en la aplicación, evaluación y tratamiento.

Comprende el estudio, explicación, promoción, evaluación, prevención y en su caso,


asesoramiento o tratamiento de aquellos fenómenos psicológicos, conductuales y relacionales que
inciden en el comportamiento legal de las personas, mediante la utilización de métodos propios de
la Psicología Científica y cubriendo por lo tanto distintos ámbitos y niveles de estudio e
intervención:

Psicología Aplicada a los Tribunales.


Psicología Penitenciaria.
Psicología de la Delincuencia.
Psicología Judicial (testimonio, jurado).
Psicología Policial y de las Fuerzas Armadas.
Victimología.
Mediación.

Psicología Deportiva
La psicología del deporte es un área de especialización de la psicología, que forma parte de las
llamadas ciencias del deporte.
La Psicología del Deporte y de la Actividad Física es el estudio científico de los factores
psicológicos que están asociados con la participación y el rendimiento en el deporte, el ejercicio y
otros tipos de actividad física. Los avances en la psicologia del deporte han permitido la aplicacion
de estrategias cognitivas en el entrenamiento del deportista.

Psicología Militar
Nacida al finalizar el primer conflicto mundial en ocasión de las investigaciones psicofisiológicas
francesas, italianas y alemanas, principalmente en el campo de la selección de los aviadores,
extendida a las fuerzas norteamericanas en 1917 mediante el empleo de los celebres army test, la
psicología militar conocio una lenta evolucion durante el intervalo entre ambas guerras, para
generalizarse a partir de 1943 y conocer después de la Liberación, la etapa adulta de su desarrollo.

La mecanización extremada, así como la complejidad y variedad del armamento y de los medios
de transmisión, exigen la intervención de numerosos especialistas: mecanicos de precisión,
ajustadores, radio-telegrafistas, etc. Si se considera el gran numero de técnicos que reclama un
ejercito moderno y la necesidad de formarlos lo más rápidamente posible, se comprenderá que es
necesario afectar, de entrada, al recluta a la tarea que mejor le conviene. Ignorar deliberadamente
la preparación profesional que poseen ciertos reclutas al llegar al regimiento, sería contrario al
interés del ejército y del soldado.

La psicología militar tiene un rostro multiple. su actividad ha superado la selección para alcanzar la
función y el adiestramiento. Esos tres componentes de la adaptabilidad a la tarea serán superados
el día en que nazcan preocupaciones relativas al equilibrio afectivo del recluta y a la estructura del
grupo en que se inserta. La psicotecnia militar de 1917 se ha convertido en la psicología militar.

Psicología Infantil o Infanto-Juvenil


Estudio del comportamiento de los niños desde el nacimiento hasta la adolescencia, que incluye
sus características físicas, cognitivas, motoras, lingüísticas, perceptivas, sociales y emocionales.

Los psicólogos infantiles intentan explicar las semejanzas y las diferencias entre los niños, así
como su comportamiento y desarrollo, tanto normales como anormales. También desarrollan
métodos para tratar problemas sociales, emocionales y de aprendizaje, aplicando terapias en
consultas privadas y en escuelas, hospitales y otras instituciones.

Las dos cuestiones críticas para los psicólogos infantiles son: primero, determinar cómo las
variables ambientales (el comportamiento de los padres, por ejemplo) y las características
biológicas (como las predisposiciones genéticas) interactúan e influyen en el comportamiento; y
segundo, entender cómo los distintos cambios en el comportamiento se interrelacionan.

¿Qué estudia la psicología?

La conducta humana
¿Qué es la conducta?

Es todo lo que observamos del comportamiento humano.


¿Quién es el padre de la psicología?

Wilhelm Wundt (1879) Alemania. Era un fisiólogo y se interesó en el estudio de la mente. Creó el
primer laboratorio de psicología; estudiaba la mente con el método de introspección.
¿Cómo se le llama a su corriente?

Estructuralismo; es una corriente filosófica. Con un metrónomo veía lo que sentían las personas.
¿Quién es William James?

Un fisiólogo (Cambridge), se dedicó a ver como funcionan los retos, como sobreviven y se adaptan,
las características de la conciencia. Estudiaba el funcionamiento de la mente.
¿Cómo se llama su corriente?

Funcionalismo. Realiza un cuadro con las diferentes corrientes o escuelas de la psicología:

* Psicoanálisis
* Conductismo
* Cognoscotovismo
* Humanismo

Aplicación de las ideas de Freud (1938)

Descubrimiento del inconsciente. "Lo que impulsan nuestras acciones son los instintos
inconscientes primitivos" (Freud)
Su aplicación es tratar de hacer consciente al inconsciente

Sus métodos son:

* Asociación libre
* Análisis de Sueños

Watson le da el nombre.
Dice que se debe estudiar solo la conducta observable
Postula que todas las conductas que tenemos se nos han reforzado para hacerlas.
Ivan Pavlov creó el reflejo condicionado
Skinner - La caja de Skinner aporta los reforzadores.
Estudian el estímulo y la respuesta, no la mente.
Tuvo reacciones ante los demás psicólogos por lo que se crearon las escuelas cognoscitivistas y
humanistas.
Pasivos

Estudian cómo llegamos a conocer, en cómo formamos el conocimiento. Como funciona la mente.
Básicamente estudian el conocimiento.
Carl Rogers y Rollo May
Indigna el conductivismo: El ser humano es capaz de influir en la sociedad y cambiarla.
Activos

¿Cuáles son las metas de la psicología?


Describir, predecir, explicar y controlar el comportamiento.
¿Qué se necesita para llegar a las metas anteriores?

Observar, tests, comparación, análisis (estudio del caso), entrevistas, método científico… entre
otras.
¿Cuáles son los niveles de alcance en las investigaciones?

1. Exploratorio: Viendo que hay; explorando el campo.


2. Descriptivo: Se obtiene por medio de:
1. Observación directa o de campo
2. Dispositivos de evaluación: cuestionario, entrevista, pruebas
3. Estudios de caso.
3. Correlacional:
1. Relación entre dos variables
2. Medición cuantitativa y coeficiente de correlación (medida de relación entre 2 variables, va de -1
a +1)
3. Tests
4. Explicativo - Experimento
1. Pregunta investigación
2. Definición operacional de variables
3. Hipótesis
4. VI - ve (variable extraña, se controla) - VD
5. Formar teorías del comportamiento - provisionales

¿Qué se utiliza en la ciencia natural o básica?

Empirismo, determinismo, objetividad, precisión, parsimonia, experimental.


¿Qué se utiliza en las ciencias aplicada?

Psicología clínica, de orientación, psicoterapias, educativa, industrial, comunitaria, de la salud.


¿Cómo está conformado el sistema nervioso central (SNC)?

Por cerebro y médula (nervios, neuronas, etc.)


¿Cuáles son las funciones del SNC?

Emitir y recibir mensajes, y modificar el comportamiento


Realiza un esquema del sistema nervioso

SNC
SN
SN Somático: Todo lo que hacemos voluntariamente (caminar, etc.)
SN Periférico: Todo lo que hacemos a) Simpático: Adrenalina Involuntariamente
b) Parasimpático: Noradrenalina
¿Cuáles son los procesos inferiores?

Los comunes a los animales: respiración, dormir, etc. En el bulbo raquídeo y cerebelo.
¿Cuáles son los superiores?

Diferencia de los animales: voluntad, razonar, etc. En la corteza cerebral.


¿Cuál es la unidad del SN?

Las neuronas
¿Cómo llegan los estímulos al cerebro o a la médula ?

Por medio de las neuronas.


Explica la neurona

Fibra larga y delgada con ramificaciones por las que se desplazan las señales electroquímicas.
Consta de 3 partes: cuerpo celular, dendritas y axon.

* a) Cuerpo celular: Núcleo y componentes que ayudan a su conservación y alimentación.


* b) Dendritas: Ramificación por la cual recibe los estímulos.
* c) axon: Ramificación por medio de la cual sale el estímulo.
¿Cada neurona puede recibir estímulos de cuántas otras neuronas?

1.0000
¿Dónde se encuentran las 3/4 partes de las neuronas?

En el cerebro.
¿Cómo es la membrana de una neurona?

Semipermeable
¿Qué pasa cuando hay una estimulación de la membrana?

Se despolariza, es decir; deja entrar iones y salir otros.


¿Qué pasa cuando hay mayor despolarización?

Hay mayor potencial de acción, lo cual produce mas neuronas.


¿Qué es la mielina?

Vaina grasa que recubre al axon y facilita la conducción neuronal, ésta le proporciona aislamiento.
¿Cuáles son las funciones de las neuronas?

Son como cables que transmiten información eléctrica; como baterías, ellas mismas se recargan.
Escribe los tipos de neuronas que existen

* Sensoriales: Reciben el estímulo


* Motoras: Reciben el estímulo del sensorial y lo regresa.
* Asociación: Sintetiza la información y manda la acción.

Describe cada uno de los lóbulos de la corteza cerebral

* Lóbulo frontal: Encargados de planeación, pensamiento, sentimientos, personalidad, creatividad,


área de Broca (habla) - lóbulo frontal izquierdo.
* Lóbulos parietales: Está la zona somatosensorial.
* Lóbulos temporales: Área auditiva, área de Wernicke en donde está la comprensión del lenguaje.
* Lóbulos occipitales: Área visual.

¿Qué es la sinapsis?
La unión entre 2 neuronas. La neurona al terminar el axon no está pegado a la siguiente neurona y
el espacio es la hendidura sináptica. El impulso pasa por medio de los botones sinápticos por los
neurotransmisores que se encuentran en las vesículas sinápticas.
¿Qué es un neurotransmisor?

Son químicos. Hay aproximadamente 50; se dividen en inhibidores y activadores.


¿Qué hacen los neuroreceptores?

Captan el mensaje. El neurotransmisor llega a un específico neuroreceptor, que continúa con el


impulso o lo inhibe.
¿Quién recibe los impulsos nerviosos?

Las dendritas, por medio de los neuroreceptores.


¿Cómo se divide el cerebro?

En dos hemisferios unidos por el cuerpo calloso; son simétricos.


¿Qué hacen los hemisferios?

Controlan la parte opuesta del cuerpo.


¿Qué es lo que más controla las emociones?

La corteza; los instintos y emociones están en el paloencéfalo.


Escribe algunas de las cosas que controla el hemisferio izquierdo

Análisis de detalles, manejo de abstracciones, control del lenguaje, procesos lógicos, matemáticos
y lingüsticos, procesamiento de materiales secuenciales.
Escribe algunas cosas que controla el hemisferio derecho

Procesos cognitivos, espaciales, artísticos; tareas perceptuales, visualización de objetos en el


espacio, generación de imágenes, dibujo, reconocimiento de caras, apreciación musical, síntesis
de un todo a partir de detalles.
¿Qué sucede con las personas que tienen lesiones vasculares en el hemisferio izquierdo?

Se deprimen más; ya que se dice que las emociones positivas se producen en el hemisferio
izquierdo.
Escribe las 4 teorías que explican la manera en que se unen las funciones de los dos hemisferios

* Los 2 hemisferios comparten las funciones y se complementan.


* El cerebro dominante y al otro se le llama menor. El dominante controla al otro. Dice que la
conciencia radica en el hemisferio con lenguaje.
* Cualquiera de los hemisferios puede dominar la conciencia. Hay momentos en que se utiliza un
hemisferio dependiendo de las actividades.
* Hay estilos hemisféricos. Personas que prefieren un hemisferio y lo favorece.

¿Cuál es el sistema endocrino?

Sistema de las glándulas; regulación de funciones corporales junto con el sistema nervioso. Es otro
sistema de comunicación y regulación de los procesos orgánicos con que se envía información al
cerebro y se recibe de él. Trabaja con mensajes químicos = hormonas.
¿Cuáles son los tipos de glándulas que existen?

Endocrinas (directo a la sangre) y exócrinas (envían mensajes fuera del cuerpo como el sudor,
lágrimas, etc, tienen un conducto)
¿Cuál es la función del hipotálamo?

Controla el sistema endocrino; vigila la cantidad de hormonas en la sangre y envía mensajes para
corregir los desequilibrios por medio de la glándula Hipófisis o pituitaria que se encuentra en la
base del cerebro. Es la maestra porque controla a otras glándulas.
Escribe la función de la tiroides

Produce la hormona tiroxina, que principalmente regula el metabolismo (proceso por el cual
aprovechamos nutrientes y energía); si falta, se produce hipotiroidismo, cuando hay Híperactividad
= hipertiroidismo.
Explica la función de la paratiroides

Son 4 glándulas dentro de la tiroides, segregan la hormona parathormona; que regula la


excitabilidad del sistema nervioso mediante la regulación de iones que están en la neurona.
Explica las glándulas adrenales

Se encuentran sobre los riñones. Segregan dos hormonas: adrenalina (epinefrina) y nor-adrenalina
(noreprinefina). Activan la presión arterial con la adrenalina que acelera el ritmo cardiaco, y así se
aumenta la presión arterial.
¿Qué es la sensación?

Vivencia simple producida por la acción de un estímulo sobre un órgano sensorial.


¿Qué es la percepción?

Entrada en la conciencia de una impresión sensorial, llegada previamente a los centros nerviosos.
Interpretar sensaciones carentes de significado, ya cuando entra a la conciencia es la percepción.
Es la organización de información sensorial en un todo significativo.
¿Cuáles son las ramas en las que se pueden clasificar las propiedades organizativas innatas que
existen, según la teoría gestalt?

Organización perceptiva, constancia perceptiva, percepción de la profundidad e ilusiones visuales.


¿Cuáles son algunas exclusivas?

Estados emocionales, persona, forma de pensar, experiencia, motivación, aprendizaje cultural.


¿Qué es un estímulo?

Cualquier cambio del ambiente a la cual responde un organismo. Es estímulo esta afuera, ya que
entra se vuelve experiencia sensorial. El estímulo se puede medir por tamaño, intensidad y
duración.
¿Qué estudia la psicofísica?

Es el estudio psicológico cuya finalidad es establecer una relación cuantitativa entre los estímulos
provenientes del exterior con las experiencias sensoriales.
¿Qué es el umbral absoluto?

Cantidad mínima de energía que producirá una sensación.


¿Qué es el umbral diferencial ?

Alteración mínima de un estímulo que puede provocar un cambio en la sensación.


¿Cuál es la importancia de la percepción?

Es muy importante ya que todos los procesos psicológicos están relacionados con la percepción.
La acción tiene que ver con la percepción, también con la memoria, con brotes de emoción, con el
pensamiento, con la motivación, con los sentimientos, todos los procesos de nuestra vida
consciente e inconsciente están relacionados con la percepción. Si estamos conscientes de la
percepción de las demás personas es que estamos abiertos a lo que los demás perciben como su
realidad.
¿Cuáles tipos de percepción hay?

Los 5 sentidos y otros dos más: vestibular (equilibrio) y el de orientación y movimiento.


¿Cuál es el sentido más importante?

La visión
¿Qué dice la ley de Weber?

Mientras más grande o fuerte sea un estímulo, mayor será el cambio que se requiera para que un
observador note o repare en una diferencia apenas perceptible.
Da la definición de adaptación

Cuando un estímulo es permanente. Es la capacidad general de los estímulos de acostumbrarse a


un nivel constante de estimulación.
¿Qué dice la teoría de detección de señales?

Difícilmente percibimos un estímulo aislado. Estudia las relaciones matemáticas entre la


motivación, la sensibilidad y la sensación. Los umbrales de detección de señales consisten en
reconocer algún estímulo contra un fondo de señales.
¿Cuál es la diferencia entre las formas de organización innatas y las exclusivas?

En las innatas todos tenemos en común, mientras que las exclusivas hacen que percibamos la
realidad diferente.
¿Qué dice la teoría gestalt?

Estudian como es que organizamos los estímulos; como hemos organizado los estímulos.
Explica la organización perceptiva

* a) Figura - fondo: Podemos percibir diferente las sensaciones en el cerebro.


* b) Continuidad: Tendemos a ver una línea continua
* c) Proximidad: Si los estímulos están mas cerca, así lo organizamos.
* d) Semejanza: La similitud de los estímulos, hace que lo organices.
* e) Cierre. Tendemos a hacer un ciclo.

Explica la constancia perceptiva.

Tiene 4 características; es cuando hay un objeto que nunca va a cambiar, aunque el estímulo
cambie, nosotros lo seguimos viendo como algo constante.

* a) Constancia de brillo. Ej: camisa roja a la luz - roja obscuro = roja.


* b) Constancia de color
* c) Constancia de Tamaño
* d) Constancia de Forma. Si veo una moneda redonda por arriba y por un lado, seguimos
percibiendo la moneda.

Explica la percepción de profundidad.

* Los ojos se valen de 10 características para percibir la profundidad ya que la retina es


bidimensional
(Las primeras 8 son monoculares, los otros son binoculares).
* a) Gradiente de textura - Entre más cerca está el estímulo, mas veo el objeto.
* b) Superposición: Ver algo encima de otros (Ej. Sillas)
* c) Sombreado: Lo que está mas sombreado está mas lejos.
* d) Velocidad de movimiento: Si algo está mas lejos se mueve mas lento. Ej: Avión
* e) Perspectiva aérea: Entre más lejos se ve azul o gris.
* f) Acomodación cristalina: Dependiendo de la lejanía o cercanía el cristalino va a acomodarse.
* g) Posición vertical: Cambia si es más lejos o cerca, si veo algo de lejos, lo veo vertical, pero si lo
veo mas cerca, lo veo de otra perspectiva (arriba).
* h) Perspectiva lineal: Última monocular: Entre más se alejen las líneas, las voy a ir viendo más
juntas.
* i) Convergencia: Entre más cerca esté el objeto, las pupilas se acomodan como risco.
* j) Disparidad retiniana: Cuando te tapas un ojo y ves diferente el objeto.

¿Cuáles son las ilusiones ópticas o visuales?

Las ilusiones son representaciones erróneas de la realidad. Ej: líneas del tren, parece que se van
juntando…
Menciona los tipos de percepción que existen

Sensorial y extrasensorial.
Realiza el cuadro con las bases fisiológicas de la percepción.

* Vista
* Audición
* Tacto
* Gusto
* Olfato
* Movimiento
* Equilibrio
* Ojo
* Oído
* Piel
* Lengua
* Nariz
* Receptores
* Sistema Vestibular
* Luz
* Ondas
* Frío, calor, dolor, presión, contacto
* Sabores: ácido, salado, amargo, dulce,
* Olores: flores, frutas, picante, resinado, pútrido, quemado
* Músculos, articulaciones, tendones, movimientos, posición
* Postura
* Occipital
* TemporalArea somatosensorial del lóbulo parietal
* Varias
* Va al cerebro.

¿Qué es la luz?

La luz es una pequeña parte de la forma de energía denominada radiación electromagnética, que
refleja los colores. Tiene longitud de onda y frecuencia.
¿Qué información nos da la visión?

Sobre el ambiente y los objetos, que se encuentran en él; su tamaño, forma y ubicación, lo mismo
que su textura, color y distancia.
¿Qué células receptoras de la retina son sensibles al color?

Los conos
¿Qué es el punto ciego?

Lugar por donde el nervio óptico sale del ojo. No hay bastones ni conos.
¿Qué son las ondas sonoras?

Vibraciones del aire


¿De qué dependen el volumen y el tono?

El volumen depende de los decibeles con la sensación de sonoridad; depende de las vibraciones
del aire.
El tono depende de la frecuencia sonora, es decir, de la rapidez de vibración del medio por el que
se transmite el sonido.
¿Cómo sabemos de donde proviene un ruido?

Porque las vibraciones se van a escuchar más en un oídoo que en el otro dependiendo de dónde
estén más cerca.
¿A qué son sensibles los receptores del gusto y olfato?
A estímulos químicos o moléculas químicas.
¿Nos podemos adaptar al dolor y porqué?

No fácilmente, ya que es un sistema de alerta para el organismo.


¿Qué es cinestesia y cenestesia?

* Cinestesia: Sentido del movimiento y de la posición del cuerpo.


* Cenestesia: Vigila las condiciones internas del organismo; son sensibles a la presión,
temperatura, dolor y sustancias químicas del interior del cuerpo.

¿En qué parte del oído interno encontramos el sistema vestibular?

En los conductos semicirculares


¿Cuáles son las características de la percepción de espacio?

1. Espacio tridimensional: Conexión mutua del aparato vestibular y ocular motor.


2. Profundidad: Aparato receptivo óptico binocular y de sensación de los esfuerzos musculares
debidos a la convergencia de los ojos.
3. Percepción del dispositivo de los objetos en la relación mutua de éstos: lo unifican el aparato
óptico, vestibular y táctil cinestésico.
1. Conocer la mano derecha como rector:
2. Conocer el costado derecho del izquierdo.

¿Cuáles son las características de la percepción del tiempo?

1. Procesos receptivos de la duración de una secuencia (ritmos biológicos)


2. Basadas en patrones valorativos del tiempo, elaborados por el hombre. Como horas, minutos,
segundos, música.

¿Cuál es la diferencia entre la percepción de forma y objeto, y la percepción del espacio?

Se basa en otros sistemas analizadores que funcionan en conjunto.


¿Cuál es el sistema que garantiza la percepción del espacio?

Espacio - ubicación de 3 dimensiones; aparato vestibular, músculos, ocular.


Forma - Características de los objetos, se basa en la visión.
¿Cuál es el segundo aparato esencial que asegura la percepción del espacio y ante todo de la
profundidad?
Conexión mutua del aparato vestibular y ocular motor.
¿Cuál es la parte esencial de la percepción del espacio y a qué se refiere?

Tercera dimensión, lejanía


¿A qué nos referimos cuando hablamos de profundidad?

Aparato receptivo óptico binocular.


¿Cómo se facilita la orientación del espacio?

Orientación de nosotros en el espacio / percepción del dispositivo de los objetos en la relación


mutua de éstos / nos ubicamos en un espacio no simétrico. En el espacio no es lo mimo /abajo.
¿Qué mecanismos adicionales son necesarios para garantizar la orientación?

Puntos de referencia = señales ópticas adicionales.


¿Qué aparatos efectúan la regulación central de la actividad perceptiva del espacio?

Diferenciación de la mano derecha como rectora. Reconocer el costado derecho del izquierdo.
¿Qué se afecta cuando se lesionan las áreas parietales inferiores? 3 ejemplos

Zonas de cobertura de la corteza cerebral que unifican la labor de los analizadores ópticos, los
táctil, cinestésico y vestibular.
¿Cuáles son las formas más elementales de percepción del tiempo? 2 ejemplos

Se tiene dificultad para percibir el espacio, para distinguir entre izquierda y derecha, ubicarse en el
mapa, reloj, etc. Los ritmos biológicos u horarios biológicos, hambre, sueño, latidos
¿Cómo se pueden alterar éstos?

Con fármacos: anfetaminas, tiempo más corto, LSD, tiempo más largo.
¿Cuáles son algunos factores que influyen en la percepción?

a) La atención facilita que se inhiban o que se activen conexiones neuronales (afocar = atención)
Por medio de la atención formamos un escenario de atención que organiza los estímulos en el
tiempo y espacio.

Tiempo: Si 2 eventos pasan al mismo tiempo y le pones más atención al que percibes como si
fuera el primero.
Espacio: Puntos.
b) Imaginación: Cuando leemos algo y una palabra está mal y lo leemos bien. Influye como las
características no innatas de la percepción, es individual.
¿Qué es el aprendizaje?

Cambio relativamente en la conducta o comportamiento producido por la experiencia. Con los


conocimientos teóricos puede influir en la historia y las puedes aplicar.
¿Qué dice G. Bateson?

Que hay 4 tipos de aprendizaje: habla del aprendizaje cero, el cual significa que hay aprendizajes
que no cambian la conducta. El aprendizaje uno cambia la conducta.
¿Qué es el condicionamiento clásico?

Asociación de dos estímulos. Un tipo de aprendizaje


¿Qué es el condicionamiento operante?

Un tipo de aprendizaje, en la que existen reforzadores de conducta, el estímulo debe ser constante.
¿Qué es la modelacón?

Otro tipo de aprendizaje, en el cual lo que nosotros observamos en otras personas lo copiamos.
¿Qué tipo de aprendizaje se realiza cuando una respuesta anterior queda vinculada a un nuevo
estímulo?

Condicionamiento clásico
¿Qué términos utilizó Pavlov para designar los siguientes elementos de sus experimentos con
perros?

* a) Comida: Estímulo no condicionado o incondicionado.


* b) Respuesta de salivación del animal al ver la comida: Respuesta no condicionada
* c) Sonido del diapasón: Estímulo condicionado
* d) Repuesta de salivación al oír el sonido del diapasón: Respuesta condicionada.

¿Con qué palabra designó el hecho de golpear varias veces el diapasón sin darle la comida al
perro?

Extinción
¿Qué psicólogo es uno de los que más han contribuido al desarrollo del condicionamiento
operante?

Burrhus F. Skinner.
¿Qué tipo de condicionamiento pone de relieve que el estímulo produce la respuesta?

Operante
¿Qué nombre se da a las respuestas positivas?

Respuesta Condicionada positiva


¿Qué nombre se da a las respuestas negativas?

Respuesta Condicionada negativa.


Mencione dos técnicas para lograr que se repita un comportamiento y otras dos que evitan que se
repita

* EL reforzamiento y modelación,
* Evitación y castigos

Menciona los 4 programas de reforzamiento elaborados por Skinner

De razón fija, de razón variable, de intervalo fijo y de intervalo variable.


Da algunos ejemplos de reforzadores primarios

Un chim - o mat (chimpancés), una sonrisa.


¿Qué tipo de reforzador es el dinero?

El dinero es un reforzador condicionado.


Los estímulos aversivos pueden utilizarse en dos formas ¿Cuáles son? En qué se distinguen?

El castigo es el hecho negativo que se produce a raíz de las respuesta y disminuye la frecuencia
de ésta, y el reforzamiento negativo.

En la conducta de escape y evitación, la respuesta tiene el efecto de cancelar el hecho


desagradable.
¿Cómo desarrolló Martin Seligman la teoría de la desvalidez en los animales?

Sostiene que cuando el ser humano no puede controlar los eventos de su vida, generalmente
responde en una de las tres formas, se puede experimentar una disminución de autoestima y
puede sufrir depresión.
¿Cuáles son los tres tipos de modelación?

Comportamiento ajeno, aprendizaje por observación y desinhibición.


Explica cómo se logra el aprendizaje mediante el condicionamiento clásico

Cuando primero está el perro y saliva por ver la comida como un reflejo natural. La comida va a ser
el estímulo incondicionado y la salivación es la repuesta incondicionada. Cuando a la hora de
comer se hace sonar un diapasón (estímulo condicionado) al mismo tiempo que el perro ve la
comida, después de varias veces, si se le quita la comida y solo hace sonar el diapasón, el perro
va a seguir salivando (respuesta condicionada).
Explica cómo se logra el aprendizaje mediante el condicionamiento operante

Por medio de reforzadores; es decir, si se hace algo se obtiene algo, no es natural, sino que el
hombre necesita ver lo que pasa y aprende a repetir esa conducta. Los reforzadores pueden ser
positivos o con un control aversivo (negativos). Es decir, si haces algo, se premia o castiga.
¿Cuáles son los dos tipos de control aversivo que existen?

* a) Reforzamiento negativo: evitación y escape


* b) Castigo

¿Cómo se logra el aprendizaje por miedo de la modelación?

Es en general imitando la conducta de los demás.


¿Cuáles son los tres tipos de almacenamiento de información con que contamos?

Almacenamiento sensorial, memoria a corto plazo y memoria a largo plazo.

* a) Almacenamiento sensorial: Es cuando no se pone atención a lo que estamos adquiriendo y


dura sólo 2 o 3 segundos en nuestra memoria.
* b) Memoria a corto plazo. Cuando se guarda en nuestra memoria hasta 18 segundos. Si no se
repasa en nuestra mente, si lo hace pasa a la memoria a largo plazo.
* c) Memoria a largo plazo: Cuando se guarda en la memoria para siempre o por un tiempo
indefinido. Es muy grande y guarda muchos datos.

¿A qué nos ayuda el proceso de reconocimiento?

A entender mejor como la información se encuentra almacenada en la memoria. Reconocemos el


sonido de un instrumento musical, sin importar la música que se toque, etc.
¿Qué es el recuerdo?

Es la reconstrucción activa de la información. Consiste en algo más que la búsqueda y obtención


de trozos de información. En él participan el conocimiento, actitudes y expectativas del individuo.
Es decir, las memorias cambian con el tiempo, se simplifican, enriquecen o distorsionan, según las
experiencias y actitudes que el individuo tenga a lo largo de su vida. Por ello, algunas veces se
producen errores de memoria. Uno de ellos es la confabulación: el individuo "recuerda" información
que nunca se almacenó en la memoria. Pero hay gente que tiene memoria fotogénica (recuerda
con exactitud todos los sucesos)
¿Cuáles son los tipos de bloqueos de memoria que existen?

* a) Interferencia proactiva: el bloqueo lo realiza una memoria anterior.


* b) Interferencia retroactiva: lo realiza una memoria posterior.

¿Cómo se le llama a cuando el individuo suprime de manera inconsciente los recuerdos de una
experiencia aterrorizadora o molesta?

Represión. El material todavía existe en la memoria, pero se ha vuelto inaccesible por ser tan
perturbador al sujeto.
¿Qué es la mnemotécnica?

Métodos para utilizar la asociación cuando se quiere memorizar información. Como las rimas para
recordar el número de cada mes, el hacerse una imagen mental que contenga información por
recordar, etc.
¿En qué consiste el pensamiento?

Modificar y reorganizar la información guardada en la memoria, a fin de generar nueva información.


Gracias a él podemos integrar cualquier combinación de palabras de la memoria y producir
oraciones nunca antes elaboradas.
¿Qué es la memoria?

Capacidad de crear el mismo patrón espacial y temporal del pasado.


¿Qué es el aprendizaje?

Cambio en el funcionamiento del Sistema Nervioso y en su estructura.


¿Cuáles son los tipos de memoria que existen?

* a) Provisional. Depende del tiempo que dura la estimulación de las neuronas.


* b) Indefinida. Modificaciones físicas de la sinapsis.

¿En dónde se localiza la memoria?

* Áreas de la corteza
* Núcleos profundos del cerebro.
* Lóbulos frontales: se encuentran los recuerdos inmediatos de épocas remotas.
* Corteza temporal: están los recuerdos de pensamientos elaborados.
* Médula espinal: están los reflejos condicionados.
* Tálamo y tallo cerebral (como en la corteza).

¿Cuál es el principio de masa?

A mayor lesión en el cerebro será menor la capacidad de aprender


Enuncia el principio de equipotencialidad

Toda la corteza tiene la misma capacidad para el aprendizaje y la memoria.


Escribe los estudios sobre cuál es el mecanismo íntimo del aprendizaje

* a) Formación de nuevas vías nerviosas (circuitos nerviosos recurrentes); se hace un circuito del
estímulo y cuando termina se vuelve a empezar.
* b) Cambios en la forma de las terminales sinópticas
* c) Aumento de la facilidad de transmisión de vías no funcionales al principio del aprendizaje.
* d) Cambios fisicoquímicos en la estructura molecular de las neuronas; (como en el ADN las
sustancias químicas facilita la información genética que nos determina, que en el RNA están los
cambios que facilitan el aprendizaje; por proteínas, etc.)

¿Qué importancia tiene el tiempo en el aprendizaje?

Cuando se aplica el choque eléctrico después de una hora de haber aprendido si se guarda en la
memoria; si es en poco tiempo se olvida.
¿Cuáles son las fases en las que se da el aprendizaje?

* a) Temprana: Vulnerable
* b) Estructural: No vulnerable (posiblemente).

¿Cuáles son los procesos intelectuales?

Percepción, memoria, pensamiento o lenguaje


¿Qué obtenemos de los procesos intelectuales?

Obtenemos, transformamos, almacenamos, recuperamos y empleamos información.


¿Cuál es la unidad básica del pensamiento?

Los conceptos
¿Qué es el lenguaje?
Código simbólico que empleamos para comunicar información de una persona a otra.
¿Qué son los conceptos?

Ideas organizadas, la esencia de las cosas, los conceptos son diferentes a los objetos. Nos permite
resolver problemas y razonar. La llave para resolver problemas es el lenguaje; el cual debemos
plantearlo.
¿Qué tipos de lenguaje existen?

El digital (hablando) y el analógico (corporal)


¿Qué es la inteligencia?

Suma de todas las capacidades cognitivas útiles. Esta influida por la herencia y experiencia. Todas
estas capacidades forman la cognición.
¿Cuáles son las facetas de la cognición?

* a) Depende del procesamiento de información (materia prima de la cognición). La información


esta formada por conceptos o categorías.
* b) Es activa porque obtiene información de los sentidos, la transforma por medio de la percepción
y pensamiento; la almacena y recupera por medio de la memoria y la utiliza por medio de la
resolución de problemas y lenguaje.
* c) Es útil para vivir en un mundo social y sobrevivir en él.

¿Qué son los conceptos?

Categorías generales de cosas, acontecimientos o cualidades ligado por alguna característica o


características comunes a pesar de sus diferencias.
¿Cómo se dividen los conceptos?

1. Conceptos simples: tienen una sola característica. Ejemplo: color azul, círculo, textura lisa.
2. Conceptos complejos: tienen más de una característica. Ejemplo: mesa, arco iris.

Da otra clasificación de los conceptos

1. Conjuntivos: Requieren dos características juntas para que se de el concepto. Ejemplo: Tía
(mujer, hermano papás).
2. Disyuntivas: Requieren de uno o de otro no de los dos. Ejemplo: esquizofrenia (escuchar voces
o fuera de la realidad).

¿Cuáles son las unidades del pensamiento?


Imagen, símbolo, concepto y regla
Ciencias sociales
Las Ciencias Sociales es el punto de partida para el estudio de las demás disciplinas sociales y su
conceptualización es diversa, ya que se le amerítan variadas definiciones.

Por ejemplo:

• Podemos decir que las Ciencias Sociales son aquellas que estudian el comportamiento del
hombre que vive en la sociedad. Pero esta definición está muy generalizada ya que esto puede
aplicar a la Sociología, Antrpología, Psicología, en fin.

• Otra definición podría ser que estudian el comportamiento del hombre y los distintos aspectos de
la sociedad.

• Otros entienden que las Ciencias Sociales son el intento de descubrir y explicar patrones de
comportamiento de las personas y el grupo de personas.

Métodos de las Ciencias Sociales.

Las Ciencias Sociales se vale de métodos para la solución de problemas que se le presentan a los
individuos de la sociedad.

Estos son:

El método de apelar a lo sobrenatural:

Es la búsqueda de soluciones a través de alguna fuente ultraterrenal. Este método es conocido por
nosotros ya que muchas personas son supersticiosas. Apelan a los milagros, ritos, brujeria,etc.

El método de acudir a la autoriadad humana:

Aquí se involucra a otra persona para que resuelva o ayude a resolver los problemas que se están
confrontando. Ejemplo: Psiquiatra, autoridad legal.

El método de acudir a nuestro propio conocimiento:

Solucionamos los problemas acudiendo a los conocimientos teóricos y prácticos que hemos
adquirido.

La intuición:

No es un método pero es un medio que puede llegar a ser efectivo para la solución del problema.

Origenes de las Ciencas Sociales:

El origen de las Ciencias Sociales tiene mucha relación con la Filosofía (que etimológicamente
significa “amor a la sabiduría”)

Veamos por qué:


El surgimiento de las Filosofías tiene que ver con interrogantes que se formulaban los hombres en
la antigüedad, De dónde venímos?, Que somos?, Para dónde iremos?, Para qué sirven éstas
cosas?, Preguntas que trataron de encontrarle respuestas utilizando -en la mayoria de los casos- la
observación y el razonamiento.

Los cuestionamientos han conllevado a dos concepciones:

• El mundo es el producto de la creación espiritual de una divinidad (Dios).

• Todo lo existente en el producto de un larguísimo proceso de desarrollo histórico que evolucionó


hasta producir un hombre capaz de razonar.

Clasificación de las Ciencias sociales:

Duverger considera dos tipos de clasificación:

Una vertical, según los diversos aspectos de la vida social dentro de un mismo grupo, desatándo
las siguientes disciplinas:

Demografía.

Economía.

Sociología Religiosa.

Ciencias Políticas.

Sociología del Derecho.

El segundo tipo es la horizontal, según las diversas categorías de grupos sociales en las que
figuran:

Etnografía.

Historia.

Sociología Urbana.

Sociología Rural.

Las tres ciencias producto de la actividad del hombre son:

•Economía.

•Derecho.

•Ciencias Políticas.

Las tres ciencias que estudian al hombre social son:

•Antropología.
•Historia.

•Sociología.

• Historia universal y de México


La historia es el estudio de los hechos y eventos del pasado que nos ayuda a comprender el
presente.

La palabra "Historia" deriva del griego Οιδa ("yo sé"), de Οιδa derivó a Ιστορια ("investigación o
información") y de allí pasó al latin Historia que se conservó en el español.

Enfoques
Existen dos enfoques para este estudio:

Enfoque clásico: la historia es el período que comienza con la aparición de la escritura y se


prolonga hasta la actualidad; desde este punto de vista, gran número de pueblos de la Tierra no
tienen historia hasta que se produce su contacto con sociedades con escritura. Ejemplo: Historia
de los pueblos primitivos de Norteamérica (a partir del contacto con europeos).
Enfoque multiculturalista: historia es el período dentro del cual es posible obtener o reconstruir un
relato fiable de los acontecimientos que afectan a un grupo humano. Ejemplo: Historia de los
pueblos amerindios de Norteamérica (a partir de los datos de la arqueología, tradición oral e
historiografía referencial).
Los acontecimientos ocurridos antes del periodo histórico se denominan prehistoria. Los
acontecmiento situados en un período de transición entre la prehistoria y la historia son
denominados protohistoria.

Sin embargo, otra nomenclatura designa a la ya explicada prehistoria como protohistoria, siguiendo
la lógica de que esa "prehistoria" también forma parte de la historia. Además de que el prefijo
"proto" significa primero. Luego, protohistoria: "la primera historia"
Historial universal
Paleolítico
El Homo sapiens hace su primera aparición en la Tierra hace 400.000 años durante el periodo
Paleolítico. Esto sucedió tras un largo periodo de evolución. Los antecesores de los humanos,
como el Homo erectus, habían usado herramientas simples durante milenios, pero en esta época,
las herramientas mejoraron, se hicieron más precisas y complejas. En algún momento, los
humanos empezaron a usar el fuego para calentarse y cocinar. También desarrollaron el lenguaje
durante el Paleolítico, así como los ritos funerarios. En este periodo, todos los humanos vivían de
la caza (en un primer momento del carroñeo) y la recolección, siendo nómadas.
Hace unos 50.000 años, los seres humanos se lanzaron a la conquista del planeta en diferentes
ramas desde África. Una rama alcanzó Australia. La otra llegó al Asia Central, para luego bifurcarse
en dos, una a Europa, y la otra subió hasta cruzar el Estrecho de Bering colonizando América. Las
últimas áreas en ser colonizadas fueron las islas de la Polinesia, durante el primer milenio dC.
Neolítico
Disco celeste de NebraArtículo principal: Neolítico
Con el descubrimiento de la agricultura y la ganadería el ser humano comienza a cultivar diversos
cereales como el arroz, el trigo y el maíz, o tubérculos como la papa, en diversas regiones del
globo entre el Sexto y el Quinto Milenio a.C., por lo que deja de depender de la caza, la pesca y la
recolección, se transforma en autosuficiente, y ello le permite adoptar un modo de vida sedentario
(si bien algunas actividades como el pastoreo requerirán la práctica del nomadismo o del semi-
nomadismo). En Japón encontramos un temprano desarrollo de la piscicultura.
Edad de los metales
La edad de los metales permitió disponer de herramientas más duraderas y efectivas que las de
silex y otros materiales pétreos; hachas para talar bosques, espadas para la guerra y nuevos
materiales para la construcción. El primer estadio de esta industria es en la mayor parte del planeta
el calcolítico en torno al 4000 aC, se trata del trabajo del cobre, posteriormente las aleaciones del
cobre y el estaño o el plomo dan lugar al bronce material menos maleable y más duro, un gran
salto se da con la fundición en hornos de alta temperatura del hierro. Todos estos metales eran
conocidos por el hombre pre-neolítico pero éste no conocía las técnicas para su elaboración y
manipulación, que requieren altas temperaturas.
Edad de bronce y Edad de hierro
La Edad del Bronce es un período en la civilización en que se desarrolló en metalurgia el empleo
de este metal, resultado de la mezcla de cobre y estaño. Fue inventado en oriente medio hacia el
IV milenio adC sustituyendo al Calcolítico aunque en otros lugares esta última edad fue
desconocida y el bronce sustituye directamente al período Neolítico. En el África negra, el Neolítico
es seguido de la Edad de Hierro.
La fecha de adopción del bronce varía según las culturas:
En Asia central el bronce llega alrededor del 2000 adC en Afganistán, Turkmenistán, e Irán.
En China, lo adopta la dinastía Shang.
El bronce en el Egeo:
Bronce Antiguo:
La metalurgia del bronce apareció en el neolítico reciente, por lo que se produce una continuidad
con el período anterior.
Se ocupan promontorios costeros y zonas rocosas, abandonando los asentamientos de la etapa
anterior. Hay grandes asentamientos con sólidos bastiones y fortificaciones.
Los ajuares en los enterramientos son valiosos. Hay principalmente dos tipos de tumbas en creta:
Tumbas de planta rectilínea
Tumbas de planta circular
Aparecen también los tholoi, que son construcciones de planta circular, cubiertas por una bóbeda o
una falsa cúpula. En las islas cícladas se usan cistas con forma trapezoidal, con inhumación
individual. En grecia continental, el rito funerario es el de la inhumación colectiva en tumbas de
cámara.
Con respecto a la cerámica, en las islas cícladas hay un predominio de las decoraciones impresas
e incisas, mientras que en creta la decoración más frecuente es la pintada. En grecia continental, la
cerámica lleva un engobe rojo.
La base de la economía es la agricultura y la ganadería, caza y pesca. Se introduce el cultivo del
olivo y la vid. La ganadería importante es la de la cabra y la oveja.
En el mar Egeo se establece un área de intenso comercio del metal en Chipre, donde existían
minas de cobre, el estaño se traía incluso de las islas británicas.
Bronce Medio:
Se subdivide en el Egeo en tres zonas:
Islas cícladas: Cicládico
Grecia continental: Heládico
Creta: Minoico
La navegación fue desarrollada por aquel entonces, en especial por el interés del comercio, ya que
se intensifican los contactos e intercambios. El imperio minoico apareció gracias a este comercio,
sustituido más tarde por el micénico en el bronce reciente.
Bronce Reciente:
Hay una trancisión del Heládico al Micénico en la grecia continental, con un incremento de la
riqueza material, mayor centralización del poder, política y economía, aunque aparecen nuevas
estructuras políticas y sociales.
Hay metales preciosos en los ajuares de las tumbas. Estos ajuares nos hablan de una élite poco
numerosa, que acumulaba la riqueza en sus manos, posiblemente fue la clase dominante. La
sociedad micénica estaba muy jerarquizada, con una clara diferenciación en las sepulturas de
soberanos, aristocracia, trabajadores y artesanos.
Aparecen palacios, en el caso de Tirinto, Pilos y Micenas. Debieron ser centros administrativos y de
almacenamiento. Los núcleos urbanos crecieron en torno a estos palacios. El resto de
asentamientos, se ubican en su mayoría en colinas o promontorios fácilmente defendibles.
El estilo micénico de cerámica se caracteriza por pintura brillante de colores rojo o negro, sobre
fondo claro.
El bronce en Europa:
Se divide en Bronce Antiguo, Bronce Medio y Bronce Final o Tardío
Bronce Antiguo:
Aún no se ha generalizado el bronce propiamente dicho.
Gran parte del comercio se desarrolla en canoas que remontan los cursos fluviales,
preferentemente para distribuir cobre. Las regiones del norte de Europa y la Península Ibérica se
relacionan por este comercio.
La agricultura y la ganadería siguen siendo la base económica dominante, cuya producción
aumentó con el uso del carro y del arado.
Los asentamientos suelen ser de dos tipos, según localización geográfica:
En el este, son hábitats situados estratégicamente, con sistemas defensivos a veces
En el oeste, suelen ser poblados muy pequeños y sin defensas, posiblemente son poblados
estacionales
Europa Central:
Esta edad se introdujo hacia el año (1800-1600 adC), seguida del período del bronce medio (1600-
1200 adC), caracterizado por los enterramiento en túmulos, que demuestran un alto grado de
estratificación social.
Destacan dos culturas: Unetice ó Aunjetitz Esta cultura controla las rutas comerciales europeas,
siendo el intermediario entre el Báldito, la Grecia Micénica y las Islas Británicas. Explotan las minas
de cobre, y su economía es ganadera, complementada con los cereales. Las sepulturas son de
inhumación individual en fosas y cistas generalmente. Otomani Son de carácter guerrero, pueblos
de gran movilidad, gracias sobre todo al uso del caballo como montura. Su economía se basa en la
cría de bueyes, caballos y cerdos, y también por el cultivo de cereal.
Europa Mediterránea:
Hay pocas evoluciones, sin cambios importantes. Varía mucho de una zona a otra, pues algunas
áreas siguen con modelos calcolíticos, y otras ya se inician en el bronce.
Europa Atlántica:
Ésta es una zona rica en minerales. Destacan las culturas de:
Túmulos amoricanos, en Francia.
Las sepulturas son de inhumación individual.
Sus asentamientos se desplazan desde la costa hacia el interior.
El utillaje doméstico es en sílex y piedra pulimentada
La aristocracia guerrera, domina a los indígenas
Wessex, en Inglaterra.
Se desarrolla en el sur de Inglaterra.
La aristocracia guerrera, domina a los indígenas
Entre el 1600 y 1400 a.C predomina el rito de incineración
Bronce Medio:
Hay un predominio del bronce sobre el cobre, y un aumento en la elaboración de adornos, armas y
utensilios. Este metal se relaciona ya con actividades cotidianas.
Europa Central:
Se caracteriza por la Cultura de los Túmulos.
Esta cultura se extiende desde el Rhin hasta los Cárpatos occidentales, y desde los Alpes al Mar
Báltico.
Se llama así por las sepulturas de inhumación individual con túmulos. Los túmulos son montículos
de tierra, circulares u ovalados generalmente, construidos sobre una sepultura, tanto individuales
como colectivas.
Es frecuente el depósito de restos óseos de animales en los enterramientos, al igual que la
existencia de enterramientos dobles.
Se generaliza el uso del bronce, con producciones en serie, realizadas con moldes de piedra. La
base económica fundamental fue la metalurgia, ya que permitía la aparición de mejoras en el
armamento y en el utillaje. Los adornos en metal proliferan.
Los lugares de habitación no son muy grandes, y están situados en zonas altas, con defensas
naturales, a veces rodeados de murallas de madera y tierra, con uno o más fosos. Las viviendas
son de planta rectancular o trapezoidal, construidas con madera y materiales perecederos.
Europa Nórdica:
La explotación del ámbar permitió conseguir el cobre y el estaño.
Existen talleres locales de fundición, siendo un foco metalúrgico de categoría
Reciben influencias funerarias de la Cultura de los Túmulos
Las sepulturas son tumulares, agrupadas en necrópolis, a veces a lo largo de vías naturales de
comunicación. Los ajuares son ricos, sobre todo constituidos por armas.
Europa Mediterránea:
Se dan principalmente dos culturas, ambas en la Península Itálica:
Norte de la P.Itálica: Cultura de las Terramaras
Son un pueblo de pastores y agricultores, con una pequeña metalurgia local. *Su cerámica es de
color negro, decorada.
Centro de la P.Itálica: Cultura Apeninica
Sociedad pastoril, con asentamientos en cuevas o en abrigos.
Su economía está basada enagricultura y ganadería trashumante.
Su cerámica está grabada con motivos geométricos y excisa.
Tiene contactos con el Egeo
Europa Atlántica:
Se desarrolla una industria del bronce muy activa. Los ajuares son más pobres que en épocas
precedentes.
Francia:
Tiene una producción metalúrgica de poca entidad.
Destaca la fabricación de hachas.
Islas Británicas:
El rito funerario es de incineración en urnas.
Son escasos los metales en los ajuares.
Relaciones intensas con el continente.
Bronce Final o Tardío:
El Bronce tardío se desarrolla hacia (1300-700 adC), se caracteriza por la incineración de los
cadáveres, práctica que continúa en Polonia hasta el año 500 adC dentro ya de la Edad de Hierro
en el período cultural Hallstatt, (700-450 adC).
Europa Central:
Se da la Cultura de los Campos de Urnas, caracterizada por sus necrópolis de incineración y la
gran expansión que llevaron a cabo en el siglo XIII a.C.
Los pueblos indoeuropeos occidentales afincados al norte de los Alpes compartían una cultura
común desde el siglo XV a.C. (Cultura de los Túmulos). En el siglo XIII se extenderá la costumbre
de la incineración y el depósito de las cenizas en las características urnas. Coincidiendo con este
fenómeno cultural, estos pueblos, entre los que se encuentran los celtas, itálicos e ilirios, inician
una rápida expansión que les lleva a conquistar gran parte de los Balcanes y porciones menores
de Europa occidental. También destruyeron el Imperio Hitita, adueñándose del secreto de la
metalurgia del hierro. Posteriormente (s. XII) prosiguieron sus campañas por mar, atacando Egipto
y colonizando Filistea. Casi con seguridad, estos centroeuropeos, ya helenizados, constituyen el
misterioso origen de los dorios que invadirían Grecia en el s.XI, destruyendo la civilización micénica
(ver Micenas).
Hábitat:
Suelen tener defensas artificiales o naturales, en ocasiones ambas. Las casas son realizadas
mayoritariamente en madera y barro, con forma rectangular y trapezoidal
Enterramientos:
Lo común es el rito de incineración. Hay también otras variantes:
Hoyo excavado en la tierra, en el que se deposita la urna
Sin urna, directamente en el hoyo
Urnas cubiertas por círculos de piedras, cistas, etc
Túmulos planos rodeando la fosa
Fosas grandes
En el ajuar suele haber cerámica y metales. A veces, las necrópolis están delimitadas por recintos
rituales, generalmente fosos, de planta circular o cuadrangular.
Economía:
Hay abundancia de molinos de piedra, azuelas de bronce y hoces, también hay existencia de
graneros. Hay proliferación de oficios y especialización artesanal. Con respecto al comercio, se
intensifican las relaciones comerciales. Mejoran los transportes, con el uso del carro y del caballo
como animal de tiro. Nace el comercio de la sal y se inicia la producción de vidrio. La cerámica y la
orfebrería experimentan un auge, multiplicándose también los centros metalúrgicos.
Europa Nórdica:
Se da la Cultura de Montelius.
Hay una continuación de la etapa anterior.
Los poblados a veces se ubican en zonas defensivas, son casas de barro o madera, de planta oval
o rectangular.
Los enterramientos son agrupados en grandes necrópolis, se va generalizando el rito de
incineración.
Producen vasos y objetos de oro.
Europa Atlántica:
Hay diferencias regionales, aunque se acentua la influencia de la Cultura de los Campos de Urnas,
sobre todo en las armas, e influencias fenicias. La economía es agrícola, y los caballos se usan,
tanto para tiro, como elemento de prestigio.
Europa Mediterránea:
En el Sur de la P.Itálica se da un importante comercio con Grecia y con el norte de la propia
península. Hay necrópolis de incineración, con cremaciones individuales. Los asentamientos
suelen situarse en lugares elevados, y se fortifican a base de murallas. La cerámica es hecha a
mano.
La Edad del Hierro se refiere al período en que se desarrolló la metalurgia del hierro. Este metal es
superior al bronce en cuanto a dureza y abundancia de yacimientos.
El empleo correcto de este mineral comienza en el II milenio adC, los hititas fueron el primer reino
organizado que controló su producción.
La expansión del conocimiento sobre el uso del hierro se produce probablemente desde Irán a
través del Cáucaso. Esta edad trae cambios importantes, pues los imperios orientales se debilitan,
mientras que los centros de poder se desplazan hacia Occidente.
Así pues, la Edad del Hierro viene caracterizada por la utilización del hierro como metal, utilización
importada de Oriente a través de la emigración de tribus indoeuropeas (celtas), que a partir del
1200 adC empiezan a llegar a Europa Occidental y su período alcanza hasta la época romana y en
Escandinavia hasta la época vikinga (alrededor del año 1000 de nuestra era).
Estos emigrantes indoeuropeos, llamados a menudo Celtas aunque el pueblo de este nombre era
sólo uno más de los que formaban parte de los desplazados, vinieron en un largo período en
emigraciones parciales de grupos muy distintos entre sí, aunque conservaban ciertos elementos
homogéneos como una serie de lenguas indoeuropeas, y unos hábitos culturales similares.
Se divid el período de la Edad del Hierro en:
Período de la Cultura de Hallstatt (Primera Edad del Hierro).
Período de la Cultura de La Tène (Segunda Edad del Hierro).
En Europa central la Edad de hierro se divide en cuatro períodos:
La Cultura de los Túmulos.
La Cultura de los Campos de Urnas (1200-725 adC).
La Cultura de Hallstatt (800-450 adC).
Y la Cultura de La Tène (desde el 450 adC hasta la conquista romana).
En Alemania los historiadores suelen diferenciar entre una Edad de Hierro prerromana y otra
romana (cultura de Jastorf).
Edad Antigua
La Historia Antigua es la época histórica que transcurre desde el nacimiento de las primeras
civilizaciones hasta más o menos la caída del Imperio Romano en 476 dC.
La escritura fue desarrollada en numerosas partes del mundo de forma independiente (el Antiguo
Egipto, Mesopotamia, China, Mesoamérica, etc.), durante el periodo de la Edad de los Metales. En
un principio se desarrolló a partir de representaciones esquemáticas, mágicas o contables para
transformarse con el tiempo en jeroglíficos o en pictogramas. En Mesopotamia se desarrolló el
sistema de escritura cuneiforme en tablillas de arcilla, a partir de sistemas de contabilidad
pictográficos. En el Mediterráneo, gracias a los fenicios, la escritura evolucionó hacia el sistema
alfabético, que se transformó en dominante gracias a su simplicidad. En su mayoría los pueblos
amerindios no conocieron la escritura propiamente dicha, aúnque en mesoamérica se desarrolló la
escritura pictográfica y el Imperio Inca utilizó exitosamente el sistema de quipus. En África
subsahariana se desarrollaron diversos sistemas simbólico-escriturales que servían de apoyo a la
oralidad de estas civilizaciones, en torno al siglo IX los caracteres arábigos son utilizados en esta
región para escribir en fulbé y Suajili. En general la mayoría de los pueblos de la tierra conocen
algún sistema escritural o de símbolos dibujados o escritos en torno al año 1000 de la era cristiana.
La irradiación de las antiguas culturas negras del Antiguo Egipto, de Nubia, de Etiopía y,
posteriormente, de la cultura árabe islámica, conformarían la civilización negroafricana. Las
sucesivas crisis invasoras vividas por el Imperio Egipcio obligaron a constantes movimientos
poblacionales desde el valle del Nilo al resto de África, mientras que el expansionismo egipcio llegó
a alcanzar el Mediterráneo europeo influyendo en las culturas Micénica y Minoica, así como en
Israel, Fenicia y Oriente Medio.
Entre los Milenios III, II y I a.C. surgieron grandes civilizaciones, por obra de pueblos como el
Imperio Shang, los Zhou, los habitantes de Mohenjo-Daro y Harappa, los sumerios, los acadios, los
babilonios, los fenicios, los hebreos, los griegos y los romanos.
Hacia finales del Primer Milenio a.C., por una serie de circunstancias, todas las regiones civilizadas
de Eurasia se unificaron en el Imperio Romano, el reino de los partos (reemplazado después por el
Imperio Sasánida), el Imperio Maurya, el Reino de los Kushan, y el Imperio Han. Todos estos
cayeron en un período de tiempo que va entre los siglos III y V d.C.
A la caída de los grandes imperios, grandes religiones de carácter ecuménico (es decir, que
trascienden el nacionalismo de los primitivos cultos para transformarse en Religiones de la
Humanidad) se transforman en motores de la civilización eurasiática: el Cristianismo, el Islamismo,
el Hinduismo y el Budismo Mahayana. En su torno se aglutinan una nueva serie de civilizaciones,
desde Irlanda en el extremo occidental, hasta Japón en el oriental.
En la época del Califato Abasida, la cultura islámica alcanzó un grado de desarrollo sin
precedentes. Las creaciones científicas, económicas y culturales islámicas pasarían a Europa, a
través de Italia o de España. Por su parte, el mundo chino (en la época bajo el Imperio Tang)
influiría decisivamente en la cultura japonesa, en tanto que la influencia de la India sería decisiva
en el surgimiento de los imperios Jémer y Srivijaya, en Indochina e Insulindia, respectivamente. Al
propio tiempo, el influjo del nestorianismo traería a los habitantes de la estepa eurasiática a la
civilización.
Mesopotamia (del griego: Μεσοποταμία, traducido del antiguo persa Miyanrudan, "la tierra entre los
ríos", o del arameo Beth-Nahrin, "dos ríos") es el nombre por el cual se conoce a la zona del
Próximo Oriente ubicada entre los ríos Tigris y Éufrates, si bien se extiende a las zonas fértiles
contiguas a la franja entre los dos ríos, y que coincide aproximadamente con las áreas no
desérticas del actual Irak. El término alude principalmente a esta zona en época antigua.
Es un territorio muy fértil a causa de la presencia de los rios, que desembocan en el Golfo Pérsico,
y que está rodeado de desiertos. Estas tierras fueron ocupadas hace más de 5.000 años por los
sumerios, que construyeron las primeras ciudades como Ur, Uruk y Lagash sobre colinas,
fortificadas para defenderlas de otros pueblos que buscaban un mejor lugar para vivir. Cada ciudad
se gobernaba a sí misma, eran ciudades-estado.
Las primeras ciudades principales mencionadas son trece: Akshak, Sippar, Kish, Nippur, Larak,
Adab, Umma, Lagash, Uruk, Badtibira, Ur, Eridu y Larsa.
Los semitas en Mesopotamia
Los semitas eran nómadas que habitaban en los alrededores de Mesopotamia y hacia la península
arábiga. Se extendieron por Mesopotamia y Siria donde dieron origen a grupos regionales: los
beduinos, los arabi, los amurru y los acadios. Sobre el grupo de los amurru hay que decir que
fundaron numerosos estados, y originaron diferentes grupos regionales: los arameos, los
cananeos, los hebreos y los fenicios.
Las primeras hegemonías
Todos los pueblos que poblaron Mesopotamia construyeron a orillas de los ríos Tigris y Eúfrates
grandes ciudades que fueron importantes centros políticos y religiosos. Los templos tenían una
base cuadrangular sobre la que se construian torres escalonadas como pirámides, llamadas
zigurat, y su objetivo era invitar a las divinidades a residir en ellos. Por eso en la cima se
encontraba el santuario del dios, que casi siempre se dividía en dos cámaras. En una estaba el
altar, y en la otra la mesa de los sacrificios. A estas instalaciones sólo podían acceder los
sacerdotes, ya que todos los días llevaban ofrendas. Las paredes internas de los templos estaban
adornadas.
Formas de vida y pensamiento
Según la biblia, el comienzo de la humanidad, es todavía una cultura con muchas cosas que
descubrir, pues las primeras excavaciones se realizaron en 1843 en los llamados tells. Esta
antiquísima civilización, no es un valle aislado rodeado de montañas o de desierto como podía ser
Egipto, si no que es una cultura en llano con mucha movilidad. Multitud de pueblos pasaron por
esas tierras, sumerios, akadios, asirios y babilonios, dejando una diversa y rica cultura y
disfrutando de una próspera y variada economía. La sociedad de los pueblos mesopotámicos, se
encontraba de forma piramidal: en la base los esclavos seguido de los artesanos y campesinos
libres después los funcionarios, sacerdotes y militares y, por último, el rey y su corte. Este tenía el
poder absoluto y era considerado como el representante del DIOS aunque no como un DIOS. De
religión politeista, adoraban a distintos dioses en cada ciudad. De todos modos existían dioses
comunes ( Sin-Luna; Shamas-Sol ... ) y, daban una importancia primordial a las creencias
religiosas, una religión pesimista con unos dioses castigadores y justicieros. Con distintas
características cada pueblo, unos más guerreros (asirios), otros más cultos (babilonios), otros
pastores y comerciantes (akadios),... esta civilización dejó restos muy importantes y algunos de
transcendencia fundamental. Fueron los iniciadores de las matemáticas, la astronomía y la
medicina, los inventores del álgebra, realizaron calendarios y calcularon eclipses, crearon códigos
de leyes (Hammurabi) y desarrollaron importantes avances en la construcción como la bóveda y la
cúpula. Sus restos, aunque todavía muchos por descubrir y, ahora también bombardeados
descubren una cultura que ejerció una poderosa influencia en otras civilizaciones del momento y
por supuesto, en el mundo occidental.
Los imperios agrarios: Egipto y Mesopotamia
La historia se inicia cuando aparecen los primeros testimonios de escritura que, de una manera u
otra, comienzan a dejar referencias claras y fiables de la cultura, costumbres y vida del pasado.
Serán EGIPTO, civilización desarrollada en el Valle del Nilo y, en el Oriente Próximo, Mesopotamia,
civilización más abierta que Egipto y desarrollada también entre ríos, Tígris y Eúfrates
concretamente, las primeras civilizaciones de la historia que dejarán testimonios claros de su
cultura. Su arte y su música, especialmente el de Egipto, será el primer eslabón de la historia del
arte y de la música, un arte poco influido pero muy influyente que heredarán los griegos y nosotros
seguiremos evolucionando a partir de estos últimos.
La escultura
1. En la faceta del arte que en Mesopotamia se hace reconocer más fácilmente tanto en su
concepto como en su técnica
2. Unas veces representa soberanos, otros dioses, otros funcionarios,...pero siempres personas
individualizadas (a veces con su nombre grabado), busca sustituir a la persona mas que
representarla. Cabeza y rostro desproporcionados respecto al cuerpo por este motivo
3. “Realismo conceptual”. Simplifica y regulariza las formas naturales gracias a la ley de la
frontalidad (parte derecha e izquierda absolutamente simétricas) y al geometrismo (figura dentro de
un esquema geométrico que solía ser el cilindro y el cono)
4. Representaciones humanas: total indiferencia por la realidad.
5. Representaciones animales: mayor realismo y fidelidad.
6. Monumentales toros muy estilizados y realistas (genios protectores, monstruosos y fantásticos
como todo lo sobre natural en Mesopotamia)
7. Relieve monumental, estela, relieve parietal, relieve de ladrillos esmaltados y el sello: otras
formas de esculpir y desarrollar auténticos comics o narraciones en ellos.
La pintura
1. Debido a las características del país, existen muy pocas muestras de ello.
2. Misma temática y técnica que en el relieve parietal. Sin perspectiva.
3. Al igual que los mosaicos (más perdurables y característicos) con un fin más decorativo que las
otras facetas del arte.
El arte
En la fértil llanura, abundantemente regada en su parte inferior por los dos ríos que delimitan esta
civilización, se produjo muy pronto la sedentarización de los pueblos nómadas que pasaban por allí
convirtiéndose en agricultores y desarrollando una cultura y un arte con una sorprendente variedad
de formas y estilos.
Con todo, el arte en general, mantiene bastante unidad en cuanto a su intencionalidad, que da
como resultado un arte un poco rígido, geométrico y cerrado pues, ante todo, tiene una finalidad
práctica y no estética, se desarrolla al servicio de la sociedad o, mejor dicho, de quien gobierna y
es, ante todo, la expresión del poder y la fe.
La arquitectura mesopotámica
La arquitectura en Mesopotamia se componía de mosaicos pintados en colores vivos, a manera de
murales. No habian ventanas ni columnas y la luz se obtenía del techo. Se preocupaban de la vida
terrenal y no de la de los muertos, por tanto las edificaciones más representativas eran el templo y
el palacio.
El templo era un centro religioso, económico y político. Tenia tierras de cultivo y rebaños,
almacenes (donde se guardaban las cosechas) y talleres (donde se hacian utensilios, estatuas de
cobre y de cerámica). Los sacerdotes organizaban el comercio y empleaban a campesinos,
pastores y artesanos, quienes recibían como pago parcelas de tierra para cultivo de cereales,
dátiles o lana. Además, los zigurats tenian un amplio patio con habitaciones para alojar a los
peregrinos.

Edad Media
Convencionalmente, la Edad Media es una etapa de la Historia europea que se extiende desde la
caída del Imperio Romano de Occidente en el año 476 hasta la caída de Constantinopla (Imperio
Romano de Oriente) a manos de los turcos en el año 1453. También se señalan como fechas de
término, la del Descubrimiento de América en 1492, la del inicio de la Reforma Protestante en
1517, o la de la Revuelta de los Comuneros española, en 1521, a la que algunos autores ven como
la primera revolución burguesa. De todas maneras, se acepta que estas fechas son meros
indicadores técnicos, puesto que no hubo una ruptura real de continuidad, ni en las estructuras
culturales y sociales, ni en el desarrollo tecnológico, sobre todo entre la Edad Media y el
Renacimiento.

El sistema económico y político imperante era en general el feudalismo. La estructura de la


población era piramidal, con los vasallos y siervos en la base mientras que la nobleza y los
estamentos eclesiásticos eran los más poderosos. La estructura económica de la época se
sustentaba en el mannor, unidad económica autosuficiente, que era a su vez la base política del
feudalismo. La Edad Media es una época profundamente religiosa, había un teocentrismo
dominante y los centros religiosos eran en general el único foco de la cultura, donde se conservó la
historia pasada; era el único lugar donde se sabía leer y escribir. La lengua utilizada en la escritura
era el latín.

Nomenclatura
El nombre de Edad Media fue acuñado por la gente del Renacimiento de forma despectiva, para
remarcar el carácter "oscuro" de dicho período, que es un "relleno" o "período medio" entre dos
épocas de esplendor cultural (entre la Edad Clásica y la Edad Moderna). La denominación aparece
ya en 1469 en una carta de Giovanni Andrea al frente de una edición romana de Apuleyo, donde se
alude a los grandes conocimientos del cardenal Nicolás de Cusa en letras antiguas, medias y
modernas. En 1518 se documenta media aetas y en 1604 medium aevum.

Sin embargo, bajo la pátina de oscuridad y división con que se etiquetó al período medieval
subyacía un sustrato cultural común y con fuertes ligaduras con la época clásica. Durante la Edad
Media hubo intentos de toda clase por restaurar la antigua cultura clásica, su filosofía, y también
sus instituciones sociales, jurídicas y políticas, aunque todo ello revestido del sello del cristianismo,
que por cierto, también era herencia del período antiguo Romano. De todas maneras, la
denominación de Edad Media ha persistido, aunque no necesariamente con su carácter peyorativo
inicial, debido a consideraciones de convención y pedagogía.
Periodización
Esta periodización clásica se ha visto sometida a numerosos debates, de forma que actualmente
sólo tiene un carácter orientativo. Se ha propuesto también llamar a los primeros siglos de la Alta
Edad Media como Antigüedad Tardía u otras denominaciones similares como Edad Oscura, pero
dicha terminología no es universalmente aceptada. En el fondo, la dificultad de dividir a la Edad
Media en períodos históricos, estriba en que tanto en su origen, como en su desarrollo y final, no
hay grandes rupturas con el pasado, sino que los fenómenos históricos de fondo se han
desarrollado de manera lenta y sostenida, explicando así los fenómenos revolucionarios tales como
la caída del Imperio Romano, el surgimiento del Imperio Carolingio, las Cruzadas , el Renacimiento
o la Reforma Protestante.
En el presente estudio utilizaremos una periodización no convencional, con meros propósitos
didácticos, para poner de relieve los movimientos y fenómenos políticos, sociales, económicos y
culturales más importantes del período, y también para no constreñirnos a un esquema
convencional que pudiera dar la ilusión de que cada período es un "bloque" totalmente distinto al
"bloque" anterior o posterior.
Epoca de los Reinos Germanorromanos (siglos V, VI y VII)
La caída del Imperio Romano
Puede decirse que los fenómenos sociales que desembocaron directamente en la Edad Media,
comenzaron durante la gran crisis que asoló al Imperio Romano en el siglo III (años 235 a 284). La
prolongada guerra civil que azotó al Imperio en ese medio siglo propició una serie de
revolucionarios cambios sociales, que crearían el embrión de la futura sociedad feudal.
Concretamente, en esas fechas la vida comercial en muchas regiones del Imperio disminuyó
considerablemente, y los grandes terratenientes y latifundistas comenzaron a cobrar mayor
poderío, a medida que la autoridad central romana se debilitaba, y que la vida agraria volvía a ser
el principal foco de actividad económica. Dichos terratenientes, aunque nominalmente reconocían
la autoridad romana, en los hechos se irán sustrayendo cada vez más a ésta, esquivando en no
pocas ocasiones el pago de los impuestos, e incluso tomarán muchas veces sobre sí las labores
de defensa de la comunidad a su alrededor, frente a las cada vez mayores presiones de los
bárbaros germanos, más allá del limes, la frontera romana.
Si bien los gobiernos de Diocleciano (284-305) y Constantino (313-337) propiciaron un
robustecimiento de la autoridad central romana, ésta sólo podía mantenerse gracias a la
entronización de emperadores capaces de ejercer un férreo control sobre la maquinaria estatal,
algo que no siempre fue posible. En no pocas ocasiones durante el siglo IV, el Imperio Romano
quedó dividido incluso en dos goberanntes, repartiéndose las tareas administrativas. Finalmente
Teodosio el Grande dispuso que a su muerte (lo que ocurrió en 395), el Imperio se dividiera en dos,
por lo que ambas mitades ya no volvieron a reunirse más. Europa quedó entonces librada a su
suerte.
El año 378, por su parte, los romanos habían sufrido una seria derrota frente a los godos en la
Batalla de Adrianópolis, lo que había incrementado la presión bárbara sobre los dominios romanos.
En el año 406, un invierno inusualmente frío congeló el Río Rin, permitiendo el cruce de los
bárbaros a la ribera romana de éste. Al poco tiempo los visigodos saquearon Roma por primera vez
en siete siglos (410), al tiempo que otras tribus bárbaras se instalaron, de manera relativamente
pacífica, en las tierras imperiales, las que quedaron prácticamente reducidas a Italia. Finalmente,
en el año 476, el hérulo Odoacro dio un golpe de estado y derribó al último Emperador romano,
Rómulo Augústulo, el que carecía en los hechos de toda autoridad, como no fuera la simplemente
nominal.
Los Reinos Germanorromanos
A partir del siglo V, los bárbaros se instalaron en tierras romanas, repartiéndoselas y
fragmentándolas en numerosos reinos. La mayor parte de ellos eran germanos, aunque también
los hunos y los eslavos tuvieron destacada participación. Los vándalos se instalaron en España,
pero fueron expulsados por los visigodos en 429, sentando sus reales en el norte de Africa. España
pasó así a estar compartida entre visigodos y suevos. En la Galia se instalaron los burgundios, que
le dieron nombre a Borgoña, y los francos. En Inglaterra se instalaron los jutos, los anglos y los
sajones. En los Países Bajos se instalaron los frisios, ocupando el hueco dejado por los
anglosajones. Más al oriente se instalaron los hunos, que le dieron su nombre a Hungría.
Acaudillados por Atila, tuvieron destacada participación política en ese tiempo, pero después de la
muerte de Atila en 453, decayeron hasta ser reemplazados por otros invasores, los ávaros. En
Italia se sucedieron varias tribus: los hérulos primero, los ostrogodos después, y los lombardos al
último.
La estructura política y social de estos reinos era sumamente simple, debido en parte a las exiguas
necesidades de una sociedad que hacía siglos venía revirtiéndose a una forma de vida agraria y
campesina, sin grandes ciudades ni comercio, y en parte a la escasa cultura política de las bandas
bárbaras. Los Reinos Germanorromanos eran en general gobernados por un rey, que era el
caudillo de un grupo de nobles, por lo general bastante levantiscos e insumisos. En muchos casos,
los reyes germanorromanos ni siquiera tenían una capital fija, manteniendo una corte errante que
iba allí donde las necesidades militares hicieran menester. Los invasores eran tribus errantes que
eran al mismo tiempo ejércitos y poblaciones en movimiento, y que cuando se instalaron en las
tierras romanas, no tuvieron mayor problema en mezclarse con la población local. La gran línea de
fractura la constituían las dos poblaciones, la romana y la germánica, cada una de las cuales se
regían por un juego diferente de leyes, pero éstas fueron uniformándose progresivamente, tanto en
la Galia como en Hispania hasta que hacia el siglo VII no quedaba rastro alguno de separación
entre ambas comunidades.
En general, los reinos germanorromanos fueron efímeros. Los burgundios perecieron a manos de
los hunos y los hérulos en las de los ostrogodos, todo eso en el siglo V. En el siglo VI, los suevos
fueron conquistados por los visigodos, al tiempo que el Imperio Bizantino invadía a los ostrogodos
y vándalos, para ser expulsados después del norte de Italia por los lombardos. Hacia el año 600,
los únicos pueblos germanos supervivientes eran los francos en la Galia, los visigodos en España,
los lombardos en Italia y los anglosajones en Inglaterra.
El Cristianismo y los bárbaros
La única gran institución romana que consiguió sobrevivir al cataclismo social, fue la Iglesia
Católica, aunque de manera bastante maltrecha. En el siglo V, Papas como León I fueron capaces
de mantener algún resto de autoridad, pero en el siglo VI, su situación llegó a ser desesperada, en
parte porque el Imperio Bizantino, protector nominal de la Iglesia, la dejó librada a su suerte,
agotado por las guerras que Justiniano (527-565) desató en vano para tratar de reconstuir el
antiguo Imperio Romano. Sin embargo, la eficaz labor administrativa del Papa Gregorio I el Grande
permitió asentar la Iglesia sobre bases nuevas, permitiéndole tomar un segundo aire que la llevó a
una nueva y vigorosa expansión.
Varias tribus germanas eran cristianas, pero no profesaban el catolicismo, sino una variante distinta
de éste, el arrianismo. De este modo, convertirlos fue labor relativamente sencilla. Algunos pueblos
pasaron directamente desde el paganismo al catolicismo, como los francos, cuando su rey
Clodoveo se convirtió en 496. En cuanto a los arrianos, los últimos de ellos en hacerse católicos
fueron los visigodos, cuyo rey Recaredo se convirtió en 589. Sólo los lombardos, quienes llegaron
en la última oleada invasora, permanecieron paganos hasta su fin, en el siglo VIII, mientras que los
anglosajones pasaron del paganismo al cristianismo en el siglo VII.
En Irlanda, por su parte, había sobrevivido una comunidad cristiana, aislada de Europa por la
barrera pagana de los anglosajones. Con el tiempo evolucionaron de manera diferente al
cristianismo continental, haciendo florecer el cristianismo celta. Estos cristianos celtas conservaron
mucho de la antigua tradición latina, la cual compartieron con Europa continental apenas la oleada
invasora se hubo calmado un poco. En el siglo VI, los irlandeses saltaron a Inglaterra, y en el siglo
VII fundaron monasterios en la Galia, en Suiza (Saint Gall, e incluso en Italia, destacándose
particularmente los nombres de Columba y Columbano. Las Islas Británicas fueron durante unos
tres siglos el vivero de importantes nombres para la cultura: el historiador Beda el Venerable, el
misionero Bonifacio de Alemania, el educador Alcuino de York, el teólogo Juan Escoto Erígena,
entre otros.
Epoca del Imperio Carolingio (siglos VIII y IX)
Ascenso del Imperio Carolingio
Hacia el siglo VIII, la situación política europea se había estabilizado. En oriente, el Imperio
Bizantino era fuerte otra vez, gracias a una serie de emperadores competentes. En occidente,
algunos reinos aseguraban relativa estabilidad a varias regiones: Northumbria a Inglaterra,
Visigotia a España, Lombardía a Italia, y el Reino Franco a la Galia. En realidad, el "reino franco"
era un compuesto de tres reinos: Austrasia, Neustria y Aquitania. Eran gobernados, de manera
bastante inepta, por los reyes de la dinastía de los Merovingios, pero éstos, llamados "reyes
holgazanes", abandonaron el gobierno en manos de los llamados mayordomos de palacio. Uno de
ellos, Carlos Martel, adquirió tanto prestigio y poder después de derrotar a los árabes en la Batalla
de Poitiers, que se convirtió virtualmente en un rey sin corona. Su hijo, Pipino el Breve, trabó una
ventajosa alianza con el Papado, a resultas de lo cual fue proclamado rey. Se produjo de este
modo el reemplazo de los Merovingios por los Carolingios. El hijo de Pipino, Carlomagno, unificó
bajo su cetro los reinos francos, e inició una serie de guerras tendientes a expandir sus dominios.
De este modo los lombardos y ávaros fueron destruidos, perdiendo su independencia y
desapareciendo para siempre de la historia, al tiempo que los sajones eran incorporados al
naciente mundo occidental. Carlomagno erigió así el Imperio Carolingio, que abarcó la Galia, Italia
y parte de Alemania.
El Imperio Carolingio fue la primera gran potencia política europea desde la extinción del Imperio
Romano, y esto la Iglesia Católica lo reconoció, coronando a Carlomagno como Emperador de
Occidente, en el año 800. Carlomagno negoció de igual a igual con otras grandes potencias de la
época, como el Imperio Bizantino, el Emirato de Córdoba, y el Califato Abasida. Al mismo tiempo,
mandó llamar a la intelectualidad de su tiempo a sus dominios, dándole, con la colaboración de
Alcuino de York, impulso al llamado Renacimiento carolingio.
También intentó reformar el aparato administrativo, creando un sistema político algo más
centralizado. De este modo, creó los "condados" como divisiones administrativas, y a su cargo
puso a un conde. También creó las marcas, poniendo a su cargo a los marqueses. Diseñó también
una administración central, a cargo de los missi dominici, verdaderos inspectores estatales que
velaban por la correcta aplicación de las leyes y edictos carolingios. De este modo, Europa vivió
una pequeñá edad de oro, a inicios del siglo IX.
El hundimiento del Imperio Carolingio
Si bien el Imperio Carolingio trajo por primera vez un cierto orden a la Europa medieval, incluyendo
la resurrección de la antigua cultura latina, este proyecto político estaba destinado a fracasar,
fundamentalmente por dos razones. En primer lugar, la sociedad agraria campesina sobre la que
estaba construido, imposibilitaba el adecuado funcionamiento de un servicio civil eficiente,
necesario para mantener un imperio de tales dimensiones. En segundo lugar, Carlomagno
derrochó energías valiosísimas en treinta años de guerras continuas.
Muerto Carlomagno en 814, el trono recayó en su hijo Ludovico Pío, tan débil que sus hijos
empezaron a pelearse el dominio del Imperio en vida. Finalmente se lo repartieron en el año 843,
en el Tratado de Verdún. Como consecuencia de éste surgieron las semillas de lo que actualmente
son Francia y Alemania. A la vuelta de pocos años, sus sucesores balcanizaron aún más al
Imperio, hasta que los "reyes" oficiales en realidad no eran demasiado superiores a sus supuestos
súbditos (condes, duques, marqueses), en cuanto a poder y extensión de sus dominios.
Adicionalmente, Europa fue duramente golpeada por tres pueblos invasores bárbaros, los vikingos,
sarracenos y magiares, cuyas correrías terminaron de aniquilar las reservas de vida cívica que
empezaban a florecer bajo los carolingios. De este modo, el primer intento por resucitar el Imperio
Romano en Europa fracasó, en beneficio de un sistema social mucho más atómico y fragmentario,
llamado el feudalismo.
Epoca del Feudalismo (siglos X, XI y XII)
El sistema feudal
El fracaso del proyecto político centralizador de Carlomagno llevó a la entronización sin mayores
contrapesos, de un sistema político, económico y social llamado el Feudalismo. Dos instituciones
eran claves para su funcionamiento: por una parte la división de la sociedad en tres estamentos
(nobleza, clero y campesinado), y por la otra, la construcción de una jerarquía de señores y
vasallos vinculados a través del vasallaje. Por el vasallaje, un vasallo se ofrecía a un señor,
entablando un contrato en donde el vasallo debía obediencia y lealtad, y el señor debía protección.
Los tres órdenes eran consecuencia básica de la estructuración de la sociedad a la caída del
Imperio Romano. Así, los señores feudales eran la continuación de aquellos grandes terratenientes
que habían imperado casi sin contrapesos (exceptuado el paréntesis carolingio) desde el siglo II,
mientras que el campesinado era la continuación del antiguo agro romano. El clero, por su parte,
tenía su lugar gracias a la influencia que la Iglesia Católica había ejercido desde finales del
Imperio, y comienzos de la Edad Media. El campesino lo era por herencia, y rara vez tenía
oportunidad de ascender de nivel. El noble lo era generalmente por herencia, aunque en ocasiones
podía alguien ennoblecerse como soldado de fortuna, después de una victoriosa carrera de armas
(como fue el caso, por ejemplo, de Roberto Guiscardo). El clero, por su parte, era reclutado por
cooptación. Todo esto le daba al sistema feudal una extraordinaria estabilidad, en donde había "un
lugar para cada hombre, y cada hombre en su lugar", al tiempo que una estraordinaria flexibilidad,
porque permitía al poder político y económico atomizarse a través de toda Europa, desde España
hasta Polonia.
Esta nueva estructura social encontró concreción en una nueva forma de arte, el llamado arte
románico, cuyo antecedente más remoto es la Capilla Palatina de Aquisgrán construida en tiempos
del Imperio Carolingio, y que manifestó todo su esplendor en el llamado Estilo Otónico que imperó
en Alemania durante el siglo X, y comienzos del siglo XI.
La expansión del sistema feudal
La enorme flexibilidad del Feudalismo como sistema social permitió el desarrollo de dos procesos,
que se retroalimentaron mutuamente favoreciendo una rápida expansión. Por una parte, al
asignarle un lugar a cada persona dentro del sistema, permitió la expulsión de todos aquellos para
quienes no había lugar, enviándolos como colonos y aventureros militares a tierras no ganadas
para la Cristiandad Occidental, expandiendo brutalmente sus límites. Por la otra, al asegurar un
cierto orden y estabilidad social para el mundo agrario, difuminando las guerras hasta convertirlas
en una especie de rumor sordo de la época, permitió el inicio de la concentración de riquezas que
llevaría a la vuelta de poco tiempo al resurgimiento económico de Europa Occidental.
La expansión geográfica se llevó a cabo, o se intentó llevar a cabo, al menos, en varias
direcciones. En España, después de la disolución del Califato de Córdoba en al año 1031, se creó
un vacío de poder que los reinos feudales cristianohispánicos de Castilla, León, Navarra, Portugal y
Aragón intentaron aprovechar, expandiéndose en la llamada Reconquista. En las Islas Británicas,
el reino de Inglaterra intentó repetidas veces invadir a Gales, Escocia e Irlanda, con mayor o
menos éxito. En Europa del Norte, acabadas las invasiones de los vikingos, las riquezas
saqueadas por éstos sirvieron para adquirir productos y servicios occidentales, creando en el Mar
Báltico una próspera red comercial que atrajo a los escandinavos a la civilización occidental.
Muchos descendientes de vikingos, apodados los normandos, se instalaron en Normandía,
Inglaterra, Sicilia y el sur de Italia, creando reinos centralizados y eficientes: entre ellos están
Rolón, Guillermo I el Conquistador y Rogerio I de Sicilia. En el este, en el año 955, Otón el Grande
batió a los magiares en la Batalla del Río Lech y reincorporó Hungría a Occidente, al tiempo que
comenzaba la "germanización" de Polonia, hasta entonces pagana. Poco después, en tiempos de
Enrique el León (siglo XII), los alemanes se abrían paso a través de las tierras de los vendos, hasta
el Mar Báltico. Pero sin lugar a dudas, el movimiento de expansión más espectacular, aunque
finalmente fallido, fueron las Cruzadas, en donde selectos miembros de la nobleza guerrera
occcidental cruzaron el Mar Mediterráneo e invadieron el Medio Oriente, creando reinos de efímera
duración.
El balance de esta expansión fue espectacular. En el Tratado de Verdún de 843, el sistema social
cristianooccidental se expandía por Francia, parte de Alemania, la porción sur de las Islas
Británicas, y la mitad norte de España e Italia. Un siglo después, en la época de Batalla del Río
Lech (955), no había región de Europa Occidental a salvo de los invasores bárbaros. En la época
de la Batalla de Navas de Tolosa (1212), por su parte, habían sido "occidentalizadas" toda Italia
hasta Sicilia, Escocia, Gales, cerca de la mitad de la Península Ibérica, Polonia y Escandinavia, y
las incursiones militares occidentales habían puesto en manos occidentales lugares tan lejanos
como Constantinopla o Jerusalén, al tiempo que tierras como Lituania, Bohemia o Irlanda estaban
sometidas a una presión militar occidental cada vez mayor.
Todo esto tuvo por consecuencia la creación de nuevas redes comerciales, que contribuyeron a la
suerte de "milagro económico" que a veces es llamada la revolución del siglo XII.
El Imperio, el Papado, las comunas y los reinos periféricos
En el corazón del sistema feudal habían dos grandes instituciones: el Imperio y el Papado. Desde
la época del Imperio Carolingio, el Papado se había buscado una institución politica lo
suficientemente fuerte para que lo defendiera y se transformara en su brazo armado. Después del
desplome carolingiuo, tales esperanzas parecían condenadas al fracaso, hasta que el victorioso
Otón el Grande amasó tanto poder entre sus manos, que el Papa no vaciló en coronarle
Emperador Nació así, el año 962, el llamado Sacro Imperio Romano Germánico, cuya existencia
nominal se prolongaría hasta 1806, aunque quedaría desarticulado en los hechos mucho antes,
con lel Tratado de Westfalia de 1648.
Las relaciones entre el Papado y el Imperio degeneraron rápidamente, cuando el Imperio, lejos de
defender a la Iglesia, pretendió convertirla en algo así como un "departamento de estado". Frente a
esto, el Papa Gregorio VII lanzó la Querella de las Investiduras en el año 1075, que fue el
comienzo de una larga guerra que resultó mortal para ambas facciones, puesto que las debilitó en
grado sumo. Después de la muerte de Federico II de Alemania en 1250, el Imperio nunca más
pudo enfrentarse al Papado, y sus pretensiones ecuménicas quedaron reducidas a polvo. Pero el
Papado entró en una fuere crisis, que lo llevó por el cautiverio de Babilonia primero, y por el cisma
de occidente (1378-1417) después.
Quienes aprovecharon esta situación fueron, por una parte, las comunas, y por otra, los reinos. Las
comunas eran ciudades italianas que en medio de la guerra, ganaron autonomía, acumulando
enormes riquezas, y promoviendo el ascenso de una nueva clase social, la burguesía, enclavada
fuera del sistema feudal. Los reinos de Castilla, Aragón, Portugal, Navarra, Sicilia, Francia,
Borgoña, Sicilia, Inglaterra, Escocia y Polonia, por su parte, ingresaron en una veloz carrera para
expandirse a costa de sus vecinos, muchas veces extorsionando a la Iglesia para obtener
concesiones y prerogativas, a cambio de su apoyo contra el Imperio.
La época feudal vio también el surgimiento de la Escolástica moderna, siendo Pedro Abelardo,
Bernardo de Claraval, Tomás de Aquino y Juan Buenaventura, entre otros, sus más importantes
representantes. Los máximos intelectuales defensores del sistema feudal fueron, de lejos, los
cistercienses, a los cuales dio impulso el mencionado Bernardo de Claraval, en la primera mitad del
siglo XII.
Europa en 1328
Europa en la década de 1430
Europa en la década de 1470

Epoca de los burgos (siglos XIII, XIV y XV)


El surgimiento de la burguesía
A lo largo del siglo XII, el crecimiento de las redes comerciales hizo surgir los burgos, ciudades que
gozaban de una mayor o menor autonomía con respecto a los poderes feudales, y en donde
prosperó una nueva clase social, la burguesía. Los burgueses eran verdaderos outsiders del
sistema feudal, porque no eran ni señores feudales, ni campesinos, ni hombre de iglesia, sino
comerciantes, y vivían inmersos en un mundo de relaciones mercantiles, y no vinculados a
vasallaje. "Los aires de la ciudad dan libertad" se decía, y con raz