Vous êtes sur la page 1sur 85

Espacios proyectivos, Visión Sintética 1

Espacios proyectivos,
Visión Sintética

No vivimos dentro de un plano. Nuestro mundo comprende MÁS de dos


dimensiones. Así, nuestras construcciones geométricas abstractas — si en
alguna medida quieren reflejar nuestra realidad percibida — no podrían
limitarse a los planos .
Nos aprestamos pues a iniciar el estudio de la estructura de incidencia más
general dentro de la Geometría Proyectiva, i.e., el espacio proyectivo .
Como verás en lo que sigue, el estudio de los espacios proyectivos de
dimensiones MAYORES QUE DOS , resulta considerablemente MÁS SIMPLE que el de
los planos proyectivos. Desde ya te adelanto el motivo: en un espacio
proyectivo cuya dimensión sea mayor que 2 , el Teorema de Desargues es
un AUTÉNTICO teorema , es decir, una proposición demostrable a partir de los
axiomas básicos .
Expresado en términos sencillos: puede probarse — y lo haremos muy pronto
— que no hay espacios proyectivos (de dimensión MAYOR QUE DOS ) no
arguesianos . T ODO espacio proyectivo de dimensión MAYOR O IGUAL QUE 3 es,
automáticamente, arguesiano .
Como en toda la obra, el estudio de este tipo de estructura geométrica lo
haremos siguiendo el siguiente plan:
 definir la estructura (i.e., llevar a cabo la “tarea legal” previa);
 explicar brevemente las motivaciones subyacentes a los axiomas y
definiciones adoptadas (i.e., tener un “rasgo de decencia”, la que no
debería ser incompatible con la docencia … );
 proporcionarte ejemplos, que sirvan para allanarte algo la cuesta arriba;
 definir los morfismos ADECUADOS a la estructura considerada, y
estudiarlos en la medida de lo factible;
 emplear lo descubierto en el paso anterior, para TIPIFICAR las instancias de
la estructura considerada.
2 Estructuras de incidencia y sus morfismos

0. Estructuras de Incidencia y sus morfismos

Ahora daremos cabal cumplimiento a la promesa que en su momento te


formulamos, a saber: Mostrarte cómo se puede desarrollar la Geometría de
manera totalmente formal , es decir, libre de ataduras a preconceptos de
índole filosófica o empírica.
Como te hemos dicho y repetido ya varias veces, lo que estamos por empezar a
hacer NO ES “Álgebra disfrazada de Geometría” . Es Geometría, de pleno
derecho. En donde se emplea multitud de nociones, conceptos y resultados
algebraicos ¡qué duda cabe!
Es que hay nociones de índole algebraica que se emplean en toda la Matemática.
Pero nadie en su sano juicio se atrevería a decirle — por ejemplo — a un
topólogo o a un analista funcional, que su campo de estudio es “un mero
capítulo del Álgebra” … Basándose (al efecto de efectuar tan extemporánea
afirmación) en que el topólogo emplea la estructura de grupo , así como el
analista funcional, con toda certeza, hará uso continuo de la estructura de
espacio vectorial .
Y … sin embargo, ha habido matemáticos reputadísimos que han efectuado la
afirmación de que la Geometría Proyectiva sería “un mero capítulo del Álgebra
Lineal” . Como verás en esta parte de la obra, en todo caso sería un capítulo de
la Teoría de Reticulados …
Claro está que — como puede verlo cualquiera que lea la excelente obra
francesa Introduction aux structures algébriques de Lévy-Bruhl (Dunod, Paris,
1969 ) — entonces TODO el Álgebra Lineal sería asimismo un mero capítulo de
la Teoría de Reticulados …
Huelgan los comentarios. Exageraciones aparte, digamos que la Geometría tiene
un punto de vista NETAMENTE DIFERENTE del que tiene el Álgebra.
En las páginas que siguen, introduciremos la estructura básica en el estudio de
la Geometría, a saber, las estructuras de incidencia .

Concepto de estructura de incidencia

Desde Euclides, una geometría es un sistema abstracto basado en tres


TÉRMINOS INDEFINIDOS : puntos , rectas , y una relación entre puntos y
rectas, llamada incidencia .

Notemos que :
La FINALIDADde esa relación de incidencia es ABSTRAER la noción de que un
punto ESTÉ SOBRE una recta , o bien de que una recta PASE POR un punto .
Espacios proyectivos, Visión Sintética 3

Definición 1
Estructuras de incidencia
Llamaremos estructura de incidencia , a una TERNA ORDENADA
I  (P ,  ,  )
de conjuntos :
 P , el conjunto de los puntos de nuestra estructura de incidencia I ;
  , el conjunto o clase de las rectas de nuestra estructura de incidencia
I;
   P , la relación de incidencia de nuestra estructura de
incidencia I .
Terminología :
Sean P  P y l   . Entonces
Cuando se SATISFAGA P  l , esto es, cuando el punto P y la recta l se
encuentren EN la relación  (o sea, el PAR (P , l)   ) , entonces diremos que:
 el punto P está sobre la recta l ;
 la recta l pasa por el punto P ;
 el punto P y la recta l inciden, en la estructura I .
Pero, veamos ya algunos

Ejemplos 1
Estructuras de incidencia :
1. Siendo K un cuerpo , consideremos la siguiente estructura de incidencia,
a la que llamaremos plano afín sobre el cuerpo K (y asimismo — a veces
— plano afín analítico sobre el cuerpo K ):
 P  K2 ; es decir, los puntos son los pares ordenados de elementos
del cuerpo K .
 Las rectas son los trasladados de los SEV 1–dimensionales . Esto es,
aquellos conjuntos cuyo elemento genérico sea del tipo
 W  Sev(K )
2


   es el  ELEMENTO  GENÉRICO   de W
     , en donde 
   es un vector  CUALQUIERA en K
2

 y  dim (W)  1

 entendemos por incidencia , la relación común y corriente de
PERTENENCIA , entre un vector y un subconjunto .

2. Siendo K un cuerpo, consideremos la siguiente estructura de incidencia,


a la que llamaremos el plano proyectivo analítico sobre el cuerpo K :
4 Estructuras de incidencia y sus morfismos

 P  Sev 1(K3 ) , esto es, la totalidad de los SEV 1–dimensionales del EV

K3 .
Dicho de otro modo: un punto será cualquier SEV 1–dimensional del
K3 .
   Sev 2 (K3 ) , esto es, la totalidad de los SEV 2–dimensionales del EV

K3 .
Dicho de otro modo: llamaremos recta , a todo SEV 2–dimensional del
K3 .
 La relación de incidencia , se DEFINE como la relación  entre SEV
del K3 .
En otras palabras: se dirá que
P l SII P  l ( como s u b e s p a c i o s ) .

Nota acerca de la relación de incidencia :


El primero de los dos ejemplos anteriores, podría sugerirnos la idea de
“simplificar” un poco las cosas, considerando que
 las rectas sean SUBCONJUNTOS de puntos ;
 la relación de incidencia , sería en tal caso la mera pertenencia .
En el caso de las estructuras proyectivas (plano y espacio proyectivos), veremos
luego que PUEDE hacerse esa suposición 1 . En el caso general, NO vamos a
hacerlo, porque sería limitar la generalidad de la exposición.
Obvio es decir, por otra parte, que para las estructuras afines TAMBIÉN puede
escogerse el modelo simplificado (porque ya lo hemos estado haciendo).

Morfismos de estructuras de incidencia

Ahora vamos a introducir (como es el caso en TODAS las estructuras


matemáticas) una noción apropiada de morfismo u homomorfismo . Esto es,
una cierta clase de mapas que preserven la estructura geométrica .
H AY que hacer esto, por dos motivos principales:
 ante todo (y como ocurre con todos los sistemas abstractos), necesitamos
disponer de algún medio que nos permita averiguar si dos geometrías
son “la misma” 2;
 además, lageometría es sencillamente el estudio de aquellas
propiedades de un espacio que sean PRESERVADAS por ciertas clases de
mapas OPERANTES sobre ese espacio .

1
Y — en realidad — CO NVIENE hacerlo …
2
Quizás, verbalizada empleando términos diferentes …
Espacios proyectivos, Visión Sintética 5

Ahora bien, en las estructuras algebraicas , aquello que debería PRESERVARSE


son las operaciones vigentes en una dada estructura. Pues cada estructura
algebraica se define siempre en términos de determinadas leyes de
composición u operaciones .
Por otra parte, las estructuras geométricas se definen en términos de la
noción primitiva básica de incidencia . Se infiere pues que ÉSA es la noción que
deberíamos PRESERVAR , al aplicar nuestros mapas.
De este modo, vamos a IMPONER condiciones tales que nos GARANTICEN que, si
un dado punto incide con una recta , entonces se cumpla una relación
ANÁLOGA con las imágenes . Pero … hay un problema …

¡Se necesitan dos mapas!


Supongamos que, a las dos estructuras de incidencia “en danza”, las llamamos
I  (P ,  ,  ) e I'  (P', ' , ' ) .
Uno desearía, entonces, que SI hacemos corresponder el punto P ' al punto P ,
Y la recta l ' a la recta l , ENTONCES se satisfaga la condición

P  l  P ' ' l ' .


Ahora que, SI UNO SE SITÚA EN LA POSICIÓN MÁS GENERAL , o sea, que puntos y rectas
son entidades ABSTRACTAS , que SÓLO se relacionan a través de la incidencia  ,
ENTONCES , forzosamente , vamos a necesitar dos mapas:
 un mapa para los puntos , i.e., aquel que definirá la correspondencia
funcional que LIGA el punto P ' al punto P ,
 y, ADEMÁS , un SEGUNDO mapa para las rectas de la estructura, esto es,
aquel que LIGA a la recta l ' con la recta l .

Esta duplicidad sólo podría evitarse, SI postulásemos a priori que las rectas
fuesen SUBCONJUNTOS DE PUNTOS . En las estructuras proyectivas , veremos que
hay derecho a trabajar de ese modo. Pero, en el caso general, NO EXISTE NINGÚN
MOTIVO que pueda inducirnos a presuponer esto.

Efectuada esa constatación, podemos enunciar esta

Definición 2
Morfismos de estructuras de incidencia
Sean dos estructuras de incidencia
I  (P ,  ,  ) e I'  (P', ' , ' ) .
Diremos entonces que un par ordenado   (P ,  ) de mapas
P : P  P' ,  :   '
es un morfismo de la estructura de incidencia I en la estructura de incidencia
I' , SII se satisface la condición
(1) (  P  P ) (  l   ) ( P  l  (P P ) ' ( l ) ) .
6 Estructuras de incidencia y sus morfismos

En vez de morfismo , se podrá emplear la terminología más tradicional


homomorfismo de estructuras de incidencia .
Mono, Epi e Isomorfismos :
Sea   (P ,  ) un morfismo de I en I' . Se dirá entonces que

  es un monomorfismo , SII AMBOS mapas, P Y  , resultan


inyectivos .
  es un epimorfismo , SII AMBOS mapas, P Y  , resultan
suryectivos .
  es un isomorfismo , SII AMBOS mapas, P Y  , resultan
biyectivos .
  es un automorfismo de I , SII I'  I , y ADEMÁS  es un
isomorfismo de I sobre sí mismo .
Estructuras de Incidencia Isomorfas :
Dos estructuras de incidencia, I e I' , se dirán isomorfas SII existe AL
MENOS UN isomorfismo de I sobre I' . Esta relación se denotará por

I  I' .

Observación
La definición que antecede impone condiciones sumamente rigurosas. En lo que sigue,
vamos a ir tratando de simplificarlas.
A ese efecto, empezamos por estudiar las composiciones de morfismos.

Composiciones de morfismos

Tal como se hace con los morfismos de estructuras algebraicas, podemos dotar
a nuestros morfismos de estructuras de incidencia de una ley de
composición :
Definición 3
Composición de morfismos
Sean TRES estructuras de incidencia I  (P ,  ,  ) , I'  (P', ' , ' ) ,
I"  (P" , " , " ) , y consideremos morfismos
  (P ,  ) : I  I'
'  ('P , ' ) : I'  I"
Llamaremos entonces producto de los dos morfismos, a
(2) '  (P'P ,  ' ) .
En vez de producto de dos morfismos, hablaremos asimismo de su
composición .
Espacios proyectivos, Visión Sintética 7

El resultado que sigue es bien evidente:


Lema 1
El producto de dos morfismos es siempre un morfismo :
Sean tres estructuras de incidencia I  (P ,  ,  ) , I'  (P', ' , ' ) ,
I"  (P" , " , " ) , y consideremos morfismos
  (P ,  ) : I  I'
'  ('P , ' ) : I'  I"
Entonces el producto de  y ' será SIEMPRE un morfismo
' : I  I" .
El siguiente resultado, cuya demostración es sumamente fácil, se usará (a veces)
sin mencionarlo explícitamente:
Proposición 2
El grupo de los automorfismos
El conjunto Aut (I) de todos los automorfismos de una estructura de
incidencia I admite una estructura de grupo , relativamente al producto
definido por la relación (2) .
El elemento neutro será
1 I  (1P , 1 ) .

Subordinación del mapa de las rectas, al mapa de los puntos

Subordinar un mapa de rectas a un mapa de puntos :


En un corto comentario anterior, te dije que estábamos imponiendo, sobre
nuestros morfismos de estructuras de incidencia , condiciones sumamente
rigurosas. Hay quien diría “delirantes” …
En la geometría expuesta al modo tradicional, lo que se hace es subordinar el
mapa  de las rectas , al mapa P de los puntos . Ahora vamos a SENTAR LAS
BASES para poder hacer eso, a través de la noción de alineación de puntos .
Debes anotarte esto en mente: TODO lo que viene inmediatamente a
continuación, se está haciendo con esta idea directriz: lograr que nuestro mapa
puntual nos permita DETERMINAR UNÍVOCAMENTE a nuestro mapa de rectas .
Precisando las ideas: A priori , la definición dada de isomorfismo entre dos
estructuras de incidencia , nos obliga a trabajar con un ENTE COMPUESTO ,
  (P ,  ) , cuyas componentes serían un cierto mapa puntual ( P ) y un
cierto mapa lineal — i.e., aplicable a las rectas de nuestra estructura,  .
La idea es, pues, , que nos permitan determinar
IMPONER CIERTAS RESTRICCIONES
unívocamente el mapa  , en términos del OTRO mapa, P . A ese efecto,
necesitamos efectuar cierta
8 Estructuras de incidencia y sus morfismos

Definición 4
Colinealidad de tres puntos
Sea I  (P ,  ,  ) una estructura de incidencia . Entonces
Dados tres puntos P , Q , R , se dirá que los tres puntos resultan colineales en
I , SII existe ALGUNA recta l   , tal que
P l y Q l y R l .

Colineaciones entre dos estructuras de incidencia

En base a la precedente — que no es más que una convención


DEFINICIÓN
terminológica — damos la definición clave que nos permitirá llevar a cabo la
simplificación de hipótesis deseada:
Definición 5
Colineaciones entre dos estructuras de incidencia
Sean I  (P ,  ,  ) e I'  (P', ' , ' ) dos estructuras de incidencia .
Un mapa biyectivo
 : P  P'
— SUPUESTO que realmente EXISTA uno — se dirá una colineación de I en I' ,
SII se satisface la condición
(  P , Q , R  P)
( (P , Q , R colineales  EN I)  (P , Q , R colineales  EN I' ))

El siguiente resultado es de demostración inmediata:


Proposición 2
El grupo de las colineaciones
Sea I  (P ,  ,  ) una estructura de incidencia . Llamemos Col (I) al conjunto
de TODAS las colineaciones de la estructura I en sí misma. Entonces:
1. El mapa identidad 1P es miembro de Col (I) .
Espacios proyectivos, Visión Sintética 9

2. El producto de dos miembros cualesquiera de Col (I) , será siempre un


miembro del Col (I) .
3. El mapa recíproco de cualquier miembro de Col (I) , será siempre un
miembro del Col (I) .
4. Por ende, Col (I) es un grupo, el cual es un subgrupo del grupo simétrico,
o grupo de TODAS las permutaciones 3
del conjunto P ,  (P) .

Definición 6
El grupo de las colineaciones de una estructura de incidencia
El grupo Col (I) , al que alude la proposición anterior, se llamará el grupo de las
colineaciones de la estructura I .
La demostración del siguiente resultado, consiste meramente en aparear las dos
DEFINICIONES , la de isomorfismo de estructuras de incidencia y la de colineación de
una estructura de incidencia en otra :

Proposición 3
Todo isomorfismo induce una colineación
Sea   (P ,  ) : I  I' un isomorfismo de estructuras de incidencia .
Entonces P será SIEMPRE una colineación de I en I .

Necesitamos imponer restricciones


adicionales sobre nuestras rectas

Para que podamos llegar algo más lejos en el estudio de nuestras estructuras de
incidencia, y muy en particular, si queremos que nuestros isomorfismos de
estructuras de incidencia NOS SIRVAN REALMENTE DE ALGO, será necesario imponer
ciertas restricciones adicionales sobre la familia de las rectas . Es que — tal y
como las tenemos hasta acá — son DEMASIADO generales.
Por otra parte, la consideración del mundo físico, así como las ideas intuitivas
que tenemos desde nuestros estudios geométricos elementales, nos indican que
una “recta” debiese satisfacer algunos requerimientos adicionales. Por ejemplo,
en lo tocante al número mínimo de puntos que debería contener.
A partir de aquí, SÓLO vamos a considerar aquellas estructuras de incidencia
sujetas a las restricciones adicionales que siguen:
(RE) Existencia, y unicidad, de la recta enlace :
Dado CUALQUIER par de puntos DISTINTOS P , Q , siempre existirá
EXACTAMENTE UNA recta l tal que
P l y Q l .

3
Terminología: TODO mapa biyectivo de un conjunto S sobre sí mismo se llama una
permutación de S .
10 Estructuras de incidencia y sus morfismos

Notación :
La ÚNICA recta , cuya existencia GARANTIZA este axioma, se denotará en lo
sucesivo por
l  P Q
y en el caso de las estructuras afines y proyectivas , ASIMISMO como
l  P Q .

Advierte que estas notaciones SÓLO tendrán sentido cuando


 realmente VALGA el axioma (RE)
 y ADEMÁS sea P  Q .

(Ab2) TODA recta incide con POR LO MENOS 2 puntos .

Notar :
El axioma (Ab2) es un axioma de abundancia .
La función que cumple este axioma, dentro de todo nuestro andamiaje, es
garantizar que — dentro de cada recta — haya una cantidad suficiente de
puntos (para nuestros propósitos).

Las colineaciones determinan


isomorfismos de estructuras de incidencia

El par de condiciones (RE) y (Ab2), sirven al efecto de poder INVERTIR la


afirmación efectuada en la Proposición 3 del apartado anterior :
Teorema 4
Toda colineación determina un isomorfismo de estructuras
Sea  una colineación de I en I' . Entonces:
Dada CUALQUIER recta l  
 SIEMPRE existirán puntos P , Q , tales que
(P  Q ) Y (P  l ) Y (Q  l ) ,
 de donde
l  P Q .
A partir de acá, DEFINIMOS

*l  P  Q

Se tendrá así:
1. *l resulta independiente del par de puntos P , Q empleados para
4
definirla .

4
Es decir: tiene entidad geométrica .
Espacios proyectivos, Visión Sintética 11

2. La correspondencia
* : l   * l
define un mapa biyectivo de  sobre ' .
3. ( , * ) es un isomorfismo de I sobre I' .

Demostración: Veámoslo por pasos.


* ltiene entidad geométrica, esto es, resulta
independiente del par de puntos P , Q empleados para definirla :
Para ver esto, supongamos que ESA MISMA recta incida con OTROS DOS puntos
5
DIFERENTES .
Es decir, sean P1 , Q 1  P , tales que
P1  Q 1 y P1  l y Q1  l .
Tenemos entonces que:
P , Q , P1 colineales, DE DONDE P , Q , P1 colineales
P , Q , Q 1 colineales, DE DONDE P , Q , Q 1 colineales .
Además
 P  Q  ,   y ADEMÁS
P  Q , ya que  .
   es un mapa BIYECTIVO

Se infiere así que
P1  P  Q (recta enlace de P y Q , en I' )
Q 1  P  Q (recta enlace de P y Q , en I' )

Asimismo
 P  Q ,  y ADEMÁS
P1  Q1 , ya que  1 1
.
   es mapa BIYECTIVO

De todo lo cual, se concluye que
P1  Q 1  P  Q ,
ya que la recta enlace se encuentra UNÍVOCAMENTE definida.

La correspondencia
* : L  *L
define un mapa biyectivo de  sobre ' .
¿Te DAS cuenta de que eso, en realidad, es el contenido esencial de lo que acabamos de
probar? (Al estar BIEN DEFINIDA la correspondencia, por ende es funcional.)

5
Si NO HUBIESE más puntos, no hay problema, evidentemente …
12 Estructuras de incidencia y sus morfismos

El mapa * : l   *l es suryectivo :
Sea una l '  ' . El par de axiomas (RE) y (Ab2), nos dicen que será
l'  P '  Q '
en donde P ' , Q ' ( P '  Q ' ) son puntos ADECUADOS en P' .
Por otra parte, al ser  suryectivo , sabemos que existirán puntos P , Q  P ,
para los cuales sea
P  P ' y Q  Q ' .
Como  es un mapa biyectivo , y P '  Q ' , se infiere así que P  Q .
De donde:
l '  P '  Q '  P  Q  *(P Q) .
Es decir: el mapa * resulta suryectivo .

El mapa * : l   *l es inyectivo :
Sean l , m   , tales que
* l  * m .
Supongamos tener expresadas las dos rectas como
l  P Q y m  R S ,
para ciertos puntos apropiados (los dos axiomas nuevos nos GARANTIZAN la
factibilidad de eso). Entonces
De: se infiere: de donde:
* l  * m P , Q , R COLINEALES P , Q , R COLINEALES
* l  * m P , Q , S COLINEALES P , Q , S COLINEALES

De donde, a su vez, se deduce que


l  P Q  R  S  m ,
en virtud de la UNICIDAD de la recta enlace . Es decir: * resulta inyectivo .

( , * ) es un isomorfismo de I sobre I' :


Sean un punto P  P , y una recta l   .
Igual que en las otras demostraciones, sabemos que van a existir Q , R  P ,
tales que
QR y l  Q R .
Además
*l  Q  R .
Se tendrá, entonces,
Espacios proyectivos, Visión Sintética 13

P l  P , Q , R COLINEALES en I

 P , Q , R COLINEALES en I'
 P  ' *l
q.e.d.

Colineaciones e isomorfismos de estructuras de


incidencia resultan ser, esencialmente, la misma cosa

Probablemente hayas intuido la validez del siguiente resultado:


Teorema 5
Biyección entre colineaciones e
isomorfismos de estructuras de incidencia
Sean I e I' dos estructuras de incidencia isomorfas . Dado un isomorfismo
CUALQUIERA   (P ,  ) , consideremos la correspondencia

 :   (P ,  )  P
que a cada isomorfismo de estructuras de incidencia le hace corresponder su
colineación asociada . Entonces:
a. La correspondencia  define un mapa biyectivo , del conjunto de todos
los isomorfismos de I sobre I' sobre el conjunto de todas las
colineaciones de I en I' .
b. El respectivo mapa inverso será
 :   ( , * ) .
Demostración:
Ya sabemos que, dado CUALQUIER isomorfismo (P ,  ) de I sobre I' , el mapa
P será siempre una colineación .
Ahora, en el Teorema 4 hemos visto que (P , *P ) es también un isomorfismo .
Tomemos una recta arbitraria l   . Ya sabes que SIEMPRE la podremos
expresar como
l  P Q , en donde P , Q son dos puntos ADECUADOS .

Pero esto implica que


P l y Q l ,
de donde a su vez
PP '  l y PQ  ' L .
Por consiguiente
 l  PP  PQ

 *P l
(por el Teorema 4). De aquí que
14 Estructuras de incidencia y sus morfismos

  *P ,
de donde a su vez se infiere de modo obvio que
  1Iso ,
el mapa identidad del conjunto de todos los isomorfismos de I sobre I' .
Por otra parte, resulta trivial la afirmación de que  es el mapa identidad del
conjunto de todas las colineaciones de I en I' .
q.e.d.
En el caso particular importante en que I  I' , obtenemos el

Teorema 6
Isomorfismo entre los grupos Aut (I) y Col (I)

Los grupos Aut (I) y Col (I) son isomorfos .

Demostración: Consideremos dos automorfismos de I ,


  (P ,  ) y   (P ,  ) .
Tenemos entonces
()  (PP ,   )  PP  ( )( ) .
Por ende,  es un morfismo de Aut (I) en Col (I) , el cual resulta un
isomorfismo en virtud del teorema anterior .
q.e.d.

Se impone efectuar ahora mismo una simplificación


de la clase de las rectas, y de la incidencia

Bajo las hipótesis generales 6 que encabezan esta sección, podremos ALIGERAR el
modo de presentación de nuestra estructura de incidencia.
En las exposiciones modernas de la geometría, usualmente se considera a las
rectas como un cierto tipo particular de SUBCONJUNTOS DEL CONJUNTO DE LOS
PUNTOS . En cuyo caso, la relación de incidencia se INTERPRETA como la
pertenencia de un elemento a un subconjunto.
Eso, visto desde la óptica habitual en que se lee una relación de PERTENENCIA
P  l , como « P ESTÁ SOBRE l », resulta perfectamente lógico y natural.
Pero nosotros hemos partido, en cambio, desde un NIVEL DE ABSTRACCIÓN MAYOR ,
que nos obligó, por ejemplo, a realizar los morfismos de nuestras estructuras
de incidencia APAREANDO dos mapas, uno actuante SOBRE LOS PUNTOS , el otro
SOBRE LAS RECTAS .

No creas que el modo de exposición adoptado acá complica innecesariamente


las cosas. Te voy a dar mis fundamentos:

6
Es decir, los dos axiomas (RE) y (Ab2) …
Espacios proyectivos, Visión Sintética 15

 Si uno escoge el modo de presentación en que las rectas son meramente


SUBCONJUNTOS DE PUNTOS , en apariencia logra una exposición más simple.
Pero esa ilusión se pierde, cuando uno cae en la cuenta de que, por
ejemplo, se requiere imponer axiomas adicionales , tales como
P   .
Es decir, hay necesidad de prohibir la situación anómala en que un
mismo “bicho” podría considerarse A LA VEZ como “punto” Y como
“recta”.
 Te diré, por otra parte, que esa — diríamos — obligación de considerar
los mapas DE A PARES, que parecería algo terriblemente molesto, en
realidad es una ventaja .
Porque nos obliga a considerar POR SEPARADO la acción sobre los puntos
y la acción sobre las rectas . Cuál sea el beneficio de eso, te darás cuenta
cabal cuando empecemos a estudiar puntos fijos de nuestras
colineaciones.
 Y el argumento que viene es el definitorio: Como verás de inmediato, se
puede probar que TODA estructura de incidencia en la que valgan los dos
axiomas adicionales (RE) y (Ab2), resulta isomorfa a una estructura de
incidencia cuyas rectas son SUBCONJUNTOS DE PUNTOS , y en donde la relación
de incidencia es, precisamente, la pertenencia .

Simplificamos la presentación de nuestras estructuras de incidencia

La clave para lograr representar a las rectas mediante CONJUNTOS DE PUNTOS , se


encuentra encerrada en esta
Definición 7
Puntual de una recta
Para CUALQUIER recta l   , llamaremos puntual de l al subconjunto de
puntos
Pl   X  P : X  l  .

Con esta terminología obtenemos el siguiente resultado:


Teorema 7
Simplificación de una estructura de incidencia
Sea I  (P ,  ,  ) una estructura de incidencia. Hagamos

   Pl : l   
Entonces
I  (P , 

, )
será SIEMPRE una estructura de incidencia, isomorfa a la estructura original .
16 Estructuras de incidencia y sus morfismos

Demostración: Vamos a EXHIBIR un tal isomorfismo. A ese efecto, observemos


primero que la correspondencia
 : l  Pl
define obviamente un mapa suryectivo de  en   . Para ver que es una
biyección sólo nos resta verificar la inyectividad.
Sean entonces dos rectas l , m   , PARA LAS CUALES SE TENGA Pl  Pm . De
acuerdo con nuestros dos axiomas adicionales, (RE) y (Ab2),
(  P , Q  P ) ( ( P  Q )   Y   ( l  P Q ) ) .
De donde
P l y P  m ,
lo que a su vez, por la EXISTENCIA Y UNICIDAD de la recta enlace , nos permite inferir
que
m  P Q  l .
Es decir, que nuestro mapa  resulta inyectivo , y por ende biyectivo .
Como las dos estructuras de incidencia que queremos comprobar son isomorfas,
COMPARTEN su conjunto de puntos , para la parte puntual de nuestro
isomorfismo tomaremos simplemente el mapa identidad del conjunto P .
Vamos a ver, entonces, que (1P , ) realiza un isomorfismo .
En efecto:
 P l  P  Pl
(  P  P) (  l   )  

  1P P   l

.
con lo que queda probado que el par (1P , ) es un isomorfismo de I sobre I
q.e.d.

Convenciones a regir en todo lo que resta de la Geometría Proyectiva :


Dado que TODAS las estructuras de incidencia que vamos a encontrar de aquí en
adelante verifican los dos axiomas adicionales (RE) y (Ab2), el Teorema 7 nos
permite simplificar algo las notaciones, o hacerlas más “corrientes” .
Entonces, en todo lo que resta de la Geometría Proyectiva, vamos a ABANDONAR
el uso del símbolo  para denotar una relación de incidencia “abstracta”, y EN
SU LUGAR emplearemos frecuentemente el símbolo  , el cual — por su parecido
con el símbolo de pertenencia  — nos debería servir para “tranquilizar los
ánimos”.
Más aún: A menudo vamos a llevar al extremo la identificación posibilitada
por el Teorema 7, y con toda tranquilidad llamaremos “estructura de
incidencia” a un par ordenado (P , ) , dando así POR SENTADO que la relación de
incidencia vigente es la pertenencia .
Espacios proyectivos, Visión Sintética 17

1. El espacio proyectivo como estructura de incidencia

Ahora vamos a introducir la noción de espacio proyectivo , mediante un


proceso de “destilación” de algunas de las propiedades COMUNES al plano
proyectivo real P2  y al espacio proyectivo tridimensional real P3  .
Las propiedades básicas de incidencia, en el plano proyectivo real, no podrían
ser más simples:
 TODO par de puntos distintos ESTÁ SOBRE (y determina) una ÚNICA recta ;
 TODO par de rectas distintas SE CORTAN en un ÚNICO punto (y, por ende, lo
determinan asimismo).
Ahora, cuando uno intenta efectuar la extensión al espacio tridimensional,
aparece un problema :

La SEGUNDA de las dos proposiciones de arriba ¡no vale en P3  ! Es decir:


en el espacio proyectivo tridimensional real HAY rectas alabeadas .
¿Cómo “arreglamos” eso?

La idea básica no podría ser más simple, aunque su IMPLEMENTACIÓN


CONCRETA — a través de un axioma adecuado — fue cosa de unos dos siglos.

La idea, como te digo, es simple de entender en el P3  : en ESE espacio


proyectivo, tenemos la noción de planos , esto es, variedades lineales proyectivas
2–dimensionales . Basta emplear el modelo “analítico” que ya conoces: el
“diccionario” que nos permite “traducir” SEV del  4 como variedades lineales
proyectivas , cuyas respectivas dimensiones (proyectivas) sean una unidad
menores que las de los correspondientes SEV .
Pues bien: en el P3  , la siguiente ES una proposición verdadera:

T ODO par de rectas coplanares SE CORTAN .

El PROBLEMA , amigo mío, consistió en extender eso a una noción de espacio


proyectivo GENERAL .
Pues … ¿ QUÉ debería interpretarse por el adjetivo “coplanares” ? Todos los
intentos iniciales, conducían a razonamientos en círculo .
Hasta que llegó David Hilbert , quien aprovechó una idea del geómetra alemán
Pasch . Básicamente la misma idea fue desarrollada contemporáneamente por el
propio Pasch, así como por los insignes tratadistas americanos Veblen y Young
y el meritorio geómetra británico Coxeter .
El meollo de la cosa, consiste en introducir la coplanaridad (¡sin hacer
trampa!), a través de un axioma de contexto relativamente intuitivo.
18 Estructuras de incidencia y sus morfismos

Para no obligarte a recurrir a la oñicofagia histérica, procederemos a explicarte


YA y (¡esperemos!) aclararte un poco todo este lío.

Un conjunto de axiomas simples para la estructura de espacio proyectivo

Advertencia acerca de las notaciones :


Recuerda que decidimos que: vamos a abandonar el uso del símbolo I para
denotar una relación de incidencia “abstracta”, y en su lugar emplearemos el
símbolo

el cual — por su parecido con el símbolo de pertenencia  — nos debería
servir para “tranquilizar los ánimos”.
Más aún: Usualmente vamos a llevar al extremo la identificación, y con toda
tranquilidad llamaremos “estructura de incidencia” a un par ordenado (P , ) ,
dando así por sentado que la relación de incidencia vigente ES la pertenencia .

Definición 1
Espacio proyectivo
Llamaremos espacio proyectivo a toda estructura de incidencia
P  (P ,  , ) en donde se satisfagan los siguientes axiomas:

(RE) Existencia, y unicidad, de la recta enlace :


Dado CUALQUIERpar de puntos DISTINTOS P , Q, SIEMPRE existirá
EXACTAMENTE UNA recta l tal que

P l y Ql .
Notación :
La ÚNICA recta, cuya existencia garantiza este axioma, se llamará la
recta enlace de los dos puntos distintos P y Q , y se denotará en lo
sucesivo por
l  P Q
o bien (intercambiablemente) como
l  P Q -

Advierte que estas notaciones SÓLO TENDRÁN SENTIDO cuando sea


P Q.

(P) Coplanaridad :
Si P1 , P2 , P3 son tres puntos NO COLINEALES CUALESQUIERA, y si los
puntos Q1 , Q 2 verifican las condiciones
Q1  P2  P3 y Q2  P3  P1 .
Espacios proyectivos, Visión Sintética 19

ENTONCES existe algún punto Q 3 tal que se satisfaga


Q 3  P1  P2 y Q1 , Q 2 , Q 3 colineales .

Imagen mental :

(Ab,3,R) TODA recta incide con POR LO MENOS 3 puntos .

Crítica, motivación y explicación de los axiomas adoptados

El axioma (RE) :
El axioma (RE) que acaba de enunciarse, es exactamente EL MISMO que oportunamente
enunciáramos para los planos proyectivos.

El axioma de planaridad, (P) :


Este axioma constituye una modificación del axioma (I) , empleado en el caso de los
planos proyectivos. Lo necesitamos, precisamente, debido a que deseamos poder
considerar “espacios proyectivos” que NO SEAN — necesariamente — planos .
Ya que — si bien aún no hemos definido la noción de “plano (bi-dimensional)
sumergido en un espacio proyectivo” — nuestra intuición nos dice que toda definición
RAZONABLE de “plano” (dentro de un espacio proyectivo) debería implicar la siguiente
proposición:
TODO par de rectas que SE CORTEN, será coplanar .
Obviamente, a uno le gustaría poder enunciar el axioma de modo que dijese —
directamente — «todo par de rectas coplanares se cortarán». Pero, como acaba de
decirse, ocurre que aún nos falta introducir la noción de coplanaridad de un par de
rectas.
Por ese motivo, hemos evitado el empleo de las palabras “plano” y “coplanar”, y
hemos enunciado el axioma (P) , el cual — como fácilmente advertirás si revés la figura
— viene a ser lo mismo que enunciar:
20 Estructuras de incidencia y sus morfismos

Propiedad de Pasch :
TODA recta que corte a DOS de los lados de un triángulo en puntos DISTINTOS
de sus vértices , cortará NECESARIAMENTE al tercer lado .
Esto se nota aún con mayor claridad, si adoptamos la siguiente formulación
alternativa para nuestro axioma (P) :
(P’) Primer formulación alternativa para el axioma (P) :
SI P1 , P2 , P3 , Q1 , Q 2 son
 cinco puntos DISTINTOS ,
 de entre los cuales P1 , P2 , P3 NO SEAN colineales , y
 SI Q1  P2  P3 Y Q 2  P3  P1 ,
ENTONCES existe un ÚNICO punto , Q 3 , que incide A LA VEZ

 con P1  P2
 Y con Q1  Q 2 .
Imagen mental :

Esta propiedad se conoce como el axioma de Veblen y Young, y puede asimismo


formularse como sigue:
(P”) Segunda formulación alternativa para el axioma (P) :
SI A , B , C , D son
 cuatro puntos distintos ,
 de entre los cuales no haya TRES colineales ,
 Y SI la recta A  B corta a la recta C  D ,

ENTONCES también A  C cortará a B  D .


Espacios proyectivos, Visión Sintética 21

Ilustración:

Si, como haremos frecuentemente, adoptamos la posición de identificar a las


rectas con subconjuntos del conjunto de puntos P (i.e., si identificamos entre
sí a las dos relaciones pertenencia  e incidencia  ), entonces obtenemos la
siguiente versión alternativa:

(P”’) Tercer formulación alternativa para el axioma (P) :


Si A , B , C , U , V son
 cinco puntos DISTINTOS , y tales que
 A, B , C NO resulten colineales ,
 C  A V ,

 B  A U ,
ENTONCES

(C  U )  (B  V )  P

esto es, estas dos rectas SE CORTAN .

¡Atención!
Hay que INTERPRETAR la formulación anterior. La conclusión afirma que

La intersección de las dos rectas C  U y B  V consta de un


ÚNICO punto .

Ten en cuenta que — al emplear la pertenencia  como relación de incidencia,


estamos considerando las rectas como subconjuntos de puntos .
22 Estructuras de incidencia y sus morfismos

El axioma de abundancia, (Ab , 3 , R)


El axioma de abundancia, (Ab , 3 , R), NO significa de modo alguno que deba
NECESARIAMENTE haber rectas . Debes comprender que esa proposición lo único
que afirma es que:
S I existen rectas , ENTONCES sobre toda recta habrá POR LO MENOS 3 puntos .
Tal vez fuese mejor expresarlo de este otro modo:
NO EXISTE ninguna recta con MENOS de tres puntos .
Enseguida veremos un ejemplo que nos muestra que NO SIEMPRE habrá rectas
en un espacio proyectivo válido. ¡Cuidado con las condiciones vacías !

Ejemplo 1
Tres espacios proyectivos muy particulares :
1. Consideremos la terna P  ( ,  , ) , formada por el conjunto de puntos
vacío, la familia de rectas vacía, y la relación de incidencia vacía.
Resulta trivial verificar que P constituye un espacio proyectivo, en el
sentido de nuestra definición anterior. A este espacio proyectivo lo
llamaremos el espacio proyectivo vacío .

2. Consideremos ahora el caso en que el conjunto de puntos P conste de un


ÚNICO elemento, digamos P .
Entonces, la terna
PP  ( P  ,  , )

también constituye un espacio proyectivo , que sólo tiene un punto, y que


no tiene NINGUNA recta .

3. Sea ahora P un conjunto formado por AL MENOS 3 elementos. Entonces


PP  (P ,  P  ,  )
en donde  denota la relación usual de pertenencia , constituye asimismo
un espacio proyectivo , que en este caso SÓLO TIENE UNA recta , a saber, P .

El ejemplo anterior nos muestra que EXISTEN auténticos espacios


proyectivos. Es decir, nos proporciona tres modelos distintos para esta
estructura geométrica.
Muy en particular, el apartado 1 sirve para mostrarnos que NO DEBERÁ HABER
NECESARIAMENTE rectas .
Espacios proyectivos, Visión Sintética 23

Ejemplo
El espacio proyectivo asociado a un EV cualquiera
Veremos ahora que
Teorema 1
El espacio proyectivo asociado a cualquier ev a izquierda
Sea K un anillo con división (cuerpo, no necesariamente conmutativo), y sea V
un K  EV a izquierda .
Denotemos por Sevi (V) al conjunto de TODOS los SEV i  dimensionales de V ,
y por  la relación de inclusión de Sev1(V) en Sev2(V) .
Entonces:
a. La estructura de incidencia definida a través de
P(V)  (Sev1(V), Sev2 (V),  )
es un espacio proyectivo .
b. Si K  , K  son CUALESQUIERA dos puntos DISTINTOS en P(V) , entonces su
recta enlace será precisamente el SEV 2 –dimensional
K  K
esto es, el respectivo SEV suma .
c. Tres puntos proyectivos K 1 , K  2 , K  3 , resultan colineales en P(V)
SI, Y SÓLO SI, los respectivos tres vectores 1 ,  2 ,  3 resultan ligados
(linealmente dependientes) en V .

Esto ya se comprobó 7 …

¿Cuáles espacios proyectivos obtendremos de esta manera?


 Si dim(V)  0 , obtendremos
V     y por ende P(V)  ( ,  , ) .

 Si dim(V)  1 , obtendremos
Sev1(V)   V  , y así P(V)  ( V  ,  ,  ) .

 Si dim(V)  2 , se tendrá
Sev2 (V)  V ,
con lo cual será P(V)  (Sev1(V),  V ,  ) .
Éste es el caso de la recta proyectiva, asociada al EV V.
 Los espacios proyectivos P(V) que anteceden, son los que presentan
características patológicas . TODOS los restantes son, por así decirlo,
“normales”. Más adelante diremos algo más sobre este tema.

7
Confrontar pág. 3 del capítulo “La puntual proyectiva”.
24 Estructuras de incidencia y sus morfismos

Y ¿qué sucedería, si nuestro EV de partida fuese a derecha ?

En la página anterior a ésta, hemos construido el espacio proyectivo P(V) ,


asociado con cada EV V a izquierda .
Resulta evidente que se podrá efectuar exactamente LA MISMA construcción,
pero partiendo de un EV a derecha. Lo interesante del caso, es el hecho
siguiente:

TODO espacio proyectivo P(V) , en donde V denota un K  EV a


op
izquierda , resulta IDÉNTICO con un espacio proyectivo P(V ) , asociado a
op
un EVa derecha , cuyo anillo con división K será — en general —
DISTINTO del anillo con división K (excepto, por supuesto, en el caso
muy particular en que éste sea en verdad un cuerpo conmutativo ).

Notar que :
Los espacios proyectivos que hemos ido considerando como ejemplos hasta
aquí, son esencialmente los únicos que existen.
Es decir, que TODO espacio proyectivo resultará isomorfo (en tanto que
estructura de incidencia ) a uno de entre los siguientes espacios proyectivos:
a. P  ( ,  , )

b. PP  ( P  ,  , )

c. PP  (P ,  P  ,  ) , en donde P es algún conjunto que tenga POR LO MENOS 3


elementos .
d. Planos proyectivos.
e. P(V) , en donde V es cierto espacio vectorial conocido.
Espacios proyectivos, Visión Sintética 25

2. Introducción simplificada a las


nociones de subespacio y dimensión

La noción de variedad lineal (proyectiva), tal como su contraparte afín,


puede establecerse en términos de rectas . Es decir: una variedad lineal será
CUALQUIER parte tal que, SI contiene a dos puntos, ENTONCES también contiene
a TODOS los puntos de la respectiva recta enlace de dichos dos puntos.
Lo anterior es fácil de captar y de comprender. Lo que — al alumno medio —
no parece serle tan fácil aprehender, es la idea de generación recursiva de
variedades lineales. Dado que esa idea es fundamental para entender la teoría
de la dimensión , expresada en términos de los reticulados , por tal motivo
dedicaremos esta sección a exponerla de un modo simplificado donde se anoten
las ideas básicas.

Planos en espacios proyectivos

En el plano proyectivo real P2  , la familia de TODAS las rectas que enlazan un


punto CUALQUIERA P con TODOS los puntos ubicados sobre una recta cualquiera
l que NO PASE por P , constituye un cubrimiento 8 del P2  .
Este hecho nos sugiere RETORCERLO para dar lugar a esta sugestiva
Definición 1
Plano determinado por una recta y un punto fuera de ella
En un espacio proyectivo P , sean un punto P y una recta l , tales que
P  l .
Llamaremos entonces plano determinado por el punto P y la recta l , en
símbolos
P2(P , l) ,
a la terna (P' , ' , ' ) , definida como sigue:

 P'   puntos  Q  P : (Q  P )  O BIEN  ( P Q   corta a   l )  ;

 '   rectas  m   : m pasa por  dos puntos DISTINTOS de P'  ;

 ' es la restricción a P'   ' de aquella incidencia que tengamos


definida en P   .

Se aconseja observar detenidamente la figura que sigue.

8
Se llama cubrimiento para una dada parte A  E , a una familia de partes de E , cuya
unión CONTENGA al conjunto dado A . Es decir.
 es cubrimiento para A sii (  x  A) (  X  ) (x  X) .
TODO objeto en A “cae” dentro de AL MENOS UN miembro de  .
26 Nociones simplificadas de subespacio y dimensión

Nota acerca de la definición del conjunto de puntos :


La definición dada arriba para el conjunto P' de los puntos del plano P2(P , l)
determinado por una recta y un punto exterior a ella, aunque sea
perfectamente comprensible, válida, y altamente intuitiva, tiene el problema de
que NO RESULTA FÁCIL DE APLICAR.
Por tanto, daremos la siguiente formulación equivalente, que sí SE PODRÁ APLICAR
DE MODO CASI MECÁNICO a las demostraciones (como irás viendo en lo que sigue):

P'  Q  P : Q  P  R  ,  para  ALGÚN  R  l  .
¡Observa la figura!
Nota que, ahora, hemos conseguido ENGLOBAR todas las condiciones de la
definición original EN UNA SOLA , y ello de modo muy elegante (y — como verás
más adelante — también muy conceptual).

Concepto de Plano Proyectivo (rudimentario)

Para poder continuar, será preciso indicar qué se entiende por un plano
proyectivo (rudimentario) .

Definición 2
Planos proyectivos
Diremos que una estructura de incidencia P  (P ,  , ) es un plano
proyectivo , SII satisface las siguientes condiciones:
(RE) Existencia, y unicidad, de la recta enlace :
Dado par de puntos DISTINTOS P , Q , siempre existirá
CUALQUIER
EXACTAMENTE UNA recta l tal que
P l y Ql .
Notación :
La única recta , cuya existencia GARANTIZA este axioma, se llamará
la recta enlace de los dos puntos distintos P y Q , y se denotará
en lo sucesivo por
Espacios proyectivos, Visión Sintética 27

l  P Q
(preferentemente) o bien (de modo intercambiable) como
l  P Q .

Advierte que estas notaciones SÓLO tendrán sentido cuando


sea
P Q .

(PI) Existencia, y unicidad, del punto intersección :


Dado CUALQUIER par de rectas DISTINTAS l , m , siempre existirá
EXACTAMENTE UN punto P , tal que
P l y P  m .
Notación :
El ÚNICO punto, cuya existencia GARANTIZA este axioma, se llamará el
punto intersección de las dos rectas DISTINTAS l y m , y se
denotará en lo sucesivo por
P  lm .

Comprende que esta notación SÓLO tendrá sentido cuando


sea
lm .
En vez de punto intersección del par de rectas DISTINTAS l y m ,
a menudo emplearemos otras locuciones, como por ejemplo:
 punto de encuentro,
 punto de corte
de las dos rectas implicadas.
(Ab) P contiene POR LO MENOS UNAcuaterna de puntos, de la cual NO
PODRÁ extraerse ninguna terna colineal .

Todo plano “sumergido” en un espacio proyectivo, es un plano proyectivo

Aunque esto, intuitivamente hablando, sea una verdad evidente, igualmente


habrá que probarlo:
Teorema 1
Todo plano en un espacio proyectivo resulta un plano proyectivo
Si P2(P , l) es el plano determinado por la recta l y el punto P  L , entonces
P2(P , l) es un plano proyectivo .
Demostración: Lo que debemos probar, es que la terna (P' , ' , ' ) , a la cual
hemos llamado P2(P , l) , SATISFACE los tres axiomas que DEFINEN a los planos
proyectivos en tanto que estructuras de incidencia.
28 Nociones simplificadas de subespacio y dimensión

Se satisface el axioma (RE) de los planos proyectivos :


En efecto, sean S , T dos puntos de P2(P , l) , esto es, dos elementos del
conjunto P' definido oportunamente. En particular, por ende, S , T  P (el
conjunto de todos los puntos de nuestro espacio proyectivo “ambiente” ).
De donde el axioma (RE) de los espacios proyectivos nos garantiza la existencia
(y unicidad) de la recta enlace S T , EN P . Pero, dado que esa recta pasa por
dos puntos DISTINTOS en P2(P , l) (naturalmente, los propios S y T ), por
consiguiente ES una recta , en el sentido del plano determinado por el punto y
la recta dados .

Se satisface el axioma (PI) de los planos proyectivos :


En efecto, sean dos rectas DISTINTAS m , n en P2(P , l) . Por consiguiente, de
acuerdo a nuestra definición de las rectas en el plano determinado por una
recta y un punto que no le pertenece, deben existir cuatro puntos E , F , G ,
H  P , tales que
m  E F y n  G H .
Además, SIEMPRE podremos suponer que esos cuatro puntos resultan DISTINTOS
9
.
Ahora vamos a distinguir dos casos posibles, según si una de las dos rectas
dadas es precisamente aquella recta l que nos sirvió para definir el plano, o
bien si ninguna de las rectas coincide con ella.

9
Por supuesto, los cuatro puntos no pueden resultar iguales dos a dos (las dos rectas
serían coincidentes, contariando la hipótesis). La única posibilidad de coincidencia, entonces,
sería que hubiésemos escogido — como uno de los dos puntos que determinan cada recta —
precisamente el punto intersección de las mismas.

Digamos, entonces, que fuese F  H . Ahora bien, esto se arregla fácilmente. Ya que, sobre la
recta E  F , sabemos que existen POR LO MENOS 3 puntos. Luego, podremos determinar un
tercer punto, digamos F ' .
Del mismo modo, se concluirá que sobre la recta G  H existe al menos un tercer punto,
digamos H ' .
Espacios proyectivos, Visión Sintética 29

a. Supongamos sea m  l . El punto P podrá, o no, estar sobre la OTRA

recta, n , así que tenemos dos subcasos:


a1 Sea P  n . En tal caso, podremos suponer sea P  G . Entonces, al ser
P  P' , sabemos que P G  n cortará a la recta l  m en ALGÚN

punto que — por la DEFINICIÓN de P' — estará en P' .

a2 Sea P  n . Llamemos
R  (P G )  l , S  (P  H )  l 10
.
Entonces
(G  R)  (S  H )  (P  R)  (P  H )  P .
Con lo cual — invocando el axioma de Veblen y Young, concluimos la
existencia de
(R  S )  (G  H )  m  n ,
y ese punto — por la DEFINICIÓN del P' , estará en P' .
b. Supongamos ahora que ninguna de nuestras dos rectas coincida con la
recta l . Invocando entonces el caso a, concluimos que los dos puntos
M  ml y N  nl
EXISTEN y están EN P' .
Invocando nuevamente el caso a, concluimos la existencia del punto
l  (E G )  (M  N )  (E G ) .
Entonces, el axioma de Veblen y Young nos dice que existe el punto
Q  (M  E )  (N G )  m  n
Ahora, si conseguimos demostrar que Q  P' , ya lo tenemos …
Por supuesto que, si P  Q O BIEN M  N , eso es bien evidente.
Suponiendo NO ESTAR en ninguno de estos casos triviales, notemos que será
P  M  '
(la clase de las rectas del plano sumergido en el espacio). Ahora bien, dos
miembros cualesquiera de esa clase se cortarán SIEMPRE (al menos, vistos en
el espacio “ambiente” P ). Por ende, existirá el punto
(P  M )  n  (P  M )  (Q  N ) .
Empleando ahora el axioma de Veblen y Young, podemos garantizar la
existencia del punto
(P Q )  (M  N )  (P Q )  l ,
de donde — DEFINICIÓN de P' — se concluye que Q  P' .

10
(Lector: te queda de regalo explicarte el motivo por el cual esos dos puntos se encuentran
bien definidos .)
30 Nociones simplificadas de subespacio y dimensión

Se satisface el axioma de abundancia para planos proyectivos :


Como TODA recta contiene POR LO MENOS tres puntos , se concluye la existencia de
dos puntos distintos A , B sobre la recta l , y de otros dos puntos DISTINTOS C ,
D , ubicados respectivamente sobre P  A y P  B , que serán a su vez distintos
de A , distintos de B , y distintos de P .
Nota entonces que A , B , C , D serán puntos del plano determinado por P y l ,
esto es, son elementos de P' . Ahora, si entre ellos hubiese tres COLINEALES ,
eso implicaría automáticamente que A  B ; absurdo. Se concluye que hemos
obtenido una cuaterna que verifica el axioma de abundancia.
q.e.d.

Durante el curso de la prueba anterior, hemos establecido además este


resultado:
Proposición 2
En P2(P , l) , las rectas y los puntos se determinan mutuamente

Si una recta m pertenece al plano P2 (P , l) , entonces TODO punto de m


estará en P2(P , l) .

Observación
Interpreta correctamente el enunciado de la Proposición 2 :
 Sea P2(P , l)  (P' , ' ,  ') el plano determinado por una recta — l — y
un punto — P — exterior a ella (i.e., P  l ).
 Sea m   '
 Sea CUALQUIER Q ' m .
ENTONCES Q  P' .

Te recuerdo …
en previsión de posibles protestas, que ya dijimos que los axiomas de la estructura de
plano proyectivo pueden debilitarse 11, S IN ALTERAR PARA NADA el resultado final (i.e., la
estructura obtenida).
Vaya esto como advertencia genérica, dado que en la demostración precedente (y en
muchas que seguirán) N O NOS DETUVIMOS a comprobar la unicidad de los puntos
intersección de rectas. No es necesario.
Como subproducto de lo recién demostrado, podemos mejorar la anterior definición,
como sigue:

11
Explicitando: NO ES necesario postular la unicidad de la recta enlace de dos puntos
cualesquiera (se obtendría como resultado demostrable), NI TAMPOCO la del punto de corte de
dos rectas cualesquiera (sería un resultado demostrable). Bastará postular la existencia de AL
MENOS UNA recta, y de AL MENOS UN punto.
Espacios proyectivos, Visión Sintética 31

Definición 3
Planos, en un espacio proyectivo
Siendo P un espacio proyectivo , llamaremos plano en P a una terna
S  (PS ,  S , S )
tal que existan
 una recta l en P ,
 y algún punto P exterior a ella,
tales que la estructura S sea precisamente el plano proyectivo determinado
por P y l .
Explicitando:
El conjunto PS de los puntos de ese plano proyectivo, quedará determinado
como
PS  Q  P : Q  P  R ,  para ALGÚN R  l  .
Mientras que la clase de las rectas , así como la relación de incidencia , se DEFINEN
respectivamente imponiendo que
 una recta en S , será cualquier recta en P , tal que tenga DOS puntos
EN PS ;

 la relación de incidencia , S , es la restricción de la incidencia vigente en


el espacio P .

Lo interesante de todo esto es que la DEFINICIÓN dada para el plano


determinado por una recta y un punto que no le pertenece , puede “estirarse”,
procediendo RECURSIVAMENTE , para darnos una primer definición de las nociones
de subespacio proyectivo y dimensión de un subespacio proyectivo .

Subespacios y dimensión: un enfoque


ingenuo, pero muy atractivo

Si bien no mucho más adelante vamos a mejorar considerablemente esto (lo


que podría querer decir: hacerlo incomprensible … ), ya estamos en condiciones
de darte una noción sencilla — pero conceptualmente correcta — de lo que
debe entenderse por subespacios proyectivos de dimensiones finitas.

Definición 4
Definición recursiva de subespacios proyectivos finito-dimensionales
Subespacio proyectivo 2–dimensional :
Llamaremos subespacio proyectivo 2 –dimensional de un espacio proyectivo
P , a cualquier plano en P .
Como ésta es una definición recursiva , lo anterior provee la ETAPA DE BA SE .
Ahora viene la etapa puramente inductiva o recursiva.
32 Nociones simplificadas de subespacio y dimensión

Subespacio proyectivo n  dimensional :


Siendo n  2 un entero , y SUPONIENDO PREVIAMENTE DEFINIDO lo que es un
subespacio proyectivo (n  1)  dimensional , Pn 1 , y siendo P algún punto de P
exterior 12
a Pn 1 , entonces el subespacio proyectivo n  dimensional
determinado por P y Pn 1 , en símbolos
Pn (P , Pn 1) ,
será la terna
Pn (P , Pn 1)  (Pn , n , n )
definida tomando:
Pn  Q  P : (Q  P )  O BIEN  (Q  P  CORTA al Pn 1) 
,
  Q  P : Q  P  R  ,  para ALGÚN R  Pn 1 

n   l   : l   PASA POR dos puntos DISTINTOS del Pn 1 
,
  l   : l  A  B ,  en donde  A , B  Pn 1   Y  A  B 

n es la restricción de  al Pn  n .
Como SINÓNIMO de subespacio proyectivo n  dimensional, emplearemos la
locución n  espacio proyectivo, como también la abreviatura n  EP .

Dimensión :
Un espacio proyectivo P  (P ,  , ) se dirá
 de dimensión  1 , SII P  ;
 de dimensión 0 , SII P  P  , esto es, cuando contiene un ÚNICO

punto ;
 de dimensión 1 , SII    l  , es decir, cuando contiene una ÚNICA

recta ;
 de dimensión n  1 ( n   ), SII P contiene algún espacio proyectivo
Pn , y ADEMÁS se satisface
Pn  P .
 de dimensión infinita, SII P contiene un Pn , para TODO entero
natural n .
Para
n      1, 0,   ,
anotaremos cada uno de los casos previstos arriba como
dim P  n

12
I.e., que NO ESTÉ en el Pn  1 .
Espacios proyectivos, Visión Sintética 33

o asimismo
pdim P  n ,
si se desea dejar bien en claro que se trata de la “dimensión” EN TANTO QUE
espacio proyectivo .

Atención
El símbolo  es una mera ABREVIATURA para la respectiva proposición definida
más arriba, y no debiera asignársele el menor contexto ni contenido místico,
metafísico, teológico, filosófico, etcétera … Es bien obvio que, para el caso de
los espacios proyectivos infinito-dimensionales , podríamos desarrollar una
teoría en base a cardinales transfinitos . Pero, en lo tocante al ámbito de esta
obra, no tiene demasiado interés hacerlo.

Una útil abreviatura :


Cuando (por algún motivo) no se requiera o desee especificar la dimensión de
un subespacio proyectivo , comúnmente emplearemos la abreviatura SEP para
referirnos a él. Es decir: la locución « sea S un SEP » EQUIVALDRÁ
semánticamente a decir que S es un subespacio proyectivo de P .

Hiperplanos :
Llamaremos hiperplano en P , donde P es un espacio proyectivo
n  dimensional 13 , a todo SEP cuya dimensión sea EXACTAMENTE 1 UNIDAD
M ENOR que la de P .

Ya estamos en condiciones de poder probar unos cuantos hechos

Pero hagamos una reflexión previa …


El contenido esencial de la previa definición de dimensión , es éste: para n  1 ,
una estructura de incidencia será un espacio proyectivo n  dimensional SII
es factible REALIZARLA como
Pn (P , Pn 1) ,
para cierto punto P , y cierto espacio proyectivo (n  1)  dimensional Pn 1 .
El problema parecería ser, que — aparentemente — dependeríamos de un
punto PARTICULAR , y de un espacio PARTICULAR , para definir y/o conocer nuestra
estructura. El lector que haya recorrido buena parte de esta obra, ya se ha
enfrentado anteriormente con este tipo de situaciones (que suelen desconcertar
al no “iniciado” ).
El lector ya conoce la solución a este tipo de aparente problema: simplemente,
habrá que probar la independencia de la estructura, relativamente a los
elementos particulares que sirvieron para definirla.

13
Con n finito .
34 Nociones simplificadas de subespacio y dimensión

Por otra parte, en el contexto de esta visión de la cosa, puede convenir dar una
técnica que permita atacar este tipo de inconveniente. Y eso haremos en esta
página.

Teorema 3
Buena definición de los subespacios proyectivos
Los planos están bien definidos :
Sea P2 un plano en el espacio proyectivo P , y sean
 l una recta en P2 ;
 P un punto en P2 , exterior a la recta l .
Entonces:
P2  P2(P , l) .
es decir, P2 es precisamente el plano determinado por el punto P y la recta
l.
En otros términos: TODO plano quedará UNÍVOCAMENTE DETERMINADO si se
conocen UNA de sus rectas , así como un punto que NO PERTENEZCA a esa
recta.

Los subespacios tridimensionales están bien definidos :


Sea T un 3–EP en el espacio proyectivo P , y sean
 P2 un 2–EP (es decir: un plano ) en T ;
 P un punto en T , e x t e r i o r (no ubicado sobre) al plano P2 .
Entonces:
T  P3(P , P2)
es decir, T es precisamente el 3–EP determinado por el punto P y el plano
P2 .
En otros términos: TODO 3–EP quedará UNÍVOCAMENTE DETERMINADO si se conocen
UNO de sus planos , así como un punto exterior a ese plano.

Todo subespacio finito-dimensional está bien definido :


Sea S un n  EP en el espacio proyectivo P , y sean
 H un (n 1) EP en S (es decir: un hiperplano en S ) ;
 P un punto en S , NO ubicado sobre el hiperplano H (o sea: exterior al
mismo).
Entonces:
S  Pn (P , H) ,
es decir, S es precisamente el n  EP determinado por el punto P y el
hiperplano H .
Espacios proyectivos, Visión Sintética 35

En otros términos: TODO n  EP quedará unívocamente determinado si se


conocen UNO de sus hiperplanos , así como un punto exterior a ese hiperplano.
Demostración: Como verás, en realidad estas proposiciones son todas ellas
CASOS PARTICULARES de la tercera de ellas, y de hecho su demostración es
decepcionantemente simple, ya que todo consiste en INTERPRETAR correctamente
cuáles son las hipótesis, y qué hay que demostrar .
Vamos entonces a razonar el PRIMER enunciado y el ÚLTIMO , regalándole
generosamente al lector la prueba del enunciado “jamón” (el de la mitad del
sandwich ).
Ahora viene el secreto. Y es, que el PRIMER enunciado — en realidad — consiste
en esta proposición:

Sea P  (P ,  ,  ) un espacio proyectivo, y sea P  P2(P , l) , en donde


por supuesto P  P y l   .
Sean además OTRO punto P '  P , así como OTRA recta l '   .
Entonces:
P  P2(P ' , l ' ) ,

E SO es el contenido esencial del primer enunciado. Por otra parte, lo que en


realidad vamos a hacer — y he aquí el secreto de la demostración — es probar
ESTE OTRO enunciado:

P2(P , l)  P2(P , l ' )  P2(P ' , l ')

A efectos de probar esto, hay que tomar en cuenta que

TODO plano proyectivo sumergido en un EP ,


resulta ser un plano proyectivo .

De donde: en CUALQUIER plano proyectivo sumergido en un EP , TODO par de


rectas se cortan .
X  P2(P , l)  ( R  l)(X  P  R)
Definimos
R '  (P  X )  l ' ,
Con lo cual se ve claramente que
X  P2(P , l ' ) .
Si ahora tomamos
R "  (X  P')  l '

queda así demostrado que vale


X  P2(P ' , l ' ) .
36 Nociones simplificadas de subespacio y dimensión

Ahora bien, como los puntos P , P ' y las rectas l , l ' — dejando aparte las
condiciones de exterioridad vigentes — son ARBITRARIOS , vemos que este mismo
argumento se puede dar vuelta, para probar las inclusiones INVERSAS, de donde
las igualdades enunciadas.

¡Atención!
En la demostración que antecede, hemos cometido una pequeña TRAMPA : se
supuso — implícitamente y sin decirlo — que la situación era la mostrada en la
figura anterior. Es decir, que P' / l Y que P / l ' .
La idea en este caso es construir puntos auxiliares que NO adolezcan de los
defectos señalados.

Empleo de adecuados puntos auxiliares

Si suponemos, por ejemplo, que sea P '  l y P  l ' , en este caso, es obvio que
(P  P ' )  l  P ' y que (P  P ' )  l '  P .
Bastaría entonces determinar un tercer punto S  P  P ' , que sería
ciertamente exterior tanto a l como a l ' .
Tras eso, será muy fácil probar que
P2(P , l )  P2(S , l )  P2(S , l ')  P2(P ' , l ' ) .

Indicaciones para el caso más general :


Pasemos a considerar el caso general. Tal como hicimos antes, vamos a suponer
de entrada que se tenga
S  Pn (P , H) ,
y que H ' sea OTRO hiperplano en S , y P ' un punto en S , exterior al
hiperplano. Supondremos asimismo (como antes lo hicimos implícitamente)
que se tenga
P / H ' y P ' / H .
El hecho básico que se emplea acá es el siguiente (consecuencia inmediata del
modo en que se ha definido la noción de subespacio proyectivo ):
Espacios proyectivos, Visión Sintética 37

Si una recta corta a un SEP , entonces


 o bien existe un ÚNICO punto intersección ,
 o, si no fuera así, la recta estaría incluida dentro del SEP . (Al
respecto, recuerda que en virtud de las condiciones accesorias
impuestas sobre aquellas estructuras de incidencia consideradas aquí,
siempre podremos suponer que nuestras rectas sean SUBCONJUNTOS DE
PUNTOS , y que la incidencia sea la mera y simple inclusión).

Habida cuenta de eso, entonces, razonamos paralelamente al caso de los planos :


Si S es el n  EP determinado dando el hiperplano H y el punto P exterior a
H , significa que — dado CUALQUIER punto X en S , se podrá encontrar algún
punto R  H , tal que X  P  R .
Definiendo entonces
R '  (P  X )  H ' ,
es obvio que
X  Pn (P , H ') .

Luego se continúa del mismo modo que antes. Notar que habrá que considerar
varios casos.
q.e.d.

Veamos como todo esto nos puede servir para


reencontrar conocidas propiedades

Dedicaremos esta página a mostrarte cómo podemos probar ciertas conocidas


proposiciones de la geometría elemental, razonando dentro de este contexto
abstracto.

Teorema 4
Toda recta CORTA a todo hiperplano
Teorema clásico de la geometría tridimensional :
En un 3—EP , TODA recta corta a TODO plano .
Generalización n–dimensional :
En cualquier EP , TODA recta corta a TODO hiperplano .
Demostración:
Enunciado clásico 3-dimensional :
Supongamos que nuestro “espacio ambiente” sea P  P3 (P , P2 ) , y sea l una
recta en P . Para empezar, probemos que l , forzosamente, cortará al plano
P2 . A ese efecto, realizaremos a la recta L como
l  A  B ( A , B en P ).
38 Nociones simplificadas de subespacio y dimensión

Ahora consideremos casos: Ante todo, si UNO de los dos puntos, A o B ,


estuviese en el plano P2 , entonces obviamente l cortaría al plano P2 .
Si consideramos un punto cualquiera
P  l , con P  A ,
entonces la recta l podrá asimismo realizarse como l  P  A , y POR DEFINICIÓN

del espacio tridimensional P 3 (P , P2 ) , se tendrá que l debe cortar al plano P2


en ALGÚN punto R . (Pues A  P 3 (P , P2 ) .)
Ahora consideremos el caso MÁS GENERAL, en el que las dos rectas P  A y P  B
corten al plano P2 en dos puntos distintos , digamos RA y RB . Pero entonces,
por el axioma de Veblen y Young, la recta l  A  B cortará a la recta
RA  RB .
Pero ¡héte aquí! : la recta RA  RB está en el plano P2 , de donde TODOS sus
puntos lo están, de donde l corta al plano P2 .
Si crees que sólo hemos considerado un caso PARTICULAR, te informo que NO es
así. Ya que, por el Teorema 3, CUALQUIER plano nos serviría para fabricar el
espacio tridimensional (en conjunción con algún punto exterior a él).
Date cuenta de que el resultado general se podrá razonar procediendo
exactamente sobre LOS MISMOS lineamientos (casi te diría, puedes “calcarlo”).
q.e.d.
La primera parte del enunciado precedente tiene el siguiente corolario, que se emplea
en general (a menudo, sin citarlo expresamente) más que el propio teorema):

Corolario
Todo par de planos, en un 3–E.P., se cortan siempre
En un espacio proyectivo 3–dimensional , TODO par de planos DISTINTOS se
cortarán siempre, y lo harán según una recta .
Demostración:
Llamemos S , S ' a nuestros dos planos. Busquemos, en S , algún punto P que
NO ESTÉ en S ' . Ahora tomemos, en el plano proyectivo S , CUALQUIER par de
rectas distintas , AMBAS pasantes por el punto P . Digamos, las dos rectas l y
m.
Busquemos los puntos de intersección de esas dos rectas y el plano S ' ,
digamos
L  l  S', M  m  S' .
La recta L  M , evidentemente, estará contenida dentro de AMBOS planos, y
por ende en su subespacio intersección :
L M  S  S' .
Espacios proyectivos, Visión Sintética 39

Ahora, supongamos que la intersección contuviese ALGÚN OTRO punto, además


de los puntos de la recta L  M . Digamos, sea el punto Q , tal que
Q / L  M y Q  S  S' .
Pero, entonces, tendríamos
S  P2(Q , L  M )  S ' ,
lo que CONTRADICE la hipótesis . Se infiere así que
S  S'  L M .
q.e.d.
A su vez, la segunda parte del teorema admite el siguiente

Corolario
Todo par de hiperplanos distintos se corta, en un EP
En un n  EP , todo par de hiperplanos DISTINTOS siempre se cortan, y además
lo hacen según un SEP de dimensión n  2 .

No daremos aquí la demostración, porque la segunda parte requiere REFINAR


nuestra noción actual de dimensión , cosa que haremos a través de consideraciones de
la teoría de reticulados. Por otra parte, como veremos más adelante, TODO espacio
proyectivo de dimensión MAYOR, O IGUAL, que 3 , es el espacio proyectivo asociado a
algún espacio vectorial a izquierda . Aceptado eso, la demostración sería una
aplicación rutinaria del llamado teorema de la dimensión.
40 Variedades lineales

3. Variedades Lineales

Dedicaremos esta sección a introducir uno de los conceptos geométricos que


mayor importancia tendrán en nuestro desarrollo ulterior: la noción de
variedad lineal , y la noción conexa de subespacio .

Concepto de variedad lineal proyectiva

Noticia importante :
En toda esta sección, vamos a aprovechar el teorema de simplificación de una
estructura de incidencia (Teorema 0.7), de modo que — cuando así nos convenga
a efectos de aligerar la exposición — imaginaremos (sin mayor advertencia
posterior a ésta) haber SUSTITUIDO la estructura de incidencia general, es decir,
P  (P ,  , ) ,
por aquella otra estructura de incidencia
 
P  (P ,  , ) ,
que le es isomorfa, obtenida A PARTIR de la estructura original por el simple
expediente de SUSTITUIR la familia  de las rectas de P , por la familia asociada
de las respectivas puntuales , a la que llamamos .

La noción de variedad lineal proyectiva no podría ser más simple: Tal y como
se hizo para el caso afín, la idea es considerar aquellos conjuntos de puntos
dotados de la siguiente propiedad CARACTERÍSTICA :

Si dos puntos DISTINTOS están en el conjunto, entonces éste


contendrá a TODA la respectiva recta enlace de ese par de puntos.

Entonces, adoptamos como


Definición 1
Variedades lineales proyectivas
Variedad lineal (proyectiva) :
Sea P  (P ,  , ) un espacio proyectivo . Llamaremos entonces variedad
lineal (en adelante abreviado VL ), o bien si queremos enfatizar variedad lineal
proyectiva (en adelante abreviado VLP ) a TODO conjunto F  P tal que, SI
contiene a dos puntos DISTINTOS cualesquiera , ENTONCES también contiene a
la TOTALIDAD de los puntos de la respectiva recta enlace .
Es decir: una PARTE F  P será una variedad lineal en P SII

( ( P1 , P2  F )   y   ( P1  P2 ) )          ( P1  P2  F ) .


Espacios proyectivos, Visión Sintética 41

Notación para la familia de todas las VLP :


La familia formada por la TOTALIDAD de las variedades lineales en P , se
denotará en lo sucesivo por
Vlp (P) .
Subespacio proyectivo :
Sea P  (P ,  , ) un espacio proyectivo . Llamaremos entonces subespacio
(en adelante abreviado SE ), o bien si queremos enfatizar subespacio
proyectivo (en adelante abreviado SEP ) a toda terna
P(F)  (F ,  F , F)
en donde
 F P es una VLP ,

  F es la familia de todas aquellas rectas l en P , tales que la respectiva puntual


PL quede completamente contenida en F,
 F es la incidencia inducida, i.e., la restricción a F  F de la incidencia vigente
en P.

Un par de observaciones, y proseguimos …


Notar que
— para resultar formalmente impecable en el contexto en que introdujimos
inicialmente la noción de espacio proyectivo — en la DEFINICIÓN de variedad
lineal proyectiva deberíamos decir
PP  P  F , 1 2

en lugar de
P1  P2  F .
Pero, como ya se dijo, de acá en adelante toleraremos este abuso de lenguaje y
notación, por amor a las fórmulas MENOS ENGORROSAS.

Conviene que notes desde ya que


 el propio P resulta ser una variedad lineal (o — si así lo prefieres — el
propio P resulta ser un SEP );
 toda recta — o, mejor aún, la puntual de cualquier recta — será una
variedad lineal;
 cualquier punto será una variedad lineal;
 y también el conjunto vacío  resulta ser una variedad lineal.

El subsiguiente ejemplo debería servirte a efectos de aclarar eso.


42 Variedades lineales

Ejemplo 1
Variedades lineales en el espacio proyectivo
asociado a un K  EV (n  1)  dimensional V

Retomemos la consideración de un importante ejemplo anterior 14. Es decir,


consideremos otra vez el caso en que tenemos un K  EV (n  1)  dimensional V ,
y llamamos P  Sev 1(V) (la clase de TODOS los SEV 1—dimensionales en V) .
En otros términos: nuestros puntos proyectivos serán TODAS las rectas
vectoriales, o rectas por el origen  de V .
Por otra parte, hemos DEFINIDO   Sev 2 (V) , o sea: la clase formada por la
TOTALIDAD de los SEV 2–dimensionales de V,
o lo que da igual, la totalidad de los
PLANOS VECTORIALES o PLANOS POR EL ORIGEN  de V .

Bien sabemos — por otra parte — que la relación de incidencia a emplear en


este caso, es la relación  definida como « … es SEV de … » .
Por ejemplo (para dim V  3 ) el plano proyectivo así obtenido es el plano
P(V)  P2K
sobre el cuerpo particular K considerado.
Es trivial, entonces, verificar que en este caso obtendremos
Vlp (P)  Sev (V)
es decir, que la clase de TODAS las variedades lineales proyectivas COINCIDE (al
menos, en tanto que CONJUNTO) con la clase de TODOS los SEV del EV V . Pero
no debe olvidarse que la estructura bajo consideración será DISTINTA . Cosa
ésta que se ve notablemente, cuando advertimos que — por ejemplo — la
variedad lineal vacía se IDENTIFICA con el SEV nulo    («origen» de V ).
Este ejemplo resultará de particular importancia, ya que actuará a modo de
motivador para gran parte de la terminología y los resultados que seguirán.
Por otra parte, dicho ejemplo debe forzosamente SER importante, dado que
contiene — como caso particular — al plano proyectivo real .

14
Ejemplo, p. 23.
Espacios proyectivos, Visión Sintética 43

Donde vemos que, así como podíamos fabricar SEV a


voluntad, podremos hacer lo propio con las VLP

Nuestro objetivo primordial, ahora, será desarrollar la maquinaria conceptual


que nos permitirá luego hablar de la “dimensión” de una variedad lineal .

Reflexionemos un instante :
¿Cómo se desarrolla la maquinaria que finalmente lo lleva a uno a poder definir
la noción de dimensión , en un ESPACIO VECTORIAL ?
La respuesta es:
Proposición 1
Las dos operaciones básicas con VLP
Sean: P un espacio proyectivo , y S  ( Fi ) i  I una familia de variedades
lineales en P , en donde I denota un conjunto de índices ARBITRARIO .
Entonces:
a. La intersección de la familia S , será SIEMPRE una variedad lineal en P .
Esto es:
 Fi   S  Vlp (P) .
iI

A esta variedad lineal la vamos a denotar, asimismo, mediante el símbolo



i I
Fi   S .

b. Si consideramos la familia C S , constituida por la TOTALIDAD de las


variedades lineales en P que CONTIENEN a todos los miembros de la
familia S , o sea,
C S   A  Vlp (P) : Fi  A ,  para  TODO  índice i  I  ,
entonces el conjunto definido a través de
 Fi   A : A  CS 
i I

será SIEMPRE una variedad lineal en P , es decir,


 Fi
i I
 Vlp (P) .

c. Las asignaciones anteriores DEFINEN , al considerar familias finitas de


variedades lineales, dos operaciones  y  , las cuales resultan
conmutativas y asociativas .
Demostración:
a.
Si P1 , P2 son dos puntos DISTINTOS, y si esos puntos están en la intersección
de la familia de variedades lineales dada, entonces se tendrá
P1 , P2  Fi  ,  para  TODO  índice   i ,
44 Variedades lineales

lo que a su vez implica — DEFINICIÓN de variedad lineal — que será


P1  P2  Fi (  i  I ) .

Ahora bien, por DEFINICIÓN de intersección de una familia de conjuntos , esto


último SIGNIFICA finalmente que

P1  P2   Fi ,
iI

lo cual prueba el enunciado.

b.
La familia C S , o sea aquella constituida por TODAS las variedades lineales que
contienen a todos los miembros de la familia dada S  ( Fi ) i  I , resulta NO
VACÍA , ya que obviamente será
P  CS
(el conjunto de todos los puntos del espacio dado ES una variedad lineal, que
además cumple la propiedad). Por tanto, esta observación nos lleva a obtener
un CASO PARTICULAR del enunciado (a).

c.
La conmutatividad y asociatividad de la operación  resultan sobradamente
conocidas.
En cuanto a las respectivas propiedades para la operación  , la conmutatividad
resulta inmediata. Por otra parte, la asociatividad resulta una CONSECUENCIA de la
asociatividad de  , y del hecho de que  Fi CONTIENE a la unión  Fi , cosa ésta
que el sufrido lector se encargará de verificar por las suyas.
q.e.d.

Suma geométrica de una familia de VLP ,


o VLP generada por la familia dada

En la Proposición 1 hemos obtenido una variedad lineal proyectiva a partir de


CUALQUIER familia de VLP . Como da la casualidad de que nos hemos topado con
uno de los protagonistas principales de esta historia, pongámosle ya un
nombre:
Definición 2
Suma geométrica de una familia de VLP
A la variedad lineal proyectiva
 Fi ,
i I

definida en el apartado (b) de la Proposición 1, la llamaremos en lo sucesivo la


suma (geométrica) de la familia de VLP ( Fi ) i  I , o también la variedad lineal
generada por la dada familia de VLP ( Fi ) i  I .
Espacios proyectivos, Visión Sintética 45

Notación para la VLP generada por una familia finita :


La suma de una familia FINITA de VLP , F1 , F2 , … , Fr , se denotará en esta obra
por el signo
F1  F2  ...  Fr .

Notarás que …
El empleo del símbolo  , para denotar a la VLP generada por una familia
finita de variedades lineales, CONCUERDA con el empleo de ese mismo símbolo
para denotar a la recta enlace de dos puntos .
Esto no es trivial: debe existir esa concordancia, dado que la recta enlace de
dos puntos es, precisamente, la variedad lineal generada por esos dos puntos
(que son VLP ).

Tal como sucede en el contexto vectorial, acá también tendremos


propiedades (duales) de maximalidad y minimalidad
Efectuemos unas conceptuales reflexiones previas
Las reflexiones que siguen te ayudarán a entender los porqués y los cómos de
todo cuanto haremos luego.
a. Dada una familia ( Fi ) i  I de VLP , es inmediato notar que — para TODO

índice j  I — se tendrá

 Fi
i I
 Fj   Fi .
iI

A partir de estas relaciones, se infiere fácilmente que la suma  Fi contiene


SIEMPRE a la  Fi de cada familia dada de VLP .

b. Partiendo de lo expresado en la reflexión (a) , podremos CARACTERIZAR a la


intersección de una familia de variedades lineales ( Fi ) i  I , diciendo que es
la MAYOR variedad lineal CONTENIDA en TODAS las Fi .
c. Análogamente, la suma de una familia de variedades lineales ( Fi ) i  I , es
PRECISAMENTE la MENOR variedad lineal que CONTIENE a todas las Fi .
En otras palabras: se tendrá
F   Fi
SI , Y SÓLO SI , la CONJUNCIÓN de las 3 condiciones
 F es una VLP ;

 Fi  F (para CUALQUIER índice i  I );

 T es una VLP , tal que Fi  T (  i  I )


IMPLICA
F  T.
46 Variedades lineales

Ahora bien, es MUY IMPORTANTE que adviertas ya cómo todo esto SE PARECE
TERRIBLEMENTE a ciertas propiedades similares muy conocidas de la intersección
y la suma de una familia de SEV en cualquier EV .
Los PORQUÉS (y los CÓMOS de todo esto, quedarán clarificados algo más
adelante, cuando lo expresemos en el marco contextual de la Teoría de
Reticulados .

De cómo uno “siente” que, a las definiciones previas, les


“falta” algo, para resultar geométricamente atractivas
Motivemos la construcción que seguirá próximamente …
La DEFINICIÓN dada para la variedad lineal suma de una dada familia de VLP ,
aunque FORMALMENTE sea impecable, adolece sin embargo de algunos defectos,
que señalaremos acto seguido, dando las ideas que — en la siguiente página —
nos permitirán aplicar el remedio.
Es que — como lo hemos remarcado varias veces a lo largo de esta obra —
somos matemáticos humanos, NO computadoras matemáticas. Entonces,
puede que la impecabilidad formal no nos contente del todo, y que incluso nos
deje algún resquemor …
Sin meternos en discusiones acerca de temas tales como constructivismo ,
intuicionismo , versus formalismo , no obstante saltan a la vista de inmediato las
siguientes posibles críticas:
a. La definición adoptada NO resulta operacional . Valga decir: No nos
proporciona un método para la determinación EXPLÍCITA de la variedad
lineal generada por una cierta familia de VLP .
Muy en particular, ello es notorio para el interesante e importante
problema de determinar la variedad lineal generada por un sistema de
puntos .
b. La definición dada no parece extender , ubicándolas dentro de este nuestro
contexto abstracto, ciertas ideas muy intuitivas de la geometría elemental
plana y espacial.
Espacios proyectivos, Visión Sintética 47

Por ejemplo, el esquema — ilustrado en la figura que acabas de ver — de


construcción de un plano al dar una de sus rectas y un punto exterior a la
misma. O bien, la inmediata generalización de eso que tienes debajo:

Construcción de la VLP subtendida


por una dada VLP y un punto dado

Las ideas elementales acerca de la determinación de planos a partir de una recta


y un punto exterior a ella, nos llevan a enunciar el resultado que sigue. Este
resultado se empleará — a veces, sin siquiera citarlo explícitamente — en toda
la exposición subsiguiente de la geometría proyectiva.
Teorema 2
Construcción de la VLP determinada
por una dada VLP y un punto exterior a ella
Sea S una VLP , y sea P un punto EXTERIOR a la misma, esto es, tal que
P / S , o bien, si así se quiere, P  S .
Definimos
P  S   Q  P : Q  P  R  ,  para ALGÚN punto  R  S  .
48 Variedades lineales

Entonces
P  S P  S .

Demostración: Ante todo, es bastante evidente que nuestro conjunto P  S


estará contenido en CUALQUIER VLP que contenga — A LA VEZ — al punto P Y a
la VLP S .
De modo pues, que la tesis quedará probada SI conseguimos demostrar que
P  S ES una variedad lineal . ¿Por qué? Por la CARACTERIZACIÓN de la variedad
15
lineal generada .
Tomemos pues dos puntos DISTINTOS Q1 , Q 2  P  S , y sea Q  Q1 Q2
(observar la figura no te hará el menor daño).

Queremos probar que


Q  P S .
es decir, deberemos poder EXHIBIR algún punto R  S , tal que Q esté SOBRE la
recta P  R que enlaza P y R .
Ahora bien: si Q1 , Q2  P  S , entonces (por DEFINICIÓN de ese conjunto)
existirán puntos R1 , R2  S , tales que
Pero téngase presente que NADA impide que sea Q1  P , O BIEN Q2  P .
Analicemos pues lo que sucedería en el primer caso (el otro le es totalmente
simétrico).
Esta situación particular es sencillísima de analizar, dado que en tal caso LOS
TRES puntos Q1  P , Q , Q 2 estarían alineados . Y, por supuesto, bastaría

entonces tomar R  R2 .
Del mismo modo, NADA IMPIDE que pueda tenerse
Q1  S O BIEN Q2  S o AMBAS A LA VEZ .
Ahora bien, si por ejemplo fuese Q2  S , entonces sería R2  Q2 , y por ende
R1 Q 2  S , de donde

15
Es decir ¡minimalidad de la misma!
Espacios proyectivos, Visión Sintética 49

(R1 Q2 )  (P Q )  R
nos daría en este caso el punto buscado.
Consideremos, finalmente, la situación MÁS GENERAL posible (que es la de la
figura anterior), la cual se presenta cuando
Q 1  P  Q2 , Q1  S, Q2  S .

Para empezar, nos percatamos de que estas hipótesis IMPLICAN que


Q1  R1 Y Q 2  R2 .
Hemos supuesto que P  S 16
, de donde P , Q1 , Q 2 , R 1 , R 2 serán cinco puntos
DIFERENTES .
Si fuesen COLINEALES los puntos P , Q1 , Q 2 , entonces (igual que hicimos antes)
tomaríamos
R  R1  R2 .
Supongamos entonces que P , Q1 , Q 2 NO SEAN colineales. En tal caso, existirá un
ÚNICO punto
P '  (Q 1 Q 2 )  (R1  R2) .
Ahora, si fuese P '  Q , entonces habríamos finalizado la prueba (pues, en tal
eventualidad, sería R  Q  P '  S , ya que R1  R 2  S ) .
Finalmente, de ser P '  Q , entonces los cinco puntos P ' , R2 , Q 2 , P , Q serían
TODOS DIFERENTES , y por consiguente existiría un ÚNICO punto
R  (P Q )  (P '  R2 ) .
En tal caso, obviamente será R  S , ya que
P '  R2  R1  R2  S ;
Además, se verifica en tal caso
Q  P R .
q.e.d.

Unas reflexiones finales, que nos conducen a su vez a otro tema


El Teorema 2 tiene — como suele decirse — mucho jugo. Ahora trataremos de
extraer algo de ese jugo, y te garantizo que lo seguiremos haciendo durante un
tiempo.
1. Ante todo, te hago notar que el enunciado podría haberse redactado así:
Enunciado alternativo :
Si S es una VLP , y P  S es un punto , entonces la variedad lineal
generada por S y P será precisamente

16
Pero, notar que uno podría admitir la posibilidad P  S, aunque entonces el resultado
sería trivial …
50 Variedades lineales

S  P   (P  R)
RS

2. Obviamente, este resultado nos proporciona un MÉTODO para ir


construyendo, recursivamente , variedades lineales CADA VEZ MAYORES
(hasta que se nos AGOTE el conjunto de puntos). De hecho, ésta es la
manera más directa y más práctica de arribar a la noción de dimensión,
siguiendo una vía geométrica bastante intuitiva.
Explotaremos esa idea en la próxima sección.

3. Si eres un matemático “de buena cosecha”, ya se te habrá ocurrido la idea


de generalizar el resultado anterior.
En efecto, si bien podemos emplearlo perfectamente bien tal y como está,
¿por qué LIMITARNOS a considerar la suma de una variedad lineal y un
punto ? ¿Qué nos impide emplear ESA MISMA IDEA para sumar dos variedades
lineales cualesquiera ?
Evidentemente, nada nos lo impide, y ésta sería la obvia generalización:
Sean S1 , S2 dos VLP no vacías , CADA UNA de ellas con por lo menos 2
puntos .
Entonces la variedad lineal generada por S1 y S2 será, precisamente, el
conjunto

S1  S2   (R1  R2 ) .
R1  S1
R1  S2
R1  R 2
Espacios proyectivos, Visión Sintética 51

El teorema anterior afirma una conclusión muy interesante (e importante), a


saber:
Corolario
Para conocer un EP , basta dar sus puntos y rectas
Sea P  (P ,  , ) un espacio proyectivo . Entonces todos los SEP de P
quedan DETERMINADOS , conociendo únicamente
 aquellos SEP 0-dimensionales (i.e., la familia de los puntos );
 aquellos SEP 1-dimensionales (i.e., la familia de todas las rectas ).
52 La noci ón geométrica de dimensión

4. La noción geométrica de dimensión

La principal aplicación que veremos del teorema sobre la construcción de la


variedad lineal generada por una dada variedad lineal y un punto exterior a
ella, será sentar las bases para el desarrollo de la noción geométrica de
dimensión.

Intercambio de Generadores
Tal y como sucede con la teoría algebraica en el contexto de los EV , resultan
fundamentales los teoremas del tipo “intercambio de generadores”. El primero
de ellos es éste:
Teorema 1
La propiedad de intercambio de generadores
Sea F una VLP en el EP P  (P ,  , ) , y P un punto exterior a ella. Entonces:
SI Q  (F  P ) \ F , ENTONCES P  F Q ,
de donde
FP  F Q .

En otros términos:
Dos VLP CUALESQUIERA pasantes por F y generadas por F y un punto exterior a
ella, se cortarán SÓLO en puntos de F (¡observa la ilustración!).
Demostración: Como Q  (F  P ) \ F , por el Teorema 3.2 existirá algún punto
Q '  F , tal que P  Q Q '  F Q .
Ahora, las dos propiedades
F  F Q y P  F Q ,
IMPLICAN FP  F Q .
Espacios proyectivos, Visión Sintética 53

Como la situación es totalmente simétrica, razonando igual se deduce F Q 


FP , quedando así comprobada la igualdad FP  F Q .
q.e.d.

Independencia vs. Dependencia


Definición 1
Sistemas de puntos libres, ligados
Sea P  (P ,  , ) un EP .

Sistema libre, sistema ligado:


Un conjunto de puntos se dirá independiente o bien libre SII ninguno
de sus miembros está en la variedad lineal GENERADA POR LOS RESTANTES 17.
Un conjunto de puntos se dirá dependiente o bien ligado SII NO ES libre .
Caracterización equivalente de los sistemas libres:
Un sistema de puntos L se dirá libre sii — para CUALQUIER subconjunto
L '  L , y CUALQUIER punto P  L \ L ' — se satisface
P  vlp (L ') 18
.
Obviamente, eso es LO MISMO que decir: L es libre, si NO EXISTE NINGÚN punto
P  L para el cual P  sep (L \  P ) .
Caracterización equivalente de los sistemas ligados:
Un sistema de puntos S es ligado, cuando existe AL MENOS UN punto
P  sep (L \  P ) .

Sistema o familia FINITA independiente o libre :


Diremos que una familia o sistema de puntos (P1 , P2 , ... , Pr ) es
independiente o libre SII
r
Pi   Pj (  i  1, 2, ... , r ).
j 1
j i

Sistema o familia FINITA dependiente o ligada :


Diremos que una familia o sistema de puntos (P1 , P2 , ... , Pr ) es dependiente
o ligado SII NO ES libre .
Dependencia de un punto, respecto de un sistema FINITO de puntos :
Dada una cierta familia o sistema de puntos (finito) (P1 , P2 , ... , Pr ) , un punto
P se dirá dependiente del sistema dado SII está en la variedad lineal
generada por esos puntos.

17
Esto es, por el complemento — en tanto que conjuntos.
18
El punto P resulta exterior a la variedad lineal proyectiva generada por L ’.
54 La noci ón geométrica de dimensión

Esto es: P depende de (P1 , P2 , ... , Pr ) SII


r
P   Pj .
j 1

Dependencia de un punto, respecto de una parte cualquiera :


Dado CUALQUIER subconjunto de puntos A , un punto P se dice dependiente
de la parte A SII existe algún sistema FINITO de puntos contenidos en A ,
del cual P dependa .
Esto es:
r
(  r   ) (  P1 , . . . , Pr  A ) ( P   Pj ) .
j 1

Los “cómo” y los “por qué” de la independencia


Notemos que, para sistemas FINITOS de puntos, la definición de independencia
podrá expresarse así:
k
 P1 , ... , Pk  es libre sii Pi   Pj , para i  1, ... , k .
j 1
j i
Espacios proyectivos, Visión Sintética 55

Tal y como sucede en el contexto vectorial, de inmediato saltan a la vista una


serie de comportamientos y caracterizaciones.

Proposición 2
Los “cómo” y “por qué” de la independencia
para sistemas finitos
Sea P  (P ,  , ) un EP . Entonces:
1. Sea  P1 , ... , Pk  un sistema libre, y tomemos un punto “extra”, Pk 1  P .
Entonces:
 P1 , ... , Pk  Pk 1  resultará libre  Pk 1  P1  ...  Pk .

2. Sea  P1 , ... , Pn  un sistema de puntos DISTINTOS, y k n.


S I ningún subsistema libre de  P1 , ... , Pn  contiene MÁS de k puntos,
ENTONCES podremos siempre seleccionar
 Pi , ... , Pi    P1 , ... , Pn 
1 k

de modo tal que se tenga


Pi  ...  Pi  P1  ...  Pn .
1 k

3. Sean dos sistemas de puntos, P0 , P1 , ..., Pn , Q 0 ,Q1 , ... , Qk  P , y llamemos


F  P0  P1  ...  Pn . SI k n Y Qi  F ( i  0,1, ... , k ), ENTONCES

Q 0 ,Q1 , ... , Qk  será ligado .

Demostración:
1.  Es la DEFINICIÓN .

 Supongamos  P1 , ... , Pk  Pk 1  ligado . Entonces, para ALGÚN índice j ,


tendremos
k 1 k
Pj   Pi  Pk 1   Pi
i 1 i 1
ij ij

k
(pues j  k  1 , por hipótesis). Por ende, existirá algún punto S   Pi ,
i 1
ij

tal que Pj  Pk 1  S .
Analicemos alternativas:
(a) Supongamos fuese Pj  S . Entonces  P1 , ... , Pk  NO SERÍA libre ;
contradicción.
(b) Supongamos Pj  Pk 1 . Contradicción.

(c) Sea Pk 1  Pj  S  P1  ...  Pk . Nueva contradicción.

Por tanto, el sistema  P1 , ... , Pk  Pk 1  será forzosamente libre .


56 La noci ón geométrica de dimensión

2. Hagamos Pi  P1 . Si fuese
1
k  1 , y dado que la independencia de 2 puntos

sólo significa que son distintos, sería n  1 y ya estaría.


Sea pues k  1 . Hagamos Pi  P2 . Si fuese k  2 , ya está. Si no fuese así,
2

tomemos como Pi algún Pi EXTERIOR a la recta Pi  Pi , como Pi algún Pi


3 1 2 4

EXTERIOR al plano Pi  Pi  Pi , etcétera.


1 2 3

Prosiguiendo de este modo, obtendremos un sistema libre, cuya suma


geométrica deberá forzosamente ser la VLP P1  ...  Pn .
Ese sistema (por hipótesis) contendrá A LO SUMO k puntos y — si contuviese
MENOR cantidad — siempre podríamos recurrir al “truco” de insertarle algunos
de entre los Pi , hasta llegar a un sistema de k puntos que verifica la tesis.
3. Si fuese n  0 ó n  1 , el resultado sería evidente. Por tanto, vamos a
razonar inductivamente . Como base inductiva, supondremos verdadera la
proposición, para TODAS aquellas VLP F que se puedan representar como suma
geométrica de MENOS que n  1 puntos.
Si cada uno de los Pi es uno de los Qj , y k  n , entonces Q 0 ,Q1 , ... , Qk  no
podría ser libre. Así que algún Pi — digamos, P0 — debería no estar entre los
Qj (i.e., Q j  P0 , para j  0,1, ... , k ).
Hagamos G  P1  ...  Pn . Entonces será F  P0  G , de modo que (para
cada i  0,1, ... , k ) habrá algún punto Ri  G , que verifique Qi  P0  Ri .
Ahora (al ser Ri  G para todo índice i ) podremos emplear la hipótesis
inductiva (y el inciso 2 de este mismo teorema) para garantizar que tendremos
puntos Ri , ... , Ri , tales que Ri  Ri  ...  Ri  R 0  ...  Rk .
1 n 1 2 n

Notando que P0  Ri  P0 Q i , vemos que se tendrá así


P0  Ri  Ri  ...  Ri  P0 Qi Qi  ...  Qi .
1 2 n 1 2 n

Ahora nos percatamos de que (al ser k  n ) habrá POR LO MENOS DOS de los
19
puntos Q i que no aparezcan en el listado Qi , Qi , ... , Qi : digamos, Q j , Q j .
1 2 n 1 2

Será así
Q j  P0  Ri  Ri  ...  Ri  P0  (Qi Qi  ...  Qi ) ,
1 1 2 n 1 2 n

de donde tendremos algún punto S 1  Qi Qi  ...  Qi , tal que Q j  P0  S 1 .


1 2 n 1

Razonando de manera análoga se prueba la existencia de algún punto


S 2  Qi Qi  ...  Qi , tal que Q j  P0  S 2 .
1 2 n 2

Ahora bien, si fuese Q j  S 1 , en tal caso los Q i ya serían un sistema ligado.


1

19
¡Porque se empieza a contar desde cero!
Espacios proyectivos, Visión Sintética 57

Si no fuese así, en tal caso tendríamos P0  Q j  S 1 , de donde


1

Q j  Q j  S 1  S 2  Q j  Qi  ...  Qi ,
2 1 1 1 n

así que también en este caso los Q i forman un sistema ligado.


q.e.d.

Familias generatrices, familias básicas


Definición 2
Sistemas generatrices y bases proyectivas
Sistema de puntos generatriz para una VLP :
Dada una VLP F, un sistema de puntos G  F se dirá generatriz para F SII

F  G .

Sistema FINITO de puntos, generatriz para una VLP :


Dada una VLP F, y un sistema de puntos P1 , P2 , ... , Pr  ( ( i ) Pi  F ), se dirá
que los puntos dados generan a la variedad lineal F , o — mejor aún — que
la variedad lineal F está generada por el sistema P1 , P2 , ... , Pr  SII se tiene
F  P1  P2  ...  Pr .

Base para una VLP, para el EP :


Dada una VLP F, un sistema de puntos BF se dirá una base para F 20 SII

 B es generatriz en F;
 B es libre en F .
Obviamente, un sistema básico para P será cualquier B  P , tal que
 B es generatriz en P;
 B es libre en P .

Base proyectiva FINITA para una VLP :


Si el sistema B  P1 , P2 , ... , Pr  es independiente , y si ADEMÁS se tiene
F   G — o sea, si el sistema es asimismo generatriz para esa VLP, diremos
entonces que se trata de una base (proyectiva) para la variedad lineal F.
Evidentemente, lo propio valdrá tomando F  P.
Atención :
Tu astucia — o tu intuición — ¡oh, lector!, deberían hacerte patente que las
bases que acabamos de definir no serán más que UN MEDIO que nos permitirá
asignarle una “dimensión” a una variedad lineal proyectiva.

20
También suele decirse que el sistema B es básico en F .
58 La noci ón geométrica de dimensión

Esto se ve reforzado a través de las analogías existentes entre la terminología y


notaciones empleadas acá, y las que aparecen en el contexto de los espacios
vectoriales.
Intuitivamente vemos que una recta es la variedad lineal suma de dos puntos
independientes, el plano proyectivo será la variedad lineal suma de tres puntos
independientes, y obvias generalizaciones a cualquier espacio proyectivo.
Sin embargo, para que las bases PUEDAN darnos una noción BIEN DEFINIDA de
dimensión, será preciso probar previamente — tal y como se hace en el
contexto vectorial — que DOS bases CUALESQUIERA de la misma VLP
contendrán siempre EXACTAMENTE EL MISMO número de puntos.
Eso, por supuesto, es lo que vamos a ir haciendo en las páginas que siguen.
Siguiendo, por cierto, un esquema paralelo al empleado en el contexto vectorial.
Nota, entretanto que (de acuerdo a nuestras definiciones):
 TODO punto (singulete en P)
resulta independiente .
 TODO par de puntos DISTINTOS será independiente .
 TRES puntos serán independientes SI, Y SÓLO SI, NO ESTÁN alineados .
 TODA parte de un sistema libre será libre .
 TODO sistema que CONTENGA una parte ligada, resultará ligado .

Teorema 3
Las bases son partes generatrices minimales
Un sistema B de puntos de P  (P ,  , ) será básico si, y sólo si, B es
generatriz minimal, i.e.,
 B genera a P , P   B ,
 pero NINGUNA parte de B genera a P .
Demostración:
B base  B es generatriz minimal :
Por DEFINICIÓN, vale P   B. Supongamos existiese una parte PROPIA B' A B ,
tal que P   B' .
Pero entonces existiría algún punto P  B \ B ' , para el cual fuese P   B' , y
eso CONTRADECIRÍA el hecho de ser B una parte libre .

B es generatriz minimal  B es base:


Hay que probar la independencia de la parte B. Supongamos entonces que B
fuese ligada . Es decir, sabemos que existe AL MENOS UN punto P  B , tal que

P   (B \ P  . Lo cual IMPLICA

P   B   ( (B \ P    P  )  (B \ P   P   (B \ P  .
De donde B \ P  sería parte generatriz para P, en CONTRADICCIÓN con la
minimalidad supuesta para la parte generatriz B.
q.e.d.
Espacios proyectivos, Visión Sintética 59

Definición 3
Variedad lineal finitamente generada
Sea P  (P ,  , ) un EP . Una VLP F en P — y, en particular, el mismísimo
P — se dirá finitamente generada 21
SII existe en F AL MENOS UN sistema
generatriz FINITO .
A partir de aquí mismo, a los axiomas enunciados en la Def. 1.1 para nuestros
EP , les AÑADIREMOS el siguiente

Axioma de Dimensionalidad Finita :


(Fini-Dim) Nuestro EP P  (P ,  , ) será finitamente generado .

Es decir, hay ALGÚN sistema FINITO de puntos, cuya suma geométrica sea P .

Pero ¡notar!
Que eso no implica DE MODO INMEDIATO que toda base de P resulte finita .
Sí que lo vamos a comprobar (luego), pero INSUMIRÁ CIERTO TRABAJO …

Cómo obtenemos bases


Teorema 4
Refinamiento de sistemas generatrices finitos, para obtener bases
Sea P  (P ,  , ) un EP
22
, y sea G un sistema generatriz FINITO para P .
Entonces:
1. SIEMPRE existe alguna base B de P , tal que BG .

2. En particular, SIEMPRE existirá alguna base finita para P .


Demostración: Vamos a armar un proceso recursivo. Definimos G0  G .
Entonces, O BIEN G0 será un sistema generatriz minimal, o no lo será.
En el primer caso, ya nuestro G0 será una base (invocando el Teor. 3).
En caso contrario, sabemos que habrá alguna parte PROPIA (digamos, G1 ), que
TAMBIÉNresulte generatriz .
Supongamos entonces conocer alguna parte PROPIA Gk  G , que TAMBIÉN resulte
generatriz . Por la misma argumentación sabemos que existirá alguna parte
PROPIA G k 1  Gk , generatriz para P .
Como nuestro sistema inicial, G , era finito, resulta obvio que tras una cantidad
FINITA de pasos llegaremos a un sistema generatriz minimal

B  Gn  G ,
El que será una base .
q.e.d.

21
Y, también, finito-dimensional .
22
Por ende — de acuerdo al último axioma adicional añadido (Fini-Dim), nuestro EP será
finitamente generado …
60 La noci ón geométrica de dimensión

Lema 5
Reducción de intersecciones
Sea P  (P ,  , ) un EP
23
, y sean: L un sistema libre en P , L1 , L 2 dos
partes de L. SI L es finito, ENTONCES
vlp (L1  L2)  vlp (L1)  vlp (L2) .
Demostración: Siguiendo la táctica estándar para probar entre IGUALDAD
conjuntos, verifiquemos LAS DOS INCLUSIONES . La primera de ellas es fácil: dado
que L 1  L 2  L1 , L 2 , obtenemos de inmediato
vlp (L1  L2)  vlp (L1)  vlp (L2) .
La otra es un tanto más “dura de pelar” … Para demostrarla, emplearemos
INDUCCIÓN sobre el cardinal card (L 1) . Si L 1   , el resultado es trivial.

Supongamos entonces que card (L1)  1 , y que la conclusión sea verdadera para
los sistemas con card (L1)  1 elementos. Siempre podremos suponer que L1 NO

ES parte de L2 . Ya que — si fuese L1  L2 — se tendría


vlp (L1)  vlp (L 2)  vlp (L1)  vlp (L1  L2 ) .

Entonces, sea L1  L2 . Tomemos algún punto P  L1 \ L2 . Nuestra hipótesis


inductiva nos dice entonces que la conclusión será verdadera para el sistema de
puntos L 1'  L1 \  P  .
Supongamos entonces falsa la tesis, i.e., que existiese algún punto
X  ( vlp (L1)  vlp (L 2 ) ) \ vlp (L1  L 2 ) .

Si ese X estuviese en vlp (L 1') , entonces FORZOSAMENTE estaría en


vlp (L 1')  vlp (L 2) ; de modo que — inductivamente — sería X  vlp (L 1'  L 2) ; de
donde X  vlp (L1  L 2) . CONTRADICCIÓN.
Esa contradicción indica que el tal (hipotético) punto X , debería estar en
vlp (L1) \ vlp (L 1' )  (L 1'  P ) \ L 1' .
Empleando entonces la Propiedad de Intercambio de Generadores (Teor. 1), se
infiere entonces que P  L 1'  X . Pero, como nuestro X TAMBIÉN está en
vlp (L 2) , obtenemos
P  L 1'  X  vlp ( L 1'  vlp (L 2 ) )  vlp ( L 1'  L 2) .

Ahora viene lo bueno: por la elección del punto P , tenemos P  L2 ; además,


P  L 1' . Así que hemos obtenido una CONTRADICCIÓN a la independencia de L:

23
Por ende — de acuerdo al último axioma adicional añadido (Fini-Dim), nuestro EP será
finitamente generado …
Espacios proyectivos, Visión Sintética 61


 P  vlp (L )

 0
L 1'  L2 verifica  .
L0   Y


 P  vlp (L 0 )

q.e.d.

Tal como sucede en el ambiente de los EV , ahora corresponderá enunciar y


probar aquellos resultados (altamente PRÁCTICOS) que nos capacitan para
introducir y extraer elementos de las bases (los “teoremas de intercambio”).

Lema 6
Primera propiedad de intercambio de puntos básicos
Sea B una base FINITA del EP P  (P ,  , ) , y sea P un punto . Entonces B
contendrá siempre algún punto Q , tal que el sistema
(B \ Q  )   P 
sea ASIMISMO una base .
Método para determinar un tal punto Q :
La base B contendrá siempre una parte, B ' , con la siguiente propiedad:
 P  vlp (B ')   B' , pero

 P  vlp (B ") , para NINGUNA parte propia B" A B'.


Entonces , para CUALQUIER punto Q  B ' , el sistema puntual
(B \ Q  )   P 
será básico en P .
Demostración: Al ser B un sistema FINITO , existirá una parte B'  B que
tenga esta propiedad:
 P  vlp (B ')   B' , pero
 P  vlp (B ") , para NINGUNA parte propia B" A B'.
Sea un punto arbitrario Q  B ' .
Tesis: B1  (B \ Q  )   P  resultará una base de P .
Veamos ante todo que P  vlp (B \ Q  ) . Supongamos sea P  vlp (B \ Q  ) .
Entonces el Lema de Reducción de Intersecciones (Lema 5) nos indica que
P  vlp (B \ Q  )  vlp (B ')  vlp ( (B \ Q  ) \ B' )  vlp (B ' \ Q ) ,
lo cual CONTRADICE la minimalidad de B ' .
En virtud de la Propiedad de Intercambio de Generadores (Teor. 1), se infiere
que
vlp (B1)  vlp(B \ Q  )  P  vlp (B)  P ,
lo que nos indica que B1 genera a P .
62 La noci ón geométrica de dimensión

Veamos ahora que B1 es un sistema de puntos libre .


Supongamos fuese ligado . Entonces habría algún punto X  B1 , tal que fuese
X  vlp (B1 \  X ) .
Si fuese X  P , entonces P  vlp (B1 \  P ) . Pero B1 \  P   B \ Q  , y
P  vlp (B ') . Así que — teniendo en cuenta que
 B \ Q   B
 ,

 B '  B
el Lema de Reducción de Intersecciones (Lema 5) nos dice que
P  vlp(B \ Q  )  vlp (B ')  vlp ((B \ Q  )  B ')  vlp (B ' \ Q ) ,
lo cual CONTRADICE la minimalidad de B' .
Así que, debería tenerse X  B \ Q  . Por hipótesis es
X  vlp (B1 \  X )  vlp (B \  Q , X )  P .
Como B \ Q  es libre, se deduce que X  vlp (B \  Q , X ) . Aplicando la
Propiedad de Intercambio de Generadores (Teor. 1), obtenemos entonces
P  vlp (B \  Q , X )  X  vlp (B \ Q ) .
Procediendo como hicimos al testear la hipótesis X  P , encontramos una
contradicción al inferir que
P  vlp (B \ Q )  vlp (B ')  vlp (B' \ Q ) .
Esto nos muestra que el sistema B1 es libre .
q.e.d.

Llegamos ahora a uno de los resultados clave:


Teorema 7
Teorema de Steinitz, para EP
Sea B una base FINITA del EP P  (P ,  , ) , y sea r  card(B) . Entonces, si
L es un sistema libre, con s  card(L ) , se tendrá siempre que
1) s r ;
2) existirá alguna parte B*  B , con card(B*)  r s , y tal que L  B*
resulte básica .
Demostración: Supondremos primero que L sea finito (después tomaremos
en cuenta la otra posibilidad).
Vamos a razonar por recurrencia sobre s  card(L ) .
Si es s  1 , ya lo tenemos probado (Lema 6, Primera propiedad de intercambio de
puntos básicos).
Sea ahora s  k  1 , y supongamos válida la proposición para todo valor MENOR

que k (en particular, entonces, para k  1 ).


Espacios proyectivos, Visión Sintética 63

Sea un punto arbitrario P  L . Entonces L '  L \ P  es un sistema libre


formado por k  1 puntos, o sea, que la hipótesis inductiva nos dice que:
1) k 1  r ;
2) habrá una parte B'  B , formada por r  (k 1) puntos, y tal que
L '  B' resulte básica .
Inciso (1) de la Tesis Inductiva:
Afirmamos que k  r , En efecto, si NO FUESE así, sería k  1  r , con lo cual
B'   . Entonces L' resultaría básica . En particular se tendría P  vlp (L ') ,
lo que CONTRADICE la independencia de L. Esa contradicción prueba la tesis.
Inciso (2) de la Tesis Inductiva:
Siendo B FINITA, existirá una parte B "  L '  B ' , tal que
 P  vlp (B ")
 P NO ESTÉ en la suma geométrica de NINGUNA parte PROPIA de B" .
Entonces B"  B'   . Pues (de no ser así) el Lema de reducción de
intersecciones (Lema 5) nos llevaría a obtener la siguiente contradicción a la
independencia de L :
P  vlp (B ")  vlp (L '  B ')  vlp (B "  (L '  B '))
 vlp (B "  L ')  vlp (L ')
 vlp (L ' \  P )
Por la Primera propiedad de Intercambio de puntos básicos (Lema 6), entonces,
para cada punto Q  B "  B ' , el sistema (L '  (B ' \ Q  ) )   P  resultará básico.

De acá se inferirá la tesis, al definir B*  B' \ Q  y tener en cuenta que


(L '  (B ' \  Q  ) )   P   (L '   P  )  (B ' \  Q  )
 L  (B ' \  Q  )

¿Qué sucedería si suponemos que L es un conjunto infinito de puntos?


Al ser infinito un conjunto, siempre contendrá partes FINITAS con cardinal igual
a CUALQUIER NÚMERO NATURAL dado. En particular, nuestro L contendría alguna
parte finita con exactamente s '  r  1 elementos. Invocando lo razonado
previamente, obtendríamos entonces
r 1  s '  r
¡contradicción!
q.e.d.
24
Corolario
Nuestros EP no contienen partes libres infinitas
Un EP finitamente generado NO PUEDE contener partes libres infinitas .

24
(de la demostración)
64 La noci ón geométrica de dimensión

Al igual que en la teoría algebraica de los espacios vectoriales, el siguiente paso


será comprobar que TODO sistema de puntos libre podrá extenderse
(añadiéndole convenientemente los puntos que sea preciso) para darnos una
base proyectiva:
Teorema 8
Extensión a bases
Sea P  (P ,  , ) un EP
25
. Entonces:
1. TODAS las bases poseen el MISMO cardinal.
2. TODO sistema libre (en particular, toda base para una VLP ) podrá
EXTENDERSE para darnos una base proyectiva .
Demostración: Ante todo, el Teor. 3 nos dice que nuestro EP tendrá siempre
ALGUNA base finita . Llamemos r al cardinal (número de elementos) de ESA
precisa base.
Por el Teorema de Steinitz (Teor. 7), TODO sistema libre — y, en particular, TODA
base — tendrá A LO SUMO r elementos.
De donde: TODA base en P  (P ,  , ) será finita .
Si consideramos DOS bases, B1 y B2 , entonces la parte (1) del Teorema 7
(Steinitz) implica automáticamente que se tendrán LAS DOS desigualdades

 card(B1)  card(B2)

 card(B2)  card(B1)

de donde la igualdad.
La proposición (2) del enunciado se sigue directamente de la parte (2) del
Teorema 7 (Steinitz).
q.e.d.

Dimensión
Ya tenemos los elementos necesarios para poder dar una definición de
dimensión proyectiva:
Definición 4
Dimensión de un EP , de un SEP , de una VLP
Sea P  (P ,  , ) un EP , y F una VLP en P . Diremos entonces que
dim F  d
(lo que se leerá « F es d  dimensional ») SII existe una base para F , que
contenga EXACTAMENTE d  1 puntos.
26
A veces vamos a escribir
P  dim F

25
Recordemos: sólo estamos tomando en cuenta los espacios finitamente generados.
26
Cuando trabajemos A LA VEZ con estructuras y conceptos afines y proyectivos (por ejemplo,
al plantear afinizaciones de elementos proyectivos).
Espacios proyectivos, Visión Sintética 65

para denotar la dimensión en el sentido proyectivo del término.


Se dirá que P tiene dimensión (proyectiva) d SII dim P  d .
La dimensión de un SEP será la de su correspondiente VLP .
Se usarán intercambiablemente las siguientes notaciones:
d  dim F  dim (F)  P  dim F  P  dim (F) .

Proposición 9
Las VLP y la dimensión
Sea F una VLP en el EP P  (P ,  , ) (finitamente generado). Entonces:
1. dim (F)  dim (P) .
2. Se tendrá siempre
dim (F)  dim (P)  FP .
Demostración:
a. TODA base para F será un sistema libre en P . Si llamamos
d  dim (P) , r  dim (F) ,
entonces el Teorema 8 nos garantiza que el número MÁXIMO de puntos que
componen a una base de F será d  1 . De donde r  1  d  1 , y así
 dim (F) será finito ;
 dim (F)  dim (P) .

b. Si F  P , el enunciado es trivial. Para la recíproca, supongamos que


dim (F)  dim (P) , y sea B alguna base (CUALQUIERA) para F . Entonces B
será ASIMISMO base para P . Se deduce que
F  sep (B)  P .
q.e.d.

Variedades lineales y dimensión


Definición 5
Terminología para VL y SEP , Geometría Proyectiva de un EP
Sea P  (P ,  , ) un EP de dimensión FINITA d  1.
La familia de las VLP :
A la familia de TODAS las posibles VLP en P , se la denotará en adelante como
Vlp (P) , O BIEN (P) .
Hay dos VLP triviales, a saber, P y  . Si queremos especificar la totalidad de
las VLP no triviales, la respectiva familia se denotará por
Vlp (P) , O BIEN *(P) . *
La familia compuesta por todas las vlp r  dimensionales se anotará en lo
sucesivo Vlpr (P) , O BIEN r (P) .
66 La noci ón geométrica de dimensión

La Geometría Proyectiva asociada a un dado EP :


Llamaremos geometría proyectiva asociada al EP P , al par ( (P),  ) . Si se
requiere, lo abreviaremos como GP , y lo simbolizaremos por
(P) .
Planos en P :
Las VLP cuya dimensión sea 2 , se llamarán planos en P . Su totalidad se
anotará como 2 (P) .
Tridis en P :
Cuando d  3 , llamaremos tridis a las VLP 3  dimensionales.

Hiperplanos en P :
Llamaremos hiperplano en P , a toda VLP cuya dimensión sea d  1 ( 1 unidad
menos que la dimensión del espacio P ). La familia de todos los hiperplanos en
P , se anotará en lo sucesivo d 1(P) , o bien (P) .
En cuanto sigue, en general, no vamos a distinguir histéricamente entre
un “espacio proyectivo” y una “geometría proyectiva”. Es que ambas nociones
se determinan mutuamente …

Proposición 10
Realización de cualquier VLP como intersección de hiperplanos
Sea P  (P ,  , ) un EP d  dimensional, y sea F una VLP r  dimensional (con
 1  r  d ). Entonces existen siempre d  r hiperplanos, tales que F resulte
la intersección de los mismos.
Demostración: Consideremos alguna base  P0 , P1 , ... , Pr  en F . Ya sabemos
que siempre resulta factible extenderla — añadiendo d  r puntos apropiados
— para obtener una base B   P0 , P1 , ... , Pr , Pr 1 , ... , Pd  del P.
Ahora hagamos
Hi  vlp (B \  Pr  i  ) ( i  1, ... , d  r ) .
Las VLP Hi serán hiperplanos (al estar generadas por d  (d  1)  1 puntos
independientes).
Podremos entonces aplicar nuestro lema de reducción de intersecciones (Lema
5), para obtener
H1  ...  Hd r  vlp ( P0, P1, ... , Pr , Pr  2, ... , Pd ) 
 ...  vlp ( P0, P1, ... , Pr , Pr 1, ... , Pd 1 
 vlp ( P0, ... , Pr , Pr  2, ... , Pd   ...   P0, ... , Pr , Pr 1, ... , Pd 1 )
 vlp ( P0 , P1 , ... , Pr )
 F
q.e.d.
Espacios proyectivos, Visión Sintética 67

Proposición 11
Complemento geométrico de una VLP
Sea P  (P ,  , ) un EP d  dimensional, y sea F una VLP r  dimensional (con
 1  r  d ). Entonces existe siempre una VLP F ' , tal que
 F  F'  P ;
 F  F'   ;
 dim (F)  dim (F ' )  dim (P)  1 .

Demostración: Busquemos una base en F : B   P0 , P1, ... , Pr  .


Completemos esa base para obtener una base C en P:
C  B  B'
  P0 , P1, ... , Pr    Pr  1, ... , Pd 
 
r  1  puntos d r   puntos

Entonces:
F  vlp (B) , F '  vlp (C ) , dim (F)  r , B  C   ,
dim (F ' )  dim (vlp ( Pr  1, ... , Pd ))  d  r  1 ,
de donde
dim (F)  dim (F ' )  dim (P)  1 .
Además (“simplificación de intersecciones”):
  vlp ()  vlp (B  C)  vlp (B)  vlp (C )  F  F ' .
q.e.d.

Definición 6
Complemento geométrico de una VLP
La VLPconstruida en la Prop. 11 a partir de otra VLP dada, se llamará su
complemento geométrico, y queda CARACTERIZADA por las tres propiedades
vistas.
68 El Teorema de Grassmann

5. El Teorema de Grassmann
En los espacios vectoriales de dimensión finita,vale un teorema (comúnmente llamado
“fórmula de las dimensiones”) que relaciona las dimensiones de un par de S EV
(digamos, W1, W2 ) con las de sus SEV suma e intersección.
Ese teorema tiene un alto contenido geométrico, y es en realidad la contraparte de un
importante resultado proyectivo, que veremos en esta sección: el llamado Teorema de
Grassmann sobre dimensiones proyectivas.
Antes de proseguir, vamos a reformular
más intuitivamente algunos resultados
Es posible (y aún probable) que mucho de lo expuesto en lo que antecede te parezca
“en el aire”. A mí también … Y como no deseo hacer (y divulgar) barbarie, vamos a
reformular algunas ideas 27.
En todo lo que sigue, P  (P ,  , ) denota un EP finitamente generado 28.
La primer reformulación afecta al mismísimo concepto de variedad lineal:
Proposición 1
Reformula la idea de VLP
Una PARTE S  P es una variedad lineal proyectiva si, y sólo si,
 contiene algún sistema de puntos que resulte una base (finita), y además
 SI contiene un sistema de puntos  P1, ... , Pr  , ENTONCES también
contiene a TODO punto P  P que dependa de  P1, ... , Pr  .
Notar: la definición original (en términos de rectas) es el caso PARTICULAR cuando
r  2.
De la definición dada para la VLP subtendida por otra VLP y un punto que le sea
exterior, se puede deducir este intuitivo resultado:
Teorema 2
Condición para corte
S I un punto Q está en la VLP generada por un sistema de puntos, y NO ES
NINGUNO de ellos, ENTONCES la recta determinada por Q y uno de los puntos
dados (digamos, R ) cortará a la VLP generada por el sistema original
DISMINUIDO en R .
Más formal: S I Q  P1  ...  Pk , y además Q  Pk , ENTONCES
(Q  Pk )  (P1  ...  Pk 1 )   .
CASO PARTICULAR, aunque EQUIVALENTE como proposición:
S I Q depende de (P1, ... , Pk ) 29 , y SI ADEMÁS es Q  Pk , ENTONCES siempre
existe algún punto Z , sobre la recta Q  Pk , que depende de (P1, ... , Pk 1 ) .

27
E, incluso, daremos alguna prueba alternativa, si con ello todo queda un poquito más claro … Pero
— en general — vamos a apelar a tu intuición …
28
Esto es, de entrada presuponemos que existe (al menos) un sistema finito de generadores.
29
Esto es: si Q  P1  . ..  Pk  1  Pk …
Espacios proyectivos, Visión Sintética 69

El resultado que sigue habla acerca de los planos sumergidos en un EP de mayor


dimensión (por ejemplo, en el EP tridimensional real P3  ):
Proposición 3
En un plano sumergido en un EP de mayor dimensión,
TODO par de rectas se CORTARÁN
Sea S  P una VLP 2  dimensional (i.e., un plano). Entonces todo par de rectas
l , m en30 P se cortarán.
 P  m
Demostración: Sea algún punto P , tal que  .
 P  l

Tomemos sobre l dos puntos P1  P2 . Entonces (P1 , P2 ) es un sistema libre. Al
estar fuera de l , nuestro punto P no dependerá de (P1 , P2 ) . De donde el
sistema (P1 , P2 , P ) será a su vez libre. Ese sistema (P1 , P2 , P ) siempre podrá
COMPLETARSEhasta obtener alguna base B para el plano S .
Pero S es de dimensión 2, o sea, que en S no puede haber MÁS de 3 puntos
independientes. Se sigue de ahí que forzosamente sería B  (P1 , P2 , P ) .
Ahora tomemos sobre m cualquier punto Q  P . Entonces ese Q dependerá
de B  (P1 , P2 , P ) 31 . De donde, el Teorema 232 nos dice que sobre la recta
Q  P deberá haber algún punto Z que dependa de (P1 , P2 ) (es decir: que esté
sobre P1  P2 .
Pero entonces P1  P2  l y Q  P  m se cortarán en nuestro punto Z .
q.e.d.
Proposición 4
En los tridis SIEMPRE habrá rectas alabeadas
Sea S una VLP de dimensión ≥ 3 . Entonces SIEMPRE S contendrá AL MENOS UN
par de rectas que no se corten.
Demostración: S contendrá (por hipótesis) al menos 4 puntos independientes.
Sea pues (A, B,C , D) un sistema libre . Afirmamos que será
(A  B )  (C  D )   .
En efecto, supongamos que tales rectas se cortasen en algún punto X .
Entonces
 D dependerá de C y de X ;
 y — además — C y X (cada uno por su parte) dependerían de (A, B,C ) .
Se concluiría que el punto D dependería de (A, B,C ) , CONTRADICCIÓN.
q.e.d.

30
Notar: decimos que una recta L está EN S sii su respectiva puntual está contenida en
S . Vale decir: sii TODO punto de L está en S . Notar que, si A  B son puntos de S ,

entonces la recta A  B estará EN S.


31
Es decir: Q  P1  P2  P …
32
Con mayor precisión: su CASO PARTICULAR …
70 El Teorema de Grassmann

Ejercitación 1
Intenta probar (obviamente, siguiendo los esquemas dados arriba), las siguientes
proposiciones:
1. En un EP 4  dimensional, TODA recta cortará a TODO tridi .
2. En un EP 4  dimensional, TODO par de planos se cortarán .
3. En un EP 5  dimensional, SIEMP RE habrá planos que NO se corten.

Proposición 5
Algunas propiedades de las rectas alabeadas
Sean l , m cualesquiera dos rectas alabeadas 33. Entonces:
1. La VLP suma 34 l  m de l y m será siempre un tridi .

2. TODO punto de l  m resultará colineal con un punto de l y con uno de


m.
Demostración:
1. Sean A , B puntos (distintos) de l (i.e., L  A  B ), y C , D puntos de m (o
sea, m  C  D ). Entonces nuestra variedad lineal suma no es otra que
A  B C  D , y por ende su dimensión será forzosamente 3 O MENOS . Pero la
dimensión NO PODRÍA ser menor que 3, porque A  B y C  D no se cortan.
2. Sea P algún punto de l  m  A  B C  D . Este P , o bien estará sobre la
recta l , o bien no lo estará. Si P  l , entonces claramente P será colineal con
un punto de l y con uno de m .
Supongamos entonces que P  l . Es decir, P  l sería un plano, y P  l corta a
m en algún punto Q .
Siempre podremos suponer que sea Q  P , pues de no ser así, ya tendríamos
P  m . Entonces tendremos definida la recta P Q , y ésta deberá cortar a
nuestra recta l en algún punto X 35.
De este modo, hemos visto que el punto P resulta colineal con el punto X  l
y con el punto Q  m .
q.e.d.
La proposición anterior puede generalizarse como sigue:
Teorema 6
Propiedades de las VLP alabeadas
Sean L , M dos VLP alabeadas (i.e., que no se corten). Entonces:
1. dim (L  M)  dim (L)  dim (M)  1 .
2. Además, TODO punto de la VLP suma, resultará colineal con un punto de
L y también colineal con un punto de M .

33
I.e., rectas que no se cortan …
34
I.e., generada por el CONJUNTO de ambas …
35
Pues las rectas P  Q y L son coplanares: ambas están en P  L . Y ya vimos que todo par
de rectas coplanares se cortan.
Espacios proyectivos, Visión Sintética 71

Demostración:
Sea dim (L)  e , i.e., en L tendremos alguna base  P0 , P1, ... , Pe  ; y sea asimismo
dim (M)  f , i.e., en M tendremos alguna base Q0, Q1, ... , Qf  . La VLP suma
será entonces
L  M  vlp ( P0, P1, ... , Pe   Q0, Q1, ... , Qf ) 
 P0  P1  ...  Pe  Q0 Q1  ... Q f
Nota que tenemos aquí (e  1)  ( f  1) puntos, con lo cual
dim (L  M)  (e  1)  (f  1)  1  e  f  1 .
Para verificar que en este caso vale la IGUALDAD, habrá que comprobar que el
sistema
(a)  P0, P1, ... , Pe   Q0, Q1, ... , Qf 
resulta libre .
Vamos a razonar por recurrencia sobre dim (M)  f . Precisando, probaremos
DOS cosas, a saber: la independencia de nuestro sistema (a), Y la validez de la
parte (2) de la tesis.
El caso f  0 (base inductiva) te queda como regalo. Suponiendo f  0 ,
nuestra hipótesis inductiva nos dice que  P0, P1, ... , Pe , Q0 , Q1, ... , Qf  es libre .
Pero deberemos comprobar que el punto Qf NO DEPENDE de
 P0, P1, ... , Pe , Q0, Q1, ... , Q f 1  . Para ello, llamemos

M1  Q0 Q1  ... Q f 1 .
Si Q f depende de  P0, ... , Pe , Q0, Q1, ... , Q f 1  , entonces Qf  L  M1 . Ahora
usamos la segunda parte de nuestra hipótesis inductiva (es decir, el
cumplimiento de la afirmación (2) de la tesis general). Es decir, sabremos que
Qf resulta colineal con algún punto A  L y con algún punto B  M1 (consulta
la parte (b) de la figura anexa).
Pero ocurre que B Qf  M . De donde obgtendríamos que las vlp L y M se
cortan en el punto A . CONTRADICCIÓN (¡eran alabeadas!).
72 El Teorema de Grassmann

Eso completará la prueba inductiva de que dim (L  M)  e  f  1 , A CONDICIÓN

de que tengamos una prueba de la veracidad del inciso (2).


Sea pues X  L  M . Por el Teorema 2, Qf  X cortará a L  M1 en algún
punto Y (consulta la parte (c) de la figura proporcionada). Por la hipótesis
inductiva, ese Y será colineal con algún punto U  L y algún punto V  M1 .
Aunque faltaría considerar ciertos casos especiales particulares, vemos que
podremos aplicar el Axioma de Veblen-Young-Pasch, para concluir que X será
colineal con U y un cierto W  Qf V .
Pero, al estar toda la recta Qf V contenida en M , tendremos completa la
demostración.
q.e.d.

El resultado que sigue generaliza el anterior al caso en que las VLP L, M NO SEAN
forzosamente alabeadas:
Teorema 7
El Teorema de Grassmann
Sean dos VLP cualesquiera L , M en un EP finitamente generado P  (P ,  , ) .
Entonces:
(Grassmann) dim (L)  dim (M)  dim (L  M)  dim (L  M) .

Demostración:
Hagamos dim (L)  e , dim (M)  f , dim (L  M)  s . Sabemos pues que en
L  M habrá alguna base G 0, ... ,Gs  . Esa base podrá completarse, hasta
obtener (respectivamente) — consulta la figura anexa, parte (a):
 una base G 0, ... ,Gs , Ps 1, ... , Pe  para L ;
 y una base G0 , ... ,Gs , Qs 1, ... , Q f  para M .
Entonces
L  M  vlp ( G0, ... ,Gs , Ps 1, ... , Pe , Qs 1, ... , Qf   .
Espacios proyectivos, Visión Sintética 73

Debes notar que acá tenemos


(s  1)  (e  s )  (f  s )  dim (L)  dim (M)  dim (L  M)  1
puntos. Así que ya estamos seguros de que valdrá
dim (L  M)  dim (L)  dim (M)  dim (L  M) .
Para poder garantizar la igualdad, falta probar que hemos obtenido un sistema
libre . Si llamamos — ver la parte (b) de la figura —
L1  vlp (  Ps 1, ... , Pe   ,
entonces nuestra tesis se desprenderá del Teorema 7 A CONDICIÓN de que
podamos probar que M y L1 resultan alabeadas .
Para ver eso, sea X cualquier punto COMÚN a M y L1 . O sea,
X  L  M  G0  ...  Gs .
Nuestro punto X siempre podría completarse, hasta obtener una base para la
VLP L  M . Pero nosotros ya teníamos una base G 0 , ... ,Gs  — que supusimos

ARBITRARIA — así que ¿qué nos impide asumir que sea X  G0 ?


Y acá está el punto: como X  G0  L1 , resulta que G 0 dependería de
Ps 1, ... , Pe . Lo cual contradice que G 0 , ... ,Gs , Ps 1, ... , Pe  sea un sistema libre .
q.e.d.

Ejercitación 2
Aplica el Teorema de Grassmann a resolver los problemas planteados en Ejercitación 1 .

El resultado que sigue es tan intuitivamente evidente, que normalmente uno lo emplea
sin mayor preocupación:
Proposición 8
Una condición para igualdad entre dos VLP
Sean S , T dos VLP , tales que S  T y además dim (S)  dim (T) . Entonces
S  T.
Demostración:
Supongamos S  vlp (P0, ... , Pe ) , en donde e  dim (S)  dim (T) .
Notar que P0, ... , Pe   T , por la primera hipótesis, y que además ese sistema
contiene precisamente dim (T)  1 puntos, así que todo punto de T dependerá
de P0, ... , Pe  . Así que T  vlp (P0 , ... , Pe )  S .
q.e.d.
74 El Teorema de Grassmann

Cómo funcionan los hiperplanos

Necesitamos completar nuestras ideas acerca de los hiperplanos, dado que éstos
son los elementos o “ingredientes” básicos empleados para fabricar lo que se
llama el dual de cualquier EP .
En este tramo supondremos que nuestro EP P  (P ,  , ) es n  dimensional;
en ese caso, llamaremos hiperplano en P a cualquier VLP (n  1)  dimensional.
Notar que
SI S es un plano (i.e., de dimensión 2), y el espacio P tiene dimensión 3,
ENTONCES S sería un hiperplano en P .
Pero — en el caso general cuando n  3 — ambos conceptos ya no coincidirán.
Es decir, la noción de hiperplano es una noción relativa. Los resultados
subsiguientes posiblemente aclaren un poco eso …

Teorema 9
Alternativa para los cortes de VLP con un hiperplano
Sea S una VLP r  dimensional en P , y H un hiperplano. Entonces
 o bien H contiene a S ;
 o — de NO SER así — forzosamente H corta a S según una VLP de
dimensión r 1 .
Intuitivamente: los “cortes” con hiperplanos (de ser AUTÉNTICOS, i.e., no triviales),
rebajan la dimensión en 1 unidad …
Demostración: Como toda alternativa, se prueba suponiendo falsa una de las
dos condiciones, y verificando la obligatoria veracidad de la otra. Supongamos
que H no contiene a S . Entonces la VLP generada conjuntamente por H y S
(es decir: H  S ) deberá contener ESTRICTAMENTE al hiperplano H .
No siendo igual a H , debe entonces tener dimensión MAYOR que la de H ( n 1 ).
Por consiguiente, dim (H  S)  n (no podría resultar  n , por hipótesis).
De donde
dim (S  H)  dim (S)  dim (H)  dim (S  H)
 r  (n  1)  n
 r 1
según la fórmula dimensional de Grassmann.
q.e.d.

El resultado subsiguiente es un recíproco del anterior:


Teorema 10
Existencia de hiperplano que realice una traza
Sean S una r  VLP, T una (r 1) VLP contenida en S . Entonces existe
siempre algún hiperplano H en P , tal que realice a T como traza de S en
H , es decir, tal que se verifique T  S  H .
Espacios proyectivos, Visión Sintética 75

Demostración: Tomemos alguna base  P0 , ... , Pr 1  para la VLP T . Completemos


ese sistema libre, respectivamente, para obtener
 una base  P0, ... , Pr 1, Pr  para S ,
 y una base  P0, ... , Pr 1, Pr  Pr 1, ... , Pn  para el espacio.
Definimos entonces
H  vlp ( P0, ... , Pr 1, Pr 1, ... , Pn ) .
Esa VLP es obviamente un hiperplano en P (contiene 1 PUNTO MENOS que la
cantidad requerida para engendrar al EP total).
Nuestro H no contiene a S , porque el punto Pr no depende del sistema
 P0, ... , Pr 1, Pr 1, ... , Pn  36. Por ende, H  S será una (r 1) VLP. Por otra parte,
H  S contiene a la VLP T , porque H  S contiene a  P0, ... , Pr 1  , por
construcción.
La Proposición 8, entonces, nos garantiza que será H  S  T .
q.e.d.
Un enunciado más completo para la Prop. 4.10,
y una prueba un poquito diferente
La Proposición 4.10 — que tiene gran importancia en la Teoría de la Dualidad —
se puede probar de manera un tanto más intuitiva.
Vamos a re-enunciarla así:
Teorema 11
Las VLP como intersecciones de hiperplanos
TODA r  VLP podrá siempre expresarse como i n t e r s e c c i ó n de EXACTAMENTE n r
hiperplanos.
Demostración: Ante todo ¡interpretemos correctamente! La palabreja
“exactamente”, en el enunciado anterior, significa que
 se requieren n  r hiperplanos
 pero no menos de n  r ,
para realizar a cualquier VLP r  dimensional como intersección de hiperplanos.
Sea S cualquier r  VLP dado; tomemos para él una base  P0 , ... , Pr  . Completemos
el sistema para obtener una base  P0 , ... , Pr  Pr 1, ... , Pn  para el espacio.

Consideremos las VLP

S0  S  vlp ( P0, ... , Pr ) ,


S1  vlp ( P0 , ... , Pr  Pr 1 ) ,
S2  vlp ( P0, ... , Pr  Pr 1  Pr  2 ) ,

36
¿Entiendes por qué? Si tal fuese el caso, entonces  P0 , ... , Pr  1 , Pr  Pr  1 , ... , Pn  NO PODRÍA
ser una base para el espacio total, al ser ligado …
76 El Teorema de Grassmann

...........................
Sn r 1  vlp ( P0 , ... , Pr  Pr 1, ... , Pn 1 ) .
La última de la secuencia ES un hiperplano. Además, cada una de ellas podrá
obtenerse (a partir de la que le sigue en secuencia) por intersección con un
hiperplano adecuado.
Al proceder de este modo, podremos representar a S como intersección de
n  r hiperplanos. Sólo nos resta ver que S no podría obtenerse por intersección
de menos que n  r hiperplanos.
En efecto, supongamos fuese S  H1  H2  ...  Hs , en donde H1 , H2 , . . .
denotan hiperplanos . Consideremos las VLP H1 , H1  H2 , H1  H2  H3 , … .
Cada una de esas VLP (pasando la primera) tiene dimensión a lo sumo 1 UNIDAD
MENOR que la de la precedente .
37
Por ende, dim (H1  ...  Ht )  n t . Para
t  s , obtenemos r  n s . Es decir: s  n  r .
q.e.d.

Ejercitación 3
¿Qué resultado conocido obtendríamos — a partir del Teorema 11 — al tomar los
valores particulares n  3 , r  1 ?

37
Si fuese H1  ...  Ht  H1  ...  Ht  Ht  1 , ya no necesitaríamos usar al Ht  1 para la

representación S  H1  ...  Hs .
Espacios proyectivos, Visión Sintética 77

6. El Espacio Dual

Introducción: la idea
Ahora vamos a ver uno de los hechos más fascinantes (e importantes) de la
Geometría Proyectiva. A saber: partiendo de un cierto EP n  dimensional
conocido, digamos P  (P ,  , ) , te mostraremos cómo construir un nuevo EP
P*  (P*,  *, *) que le estará asociado de una manera muy peculiar.
El nuevo espacio tendrá como entes básicos:
 Ciertos objetos bien definidos (por satisfacer determinadas propiedades), a
los cuales sin embargo no vamos a llamarles “puntos”38 …
Vamos a llamarles puntos* (que se leerá “puntos duales ” o bien aster-
puntos).
 Además, necesitaremos disponer de rectas. Pero (por las mismas razones
antes expuestas) no las llamaremos “rectas”, sino rectas* (que se leerá
“rectas duales ” o bien aster-rectas).
¿QUIÉNES serán los aster-puntos?
Respuesta: serán precisamente los hiperplanos en P . Es decir:
P * es un punto*  P *  n 1(P)  (P) .
¿QUIÉNES serán las aster-rectas?
Mejor digamos primero CUÁNDO vamos a considerar colineales (alineados) a
tres de nuestros puntos* .
Diremos que 3 de nuestros aster-puntos A , B , C son colineales sii —
considerados como hiperplanos en P — CONTIENEN a una misma VLP de
dimensión n  2 .
Eso es lo mismo que decir: las rectas* son precisamente las VLP
(n  2) dimensionales en P . Es decir:
l * es una recta*  l *  n 2 (P) .
Ejercitación 1
Traducir estos conceptos, a los casos particulares n  3 , n  4 , n  2 .

Definición 1
El EP dual canónico de un EP dado
Sea P  (P ,  , ) un EP n  dimensional dado. Llamaremos dual de P a la
terna P*  (P*,  *, *) , en donde
 P *  n 1(P)  (P) ,
  *  n 2 (P) ,

38
Por dos razones: (1) para enfatizar que dependen — al menos, en cuanto a nosotros se
refiere — de los entes que componen nuestro espacio original P . (2) Para no confundirlos con
los puntos del espacio original.
78 El Espacio Dual

y donde la relación de incidencia dual  * es la relación INVERSA de la relación


de incidencia vigente en P . Es decir, se tratará de la relación obtenida,
FORMALMENTE, al reemplazar “está sobre” por “pasa por” (o bien “contenido en”
por “contiene a”).

¿Metafísica?
Se impone clarificar algo estas ideas. Eso (como siempre) lo haremos a través
de una formalización axiomática.
¿Por qué se REQUIERE dicho proceso de formalización? La respuesta simple y
directa es que — si NO lo llevamos a cabo — muy probablemente acabemos
haciéndonos un lío 39.
Puesto que el autor de este texto no sólo es un matemático sino que además es
ingeniero, puede dar testimonio personal de ese lío (por su experiencia como
estudiante). En lo que resta de esta reflexión verás algo de eso.
Dijimos que una recta* consiste de todos los puntos* — esto es, hiperplanos —
que pasan por una dada VLP (n  2) dimensional en P .
Entonces — supuesto que tengamos dada una cierta VLP (n  2) dimensional
Sn 2 — ¿podremos hablar de «la recta* Sn 2 » …?
Bien, estrictamente hablando, acá habría un “bache”. Porque
1. nuestro Sn 2 es un conjunto de puntos ;
2. en tanto que una recta* (según las hemos definido) sería una colección de
hiperplanos … (y cada uno de esos hiperplanos, a su vez, una colección
de puntos …).
Es que, como se indicó antes, lo que realmente queremos decir — cuando
hablamos de «la recta* Sn 2 » — es «la familia 40 de todos aquellos hiperplanos
que pasen por Sn 2 ».
Pero — aún “digerido” eso — a uno le quedan ¿sospechas? Indudablemente, las
notaciones contribuyen a esa sensación ¿por qué emplear la tipografía de las
variedades lineales, para designar puntos?
En este orden de ideas es que las REPRESENTACIONES ANALÍTICAS (vía el Álgebra
Lineal) para entidades geométricas proyectivas pueden sernos de ayuda (¿o de
calmante?).
Uno “siente” en ese caso que “entiende” mejor la cosa … Es en realidad una
ilusión ¡pero de ilusiones también se vive, dicen por ahí …!

39
En el sentido prístino del vocablo: enredándonos en nuestras propias palabras …
40
Normalmente, llamada haz … Concretamente: el haz lineal de hiperplanos pasantes por
Sn  2 .
Espacios proyectivos, Visión Sintética 79

Comenzamos la formalización
Sea como fuere, hemos hablado impunemente del “espacio proyectivo” P* …
pero … esa terna P*  (P*,  *, *) ¿ ES realmente un espacio proyectivo, en
el sentido que hemos definido para ese término?
Eso es lo que vamos a intentar comprobar en lo que sigue …
De todos modos, en ánimo de despejar un poco la sensación de incertidumbre
que mencionábamos antes, mejor será formalizar previamente:
Definición 2
Dualidad proyectiva
Sean P  (P ,  , ) y P*  (P*,  *, *) dos EP , para los cuales supondremos
haber adoptado realizaciones en que las “rectas” sean subconjuntos de
“puntos” 41.
Diremos entonces que ambos EP se encuentran en dualidad, SII existe algún
mapa biyectivo    (P)   (P *) 42 , tal que se verifiquen LAS DOS
condiciones
3. DeMorgan-1 :
Para CUALESQUIERA A , B   (P) , se tenga
(A  B)  (A)  (B) .
4. DeMorgan-2 :
Para CUALESQUIERA A , B   (P) , se tenga
(A  B)  (A)  (B) .

A tener en cuenta :
 Nuestro mapa BIYECTIVO  manda variedades lineales de un
“lado” sobre variedades lineales del “otro lado”.
Le estamos pidiendo, por ende, bastante (diríamos mejor: MUCHÍSIMO …).
Es decir: nuestra dualidad resultante será una herramienta MUY
poderosa …
Pero notar atentamente: tal y como lo estamos planteando, no bastará
con definir la acción de la dualidad  sobre los puntos del espacio de
partida P , ni tampoco sobre los puntos Y sobre las rectas. Habría que
hacerlo para CUALQUIER posible VLP en P …

41
Recuerda: eso SIEMPRE es factible (para los espacios proyectivos). Bastará con reemplazar la
“recta” l , por su respectiva puntual Pl , i.e., el conjunto de todos aquellos “puntos” que
“inciden con” (“están sobre”) l , y la “incidencia”  sería entonces la pertenencia  en el
sentido conjuntista.
42
Al que llamaremos la biyección de dualidad , o sencillamente la dualidad .
80 El Espacio Dual

Esto parece desconcertante, pues ¿acaso no hemos probado que toda la


estructura geométrica proyectiva se conoce totalmente, al dar únicamente
la totalidad de los puntos (i.e., P ) y la totalidad de las rectas (  )?
Pues bien: no hay tal presunta contradicción. El problema (o mejor, el
inconveniente) es meramente operacional: ¿te parecería sensato necesitar
construir, CADA VEZ, las VLP implicadas a partir solamente de sus puntos y
sus rectas43 …?
Por esto es por lo que se impone dar la “receta de dualidad” (¡o sea, el
mapa  !) de manera general, i.e., válida para toda posible VLP en AMBOS
espacios (¡recuerda que es una biyección!).
 En realidad 44 nada nos impide “tomar al toro por las astas” y
efectuar una “pirueta matemática”:
Emplear LAS PROPIAS RELACIONES (DeMorgan-1) y (DeMorgan-2) para definir
el concepto implicado en uno de sus dos miembros …
¿Trampa? Te garantizo que NO HABRÍA tal, A CONDICIÓN de tomar algunos
recaudos …
¿Cuáles serían esos recaudos? Los que siempre se toman al definir — o
extender — nociones matemáticas. Y que pueden resumirse en una
palabra: razonabilidad .
Deberíamos comprobar — o asegurarnos — de que obtendremos nociones
razonables . Vamos pues a eso.
 Si observas con astucia las dos relaciones que expresan las dos
CONDICIONES impuestas sobre un mapa biyectivo para que pueda llamárselo
“una dualidad” (entre dos EP ), te darás cuenta de estos hechos:
A MBAS relaciones requieren que a una VLP “grande” 45 de un lado, le
corresponda SIEMPREuna “chica” del otro lado.
Y, en realidad, uno diría: «cuanto más grande de un lado, tanto más chica
del otro lado (y viceversa, por supuesto)».
Es que — a medida que aumente el número de “intersecandos” — la
dimensión de una intersección de variedades lineales debería
(razonablemente) disminuir …
Y lo propio (sólo que AL REVÉS) debería ocurrir con las sumas de VLP …
 La siguiente aplicación de una actitud astuta ante la vida
(matemática) debería ser percatarse de que ya hemos “armado” la
maquinaria requerida.

43
Por si no te has dado cuenta: eso es precisamente lo que hace PESADAS las demostraciones
atinentes a la dependencia e independencia de puntos, y en general toda la teoría de la
dimensión. Es el precio que debe pagarse ineludiblemente, para obtener una teoría
constructivista …
44
Aunque sujeto a la verificación (previa o posteriormente a su empleo) de varias de las
afirmaciones que haremos …
45
En el sentido de su dimensionalidad ¿en cuál otro podría serlo …?
Espacios proyectivos, Visión Sintética 81

En efecto: ¿recuerdas cuando nos pusimos a razonar acerca de la


posibilidad de representar a cualquier VLP como intersección de una
adecuada familia de hiperplanos?
De hecho, hicimos más que eso. No nos limitamos a enunciar (y
demostrar) que toda VLP podría obtenerse intersecando hiperplanos. No
por cierto.
Hicimos mucho más que eso. Dimos condiciones SOBRE LAS DIMENSIONES ,
relacionándolas con el número máximo de hiperplanos que se requeriría.
Y es precisamente ese el hecho que nos dará la clave para
 Plantear, y (más que eso),
 entender el funcionamiento
de la dualidad en los espacios proyectivos.
Ahora — tras esta reflexión — sólo necesitaremos enunciar un par de
definiciones (para proveer terminología y notaciones 46), y ya llegamos.

Haces de hiperplanos
Definición 3
Haces de hiperplanos, centro de un haz
Dada una r  dimensional Sr — en un EP n  dimensional, llamaremos haz
VLP

de hiperplanos, de centro Sr , a la familia de TODOS los hiperplanos que


contienen a la VL Sr .
Al haz de hiperplanos de centro Sr , lo denotaremos H(Sr ) . También se lo
llamará el haz lineal de hiperplanos, de centro Sr .
Notar …
que NO ESTAMOS “definiendo el vacío”, porque ya hemos probado 47 que toda VLP
puede representarse como intersección de un sistema apropiado de hiperplanos .

Recuerda asimismo …
que hemos ACOTADO el número máximo de hiperplanos requeridos (lo cual,
por supuesto, NO QUITA la posibilidad de que haya más hiperplanos que TAMBIÉN
contengan a nuestra VLP Sr ).

Rango y dimensión de un haz de hiperplanos :


Al NÚMERO MÁXIMO de hiperplanos — en H(Sr ) — requeridos para re-obtener a
Sr como intersección de los mismos, esto es, al número n  r , lo vamos a
H(Sr ) , en símbolos rg (H(Sr )) .
llamar el rango del haz lineal
Diremos además que el haz lineal H(Sr ) tiene dimensión n r 1 . Así que:

rg (H(Sr ))  n r , y dim (H(Sr ))  n r 1  rg (H(Sr ))  1 .

46
Es decir, abreviaturas, o sea maneras de “ahorrar pensamiento” …
47
Y de hecho ¡dos veces!
82 El Espacio Dual

Teorema
Dualidad en la Geometría Proyectiva
Sea P  (P ,  , ) un EP n  dimensional. Entonces:
a. La dualidad haz  centro :
Si consideramos dos haces de hiperplanos, de centros respectivos Sr y Ts ,
valdrá siempre la equivalencia lógica
Sr  Ts  H(Sr )  H(Ts ) .
1. El Principio de Dualidad en los EP :
Sea T CUALQUIER teorema acerca de VLP en P  (P ,  , ) . Entonces la
proposición T * , que se obtiene a partir de T al
a. PERMUTAR entre sí «dimensión r » con «dimensión n r 1 »,
b. Y «contenido» con «contiene» 48,
resultará asimismo un teorema 49 en la geometría estudiada.
2. Construcción de la Dualidad Canónica en los EP :
b. Existe siempre un mapa dualidad    (P)   (P *) , para cierta
definición adecuada del EP P*  (P*,  *, *) .
c. S I    (P)   (P *) es una dualidad , ENTONCES su mapa
1
recíproco    (P *)   (P) será ASIMISMO una dualidad .

d. S I hubiese DOS dualidades , digamos    (P)   (P *) y


   (P)   (P 1) , ENTONCES existiría un isomorfismo
 : P*  P 1 .

Demostración: Como verás, la demostración de este potentísimo resultado será


50
sorprendentemente simple .
1. La relación H(Ts )  H(Sr ) IMPLICA que todo hiperplano del haz H(Ts ) 51
TAMBIÉN deberá contener a la Sr . Es decir: que TODO punto de Sr deberá
VLP

estar en TODOS los hiperplanos del haz H(Ts ) , y por ende asimismo en la
intersección de éstos, es decir, en Ts .
En símbolos: Sr  Ts .
Recíprocamente, razonando de modo similar se podrá comprobar que, SI vale
Sr  Ts , ENTONCES forzosamente se tendrá H(Ts )  H(Sr ) .

48
O bien: «está en» con «pasa por» …
49
Esto es: una proposición verdadera .
50
Es que ya hemos efectuado bastante trabajo previo …
51
Esto es: que contenga a la VLP Ts …
Espacios proyectivos, Visión Sintética 83

Vemos así que las dos relaciones Sr  Ts y H(Ts )  H(Sr ) resultan


lógicamente equivalentes .
2. Es una simple consecuencia del punto 1 .

3. a. Ante todo, DEFINAMOS al EP P*  (P*,  *, *) :

 Los puntos: P *  n 1(P)  (P) ,


 Las rectas:  *  n 2 (P) ,
1
 La incidencia:  *  
Ahora definimos el mapa dualidad : sea cualquier VLP Sr   (P) . Tomaremos
(Sr )  H(Sr ) .
Notarás que:
(1) Para r  0 (i.e., para los puntos de P ), el elemento dual será la
familia de todos aquellos hiperplanos que contengan al punto dado.
(2) Para r  1 (i.e., para las rectas de P ), el elemento dual será la
familia de todos aquellos hiperplanos que contengan a la recta dada.
(3) El inciso 1 nos garantiza que la incidencia obtenida es realmente la
recíproca de la original.
Ya sabemos cómo efectuar la asociación funcional S  S * . Ahora debemos
DEFINIR nuestras dos operaciones geométricas básicas (VLP suma 52 y VLP
intersección 53). Y habrá que hacerlo de modo que se RESPETE el contenido del
inciso 1 .
Tal como se indicó en nuestro “programa de combate”, la astucia — acá —
consiste en :
Emplear LAS PROPIAS RELACIONES (DeMorgan-1) y (DeMorgan-2) para definir el
concepto implicado en UNO de sus dos miembros …
Y lo vamos a hacer MANTENIENDO LA RAZONABILIDAD 54 . Lo cual (en el caso
presente) significa que esas dos operaciones que definiremos deben dar
resultados COMPATIBLES con lo que nos dice el inciso 1.
Entonces:
 Aprovecharemos (DeMorgan-2), para definir
A *  B *  (A  B) * .
¡Nota que el SEGUNDO miembro lo deberíamos poder evaluar!
Aprovecharemos (DeMorgan-1), para definir
A *  B *  (A  B) * .
¡Nota que el SEGUNDO miembro lo deberíamos poder evaluar!

52
Es decir: la VLP generada por otras dos dadas …
53
Es decir: aquella VLP donde se cortan las dadas …
54
¡Sin salirnos de lo razonable!
84 El Espacio Dual

Es decir: hemos definido las operaciones en el dual, como la composición de


la operación dual 55, efectuada en el “primal”,
con la operación “tomar dual de la vlp dada”.
Notarás que valen obviamente 56 las dos relaciones pedidas:
(A  B)  (A  B) *  A *  B *  (A)  (B) ,
(A  B)  (A  B) *  A *  B *  (A)  (B) .
1
b. Al ser una biyección, su relación inversa  será realmente un mapa .
1
Notando que — para cualquier VLP A — es  (A*)  A , obtenemos
1
 (A *  B * )  A *  B *  (A  B) *   (A  B)
1 1
  (  (A*)   (B *) )
y por ser  un mapa INYECTIVO, podremos concluir que
1 1 1
 (A *  B * )   (A*)   (B *) .
Razonando del mismo modo se llegaría a comprobar que
1 1 1
 (A *  B * )   (A*)   (B *) .
c. Definimos
1
   .
Este mapa resulta biyectivo, al ser producto de mapas biyectivos. Vamos a
verificar que se trata de una colineación , es decir, que mapea sumas de puntos
en sumas de puntos e intersecciones en intersecciones.
En efecto, para dos VLP cualesquiera E N E L D U A L , se tendrá
1
 A *  B *   A *  B *
 A  B )
 A)  B )
1 1
  A*)   B *)
  A*)   B *)
Procediendo de manera similar podría probarse que
 (A *  B * )   (A*)   (B *) .
Como estas dos identidades se han comprobado para VLP cualesquiera , EN
PARTICULAR valdrán para los puntos del EP dual. De donde nuestro mapa 
preserva los enlaces de puntos y las intersecciones de rectas. I.e., resulta ser
una colineación, de donde vale el isomorfismo anunciado.
q.e.d.

55
La operación geométrica  es la operación dual de la operación  . La operación
geométrica  es la operación dual de la operación  .
56
¡Por construcción!
Espacios proyectivos, Visión Sintética 85

Vous aimerez peut-être aussi