Académique Documents
Professionnel Documents
Culture Documents
hacia la forma. 1 ra
parte
DG Gabriel Macarol
Fundamentos de la producción de Impresos
Edición - FILO/UBA
INDICE
• El camino hacia la forma. Una aproximación histórica
• Los Materiales fotosensibles
• Materiales Fotosensibles basados en Halogenuros de Plata.
• La película gráfica
• Materiales Fotosensibles basados en polímeros
• El original
• El original papel
• El original electrínico ara gráfica
• Los archivos de imagen
• La tipografía digital
• El formato PDF
• Tramas
• Clasificación de tramas
• Tramas AM
• Tramas FM
• Tramas´híbridas, de modulación cruzada y PMR
• Ganancia de punto
• El color en preprensa
• WYSIWYG
• Perfiles de color
• Trappong y overprint
• Escáneres
• Tipos de escáneres, cama plana y rotativos
• Flujos de trabajo
• Clasificación, CTF, CTP y DI
• CTF
• Previsualización
• Pruebas de color digitales
• Rasterización
• Filmado y revelado
• Pruebas de color de peliculado
2
El camino
hacia la forma. 1 ra
parte
La palabra forma es, acaso, una de las palabras con mayor cantidad de definicio-
nes en nuestro idioma. En el contexto de este curso, llamaremos forma impresora
al objeto que lleva la información del diseño a imprimir. Esta forma varía sus carac-
terísticas de acuerdo con sistema de impresión escogido: puede ser en relieve, en
superficie, en profundidad, de penetración o digital. Los procesos de preprensa
son los que, en general, preparan las condiciones y los objetos necesarios para la
fabricación de estas formas; estos procesos de preprensa variarán según el siste-
ma de impresión y/o el flujo de trabajo adoptado.
Las formas más utilizadas en producción gráfica son los fotograbados (grabados
realizados por medios fotoquímicos). En los sistemas en relieve encontraremos,
entre otros, los fotopolímeros y los clisés metálicos; en superficie, las planchas o
chapas de offset; en profundidad, los cilindros grabados de rotograbado o hueco-
grabado; los shablones, en serigrafía –un sistema por penetración de tinta– y, por
último, las formas digitales, cuyas características nos hacen repensar el concepto
de forma variable.
Hablaremos de forma cuando haya un momento de impresión: un sello de goma o
una huella dactilar entintada son formas (no industriales) que llevan la información
inscripta en sus relieves. En el camino hacia la forma tendremos que sortear mu-
chísimos obstáculos; todos, afortunadamente, conocidos.
Los japoneses llamaron “calidad total” a la reducción del error entre los pasos de
un proceso a otro; sepan disculpar esta atrevida síntesis, pero en preprensa, la
conciencia del error, de los límites de cada técnica y tecnología asociada, hará que
3
el producto final sea el óptimo. De esto se trata el control de calidad en preprensa,
conocer los errores y prevenirlos, detectar cada uno y también su origen. Cono-
cemos dos tipos de errores: los absolutos y los relativos. Los absolutos tienen que
ver con cifras, unidades, las diferencias exactas entre un valor y otro, las diferen-
cias precisas entre lo esperado y lo obtenido. Los relativos utilizan los porcentajes
como expresión numérica.
Figúrense ahora un proceso de diez pasos: entre cada paso detectamos un error
de “sólo” el 2%. Al finalizar, el error acumulado dará un resultado de 16,62% re-
lativo al esperado, es entonces necesario reducir el error entre paso y paso. La
ecuación contiene al menos estas dos variables: la cantidad de pasos y el por-
centaje de error.
En el gráfico 1 tenemos la curva del error en función de la cantidad de pasos; en
este caso, con un error del 5% vemos derrumbarse intensamente el equilibrio de
la calidad. Debemos admitir con cierta vergüenza que estos niveles, en países
como el nuestro, son moneda corriente en la mayoría de los talleres gráficos, que,
al no contar con la tecnología apropiada o con la capacitación suficiente (hemos
visto muchos talleres con la tecnología a disposición y sin la persona adecuada
para el control de calidad), no garantizan los niveles mínimos de calidad en los
procesos de preprensa, de prensa o terminación.
4
Una aproximación histórica.
5
Con el providencial encuentro de la química y la óptica a principios del siglo XIX
se prefiguraba la fotografía, soporte fundamental de las artes gráficas del siglo XX.
La impensada posibilidad de imprimir imágenes fotográficas se tornaba realidad.
Las películas fotográficas de alto contraste brindaron el soporte ideal para copiar
las formas de manera precisa en los tonos planos, como cuerpos tipográficos o
planos de color, pero presentaban dificultades para copiar fotoquímicamente los
medios tonos o tonos de grises, obstáculo superado con la invención de la trama.
6
Las emulsiones sensibles gráficas son del tipo ortocromático, es decir que registran
sólo parte de la radiación luminosa total, por ejemplo, no reaccionan con la radia-
ción roja. Además, son de alta latitud, con lo cual la variación de niveles de grises
que pueden registrar es muy baja.
Como ejemplo, las películas en nuestras cámaras de fotos tienen una latitud de me-
dia a baja, pues lo que queremos es registrar el máximo de detalles en todas sus
gamas y matices.
En gráfica lo que buscamos al momento del revelado es, negro y blanco en papeles
o negro y transparente en películas. Estas emulsiones son también llamadas de alto
contraste y su misión es transmutar todos los grises que sean más oscuros que el
gris medio hacia el negro, y los que queden por debajo del gris medio al blanco, sin
posibilidad alguna de representar valores intermedios.
Además, pueden ser negativas o positivas. Las negativas reaccionarán a la luz en-
negreciéndose, mientras que las positivas funcionan exactamente a la inversa.
Veamos que ocurre con las emulsiones que ennegrecen. Dijimos antes que las sa-
les de plata reaccionan a la luz. Actualmente la reacción es controlada, de manera
que si tuviéramos la posibilidad de “ver” un rollo de fotos sin revelar (y sin que se
vele), y tuviésemos la esperanza de encontrar una imagen, nos frustraríamos. ¿Qué
ocurre entonces? ¿Por qué la emulsión no ennegreció? Para poder controlar los ni-
veles de reacción a la luz, lo primero que se obtiene es una “imagen latente”, una re-
acción incompleta que terminará su proceso de ennegrecimiento en un laboratorio
fotográfico en un baño revelador. “Tomamos nota” de la imagen y la terminamos en
laboratorio. Pero, dirán, ¿sobre qué material estamos trabajando? Los materiales
gráficos son esencialmente papel y película gráfica, la emulsión fotosensible viene
en una pequeña capa sobre estos materiales.
El proceso de laboratorio consta de cuatro pasos: el revelado, el detenido, el fijado
y el lavado, en este orden. La función del revelado será entonces terminar con el
decantamiento de las sales de plata en forma de moléculas de óxido de plata, que
son negras. Cabe aclarar que sólo las moléculas alcanzadas por la luz decantan,
entonces, ¿qué ocurre con las que no fueron alcanzadas por la luz?
Si no detuviésemos la acción del revelador, en un tiempo cercano, las moléculas
que no reaccionaron comenzarían a hacerlo. En un laboratorio, los tiempos y la
temperatura de todos los baños son variables primarias. Esta es la función del de-
tenedor: interrumpir la acción del revelador. Luego, en el baño fijador, eliminaremos
la emulsión no decantada y fijaremos la imagen que a esta altura ya será perfecta-
mente visible. Papeles o películas son lavadas y secadas en el último paso.
Desde hace varios años, los papeles gráficos de alto contraste han caído en des-
uso al ritmo de la aparición de las tecnologías digitales, ritmo acelerado que en los
últimos tiempos ha dejado casi sin trabajo a un rubro sin el cual 80 años de impren-
ta industrializada hubieran sido imposibles: la fotomecánica. De manera que mos-
traremos el funcionamiento de una película gráfica de alto contraste.
La película gráfica
Durante muchos años, los procesos de producción de películas gráficas, copias de
contacto, fotolitos, fotograbados, etcétera, fueron tarea excluyente de los talleres
7
de fotomecánica. En ellos coexistían la artesanía y las técnicas precisas de la fo-
tografía con cámaras fotográficas gráficas de tipo vertical. El diseñador se presen-
taba con un original en papel, muchas veces montado en cartón, al cual le eran
tomadas una serie de fotografías para producir las películas. Los tiempos han
cambiado radicalmente para todos, pero esencialmente pata los fotomecánicos.
En la producción industrial de materiales impresos debemos obtener matrices
con las cuales grabar las formas impresoras. Los sistemas industriales con flujo
de trabajo del tipo “directo a película” (CTF, Computer To Film) son los que utilizan
películas para construir las formas para cada sistema de impresión.
Estas matrices son las películas gráficas y llevan impresa la información en la me-
dida exacta a la que van a ser producidos los impresos. Se deberá decir, enton-
ces, que al finalizar la producción de preprensa en CTF, debemos obtener pelí-
culas gráficas y pruebas de color (que veremos más adelante) cuyas cantidades
dependerán del tipo de impreso y el sistema de impresión. Lo cierto es que la
película debe oficiar de pantalla o máscara; para esto, lo negro debe ser opaco a
la luz, es decir que ésta no la pueda atravesar. (Recuerden las horrendas marcas
que dejan los bikinis en la piel al cubrirla del sol.)
Por arriba y por debajo del acetato se encuentran dos mordientes. La función
de los mordientes es de contención y de adherencia de la emulsión y de la capa
anti-halo.
El soporte más común en películas es el acetato de celulosa, medio translúcido
bastante flexible y resistente. La capa anti-halo tiene una función importantísima:
absorbe los reflejos por refracción dentro de la película de celuloide. La luz cam-
bia de dirección cuando atraviesa medios de distinta densidad y provoca falta de
definición en la imagen, algo así como un fuera de foco.
8
Al copiar una película los rayos de luz blanca llegan hasta la emulsión y hacen re-
accionar la superficie en las zonas específicas de contacto, dan origen así a la ima-
gen latente.
9
Si la emulsión se encontrara por encima del celuloide se llamará, claro, emulsion
up (emulsión arriba), los sistemas de relieve (por ejemplo, flexografía) por lo gene-
ral utilizan esta condición.
Por regla general, cuando se realiza una copia por contacto, muy común al co-
piar formas impresoras, las emulsiones de película y de la forma deben entrar en
contacto íntimo. La razón es que las aberraciones producidas por la refracción
de la luz deforman, a veces es imperceptible, los contornos de las tipografías o
puntos de trama.
Una película puede ser negativa o positiva. Si fotografiáramos un cuadrado negro,
el registro negativo sería la imagen a la inversa, es decir, un cuadrado transparen-
te sobre un fondo negro, mientras que el positivo sería un cuadrado negro sobre
un fondo transparente.
La densidad de una película es otra de las condiciones fundamentales para una
buena transmisión del diseño a la forma. En una copia por contacto, la fuente lu-
minosa deberá ser uniforme, es decir, iluminar de manera pareja una superficie
plana, lo ideal para estos casos es una insoladora.
Las insoladoras más modernas tienen el control del tiempo de exposición por
medio de procesos digitales. También, para un íntimo contacto entre película y
forma, aportan una bomba de vacío que hace que se elimine el 99% del aire alo-
jado entre ambas, que podría provocar fuera de focos y pequeñas distorsiones.
El éxito de los procesos fotográficos depende de algunas variables entre las que
encontramos la temperatura de los líquidos, la temperatura ambiente, los tiempos
de exposición y de baño de los materiales y la juventud o frescura de los mate-
riales utilizados.
Una manera sencilla de controlar la calidad de una copia fue introducir en los pro-
cesos, cuñas de control.
10
Si tuviéramos una transparencia ideal, la luz pasaría en un 100% de un lado al
otro de la película. Como no podemos tener estas certezas absolutas, en la reali-
dad contamos con el error. Una densidad base se leerá entonces en todo material
translúcido, que es la cantidad de luz que deja pasar.
Cómo funciona un densitómetro: una fuente de luz se encarga de iluminar la mues-
tra, una célula fotoeléctrica, del otro lado (por eso el densitómetro es de transpa-
rencia), se encarga de registrar cuánto del 100% emitido llega hasta la célula.
Los parámetros normales de densidad oscilan entre 2,6 y 3,4 de opacidad; cuan-
to más grande es el número, más opacidad tiene la muestra. Estos valores son
unidades matemáticas de opacidad, el resultado del logaritmo del inverso del va-
lor de la transluminancia, log(1/tr). Si la película cuenta con un grado menor que el
aceptado, hay altísimas probabilidades de que la película provoque desajustes en
pasos posteriores. Por ejemplo, imágenes muy claras, quemado en las fotografías,
formas inútiles en sistemas de relieve o hueco y/o defectuosas en sistemas de su-
perficie o penetración.
Una gran serie de ecuaciones conforman el “corpus densitométrico”, estos cálcu-
los, simples pero que requieren de un conocimiento previo de nociones fisicomate-
máticas, son resueltos por el procesador del densitómetro. Lo usaremos tal como
usamos un teléfono celular, sin saber sobre la naturaleza de las ondas electromag-
néticas o de la estructura molecular del silicio.
Por último, debemos incluir como ítem a controlar el tramado de imágenes, pero
esto lo desarrollaremos en el párrafo concerniente a tramas.
11
El original
Quizás sea verdad que el siglo XX haya terminado en los 80. Quizás la empresa
Apple también forma parte de esta posibilidad.
Las metáforas planteadas por los sistemas operativos de interfaz gráfica como el
que desarrolló Apple y por el luego “adaptado” Microsoft Windows aplastaron, por
su sencillez y practicidad a los primitivos sistemas de líneas de comando (DOS).
Las metáforas apuntaban (y aún lo hacen) a generar un ambiente amable y, sobre
todo, conocido: para borrar un archivo se debía “tirar al tacho de basura”.
Se habla de archivos y de ventanas aunque estos sean sólo índices piercianos.
Por continuidad, los primeros softwares gráficos comenzaron a punta de mouse
a delinear protoarchivos que definirían más tarde el eje tecnológico de la autoedi-
ción. La panacea de la era digital había comenzado sin independizarse de la vieja
usanza análoga: las referencias y marcas tradicionales de corte, registro y dema-
sías siguen hasta nuestros días.
Asimismo, brillaron los meteoros digitales en el cielo de fin de siglo, también arriba-
ron los nuevos problemas, los errores algorítmicos de la lógica del silicio.
Las nuevas tecnologías que solucionan viejos obstáculos inventan nuevos.
La autoedición (desktop publishing) es, simplemente, una nueva forma de hacer
viejas cosas. Los procesos que anteriormente se realizaban desde el esquema de
la manualidad, armado de originales rígidos, peliculados en cámaras verticales,
separación de color por medios fotográficos, positivado de planchas, alzado e im-
12
posición manual de páginas o calibración manual del color, hoy en día se gestan en
una línea de procesos digitales. Esta línea deberá, para conseguir un buen resulta-
do, tener un alto grado de optimización.
Hablaremos de páginas digitales, de escaneados, de imágenes vectoriales o pixe-
lares y, sobre todo, de lenguajes y códigos de descripción de página, es decir, de
lenguajes comunes a muchas máquinas que comparten un proceso, en este caso
el difundido postscript.
Hardware va a ser la palabra de moda, “ferretería” es su significado literal. Lo mate-
rial, el objeto “computadora”es a lo que realmente refiere. Las primeras Apple Ma-
cintosh eran una suerte de televisores blanco y negro de 9” con una ranura para
diskettes, un teclado y un mouse. No tenían disco rígido, soportaban como máxi-
mo 4 Mb de RAM y costaban alrededor de u$s 2.500. Precio que paradójicamente
se mantiene para una estación de trabajo gráfico promedio después de más de 20
años.
Delimitar las ventajas y desventajas del universo digital sería una tarea tan ardua
como útil, pero este no es el eje de nuestro capítulo, muchos libros han hablado de
esto en los 90.
Lo que nadie puede negar es que el trabajo de producción de originales para gráfi-
ca a partir de la aparición del ordenador es mucho más rápido y efectivo, sólo pen-
semos en el copy-paste y el undo en un sentido práctico.
Citemos entonces la clasificación de Nicholas Negroponte, director del laborato-
rio de medios del MIT, la realidad se divide en dos: las cosas y la información. Es
decir, “átomos y bits”. Recuerden cuánto ocupa la Enciclopedia Británnica en una
biblioteca y cuánto en un CD: compresión de datos y corrección de errores son,
entonces, las grandes ventajas de la digitalización. Ojalá Nicholas perdone esta
simplificación.
Servicios de red cada vez más poderosos y dispositivos de almacenaje cada vez
más rápidos y vastos hacen que el trabajo de preproducción gráfica sea más sen-
cillo, pero no olviden: las nuevas tecnologías, que solucionan viejos obstáculos, in-
ventan nuevos.
Por otro lado, la impronta electrónica modifica sustancialmente el esquema de tra-
bajo tradicional en el cual la mayor parte de los procesos eran fotoquímicos y, de-
pendían en gran manera de la experticia del fotomecánico a cargo.
Los objetos que se producen en la industria gráfica son, en general, soportes o su-
perficies que se entintan y que se preparan para su comercialización, distribución
y/o uso.
Hoy en día, los originales son documentos, objetos digitales producto de algún de-
terminado software, que no dejan en profundidad de pertenecer a la lógica del bit,
ceros y unos. De cualquier manera, estos documentos están conformados por ele-
mentos gráficos que tienen determinadas características, conocerlas hace la dife-
rencia entre un original bien hecho, calificado, y otro que va a corromper o demorar
el sistema de producción. En un arrebato de síntesis, y descontando apreciaciones
semióticas, podemos decir que en todo diseño en dos dimensiones encontramos
tres cosas: tipografía, imágenes icónicas y misceláneas. Esta clasificación está to-
mada de la primera manera de clasificar los elementos gráficos en el sistema de
tipos móviles de antaño, en el que encontramos tipografía, clisés de relieve para las
imágenes y elementos no tipográficos. Entre las imágenes icónicas encontramos
las fotografías, ilustraciones, gráficos e iconografías, sobre estas hablaremos en un
13
próximo punto. Las misceláneas son filetes, cuadratines, texturas, símbolos no ti-
pográficos, indents, etcétera. En cuanto al texto, y sin titubeo, descubriremos que
en su ADN reina la letra.
A modo de homenaje vamos a sintetizar algunas características de los originales
en papel ya que algunas de éstas perduran actualmente, luego veremos los origi-
nales electrónicos para gráfica (OEG).
El original en papel
Todo lo que se ha hecho a lo largo de 80 años en impresión está condensado en
los procesos digitales de fines de siglo XX.
La función del original en papel, como así también la del electrónico, es codificar
el diseño visual a manera de objeto que sirva para la producción de las formas de
impresión. Estos originales tendrán el objetivo de conseguir que las películas y las
pruebas de color sean correctamente producidas.
Mucho se podría escribir acerca del original en papel, pero nos sentiríamos in-
vadiendo la ardua tarea de un historiador. Sencillamente, en un cartón montado
blanco, se delineaba el diseño de un impreso; este original se debía realizar exclu-
yentemente en blanco (fondo) y negro para que los procesos fotográficos regis-
traran su contenido. Recuerden, los materiales fotosensibles gráficos son de alto
contraste, cualquier valor de gris que hubiere sería interpolado hacia el blanco o
el negro, esto es muy importante, en el próximo punto lo retomaremos para ver
cómo se procede con imágenes que tengan grises o colores.
Asimismo, se debían separar los colores manualmente. En impresión se necesita
de una “pasada” por la máquina correspondiente para cada color de tinta. De ma-
nera que la regla es la siguiente: para cada color-tinta una forma y le sigue, para
14
cada forma un original; debemos confesar que con alguna pericia se podía ahorrar
un original incluyendo en el mismo cartón la información de varios colores-tinta.
Muchas de las marcas accesorias utilizadas en los originales manuales se utilizan
en los electrónicos. A saber: las cruces de registro, las líneas de corte y el área de
demasía de color.
Al trabajar con varios colores que deben registrar entre sí en el momento de impre-
sión, es preciso contar con una referencia, ya que muchas veces las impresiones
son polícromas, es decir, de más de una tinta a la vez. Las cruces de registro sir-
ven entonces en el momento de imprimir y, por lo tanto, deben estar en el original.
Las líneas de corte indicarán al operario de guillotina por dónde cortar el impreso
acabado. Si el diseño tuviere impresión al corte, sangrando, se deben prolongar
más allá de las líneas imaginarias que provocan las líneas de corte, a esto se le lla-
ma área o zona de demasía de color.
Para terminar, algo característico de los originales en papel eran las aclaraciones
en color celeste, color que no salía fotografiado; y el papel vegetal por encima del
original se usaba como protección.
15
Ahora lo complicado, una imagen a color va a necesitar de más de un canal de
información para poder componer en pantalla la policromía esperada. El caso
más común es el de las imágenes en modo RGB: rojo, verde y azul (Red – Green
– Blue). La computadora, para hacer visible este tipo de imágenes, utiliza tres ca-
nales grayscale, cada canal llevará la información de un color básico, y de sus
mezclas digitales se producirá el color correspondiente. A esta descripción corres-
ponde cada una de las imágenes fotográficas que ven en internet o que provienen
de sus escáneres, entre otras.
Las imágenes multitonales son archivos de modo monotono, duotono, tritono,
cuatritono, etcétera, es decir, se definen por la cantidad de canales asignados
para cada una de ellas. Una con dos canales será duotono. Estos archivos co-
rresponderán a imágenes con composiciones de color especiales, por ejemplo,
una foto de autor con colores sepiados; para ser reproducida en estas condicio-
nes en imprenta, su composición digital debe incluir la información para tinta ne-
gra y otra sepia: un canal para el negro y uno para el sepia. También se usan para
contener dentro de imágenes a todo color, uno especial, por ejemplo plateado.
Muchas obras de arte que incluyen dorados o plateados deben ser reproducidas
a partir de pentatonos (5 canales) para lograr alguna fidelidad en relación con la
obra original.
Por último, las imágenes en modo CMYK (Cyan – Magenta – Amarillo – Negro) que
contienen cuatro canales grayscale para la información esencial de la separación
de color para la impresión policroma en imprenta.
Los softwares de edición de imágenes pixelares, como el Photoshop, pueden pre-
visualizar cada canal por separado y dan una utilidad sin paralelo para una com-
probación previa de la separación del color.
Observemos que el peso en Kbytes de una imagen pixelar está definido por la re-
solución (dpi), su profundidad de color (cantidad de bits) y su tamaño en ancho
y alto; nótese que aumenta geométricamente en relación a su tamaño: tal como
para pintar un cuadrado de dos metros de lado necesitamos 4 veces más pintura
que para pintar uno de un metro de lado. Nos enfrentamos, y cabe aclararlo en
este momento, con la poco propicia convención de utilizar la misma unidad para
cosas diferentes. Tenemos ‘dpi’ que miden resolución de imágenes, pero también
tenemos dpi que miden calidades de periféricos, como los escáneres e impreso-
ras. Llamaremos entonces dpi de entrada a los que tienen que ver con dispositi-
vos de entrada a la CPU, es decir, los escáneres u otros dispositivos de captura
de imagen, como cámaras digitales, y que sirven, como veremos más adelante,
para definir la calidad de lectura de estos aparatos.
Dpi de salida serán los que definen la calidad de periféricos de salida, como los
diferentes tipos de impresoras y filmadoras de película digitales o planchas.
Esto es sencillo, cuanta más información tenga para definir una imagen, mejor
será esta. La información de la que hablamos está definida como cantidad de
pixels por pulgada. Cuanto más pequeños son estos pixels, mejor “dibujada” es-
tará.
Las imágenes que vemos en nuestras pantallas de computadora son, definitiva-
mente, digitales. Todas se construyen a partir de pequeñas celdas fácilmente ob-
servables con una lupa o cuentahílos sobre el vidrio del monitor o la membrana
del plasma. Estos módulos de color, a su vez, están formados por tres pequeños
sectores luminosos de color rojo, verde y azul (RGB). Las formas y colores se de-
linearán entonces por la iluminación de cada uno de estos módulos comandados
16
por un software y una placa de video. A modo de experimento, miremos con un
cuentahílos en zonas de diferente color del monitor y veremos las combinaciones
que se proponen para la composición cromática. Descubrirán que el color blanco,
como metáfora de la realidad, es una construcción de los tres colores luz en máxi-
ma intensidad, es decir, una ilusión.
Los archivos de formato vectorial son, como en el caso de la tipografía digital, de-
finidos por lenguajes de descripción matemática, como el Postcript. Generalmente
son el resultado de programas graficadotes, como el Adobe Illustrator, el Inkscape
o el CorelDraw. El formato gráfico vectorial más utilizado es el EPS (Encapsulated
Postscript), ya que es multiplataforma y absolutamente tolerado por los programas
de armado de páginas y por los RIP, importantes computadoras que son esencia-
les en el proceso de preprensa. Pueden guardar información necesaria, como pa-
rámetros de separación de color, trapping y overprint. Todos los objetos vectoriales
están definidos por un contorno y un relleno y son el resultado de una función ma-
temática. Esto es una gran ventaja si se considera que un cuadrado definido vecto-
rialmente pesa en Kbyte exactamente lo mismo independientemente de su tamaño
ya que las variables que lo definen son numéricas.
En nuestra natural concepción dual de las cosas nos preguntaremos cuál de los
dos tipos de archivo (pixelares o vectoriales) son mejores. Y la respuesta es ni uno
ni el otro. Son diferentes, desde su concepción, y por lo tanto son usados para di-
ferentes situaciones.
La tipografía digital
Como dijimos antes, todo gráfico en un entorno Postscript se define matemática-
mente. La tipografía también, por la llana razón de que para Postscript, la tipografía
es el dibujo de una función predefinida. Una ‘a’ minúscula o una ‘efe’ mayúscula
serán, entonces, diferentes funciones. Para la bonanza de nuestras actividades edi-
toriales, de esto jamás nos tendremos que preocupar.
¿Cuáles son las puntas de este iceberg? En nuestros programas de armado más
comunes encontramos la posibilidad de variar la fuente, el tamaño, el interletrado,
etcétera; cuando informamos estos valores, estamos pasando valores variables a
estas veladas fórmulas. Sencillo.
La primera gran ventaja del postscript es que un archivo con una letra en cuerpo 10
va a pesar lo mismo que uno con esa misma letra en cuerpo 250.
La segunda ventaja de la tipografía postscript es un tema que incumbe por demás
a diseñadores y editores. La tipografía, así como cualquier otro archivo digital (.doc,
.xls, etc), se puede manipular, copiar, borrar, además de tener una extensión que le
es propia y que la identifica, por ejemplo .ttf para las fuentes True Type u OTF para
las multiplataforma.
A diferencia de formatos como las True Type Font, la tipografía vectorial es “inte-
ligente”. Contiene en sus parámetros internos delicadas fórmulas que hacen que
las letras sepan numéricamente acerca de su línea de base (baseline) o que sepan
unas de otras; como ejemplo, en la palabra TIBURCIO, la T sabe que a su lado hay
una I, la I sabe que está entre la T y la B, y así sucesivamente.
Los diseñadores gráficos y tipógrafos observaron que entre una letra y otra no pue-
de haber un kerning fijo. El kerning es una unidad para medir la proximidad de una
letra a otra en cada fuente tipográfica. Se mide en unidades em o en y tienen rela-
17
ción con el diseño de la caja de la M o la N respectivamente. En algunos softwares
aparece como tracking.
Con kerning constante, un texto se vería como en una máquina de escribir, y po-
dría provocar espacios indeseables que dificultan la lectura. Antes de las tipogra-
fías postcript, estas correcciones ópticas se hacían de manera manual, letra por
letra, con tipos móviles, sobre todo en títulos y subtítulos.
A principios de los 90, las tipografías digitales de Adobe se llamaron de tipo 3
(Type3) y tenían la desventaja de imprimirse correctamente, pero su visualización
en pantalla era pésima. Luego las Type1 solucionaron el problema a través del
Adobe Type Manager, que mostraba la tipografía de manera perfecta en relación
con la calidad del monitor.
De más está decir que son las recomendadas para todo tipo de uso editorial y
gráfico a pesar de sus competidoras de siempre, las TrueType.
Hacia fines de los 90, Adobe desarrolló las tipografías Multiple Master Fonts (MMF)
y las Open Type Fonts (OTF). Las primeras combinaban de manera sorprendente
todas las variantes de familia en un solo archivo. A manera de perilla de volumen
uno podía lograr ennegrecer (hacer más negrita) o aclarar una tipografía, a gusto
y piacere del usuario.
Las Open Type son las más nuevas. Su principal destreza es ser multiplataforma,
es decir, poder funcionar indistintamente entre plataformas Apple, Windows, Unix
o Linux. Las TTF más modernas también tienen esta característica.
La mayoría de los softwares utilizan la tipografía como un archivo asociado, es
decir, toman la información de otro origen y se remiten a ella sólo cuando es ne-
cesario. Esto hace que los archivos digitales tengan un menor peso, pero esta
ventaja muchas veces se vuelve en contra, ya que, en primera instancia y como
buena costumbre, las fuentes tipográficas utilizadas, sus archivos nativos, deben
acompañar al original electrónico terminado. Cuando se pasa por alto este pe-
queño detalle, nuestros originales electrónicos se vuelven totalmente inestables.
Convertir la tipografía a curvas, es decir, volverlas puramente dibujo, es una po-
sible solución para no tener que preocuparse de los links perdidos a tipografía.
Lógicamente, el peso del archivo se incrementará en relación con la cantidad de
caracteres utilizados.
18
El formato PDF
Muchos dicen que Adobe Systems cavó su propia tumba al inventar el formato que
está revolucionando la producción de OEG. Al ser considerado el remedio para
todas las pandemias en la generación de originales estables y seguros, se volvió
rápidamente un estándar.
El PDF (acrónimo del inglés Portable Document Format, documento de formato
portátil) es un formato de tipo mixto (imagen vectorial, mapa de bits y texto). Está
especialmente ideado para documentos susceptibles de ser impresos, ya que es-
pecifica toda la información necesaria para la presentación final del documento,
determinando todos los detalles de cómo va a quedar. Cada vez se utiliza más
como especificación de visualización y de intercambio, gracias a la gran calidad del
rendering de las fuentes utilizadas y a las facilidades que ofrece para el manejo del
documento, como búsquedas, hiperenlaces, etcétera.
Uno puede generar un PDF de casi la totalidad de los soft actuales, pero ¿todos
estos PDF sirven para la producción gráfica? ¿Pandemia? ¿Qué tipo de enferme-
dades digitales nos azotan?
Con la idea de mejorar los flujos de trabajo en preprensa, las distintas asociaciones
que agrupan internacionalmente el área de servicios, hace más de una década (no
existía la plataforma PDF), perpetraron un trabajo de campo. Consistía en una serie
de preguntas de las cuales se arrojaron algunas cifras y algunas horrendas conclu-
siones: sólo un 42% de los originales electrónicos recibidos en preprensa califica-
ba para comenzar sin problemas el proceso de preimpresión. ¿Tan mal se trabaja?
¿Tan poco oficio en el tema? Lo cierto es que algunos detalles no son errores de
importancia, pero son errores al fin. La lista de problemas potenciales se basó en la
lista de control preliminar presentada en el documento “Control digital previo” pre-
parado por la GATF-World en abril-marzo de 1996. Los problemas se dividieron en
la encuesta en ocho categorías: discos y archivos, páginas, fuentes, gráficas vin-
culadas, exploraciones, pruebas, atrape (trapping) y procesamiento de archivos. El
resultado fue una lista de 10 ítems comunes (para ampliar ver apunte “Soluciones
a los problemas con archivos digitales”)
Las nuevas tecnologías conllevan nuevos desafíos y nuevos problemas. Con el ori-
ginal en papel, ninguna de estas cuestiones existía, con la aplicación informática a
la industria gráfica, se eliminaron sobre todo pérdidas de tiempo y posibilidades de
corrección instantáneas. Evidentemente, todo oficio requiere cierta maestría. Los
ordenadores no son la solución a todos nuestros problemas, por el contrario, sa-
ber manejar los softwares profesionales y el lenguaje Postscript ‘es’ el verdadero
problema.
El PDF es una alternativa para los archivos PostScript. El formato ofrece una vista
previa en pantalla que muestra de manera precisa el contenido de los archivos (a
diferencia del PostScript, que no posibilita esta opción, y del PostScript encapsu-
lado (EPS), en el que la vista previa puede diferir mucho del contenido de los ar-
chivos). El reducido número operadores PostScript disponibles en PDF hace de
los archivos compactos PDF una alternativa más consistente frente a los archivos
PostScript convencionales.
Por supuesto y aplicando inducción, en esta nueva manera de trabajo también va-
mos a tener que reaprender sus reglas y problemas. Crear un PDF consistente, que
certifique en la mayoría de las plataformas de preprensa y que sirva de comienzo
seguro para una producción gráfica, también tienen sus inconvenientes. La ten-
19
dencia es esta, flujos de trabajo basados en software y plataforma de estandari-
zación y certificación en PDF.
Desde los originales en papel hasta los modernos archivos de intercambio, sigue
habiendo estándares que se mantienen: las marcas accesorias de corte y regis-
tro, las cuñas de control, el overprint, el trapping (serán analizados más adelante)
y el área de demasía de color, entre las más importantes.
TRAMAS
No existe una máquina de impresión industrial que pueda imprimir tonos conti-
nuos. Esta sentencia, superable con el avance tecnológico, nos dice que para
poder imprimir una imagen con variaciones tonales (simplemente mire a su alre-
dedor, todo tiene una variación de tono que nos inserta en un universo al menos
tridimensional), deberemos, o algo deberá, convertir esta imagen análoga en una
información discreta o no-analógica. Los métodos de fines de siglo XIX fueron
realmente sorprendentes. En el año 1880, Stephen Horgan se vale de dos vidrios
rayados mecánicamente que, colocados en ángulo recto, lograban transmutar la
imagen, al fotografiarla intevernida, en una grilla de puntos variables en tamaño,
es decir, una trama.
Las tramas logran la variación tonal de una manera algo difícil de ver. Una imagen
impresa mono o policromática es, en la mayoría de los casos, una conjunción de
puntos que permanecen un sus sitios variando sus tamaños o que, a modo de
spray, utilizan el dithering para simular tonos más o menos oscuros o de color.
Más adelante ampliaremos estos conceptos. Quizás suene abstracto, pero re-
cuerden qué ven cuando se acercan a un afiche callejero, o en la parada de co-
lectivos, o con una lupa observan una foto impresa: no es otra cosa que la ‘trama’.
El ojo es engañado una vez más.
20
Clasificación, las tramas AM, FM, XM y PMR
21
traremos puntos elípticos, cuadrados, estrella, hexagonales, honey comb, rombo,
cadena, entre otros.
Las aplicaciones de cada punto, es decir la razón de su existencia, tienen que ver
con la capacidad de cada forma de reproducir con más acierto la realidad. Nos
cuentan los cuadernillos técnicos que, por ejemplo, el punto elíptico produce una
percepción más fiel de los colores pasteles o el color piel y que los romboidales
representan mejor los brillos metálicos. Un hecho práctico, tramas hexagonales
son utilizadas en las formas impresoras del huecograbado.
Las tramas AM nos han dado muchísimas satisfacciones como para hablar mal
de ellas, ciertamente imprimen muy bien en zonas de colores con grises medios
y procesan los plenos de una manera más sencilla y eficaz. También responden
óptimamente en el proceso de copiado fotográfico de las formas a partir de los
peliculados AM. Sus problemas, en cuanto a la reproductibilidad los vamos a en-
contrar en las zonas de reproducción de altas y bajas luces, es decir, sombras y
detalles muy claros, y, por otro lado, en el efecto moiré.
Efecto moiré
Para entender efecto moiré les preguntaré: ¿Han visto cómo el ojo ve rodar en
sentido contrario una rueda de bicicleta a cierta velocidad? ¿O cuando se apaga
un ventilador? Bueno, ese efecto visual se llama resonancia óptica. Ocurre cuando
dos o más tramados, sucesiones de grafismos o, sencillamente algo que se repite
con alguna frecuencia regular, se interpone y se mezcla visualmente conformando
un nuevo estímulo.
22
gulaturas diferentes, que son las más convenientes para cada empresa en cuanto
a la calidad del impreso.
En el gráfico observamos dos tramas superpuestas con una inclinación errónea.
Las figuras y las manchas de grises que se observan (sobre todo entrecerrando los
ojos) son el efecto moiré.
Su aparición puede suceder en dos momentos: la impresión o el escaneado. En la
impresión es más fácil de ver y de entender. Suele suceder cuando las formas están
mal registradas o mal montadas en los cilindros de impresión.
En el escaneado, la superposición de tramas se produce siempre entre un impreso
que queremos digitalizar (que obviamente está tramado) y la ‘trama’ de la pastilla
de lectores CCD. Para solucionar este problema hay varios trucos. Veamos tres.
Los programas de manejo, drivers, que traen los escáneres dan la primera solución.
Muchos aportan una herramienta de destramado que anula el moiré. Para poder
usarla, hay que saber a que lineatura está el impreso que queremos escanear.
Otra manera es utilizar los filtros de destramado que tienen muy a mano los pro-
gramas de edición de imágenes como el Adobe Photoshop.
Y la tercera, que quizás sea la que más respeta la imagen original, es digitalizar po-
niendo el original inclinado dentro del escáner en diferentes ángulos, hasta lograr un
archivo con muy poco o sin moiré.
23
AM y FM
Las ventajas de estas tramas son, entre otras, la definición y la ausencia de moiré.
Los pequeños puntos de trama que generan las imágenes son casi impercep-
tibles, comparables al tamaño de un punto de trama AM a 240 lpi, lo que da a la
reproducción un acabado excelente.
Por otro lado, debido a que la distribución de los puntos es ‘aleatoria’, no existe
una frecuencia ordenada, cosa que determina la ausencia del moiré en la super-
posición de colores, recuerden que sería inimaginable el efecto moiré en una im-
presión monocroma.
Cuando necesitamos imprimir a varias tintas, en tramas AM cada una debe tener
diferente angulatura. ¡Peligro de rosetas de color demasiado evidentes! Tranquilos,
existen las tramas FM.
¿Cuál es la razón por la cual no tuvo aceptación inmediata? A nivel mundial, todo
nuevo producto requiere de un tiempo de adaptación y de recuperación de obso-
lescencia de la maquinaria. Todas las empresas gráficas sufren de este período,
se necesitan inversiones para poder aggiornar la maquinaria y sobre todo los pro-
cesos a nivel holístico, modificación en la producción de formas (ya veremos su
intervención en los flujos de trabajo Computer to Plate) e inversión en capacitación
de personal.
A nivel nacional, la razón es sencilla, para imprimir en sistemas Hi-Fi se necesitan
operarios especializados, productos que ameriten estas tecnologías y un buen
presupuesto. Historia conocida.
Para darnos una idea del uso de este tramado, desde las más sencillas impreso-
ras de chorro de tinta, hasta los plotters de mayor definición funcionan de esta
manera, con tramado FM.
Las tramas FM siguen avanzando y ya tienen nuevas versiones de “dithering”, es
decir, la manera que la procesadora planea la ubicación de los puntillos de trama,
ya que la práctica ha descubierto que ciertas disposiciones son más favorables
que otras.
24
En este sentido, las nuevas tramas FM, las de segunda generación, además de
variar el espacio entre los puntos, hacen que aquellas imágenes que necesiten rep-
resentaciones más planas (por ejemplo en plenos de color, o en medios tonos) se
junten entre sí, dando la impresión óptica de que se agrandan.
No son todas ventajas. El talón aquiliano se percibe venir. Hi-Fi, recuerden, la ob-
sesión de la calidad. FM deja ver un graneado regular en medios tonos, llamado
worming, o agusanado, razón para mejorar.
25
Ganancia de punto
Existen en artes gráficas varios conceptos que son utilizados una y otra vez en
distintos marcos de referencia. La misiva ‘imprimir bien es tan simple como con-
trolar la ganancia de punto’ es más que cierta. Veremos ahora el concepto de ga-
nancia de punto o gain dot.
El punto al que se refiere la expresión “ganancia de punto” es el de trama. La teo-
ría, nuevamente aquí, nos echa una finta. Cuando decíamos que un gris medio
se representa con el 50% de una trama, estábamos diciendo que la superficie a
imprimir está exactamente cubierta con tinta en forma de tablero de ajedrez. Es
decir, 50% cubierto con tinta y 50% del color del soporte, en general, blanco.
La ganancia de punto vendrá a denominar las variaciones de tamaño en el punto
impreso. Si el punto es más grande de lo teorizado, se llamará ganancia de punto
positiva. Si el punto es menor a esta pauta, se llamará ganancia de punto nega-
tiva. Nuestro gris se verá más oscuro o más claro, respectivamente. Este es un
error: 50% debería ser 50%.
Si encontramos variaciones de este tipo con un espectro-fotómetro, ya sea en
películas gráficas o planchas, midiendo sobre las cuñas de control, entonces ha
habido errores en la parte de procesos fotográficos o en la parte de rasterización
(escaneados). La fatiga química del revelador, temperaturas de proceso incorrec-
tas, fuera de fecha, materiales vencidos o de mala calidad pueden dar variaciones
de densidad y estas, a su vez, variaciones del tamaño del punto de trama. Las
lámparas de uso en laboratorio, conforme el paso del tiempo, se agotan. Estas
oscilaciones en el color de un lámpara, medidas en grados Kelvin (Kº), también
generan las mutaciones de valor antes descriptas.
Diferentes tipos de planchas de impresión, con distintas formas de copiado o ma-
teriales fotosensibles, también podrían provocar este efecto.
Coronando todo esto, también podemos nombrar la ganancia de punto óptica,
que tiene que ver con la percepción y siempre está funcionando. Simplemente,
se dice que es un efecto visual en el que el ojo genera un “halo” oscuro alrededor
de una forma clara o un halo claro alrededor de una oscura, dependiendo de la
fuente de luz y el material impreso.
Las causas de la ganancia de punto en un impreso son unas cuantas más, cau-
sas del proceso de impresión, selección de soportes y terminaciones o acabados,
pero en este capítulo solo aspiraremos alcanzar el mundillo de la preimpresión.
26
El color en pre-prensa
Luego de tantísimas aproximaciones a las diferentes teorías del color y la luz, pa-
saremos a un campo más pragmático.
Para no atiborrar de discusiones y anatemas infructuosos sobre si un verde es ver-
de o “ese” verde que buscábamos, desde hace casi 100 años se está pensando
en el tema del color industrial. Consideren que tras la linearización de la produc-
ción industrial de productos (Fordismo), cada pieza, una tras otra, debería se idénti-
ca. No solamente existen codificaciones en productos manufacturados, hay están-
dares de color para exportaciones de vegetales, como tomates o bananas, en los
cuales el color debe estar dentro de una escala (Munsell) para poder ser vendidos.
Imaginen la problemática del color en la producción industrial gráfica.
27
La clasificación Pantone separa tintas Spot, tintas Proceso y tintas Especiales.
Las tintas Spot, por definición, se producen fuera de prensa, es decir, se com-
ponen en la mesa de trabajo del colorista, que produce la cantidad necesaria, en
kilos, para cada trabajo. En la estandarización Pantone, que dura hasta nuestros
días, existen 14 colores primarios, de la combinación de estos en proporciones
exactas expresadas en partes en los catálogos de colores spot, se generan más
de 800 tintas de colores diferentes. Algo muy parecido a una receta de trago lar-
go.
El catálogo de tintas proceso incluye el viejo estándar cyan, magenta, amarillo y
negro (CMYK) en combinaciones que, por estar tramadas, aparecen en porcen-
tajes, por ejemplo, un rojo será C:0% M:100% Y:100% K:0%, un verde esmeral-
da C:100% M:0% Y: 45% K: 35%. Hablamos de viejo estándar ya que hace unos
años, la misma empresa desarrolló, tras rigurosas investigaciones óptico-mecá-
nicas, el sistema de color Hi-Fi Hexacrome. Este sistema incluye CMYK más dos
tintas adicionales, el naranja (O) y el verde (G). Los resultados fueron formidables.
Además de incluir el obvio incremento en la cantidad de colores por simple com-
binatoria, el componente flúo de estas 2 nuevas tintas realzaba los colores. A es-
tas tintas también las llamamos proceso. Los procesos Hi-Fi pueden ser también
combinaciones de entre CMYK y dos tintas agregadas a voluntad por el impresor,
como ejemplo, CMYK + Pantone 485 C + Blanco iridiscente, o CMYK + Gris Per-
lado + Plata.
Por último, los colores especiales, que para Pantone son los metalizados y los
fluorescentes. Actualmente la empresa está por sacar una nueva codificación.
Pero suponiendo que nos ponemos de acuerdo sobre que la tapa de un libro
debe ser “azul Francia”, el primer problema es ponernos de acuerdo sobre qué
es ser azul Francia.
Ahora, ese color debería ser exactamente igual al de la cartilla de colores, tanto
en el monitor, como en las pruebas de color para la industria gráfica y por último
en el impreso. ¿Es posible esto? Peor aún. Cuando tenemos una imagen poli-
cromática, debe haber una conjunción de puntos de colores básicos CMYK en
perfecta sincronía. La información perceptual luego pasa a ser estímulo visual en
un monitor -aunque todo es una teatralización que esconde ceros y unos- ima-
gen que quizás provino de un scanner... y el scanner ¿ve como un ojo humano?
Seguramente voy a querer imprimir, y desde ya, la impresión con tintas es com-
pletamente distinta a la generación de una imagen luminiscente en el monitor, de
manera que no va a ser igual.
Entonces, un diseñador arma un boceto y el cliente aprueba una prueba de color
de alta calidad, ese compromiso intangible es bastante precario.
La tecnología actual nos ofrece un par de soluciones a estos problemas. Se lla-
man calibración y generación de perfiles de color.
28
• OEG
• Certificación de PDF
• Ripeado
• Pruebas de color
• Procesos para la generación de la forma impresora
29
(dispositivo) conozca en qué idioma ‘hablan’ los demás componentes del sistema.
El CMS maneja el color de una manera cuantitativa: el color es representado nu-
méricamente o por coordenadas matemáticas.
La idea es mantener la consistencia del color a pesar de que las imágenes hayan
sido escaneadas en otro momento o lugar, de que el monitor tenga 5 años de uso
o que nuestro proveedor de pruebas color inkjet use cartuchos no-originales.
Entonces, ¿se puede obtener color consistente? Sí, si se aplica administración del
color correctamente.
Existen, nuevamente simplificando, dos espacios de color utilizados en gráfica:
RGB y CMYK, pero por no ser matemáticamente consistentes, fue creado el siste-
ma Cie Lab. Este sistema especifica los colores ubicándolos en un espacio 3D de
coordenadas, en el que las variables son ‘L’, luminosidad, ‘a’ un eje que va del rojo
al verde y el ‘b’, el tercer eje variable que va del azul al amarillo.
Para verificar estos estándares y los perfiles internacionales de las distintas mar-
cas de dispositivos se creó el ICC (Internacional Color Consortium), que tiene tam-
30
31
bién la ardua y muchas veces ignorada tarea de proveer información sobre CMS
entre distintos proveedores de software, hardware y usuarios finales.
La administración de color funciona, ayuda a controlar el color dentro de un pro-
ceso de producción gráfica. Pero su implementación es compleja. Cambia el es-
tado de las cosas, muda de aires los viejos paradigmas típicos de los talleres grá-
ficos promedio. Para colmo, es más fácil usarla mal que bien, se necesita orden y
una buena planificación.
32
La separación en sistemas digitales se produce en el ordenador que envía la infor-
mación al RIP (raster image process), donde la imagen es tramada. Hablaremos
de este proceso más adelante. Los esquemas son muy parecidos, sólo que digi-
talizados. En ambos sistemas, atómicos o digitales, existen dos conceptos que es
necesario aclarar, el de overprint y el de trapping.
Trapping y overprint
Overprint significa, en inglés, sobreimpresión. Y de esto se trata. Cuando se impri-
me por tintas separadas, se espera que, al recomponerse la imagen, cada color
esté en su lugar. Esto se llama registrar. Un color oscuro u opaco, por lo general,
puede ser impreso sobre otro sin modificar su color. Entonces, aprovechando esta
peculiaridad, cuando tenemos una tinta, por ejemplo y en la mayoría de los casos
para texto, negra, sobreimprimiremos esta sin necesidad de recortar el fondo de
color y previniendo el posible fuera de registro entre el texto, se dirá entonces que
el texto está overprint. Un ejemplo muy típico, que hasta es considerado un de-
fault, por defecto, en programas de armado de páginas. Aclaremos que no sólo
se puede aplicar al texto y no sólo a la tinta negra, muchas veces por cuestiones
de diseño se determina deliberadamente que cierta tinta sobreimprima sobre otra.
Cuando la realidad indica que la tinta sobreimpresa cambia su color (y no debería),
la solución a problemas de registro es el trapping, que aparece como “abundancia”
en textos españoles. Este recurso consiste en agrandar el área de color de una de
las tintas participantes para que “pise”, a manera de filete, un color a otro. El tama-
ño de la zona de trapping se puede controlar con los programas adecuados de
separación de color, los estándares oscilan entre 0,1 y 0,35 mm, dependiendo en
cada caso del sistema de impresión escogido.
33
ESCÁNERES
De esta desgarrada clasificación del universo visible nos queda abordar qué acon-
tece con las imágenes icónicas. La realidad tal como la vemos es análoga. Es de-
cir, no hay sobresaltos, interrupciones perceptuales, es continua. Una sombra se
desvanece. Un amanecer aclara suavemente. La imagen es un tono continuo.
Cabe repetir una de las máximas de la tecnología gráfica: “No hay manera de re-
producir o imprimir tonos continuos de manera seriada o industrial.” Si bien exis-
tían a principios del siglo XX maneras semiartísticas de reproducción de medios
tonos, como la litografía, cuando la fotografía se convirtió en una pieza fundamen-
tal del lenguaje periodístico, se tornó indispensable la reproducción de tonos con-
tinuos, en este caso, fotos blanco y negro.
Si se podían imprimir de manera confiable planos de color pues, entonces, la
solución se hallaría en poder descomponer esa imagen análoga en una imagen
fragmentada, descompuesta en miles de “puntos” que más tarde se llamarían
trama.
En este lugar nos preocupa cómo hacer para que una imagen análoga, como una
fotografía o un arte, pueda ser manipulada en una esfera digital.
Los dispositivos de entrada en el universo de la gráfica son los escáneres. La fun-
ción esencial de un escáner es convertir la información análoga de una imagen en
información digital. Digitalizar.
Este concepto es el mismo que se aplica cuando se graba sonido o movimiento
en una computadora. Átomos en bits.
Lo que procesemos en un escáner se verá luego en la pantalla de nuestro moni-
tor, en general preparado para ser editado. Los escáneres profesionales suelen
venir acompañados con softwares asociados que permiten controlar el proceso
de digitalización, desde el tamaño y la posición hasta la resolución de la imagen
destino.
Cada proceso en una línea de producción tiene un objetivo y debe cumplir con
ciertos parámetros. Entonces, ¿con qué parámetros deberíamos escanear?
Ya conocemos las variables que definen una imagen digital: tamaño, resolución
y modo. Obviemos el modo, que vamos a establecer como una constante, RGB.
La resolución de una imagen pixelar se establece como una relación entre los dis-
positivos de entrada y salida. Entonces, enunciaremos una de las grandes fórmu-
las de la preprensa para resolver la incógnita acerca de la resolución con la que
escanear para obtener una buena impresión:
Dpi = Lpi x 2 x C
34
es un coeficiente de ampliación o reducción, que tiene que ver con el tamaño de
la imagen origen y el tamaño de la imagen destino, si dividimos el tamaño original
sobre el final, obtenemos un número (la relación entre los dos tamaños), ese es el
coeficiente C. Si se escanea al mismo tamaño del que se va a imprimir, este coefi-
ciente es 1.
Por lo general, ante un pedido de digitalización con un escáner de alta resolución,
estos cálculos los hará el operador de digitalización por medio del software de so-
porte y nosotros nunca nos enteraremos, sólo tendremos que informar en que li-
neatura se imprimirá la imagen destino en circunstancias de producción en impren-
ta. Por ejemplo: el sistema offset utiliza tramas promedio de 150 lpi; a un tamaño
1 a 1, la cuenta será: 150x2x1=300 dpi, que es la resolución a la que escanear la
imagen.
Tipos de escáneres
Los escáneres para objetos bidimensionales se pueden clasificar en tres: escáne-
res de mano, escáneres de cama plana y escáneres rotativos. Los escáneres de
mano están prácticamente en desuso y servían para previsualizar imágenes de alto
contraste con el fin de redibujarlas en cualquier software de edición vectorial.
Ahora, los escáneres utilizados para producción gráfica son esencialmente los de
cama plana y los rotativos.
Comencemos con los planos. Así como una fotocopiadora ‘lee’ una imagen a me-
dida que el carro de iluminación va explorando el original, un escáner plano explora
(en inglés scan) la superficie de cualquier superficie lo suficientemente plana como
para ser alcanzada en orden por una luz muy intensa.
Las fotocopiadoras comunes trabajan con un sistema de reflexión que proyecta la
imagen ‘rebotada’ en cilindros que, por una diferencia de potencial electromagné-
tico, toman el tóner o tinta sólida y lo transfieren al papel, al que se fijan por calor…
vaya resumen! Es decir, la imagen del original es leída y reflejada hacia la forma
impresora.
En un escáner no pasa esto. El módulo lector es una célula fotoeléctrica muy pe-
queña llamada CCD (Charge-coupled device). Los materiales fotoeléctricos son
sustancias que reaccionan ante la presencia de un estímulo luminoso devolviendo
una corriente eléctrica. Si este flujo es reconvertido, puede ser muy útil para, por
ejemplo, prender y apagar las luces de las calles, o mantener abierta la puerta de
un ascensor mientras sube la abuela, entre otros muchísimos usos.
Un escáner, entonces, consta de un módulo lector y un módulo codificador.
Las calidades y sistemas de estos módulos van a hacer variar, en algunos casos,
hasta 100 veces el valor de unos sobre otros.
El módulo lector de un escáner plano funciona casi como el de una fotocopiadora,
es decir, una luz potente ilumina el original. El reflejo de esa imagen es recogido
una serie de espejuelos y concentradores que lo dirigen hacia un dispositivo con
CCD en línea o en forma de grilla, CCD lineales o CCD de área, respectivamente.
Una de las características fundamentales que deciden la compra de un escáner
es la calidad con la que explora. Esta calidad depende también del tamaño y can-
tidad de CCD del módulo lector. Cada CCD ‘verá’ una porción de la imagen total
35
que será reconstruida luego por software. Cuando nos dicen “este escáner es de
600x300 dpi reales” nos están diciendo que la pastilla de CCD de ese escáner
tiene un área de 600 x 300 ‘ojitos electrónicos’ o sea unos 180.000 CCD por pul-
gada cuadrada.
Esta es la medida de resolución de entrada de la que hablábamos anteriormen-
te, DPI, en este caso, CCD por pulgada. Se deduce, entonces, que cuanto más
grande sea la densidad de CCD por pulgada, mejor será la resolución de la ima-
gen que entregue el escáner.
También como característica básica de un escáner encontramos la profundidad
de color de los CCD. Esto es más difícil de entender pero aquí vamos.
De un CCD que ‘solamente’ pueda discernir entre blanco y negro, se dice que
tiene la profundidad de 1 bit. Aquí caben varias aclaraciones. Blanco y negro es
presencia o ausencia de luz reflejada. Cuando manejamos 1 bit de información
podemos saber si SI o NO, o si uno o cero. Unos y ceros es, ni más ni menos,
código binario.
Avancemos, los CCD de los viejos escáneres de mano eran de 1 bit, pero hoy
encontramos profundidades de hasta 48 bits. Con 2 bits tenemos esta secuen-
cia 00, 01,10, 11: blanco, gris claro, gris oscuro y negro, respectivamente. Imagí-
nense la secuencia para 24 bits, que es la profundidad de color de los escáneres
más vendidos, resalto, profundidad de color, 24 bits es 8 bits por color de lectura,
RGB, o sea 8 x 3 = 24, algo más de 16 millones de colores. Una imagen pixelar
a color es la suma de tres canales de escala de grises cada uno con información
R, G y B.
Para que un escáner ‘explore a color’, el módulo lector separa por medio de fil-
tros la información que recibe que luego es recompuesta por software y enviada
al disco de la computadora.
Nuestros escáneres de escritorio son escáneres de cama plana, de baja resolu-
ción, muy útiles pero poco precisos. A veces nos comentan acerca de la ‘interpo-
lación’ de los escáneres de escritorio, que eleva su definición a 2.400 o más DPI.
Esta interpolación es una ‘cuenta’, un algoritmo que realiza un procesador que in-
venta píxeles para simular mejor calidad de imagen, un artilugio de venta más. El
consejo será saber diferenciar la definición óptica de la interpolada.
Otra de las características para observar en la compra es tener en cuenta si están
preparados para explorar sólo materiales opacos o tanto opacos como transpa-
rencias.
Dentro de los escáneres de cama plana también encontramos un abismo de cali-
dad y precio entre los de uso domiciliario, o desktop publishing, y los de uso pro-
fesional para artes gráficas.
Los escáneres de cama plana de alta definición tienen como función fundamental
el escaneo de materiales que ameriten un alto grado de definición, una obra de
arte o una película gráfica ya procesada.
El funcionamiento de estos es, en términos generales, similar, es decir, existe un
original para leer, un módulo lector y un sistema de procesamiento. ¿Dónde radica
la diferencia?, en el módulo lector.
Comenzada la década de los 90 se aplicó, para beneficio de la gráfica en gene-
ral, una propiedad que descubrió la física óptica: la excitación del fotón por arcos
fotovoltaicos. Para aclarar, cuando un CCD es excitado por un fotón, puede o no
36
responder con una corriente eléctrica y esto depende de la intensidad de energía
que provea el fotón, la carga del fotón. De manera que los CCD ‘solo’ pueden re-
gistrar una parte de la totalidad de tonos de la imagen original, fallan en las sutiles
variaciones de altas luces y en los delicados detalles de sombras.
Para solucionar este inconveniente, se han utilizado los ‘fotomultiplicadores’. Un fo-
tomultiplicador aumenta la carga de los fotones más débiles haciéndolos percep-
tibles por el CCD, esto da como resultado que el procesador incluya información
de los detalles de luces y las variaciones tonales de las sombras. Esta capacidad
suprema de los fotomultiplicadores se adiciona en estos escáneres a la presencia
de un lector láser.
La lectura de un láser azul comparada con la de una luz intensa, como en los es-
cáneres de escritorio, es como contrastar un grano de arena con la masa terrestre.
Hay modelos que contemplan incluso la posibilidad de una pequeña tridimensión
(eje z), consideren el caso de necesitar escanear una obra de arte al óleo con pin-
celadas de varios milímetros de diferencia, esto se logra por medio de ópticas que
aumentan la profundidad de campo del módulo lector.
El otro gran universo de los escáneres consiste en los rotativos o cilíndricos. Estos,
nacidos con anterioridad a los de cama plana de alta resolución, ya contaban con
la tecnología del fotomultiplicador.
Su funcionamiento es sencillo. En contraposición con los que acabamos de ver, en
los que el lector se desplaza a lo largo del original explorando su superficie, en los
rotativos el original también se moverá.
Imaginen un cilindro de vidrio, sin base ni techo, con un eje central. Sobre este cilin-
dro se montarán las transparencias a escanear. Este cilindro gira velozmente mien-
tras el módulo lector avanza, de manera mucho más lenta, sobre el eje del cilindro.
37
Si sumamos los dos movimientos, el de avance del lector y el de giro del cilindro,
obtendremos una línea de exploración de forma helicoidal.
El módulo lector se encuentra dividido en dos. Por fuera del cilindro, un emisor
láser. Por dentro, un receptor CCD ultrasensible a la luz conectado a un fotomul-
tiplicador.
El gran adelanto de estos escáneres fue conseguir una lectura lineal; por cada
giro del cilindro, una porción de la imagen es leída por un delgadísimo haz láser.
La definición de estos periféricos será entonces altísima, consideren que los es-
cáneres de 14.000 dpi en teoría pueden pasar 14.000 veces en el ancho de una
pulgada. Hagan la cuenta del espesor del láser…
Las imágenes para producción gráfica pueden ser solicitadas o provistas de dos
maneras: digital o analógica. La primera de gran expansión en los últimos tiempos
tiene que ver con la fotografía digital de alta calidad y con la producción de imáge-
nes virtuales en las que la herramienta principal es una computadora. La segun-
da manera tiene que ver con la producción fotográfica o artística de imágenes, y
pueden ser materializadas como “opacas” (un dibujo, una acuarela o una foto en
papel pueden ser ejemplos de esto) o “transparencias”, estas a su vez pueden ser
presentados como negativos o slides (diapositivas).
Si observamos la disposición mecánica de los lectores, nos damos cuenta de que
las transparencias, en general, son mejor aceptadas por los escáneres con foto-
multiplicadores, pero para una buena lectura, son preferibles las transparencias,
porque evitan un paso, el rebote o reflejo de la luz.
La situación ante la presencia de estas tecnologías, cama plana con CCD, cama
plana con fotomultiplicadores y rotativos, será la adecuada elección entre alguna
de ellas.
Es claro que unos tienen muchísima más resolución óptica, tanto como que su
costo en relación es elevadísimo, y que otros son sumamente accesibles, pero sin
la respuesta de calidad necesaria para la producción gráfica.
Pero el objetivo es el que manda: todas las tecnologías nos sirven. Supongan el
caso de una publicación digital para la Web, donde los requerimientos de defini-
ción de una imagen dependen de la velocidad de conexión, un escáner plano de
CCD será lo óptimo ya que estas imágenes deben estar a tamaño en una reso-
lución de 72 dpi.
Por otro lado, si debemos serle fiel a una imagen para una reproducción de una
obra de arte, o una fotografía, la elección no podría ser otra que un escáner ro-
tativo: la recolección de datos en altas luces y sombras profundas solamente es
posible con un lector láser.
Una situación bastante común es que el diseñador imponga las imágenes toma-
das en su escáner de mesa, y que luego, en el momento de producir el archivo
para realizar cualquier paso siguiente en preprensa, se reemplacen por imágenes
de alta resolución tomadas de escáneres rotativos.
Otro caso mucho más común es que el diseñador utilice su escáner y, con cierta
pericia en el retoque de imágenes, logre archivos de una calidad media y ahorre
plata, sabiendo (o no) ambas partes que el resultado podría no ser el óptimo.
La evolución en la calidad de respaldos digitales en fotografía comercial ha estado
desplazando el uso y el oficio que tiene que ver con la digitalización de elementos
38
materiales. El escáner —como otros elementos de este proceso— está pidiendo
pista en los museos de las “artes gráficas”.
Flujos de Trabajo
39
OE >>> PREVISUALIZACIÓN >>> PRUEBA COLOR HIFI >>>
RIPEADO >>> FILMADO y REVELADO DE PELÍCULAS >>>
PRUEBA DE COLOR DE PELICULADO
Si se considera realizar todo el proceso (ya que muchas veces no es así por cues-
tiones de costo o planificación de calidad) los objetos resultantes son:
• Pruebas color digitales
• Películas gráficas
• Pruebas de peliculado
1- Previsualización de los OE
Así como los oficios en gráfica —que de alguna manera se declaran extintos—
merecían una experticia para hacer copias fotográficas de contacto, hacer foto-
grabados, separar en colores fotocromo, armar a mano la imposición peliculada
con papel vegetal de todas las páginas de un libro, etcétera, realizar un original
electrónico (OE) en perfectas condiciones requiere muchísimas habilidades. Re-
cuerden de párrafos anteriores que una encuesta había arrojado que sólo el 42%
de los OE recibidos por bureaus de gráfica estaban en condiciones de ser trata-
dos electrónicamente como punto de partida para la producción gráfica. Hoy en
día, basados en la plataforma PDF se nos ahorran varias preocupaciones, pero
el caso es que hay que generarlo sabiendo cómo y cuáles son las características
de los procesos que le seguirán, tipos de maquinarias y calidades de mínima y
máxima, para un buen control de los procesos. Como siempre, es recomendable
concertar una entrevista con el encargado de planta de la empresa en la cual va-
mos a imprimir para saber qué tecnologías implementarán y acordar ciertos pará-
metros, como perfiles de color y tipos de tintas.
Con la certeza de un OE bien confeccionado que genere un PDF correctamente
parametrizado, sólo nos queda enviar el archivo digital grabado en algún medio
y/o aprovechar las herramientas de conectividad que ofrece internet para que el
servicio de preimpresión o bien el área de preprensa de la imprenta se haga cargo
del comienzo del proceso. Es altamente recomendable enviar un impreso junto
a los archivos, no importa la calidad de tal, ya que la función de este impreso es
mostrar el trabajo en su forma general.
El primer paso es previsualizar el trabajo, ya sea en PDF o en el software selec-
cionado para tal caso. Se chequearán los archivos en busca de errores y/o in-
compatibilidades. Cabe destacar que las cosas pueden salir mal, y alguna vez no
es nuestra culpa. Sólo alguna vez. Dependiendo de la empresa, de su servicio al
cliente y de su experticia, pueden acontecer al menos estas posibilidades:
1. No hay errores, se continúa el proceso.
2. Hay errores de poca importancia, se arreglan y se continúa el proceso.
3. Hay errores de gravedad, se avisa, se arreglan y se continúa el proceso.
4. Hay errores de gravedad, no se avisa, se detiene el proceso.
40
5. Hay errores de gravedad, sobrepasan los controles, nadie se percata de ellos y se continúa
el proceso.
Obviamente, todos los actores que formamos parte de este circo gráfico queremos
que las cosas salgan bien. Pero la optimización de los procesos requiere que las
cosas salgan bien.
En los casos 1 y 2 todo fluye, podríamos decir que el caso b es mucho más común
que el a y que la buena predisposición de la empresa de servicios es fundamental.
El caso 3 es más complicado, hay errores graves, que pueden ser resueltos por la
empresa o por la persona que armó el OE. Si los resuelve la empresa, puede haber
un costo por hora/máquina que incrementaría el costo de producción, claramente
dependiendo del tipo de error. El caso 4 es bastante común también. En nuestra
querida área gráfica, siempre hay poco tiempo, y si algo complica las cosas, nos
tienta dejarlo para el final: se ‘cajonea’. Uno se entera que nada avanzó porque
hubo un problema cuando después de 2 o 3 días se llama para saber si está listo
el trabajo de preprensa (horror). Pero sin lugar a dudas, el caso e es el más terri-
ble, hubo errores y nadie se ha dado cuenta (esto podría ser el camino directo al
purgatorio del Dante). Existen, como veremos, instancias de pruebas de color o de
control de calidad, en las que los errores podrían hacerse observables y que sub-
sanan los inconvenientes dantescos del caso 5.
41
Las pruebas de color, entonces, nos servirán a su medida para controlar algunos
de los aspectos de la producción gráfica, como las propiedades del color (ma-
tiz, saturación y brillo), la separación del color en todo su significado y las tramas.
y algunas desventajas:
42
• son poco confiables en sistemas no calibrados
• no pueden controlar la calidad ni el tipo de trama
• no pueden controlar la separación de los colores, ni trapping ni overprint
• no pueden controlar el peliculado ni las películas (sólo CTF)
• no controlan la calidad de la forma (sólo CTP)
• en general, el brillo de los colores es diferente a una impresión con tintas de impresión in-
dustrial
En sistemas de control, los mejores tienen una eficacia de entre el 85% y el 95%,
donde la eficacia es la relación entre la prueba y el original impreso, con calidades
cercanas a los 9600 dpi. (WYSIWYG)
3- Rasterización
El proceso de rasterizado de imagen (RIP) o ripiado es un proceso digital que se
produce dentro de un ordenador. Básicamente traduce los datos incrustados en el
OE a formatos reconocibles por los dispositivos que se utilizan en preprensa, como
las filmadoras, pruebas de color e impresión de planchas CTP o fotopolímeros. Los
RIP se clasifican en dos: de hardware y de software.
Los RIP más viejos son los de hardware, en los cuales el proceso de ripiado era
ejecutado en una máquina con procesadores exclusivamente dedicados a esta ta-
rea. Cuando uno quería comprar un RIP, simplemente compraba una computadora
dedicada, incluso con un sistema operativo dedicado. Recibían los datos de otra
máquina, archivos en general .eps o .tif y los convertían a lenguaje postscript puro,
creaban un documento .ps. También tienen la tarea de ‘separar los colores’, es de-
cir, separar en la cantidad de canales que correspondan a cada trabajo, en general,
un canal por tinta de color. Cuando se separa una citocromía (también se llama así
43
al fotocromo), se obtienen 4 archivos .ps, para el cyan, el magenta, el amarillo y el
negro. Con estos archivos se continúa el proceso de preprensa.
Actualmente existe el ripiado de software. Para nosotros es más común, un siste-
ma o grupo de programas corriendo en una Mac o PC. Programas con muchísi-
mas utilidades de control del flujo de trabajo. Se utilizan plataformas PDF o JDF de
alta calidad; entonces, los archivos que se obtienen son basados en este lenguaje
creado por Adobe Inc. Este formato incluye tipografías e imágenes y comprime,
de ser necesario, la calidad de reproducción. Desde el OE, se generan los PDF y
se impone el pliego de impresión, lo que luego se usa en los plotters de control
de pliego.
Así como en los RIP de hardware, separan colores y traman la imagen a medi-
da de los requerimientos introducidos en el programa de ripiado, tipo de trama,
resolución, angulatura, etcétera. Como los procesos son todos matemáticos, se
puede esperar precisión, aunque muchas veces aparecen errores en el procesa-
miento de los datos a nivel binario; como cualquier otra cosa, puede fallar y tener
que repetir el procedimiento. No es una tarea fácil incluso hasta para las compu-
tadoras más modernas, consumen recursos y levantan temperatura.
44
tado de la película es el correcto, es decir, si la emulsión quedo UP o DOWN (en
espejo) y si la lineatura de trama es la correcta.
45
46
47