Vous êtes sur la page 1sur 47

El camino

hacia la forma. 1 ra
parte

DG Gabriel Macarol
Fundamentos de la producción de Impresos
Edición - FILO/UBA
INDICE
• El camino hacia la forma. Una aproximación histórica
• Los Materiales fotosensibles
• Materiales Fotosensibles basados en Halogenuros de Plata.
• La película gráfica
• Materiales Fotosensibles basados en polímeros
• El original
• El original papel
• El original electrínico ara gráfica
• Los archivos de imagen
• La tipografía digital
• El formato PDF
• Tramas
• Clasificación de tramas
• Tramas AM
• Tramas FM
• Tramas´híbridas, de modulación cruzada y PMR
• Ganancia de punto
• El color en preprensa
• WYSIWYG
• Perfiles de color
• Trappong y overprint
• Escáneres
• Tipos de escáneres, cama plana y rotativos
• Flujos de trabajo
• Clasificación, CTF, CTP y DI
• CTF
• Previsualización
• Pruebas de color digitales
• Rasterización
• Filmado y revelado
• Pruebas de color de peliculado

2
El camino
hacia la forma. 1 ra
parte

La palabra forma es, acaso, una de las palabras con mayor cantidad de definicio-
nes en nuestro idioma. En el contexto de este curso, llamaremos forma impresora
al objeto que lleva la información del diseño a imprimir. Esta forma varía sus carac-
terísticas de acuerdo con sistema de impresión escogido: puede ser en relieve, en
superficie, en profundidad, de penetración o digital. Los procesos de preprensa
son los que, en general, preparan las condiciones y los objetos necesarios para la
fabricación de estas formas; estos procesos de preprensa variarán según el siste-
ma de impresión y/o el flujo de trabajo adoptado.
Las formas más utilizadas en producción gráfica son los fotograbados (grabados
realizados por medios fotoquímicos). En los sistemas en relieve encontraremos,
entre otros, los fotopolímeros y los clisés metálicos; en superficie, las planchas o
chapas de offset; en profundidad, los cilindros grabados de rotograbado o hueco-
grabado; los shablones, en serigrafía –un sistema por penetración de tinta– y, por
último, las formas digitales, cuyas características nos hacen repensar el concepto
de forma variable.
Hablaremos de forma cuando haya un momento de impresión: un sello de goma o
una huella dactilar entintada son formas (no industriales) que llevan la información
inscripta en sus relieves. En el camino hacia la forma tendremos que sortear mu-
chísimos obstáculos; todos, afortunadamente, conocidos.
Los japoneses llamaron “calidad total” a la reducción del error entre los pasos de
un proceso a otro; sepan disculpar esta atrevida síntesis, pero en preprensa, la
conciencia del error, de los límites de cada técnica y tecnología asociada, hará que

3
el producto final sea el óptimo. De esto se trata el control de calidad en preprensa,
conocer los errores y prevenirlos, detectar cada uno y también su origen. Cono-
cemos dos tipos de errores: los absolutos y los relativos. Los absolutos tienen que
ver con cifras, unidades, las diferencias exactas entre un valor y otro, las diferen-
cias precisas entre lo esperado y lo obtenido. Los relativos utilizan los porcentajes
como expresión numérica.
Figúrense ahora un proceso de diez pasos: entre cada paso detectamos un error
de “sólo” el 2%. Al finalizar, el error acumulado dará un resultado de 16,62% re-
lativo al esperado, es entonces necesario reducir el error entre paso y paso. La
ecuación contiene al menos estas dos variables: la cantidad de pasos y el por-
centaje de error.
En el gráfico 1 tenemos la curva del error en función de la cantidad de pasos; en
este caso, con un error del 5% vemos derrumbarse intensamente el equilibrio de
la calidad. Debemos admitir con cierta vergüenza que estos niveles, en países
como el nuestro, son moneda corriente en la mayoría de los talleres gráficos, que,
al no contar con la tecnología apropiada o con la capacitación suficiente (hemos
visto muchos talleres con la tecnología a disposición y sin la persona adecuada
para el control de calidad), no garantizan los niveles mínimos de calidad en los
procesos de preprensa, de prensa o terminación.

Gráfico 1 – Eje y: porcentaje de calidad, eje x, cantidad de pasos

4
Una aproximación histórica.

La mayoría de los procesos utilizados hoy en imprenta abrevan en lejanas técnicas


artesanales. Siguiendo la clasificación de formas antedicha encontraremos, al re-
visar las páginas de antiguas civilizaciones, la utilización de diversos sellos o tacos
de distintos materiales. Estos eran relieves con los que se imprimía cualquier tipo
de superficie.
Los grabados en madera, llamados más tarde xilografías, comenzaron a utilizarse
de manera cotidiana por artistas para imprimir piezas editoriales como los primeros
incunables, e inclusive también antes de la invención de los tipos móviles en Oriente
y en Europa durante el Medioevo tardío.
Durero fue, sin dudas, el artista que llevó a su máxima expresión la técnica del gra-
bado sobre madera y metal. La lógica de los grabados en relieve es sencilla: se in-
tenta conseguir que la imagen o el diseño que se quiere imprimir quede distinguido
por una diferencia de altura; la zona impresora se entintará, y finalmente, por me-
dios manuales o mecánicos, la forma entintada se presionará sobre una superficie,
por ejemplo, papel. La técnica básica variará según el material que utilicemos; hoy
en día, los grabadores artísticos utilizan materiales que van desde la madera o el li-
nóleo hasta materiales sintéticos, como resinas o enduido plástico para realizar sus
tacos de impresión.
Asimismo, encontraremos, a partir del Renacimiento, técnicas de grabado sobre
láminas metálicas. Como los relieves conseguidos sobre el metal son producidos
por mordientes de ácido o por puntas secas y buriles, a estos tacos se los llamó
“en bajo relieve” o “en profundidad”. Los distintos nombres de estos grabados son
entre otros, aguafuerte, mezzotinta, aguatinta y punta seca, según la técnica que
les da origen. La lógica será, entonces, provocar una mácula, un rasguño, una zona
rasgada en profundidad para que ingrese la tinta. Al limpiar superficialmente la lá-
mina metálica, quedará tinta en las marcas producidas, obteniendo luego, por pre-
sión, la obra impresa sobre un soporte que resista el trabajo de una prensa.
A fines del siglo XVIII, Alojz Senefelder, casi por casualidad y gracias a la eterna re-
pulsión entre los medios grasos y el agua, descubrió un método sencillo para im-
primir a partir de una piedra, forma a la que luego llamarán piedra litográfica. Dibu-
jando con un lápiz graso en la superficie de la piedra se concebía un diseño, luego
mojaba la piedra, pero lo dibujado quedaba seco debido a su estirpe oleosa. Al en-
tintar la superficie, sólo lo delineado tomaba para sí la tinta y finalmente al imprimir
conseguía la lámina terminada. Esta forma, al no necesitar surcos o sobrerrelieves
se la llama en superficie.
Sobre las formas por penetración poco se puede decir: encontramos los estarci-
dos, impresiones rupestres de la Cueva de las Manos, en los que una forma blo-
quea la llegada de tinta al soporte y los batik, técnica del Pacífico insular, donde
estampaban telas indumentarias con la ayuda de seda natural para delimitar las
áreas de color.
Vimos que las formas impresoras de nuestros antepasados artísticos se construían
con diversas técnicas, pero que la finalidad era la misma: obtener la matriz con la
que imprimir.

5
Con el providencial encuentro de la química y la óptica a principios del siglo XIX
se prefiguraba la fotografía, soporte fundamental de las artes gráficas del siglo XX.
La impensada posibilidad de imprimir imágenes fotográficas se tornaba realidad.
Las películas fotográficas de alto contraste brindaron el soporte ideal para copiar
las formas de manera precisa en los tonos planos, como cuerpos tipográficos o
planos de color, pero presentaban dificultades para copiar fotoquímicamente los
medios tonos o tonos de grises, obstáculo superado con la invención de la trama.

Los materiales fotosensibles

Los elementos con la propiedad de alterarse con la presencia de la luz fueron


descubiertos por los alquimistas a partir del siglo VI en su obseso camino por la
perfección áurea. Llamaron “Luna Córnea” a un componente que se oscurecía
hasta ennegrecer. Ahora sabemos que era un derivado de la plata (Ag) asombro-
samente parecido al que actualmente se usa en la industria fotográfica.
Su aprovechamiento recién se dio a fines del siglo XVIII, cuando Nicephore Niep-
ce combinó betún de Judea, albúmina, juguetes ópticos y algunos otros elemen-
tos para su invento: la fotografía.
Vamos a encontrar muchísimas aplicaciones cotidianas de los materiales foto-
sensibles, desde las luces del alumbrado público, que se encienden al oscurecer,
hasta los diagnósticos médicos más sofisticados, pasando, por supuesto, por el
universo fotográfico. Las cámaras de fotos personales o de uso gráfico son pre-
cisos mecanismos ópticos que proyectan una imagen escogida y encuadrada
hacia una película o superficie fotosensible de haluros de plata o CCD (Charged
Coupled Device), es decir, respaldos digitales.
Los materiales fotosensibles están, en general, conformados por un soporte y
una emulsión fotosensible. El soporte sirve de medio estable, como por ejemplo,
el celuloide en las radiografías, que está cubierto de una emulsión que cambia de
estado con la presencia de los rayos X.

Materiales Fotosensibles basados en Halogenuros


de Plata.
El celuloide (acetato de celulosa) que conforma la película está recubierto por una
delgada capa de material que llamaremos emulsión fotosensible (EF). La base de
toda emulsión fotosensible son los halogenuros de plata: ioduro, bromuro, fluoru-
ro y cloruro de plata. Estas sustancias tienen la propiedad de reaccionar frente a
la luz, estímulo que provoca una reacción química de precipitado al combinarse el
oxígeno con la plata y generar moléculas de óxido de plata que caen por su propio
peso. Nuestro privativo interés: estas partículas son negras. Recuerden los obje-
tos de plata que se oscurecen con el tiempo.…

6
Las emulsiones sensibles gráficas son del tipo ortocromático, es decir que registran
sólo parte de la radiación luminosa total, por ejemplo, no reaccionan con la radia-
ción roja. Además, son de alta latitud, con lo cual la variación de niveles de grises
que pueden registrar es muy baja.
Como ejemplo, las películas en nuestras cámaras de fotos tienen una latitud de me-
dia a baja, pues lo que queremos es registrar el máximo de detalles en todas sus
gamas y matices.
En gráfica lo que buscamos al momento del revelado es, negro y blanco en papeles
o negro y transparente en películas. Estas emulsiones son también llamadas de alto
contraste y su misión es transmutar todos los grises que sean más oscuros que el
gris medio hacia el negro, y los que queden por debajo del gris medio al blanco, sin
posibilidad alguna de representar valores intermedios.
Además, pueden ser negativas o positivas. Las negativas reaccionarán a la luz en-
negreciéndose, mientras que las positivas funcionan exactamente a la inversa.
Veamos que ocurre con las emulsiones que ennegrecen. Dijimos antes que las sa-
les de plata reaccionan a la luz. Actualmente la reacción es controlada, de manera
que si tuviéramos la posibilidad de “ver” un rollo de fotos sin revelar (y sin que se
vele), y tuviésemos la esperanza de encontrar una imagen, nos frustraríamos. ¿Qué
ocurre entonces? ¿Por qué la emulsión no ennegreció? Para poder controlar los ni-
veles de reacción a la luz, lo primero que se obtiene es una “imagen latente”, una re-
acción incompleta que terminará su proceso de ennegrecimiento en un laboratorio
fotográfico en un baño revelador. “Tomamos nota” de la imagen y la terminamos en
laboratorio. Pero, dirán, ¿sobre qué material estamos trabajando? Los materiales
gráficos son esencialmente papel y película gráfica, la emulsión fotosensible viene
en una pequeña capa sobre estos materiales.
El proceso de laboratorio consta de cuatro pasos: el revelado, el detenido, el fijado
y el lavado, en este orden. La función del revelado será entonces terminar con el
decantamiento de las sales de plata en forma de moléculas de óxido de plata, que
son negras. Cabe aclarar que sólo las moléculas alcanzadas por la luz decantan,
entonces, ¿qué ocurre con las que no fueron alcanzadas por la luz?
Si no detuviésemos la acción del revelador, en un tiempo cercano, las moléculas
que no reaccionaron comenzarían a hacerlo. En un laboratorio, los tiempos y la
temperatura de todos los baños son variables primarias. Esta es la función del de-
tenedor: interrumpir la acción del revelador. Luego, en el baño fijador, eliminaremos
la emulsión no decantada y fijaremos la imagen que a esta altura ya será perfecta-
mente visible. Papeles o películas son lavadas y secadas en el último paso.
Desde hace varios años, los papeles gráficos de alto contraste han caído en des-
uso al ritmo de la aparición de las tecnologías digitales, ritmo acelerado que en los
últimos tiempos ha dejado casi sin trabajo a un rubro sin el cual 80 años de impren-
ta industrializada hubieran sido imposibles: la fotomecánica. De manera que mos-
traremos el funcionamiento de una película gráfica de alto contraste.

La película gráfica
Durante muchos años, los procesos de producción de películas gráficas, copias de
contacto, fotolitos, fotograbados, etcétera, fueron tarea excluyente de los talleres

7
de fotomecánica. En ellos coexistían la artesanía y las técnicas precisas de la fo-
tografía con cámaras fotográficas gráficas de tipo vertical. El diseñador se presen-
taba con un original en papel, muchas veces montado en cartón, al cual le eran
tomadas una serie de fotografías para producir las películas. Los tiempos han
cambiado radicalmente para todos, pero esencialmente pata los fotomecánicos.
En la producción industrial de materiales impresos debemos obtener matrices
con las cuales grabar las formas impresoras. Los sistemas industriales con flujo
de trabajo del tipo “directo a película” (CTF, Computer To Film) son los que utilizan
películas para construir las formas para cada sistema de impresión.
Estas matrices son las películas gráficas y llevan impresa la información en la me-
dida exacta a la que van a ser producidos los impresos. Se deberá decir, enton-
ces, que al finalizar la producción de preprensa en CTF, debemos obtener pelí-
culas gráficas y pruebas de color (que veremos más adelante) cuyas cantidades
dependerán del tipo de impreso y el sistema de impresión. Lo cierto es que la
película debe oficiar de pantalla o máscara; para esto, lo negro debe ser opaco a
la luz, es decir que ésta no la pueda atravesar. (Recuerden las horrendas marcas
que dejan los bikinis en la piel al cubrirla del sol.)

Partes de una película gráfica


En el corte transversal de una película gráfica virgen encontraremos:
• Emulsión fotosensible
• Acetato de celulosa (celuloide transparente)
• Capa anti-halo

Por arriba y por debajo del acetato se encuentran dos mordientes. La función
de los mordientes es de contención y de adherencia de la emulsión y de la capa
anti-halo.
El soporte más común en películas es el acetato de celulosa, medio translúcido
bastante flexible y resistente. La capa anti-halo tiene una función importantísima:
absorbe los reflejos por refracción dentro de la película de celuloide. La luz cam-
bia de dirección cuando atraviesa medios de distinta densidad y provoca falta de
definición en la imagen, algo así como un fuera de foco.

8
Al copiar una película los rayos de luz blanca llegan hasta la emulsión y hacen re-
accionar la superficie en las zonas específicas de contacto, dan origen así a la ima-
gen latente.

Luego de los procesos de laboratorio (el revelado, el detenido, el fijado y el lavado),


la película quedará lista para su uso en gráfica.

El control de una película gráfica


Para poder utilizar una película en gráfica debe cumplir con algunos requisitos, los
más importantes son la orientación, su carácter de positiva o negativa y, por último,
la opacidad, o sea, el grado de densidad de negro.
Las películas terminadas tienen una cara lisa, es decir, sin restos de emulsión ni
de otras sustancias, y una cara que lleva la información grabada y mostrada por la
emulsión. Para poder orientar una película correctamente buscaremos primero un
punto de referencia: una letra, palabra o texto, si no los hubiera deberemos locali-
zar una imagen conocida o corresponderla al “mono” (apócope de monográfico) o
boceto de diseño.
El objetivo será enfrentarnos a la película y orientarla de manera que la podamos
leer correctamente. Una vez hecho esto deberemos detectar de qué lado quedó
la emulsión, deben saber que para el sistema offset la emulsión debería estar justo
del otro lado, es decir, que entre sus ojos y la emulsión se encuentre el celuloide.
En este estado, la película se llamará emulsion down (emulsión abajo).

9
Si la emulsión se encontrara por encima del celuloide se llamará, claro, emulsion
up (emulsión arriba), los sistemas de relieve (por ejemplo, flexografía) por lo gene-
ral utilizan esta condición.
Por regla general, cuando se realiza una copia por contacto, muy común al co-
piar formas impresoras, las emulsiones de película y de la forma deben entrar en
contacto íntimo. La razón es que las aberraciones producidas por la refracción
de la luz deforman, a veces es imperceptible, los contornos de las tipografías o
puntos de trama.
Una película puede ser negativa o positiva. Si fotografiáramos un cuadrado negro,
el registro negativo sería la imagen a la inversa, es decir, un cuadrado transparen-
te sobre un fondo negro, mientras que el positivo sería un cuadrado negro sobre
un fondo transparente.
La densidad de una película es otra de las condiciones fundamentales para una
buena transmisión del diseño a la forma. En una copia por contacto, la fuente lu-
minosa deberá ser uniforme, es decir, iluminar de manera pareja una superficie
plana, lo ideal para estos casos es una insoladora.

Las insoladoras más modernas tienen el control del tiempo de exposición por
medio de procesos digitales. También, para un íntimo contacto entre película y
forma, aportan una bomba de vacío que hace que se elimine el 99% del aire alo-
jado entre ambas, que podría provocar fuera de focos y pequeñas distorsiones.
El éxito de los procesos fotográficos depende de algunas variables entre las que
encontramos la temperatura de los líquidos, la temperatura ambiente, los tiempos
de exposición y de baño de los materiales y la juventud o frescura de los mate-
riales utilizados.
Una manera sencilla de controlar la calidad de una copia fue introducir en los pro-
cesos, cuñas de control.

Estas cuñas se agregan a los originales en todos los procesos de preprensa, de


hecho muchos softwares lo incluyen como opción en el momento de imprimir pe-
lículas gráficas. De esta manera, tendremos datos objetivos, datos que se man-
tienen constantes y que darán las diferencias al ser medidas con un densitómetro
de transparencia. También hay por reflexión, para medir la densidad de la tinta en
los impresos.
Los campos de control para la densidad de la película son preferentemente los
plenos de negro. El densitómetro de transparencias funciona leyendo cuanta luz
atraviesa determinado material; en este caso, un pleno de negro sobre una pelí-
cula.

10
Si tuviéramos una transparencia ideal, la luz pasaría en un 100% de un lado al
otro de la película. Como no podemos tener estas certezas absolutas, en la reali-
dad contamos con el error. Una densidad base se leerá entonces en todo material
translúcido, que es la cantidad de luz que deja pasar.
Cómo funciona un densitómetro: una fuente de luz se encarga de iluminar la mues-
tra, una célula fotoeléctrica, del otro lado (por eso el densitómetro es de transpa-
rencia), se encarga de registrar cuánto del 100% emitido llega hasta la célula.
Los parámetros normales de densidad oscilan entre 2,6 y 3,4 de opacidad; cuan-
to más grande es el número, más opacidad tiene la muestra. Estos valores son
unidades matemáticas de opacidad, el resultado del logaritmo del inverso del va-
lor de la transluminancia, log(1/tr). Si la película cuenta con un grado menor que el
aceptado, hay altísimas probabilidades de que la película provoque desajustes en
pasos posteriores. Por ejemplo, imágenes muy claras, quemado en las fotografías,
formas inútiles en sistemas de relieve o hueco y/o defectuosas en sistemas de su-
perficie o penetración.
Una gran serie de ecuaciones conforman el “corpus densitométrico”, estos cálcu-
los, simples pero que requieren de un conocimiento previo de nociones fisicomate-
máticas, son resueltos por el procesador del densitómetro. Lo usaremos tal como
usamos un teléfono celular, sin saber sobre la naturaleza de las ondas electromag-
néticas o de la estructura molecular del silicio.
Por último, debemos incluir como ítem a controlar el tramado de imágenes, pero
esto lo desarrollaremos en el párrafo concerniente a tramas.

Materiales fotosensibles basados en polímeros


Los polímeros son macromoléculas (generalmente orgánicas) formadas por la
unión de moléculas más pequeñas llamadas monómeros. Los polímeros naturales,
por ejemplo la lana, la seda, la celulosa, etcétera, se han empleado profusamente
y han tenido mucha importancia a lo largo de la historia. Sin embargo, hasta finales
del siglo XIX no aparecieron los primeros polímeros sintéticos como, por ejemplo,
el celuloide.
Los primeros polímeros que se sintetizaron se obtenían a través de transformacio-
nes de polímeros naturales. En 1839 Charles Goodyear realizó el vulcanizado del
caucho. El nitrato de celulosa se sintetizó accidentalmente en el año 1846 por el
químico Christian Friedrich Schönbein y en 1868, John W. Hyatt sintetizó el celuloi-
de a partir de nitrato de celulosa. DuPont, desde 1928, desarrolló un gran número
de nuevos polímeros: polietilenos, poliésteres, poliamidas, neopreno, etcétera.
Sus propiedades mecánicas de estabilidad dimensional hacen que estos materia-
les den muchísimas prestaciones en la industria gráfica: formas, soportes y termi-
naciones protectoras.
El fotopolímero es una clase de polímero que reacciona, polimerizándose (todo un
trabalenguas) ante la presencia de luz ultra-violeta (UV) que inicia la reacción: los
monómeros se convierten en moléculas más grandes y estables. Como ejemplo,
la forma impresora del sistema flexográfico es un fotopolímero que es grabado por
exposición directa o por un láser de luz UV, que genera el relieve deseado para la
impresión.

11
El original

Quizás sea verdad que el siglo XX haya terminado en los 80. Quizás la empresa
Apple también forma parte de esta posibilidad.
Las metáforas planteadas por los sistemas operativos de interfaz gráfica como el
que desarrolló Apple y por el luego “adaptado” Microsoft Windows aplastaron, por
su sencillez y practicidad a los primitivos sistemas de líneas de comando (DOS).
Las metáforas apuntaban (y aún lo hacen) a generar un ambiente amable y, sobre
todo, conocido: para borrar un archivo se debía “tirar al tacho de basura”.
Se habla de archivos y de ventanas aunque estos sean sólo índices piercianos.
Por continuidad, los primeros softwares gráficos comenzaron a punta de mouse
a delinear protoarchivos que definirían más tarde el eje tecnológico de la autoedi-
ción. La panacea de la era digital había comenzado sin independizarse de la vieja
usanza análoga: las referencias y marcas tradicionales de corte, registro y dema-
sías siguen hasta nuestros días.
Asimismo, brillaron los meteoros digitales en el cielo de fin de siglo, también arriba-
ron los nuevos problemas, los errores algorítmicos de la lógica del silicio.
Las nuevas tecnologías que solucionan viejos obstáculos inventan nuevos.
La autoedición (desktop publishing) es, simplemente, una nueva forma de hacer
viejas cosas. Los procesos que anteriormente se realizaban desde el esquema de
la manualidad, armado de originales rígidos, peliculados en cámaras verticales,
separación de color por medios fotográficos, positivado de planchas, alzado e im-

12
posición manual de páginas o calibración manual del color, hoy en día se gestan en
una línea de procesos digitales. Esta línea deberá, para conseguir un buen resulta-
do, tener un alto grado de optimización.
Hablaremos de páginas digitales, de escaneados, de imágenes vectoriales o pixe-
lares y, sobre todo, de lenguajes y códigos de descripción de página, es decir, de
lenguajes comunes a muchas máquinas que comparten un proceso, en este caso
el difundido postscript.
Hardware va a ser la palabra de moda, “ferretería” es su significado literal. Lo mate-
rial, el objeto “computadora”es a lo que realmente refiere. Las primeras Apple Ma-
cintosh eran una suerte de televisores blanco y negro de 9” con una ranura para
diskettes, un teclado y un mouse. No tenían disco rígido, soportaban como máxi-
mo 4 Mb de RAM y costaban alrededor de u$s 2.500. Precio que paradójicamente
se mantiene para una estación de trabajo gráfico promedio después de más de 20
años.
Delimitar las ventajas y desventajas del universo digital sería una tarea tan ardua
como útil, pero este no es el eje de nuestro capítulo, muchos libros han hablado de
esto en los 90.
Lo que nadie puede negar es que el trabajo de producción de originales para gráfi-
ca a partir de la aparición del ordenador es mucho más rápido y efectivo, sólo pen-
semos en el copy-paste y el undo en un sentido práctico.
Citemos entonces la clasificación de Nicholas Negroponte, director del laborato-
rio de medios del MIT, la realidad se divide en dos: las cosas y la información. Es
decir, “átomos y bits”. Recuerden cuánto ocupa la Enciclopedia Británnica en una
biblioteca y cuánto en un CD: compresión de datos y corrección de errores son,
entonces, las grandes ventajas de la digitalización. Ojalá Nicholas perdone esta
simplificación.
Servicios de red cada vez más poderosos y dispositivos de almacenaje cada vez
más rápidos y vastos hacen que el trabajo de preproducción gráfica sea más sen-
cillo, pero no olviden: las nuevas tecnologías, que solucionan viejos obstáculos, in-
ventan nuevos.
Por otro lado, la impronta electrónica modifica sustancialmente el esquema de tra-
bajo tradicional en el cual la mayor parte de los procesos eran fotoquímicos y, de-
pendían en gran manera de la experticia del fotomecánico a cargo.
Los objetos que se producen en la industria gráfica son, en general, soportes o su-
perficies que se entintan y que se preparan para su comercialización, distribución
y/o uso.
Hoy en día, los originales son documentos, objetos digitales producto de algún de-
terminado software, que no dejan en profundidad de pertenecer a la lógica del bit,
ceros y unos. De cualquier manera, estos documentos están conformados por ele-
mentos gráficos que tienen determinadas características, conocerlas hace la dife-
rencia entre un original bien hecho, calificado, y otro que va a corromper o demorar
el sistema de producción. En un arrebato de síntesis, y descontando apreciaciones
semióticas, podemos decir que en todo diseño en dos dimensiones encontramos
tres cosas: tipografía, imágenes icónicas y misceláneas. Esta clasificación está to-
mada de la primera manera de clasificar los elementos gráficos en el sistema de
tipos móviles de antaño, en el que encontramos tipografía, clisés de relieve para las
imágenes y elementos no tipográficos. Entre las imágenes icónicas encontramos
las fotografías, ilustraciones, gráficos e iconografías, sobre estas hablaremos en un

13
próximo punto. Las misceláneas son filetes, cuadratines, texturas, símbolos no ti-
pográficos, indents, etcétera. En cuanto al texto, y sin titubeo, descubriremos que
en su ADN reina la letra.
A modo de homenaje vamos a sintetizar algunas características de los originales
en papel ya que algunas de éstas perduran actualmente, luego veremos los origi-
nales electrónicos para gráfica (OEG).

El original en papel
Todo lo que se ha hecho a lo largo de 80 años en impresión está condensado en
los procesos digitales de fines de siglo XX.
La función del original en papel, como así también la del electrónico, es codificar
el diseño visual a manera de objeto que sirva para la producción de las formas de
impresión. Estos originales tendrán el objetivo de conseguir que las películas y las
pruebas de color sean correctamente producidas.
Mucho se podría escribir acerca del original en papel, pero nos sentiríamos in-
vadiendo la ardua tarea de un historiador. Sencillamente, en un cartón montado
blanco, se delineaba el diseño de un impreso; este original se debía realizar exclu-
yentemente en blanco (fondo) y negro para que los procesos fotográficos regis-
traran su contenido. Recuerden, los materiales fotosensibles gráficos son de alto
contraste, cualquier valor de gris que hubiere sería interpolado hacia el blanco o
el negro, esto es muy importante, en el próximo punto lo retomaremos para ver
cómo se procede con imágenes que tengan grises o colores.
Asimismo, se debían separar los colores manualmente. En impresión se necesita
de una “pasada” por la máquina correspondiente para cada color de tinta. De ma-
nera que la regla es la siguiente: para cada color-tinta una forma y le sigue, para

14
cada forma un original; debemos confesar que con alguna pericia se podía ahorrar
un original incluyendo en el mismo cartón la información de varios colores-tinta.
Muchas de las marcas accesorias utilizadas en los originales manuales se utilizan
en los electrónicos. A saber: las cruces de registro, las líneas de corte y el área de
demasía de color.
Al trabajar con varios colores que deben registrar entre sí en el momento de impre-
sión, es preciso contar con una referencia, ya que muchas veces las impresiones
son polícromas, es decir, de más de una tinta a la vez. Las cruces de registro sir-
ven entonces en el momento de imprimir y, por lo tanto, deben estar en el original.
Las líneas de corte indicarán al operario de guillotina por dónde cortar el impreso
acabado. Si el diseño tuviere impresión al corte, sangrando, se deben prolongar
más allá de las líneas imaginarias que provocan las líneas de corte, a esto se le lla-
ma área o zona de demasía de color.
Para terminar, algo característico de los originales en papel eran las aclaraciones
en color celeste, color que no salía fotografiado; y el papel vegetal por encima del
original se usaba como protección.

El original electrónico para gráfica

Los archivos de imagen


Los archivos de imagen para la producción de originales electrónicos para gráfica
(OEG) pueden ser archivos pixelares o vectoriales.
Los archivos pixelares están compuestos por unidades mínimas de información lla-
madas pixeles, también son llamados “mapas de bits” o bitmaps.
Los pixeles tienen siguientes las propiedades:
• son cuadrados
• tienen un tamaño que está relacionado con su definición de resolución, cuya unidad de me-
dida es el dpi (dots per inches), puntos por pulgadas.
• cada pixel tiene la capacidad de representar un único valor de gris (incluso uno ‘transparen-
te’), la cantidad de valores de gris que puede representar se llama “profundidad de color” y
se mide en bits, y responde a la expresión
• cantidad de grises = 2x donde x es la cantidad de bits. Una imagen con pixeles de 8 bits
puede representar 256 tonos de grises diferentes.
• Siempre se agrupan formando superficies rectangulares
Como es de suponer, las imágenes pixelares comparten estas características y le
suman a su definición la cantidad de canales con las que están construidas, es de-
cir, su “modo”. A las que están formadas por un solo canal se las llama en escala
de grises o grayscale. Estos archivos pueden representar cualquier escena, pero en
un solo tono, lo cual no implica que sean grises como en una foto en blanco y ne-
gro, sino que también podrían representarse situaciones de tonalidades diferentes,
rojas, azules, etcétera, con toda su variación tonal.

15
Ahora lo complicado, una imagen a color va a necesitar de más de un canal de
información para poder componer en pantalla la policromía esperada. El caso
más común es el de las imágenes en modo RGB: rojo, verde y azul (Red – Green
– Blue). La computadora, para hacer visible este tipo de imágenes, utiliza tres ca-
nales grayscale, cada canal llevará la información de un color básico, y de sus
mezclas digitales se producirá el color correspondiente. A esta descripción corres-
ponde cada una de las imágenes fotográficas que ven en internet o que provienen
de sus escáneres, entre otras.
Las imágenes multitonales son archivos de modo monotono, duotono, tritono,
cuatritono, etcétera, es decir, se definen por la cantidad de canales asignados
para cada una de ellas. Una con dos canales será duotono. Estos archivos co-
rresponderán a imágenes con composiciones de color especiales, por ejemplo,
una foto de autor con colores sepiados; para ser reproducida en estas condicio-
nes en imprenta, su composición digital debe incluir la información para tinta ne-
gra y otra sepia: un canal para el negro y uno para el sepia. También se usan para
contener dentro de imágenes a todo color, uno especial, por ejemplo plateado.
Muchas obras de arte que incluyen dorados o plateados deben ser reproducidas
a partir de pentatonos (5 canales) para lograr alguna fidelidad en relación con la
obra original.
Por último, las imágenes en modo CMYK (Cyan – Magenta – Amarillo – Negro) que
contienen cuatro canales grayscale para la información esencial de la separación
de color para la impresión policroma en imprenta.
Los softwares de edición de imágenes pixelares, como el Photoshop, pueden pre-
visualizar cada canal por separado y dan una utilidad sin paralelo para una com-
probación previa de la separación del color.
Observemos que el peso en Kbytes de una imagen pixelar está definido por la re-
solución (dpi), su profundidad de color (cantidad de bits) y su tamaño en ancho
y alto; nótese que aumenta geométricamente en relación a su tamaño: tal como
para pintar un cuadrado de dos metros de lado necesitamos 4 veces más pintura
que para pintar uno de un metro de lado. Nos enfrentamos, y cabe aclararlo en
este momento, con la poco propicia convención de utilizar la misma unidad para
cosas diferentes. Tenemos ‘dpi’ que miden resolución de imágenes, pero también
tenemos dpi que miden calidades de periféricos, como los escáneres e impreso-
ras. Llamaremos entonces dpi de entrada a los que tienen que ver con dispositi-
vos de entrada a la CPU, es decir, los escáneres u otros dispositivos de captura
de imagen, como cámaras digitales, y que sirven, como veremos más adelante,
para definir la calidad de lectura de estos aparatos.
Dpi de salida serán los que definen la calidad de periféricos de salida, como los
diferentes tipos de impresoras y filmadoras de película digitales o planchas.
Esto es sencillo, cuanta más información tenga para definir una imagen, mejor
será esta. La información de la que hablamos está definida como cantidad de
pixels por pulgada. Cuanto más pequeños son estos pixels, mejor “dibujada” es-
tará.
Las imágenes que vemos en nuestras pantallas de computadora son, definitiva-
mente, digitales. Todas se construyen a partir de pequeñas celdas fácilmente ob-
servables con una lupa o cuentahílos sobre el vidrio del monitor o la membrana
del plasma. Estos módulos de color, a su vez, están formados por tres pequeños
sectores luminosos de color rojo, verde y azul (RGB). Las formas y colores se de-
linearán entonces por la iluminación de cada uno de estos módulos comandados

16
por un software y una placa de video. A modo de experimento, miremos con un
cuentahílos en zonas de diferente color del monitor y veremos las combinaciones
que se proponen para la composición cromática. Descubrirán que el color blanco,
como metáfora de la realidad, es una construcción de los tres colores luz en máxi-
ma intensidad, es decir, una ilusión.
Los archivos de formato vectorial son, como en el caso de la tipografía digital, de-
finidos por lenguajes de descripción matemática, como el Postcript. Generalmente
son el resultado de programas graficadotes, como el Adobe Illustrator, el Inkscape
o el CorelDraw. El formato gráfico vectorial más utilizado es el EPS (Encapsulated
Postscript), ya que es multiplataforma y absolutamente tolerado por los programas
de armado de páginas y por los RIP, importantes computadoras que son esencia-
les en el proceso de preprensa. Pueden guardar información necesaria, como pa-
rámetros de separación de color, trapping y overprint. Todos los objetos vectoriales
están definidos por un contorno y un relleno y son el resultado de una función ma-
temática. Esto es una gran ventaja si se considera que un cuadrado definido vecto-
rialmente pesa en Kbyte exactamente lo mismo independientemente de su tamaño
ya que las variables que lo definen son numéricas.
En nuestra natural concepción dual de las cosas nos preguntaremos cuál de los
dos tipos de archivo (pixelares o vectoriales) son mejores. Y la respuesta es ni uno
ni el otro. Son diferentes, desde su concepción, y por lo tanto son usados para di-
ferentes situaciones.

La tipografía digital
Como dijimos antes, todo gráfico en un entorno Postscript se define matemática-
mente. La tipografía también, por la llana razón de que para Postscript, la tipografía
es el dibujo de una función predefinida. Una ‘a’ minúscula o una ‘efe’ mayúscula
serán, entonces, diferentes funciones. Para la bonanza de nuestras actividades edi-
toriales, de esto jamás nos tendremos que preocupar.
¿Cuáles son las puntas de este iceberg? En nuestros programas de armado más
comunes encontramos la posibilidad de variar la fuente, el tamaño, el interletrado,
etcétera; cuando informamos estos valores, estamos pasando valores variables a
estas veladas fórmulas. Sencillo.
La primera gran ventaja del postscript es que un archivo con una letra en cuerpo 10
va a pesar lo mismo que uno con esa misma letra en cuerpo 250.
La segunda ventaja de la tipografía postscript es un tema que incumbe por demás
a diseñadores y editores. La tipografía, así como cualquier otro archivo digital (.doc,
.xls, etc), se puede manipular, copiar, borrar, además de tener una extensión que le
es propia y que la identifica, por ejemplo .ttf para las fuentes True Type u OTF para
las multiplataforma.
A diferencia de formatos como las True Type Font, la tipografía vectorial es “inte-
ligente”. Contiene en sus parámetros internos delicadas fórmulas que hacen que
las letras sepan numéricamente acerca de su línea de base (baseline) o que sepan
unas de otras; como ejemplo, en la palabra TIBURCIO, la T sabe que a su lado hay
una I, la I sabe que está entre la T y la B, y así sucesivamente.
Los diseñadores gráficos y tipógrafos observaron que entre una letra y otra no pue-
de haber un kerning fijo. El kerning es una unidad para medir la proximidad de una
letra a otra en cada fuente tipográfica. Se mide en unidades em o en y tienen rela-

17
ción con el diseño de la caja de la M o la N respectivamente. En algunos softwares
aparece como tracking.
Con kerning constante, un texto se vería como en una máquina de escribir, y po-
dría provocar espacios indeseables que dificultan la lectura. Antes de las tipogra-
fías postcript, estas correcciones ópticas se hacían de manera manual, letra por
letra, con tipos móviles, sobre todo en títulos y subtítulos.
A principios de los 90, las tipografías digitales de Adobe se llamaron de tipo 3
(Type3) y tenían la desventaja de imprimirse correctamente, pero su visualización
en pantalla era pésima. Luego las Type1 solucionaron el problema a través del
Adobe Type Manager, que mostraba la tipografía de manera perfecta en relación
con la calidad del monitor.
De más está decir que son las recomendadas para todo tipo de uso editorial y
gráfico a pesar de sus competidoras de siempre, las TrueType.
Hacia fines de los 90, Adobe desarrolló las tipografías Multiple Master Fonts (MMF)
y las Open Type Fonts (OTF). Las primeras combinaban de manera sorprendente
todas las variantes de familia en un solo archivo. A manera de perilla de volumen
uno podía lograr ennegrecer (hacer más negrita) o aclarar una tipografía, a gusto
y piacere del usuario.
Las Open Type son las más nuevas. Su principal destreza es ser multiplataforma,
es decir, poder funcionar indistintamente entre plataformas Apple, Windows, Unix
o Linux. Las TTF más modernas también tienen esta característica.
La mayoría de los softwares utilizan la tipografía como un archivo asociado, es
decir, toman la información de otro origen y se remiten a ella sólo cuando es ne-
cesario. Esto hace que los archivos digitales tengan un menor peso, pero esta
ventaja muchas veces se vuelve en contra, ya que, en primera instancia y como
buena costumbre, las fuentes tipográficas utilizadas, sus archivos nativos, deben
acompañar al original electrónico terminado. Cuando se pasa por alto este pe-
queño detalle, nuestros originales electrónicos se vuelven totalmente inestables.
Convertir la tipografía a curvas, es decir, volverlas puramente dibujo, es una po-
sible solución para no tener que preocuparse de los links perdidos a tipografía.
Lógicamente, el peso del archivo se incrementará en relación con la cantidad de
caracteres utilizados.

18
El formato PDF
Muchos dicen que Adobe Systems cavó su propia tumba al inventar el formato que
está revolucionando la producción de OEG. Al ser considerado el remedio para
todas las pandemias en la generación de originales estables y seguros, se volvió
rápidamente un estándar.
El PDF (acrónimo del inglés Portable Document Format, documento de formato
portátil) es un formato de tipo mixto (imagen vectorial, mapa de bits y texto). Está
especialmente ideado para documentos susceptibles de ser impresos, ya que es-
pecifica toda la información necesaria para la presentación final del documento,
determinando todos los detalles de cómo va a quedar. Cada vez se utiliza más
como especificación de visualización y de intercambio, gracias a la gran calidad del
rendering de las fuentes utilizadas y a las facilidades que ofrece para el manejo del
documento, como búsquedas, hiperenlaces, etcétera.
Uno puede generar un PDF de casi la totalidad de los soft actuales, pero ¿todos
estos PDF sirven para la producción gráfica? ¿Pandemia? ¿Qué tipo de enferme-
dades digitales nos azotan?
Con la idea de mejorar los flujos de trabajo en preprensa, las distintas asociaciones
que agrupan internacionalmente el área de servicios, hace más de una década (no
existía la plataforma PDF), perpetraron un trabajo de campo. Consistía en una serie
de preguntas de las cuales se arrojaron algunas cifras y algunas horrendas conclu-
siones: sólo un 42% de los originales electrónicos recibidos en preprensa califica-
ba para comenzar sin problemas el proceso de preimpresión. ¿Tan mal se trabaja?
¿Tan poco oficio en el tema? Lo cierto es que algunos detalles no son errores de
importancia, pero son errores al fin. La lista de problemas potenciales se basó en la
lista de control preliminar presentada en el documento “Control digital previo” pre-
parado por la GATF-World en abril-marzo de 1996. Los problemas se dividieron en
la encuesta en ocho categorías: discos y archivos, páginas, fuentes, gráficas vin-
culadas, exploraciones, pruebas, atrape (trapping) y procesamiento de archivos. El
resultado fue una lista de 10 ítems comunes (para ampliar ver apunte “Soluciones
a los problemas con archivos digitales”)
Las nuevas tecnologías conllevan nuevos desafíos y nuevos problemas. Con el ori-
ginal en papel, ninguna de estas cuestiones existía, con la aplicación informática a
la industria gráfica, se eliminaron sobre todo pérdidas de tiempo y posibilidades de
corrección instantáneas. Evidentemente, todo oficio requiere cierta maestría. Los
ordenadores no son la solución a todos nuestros problemas, por el contrario, sa-
ber manejar los softwares profesionales y el lenguaje Postscript ‘es’ el verdadero
problema.
El PDF es una alternativa para los archivos PostScript. El formato ofrece una vista
previa en pantalla que muestra de manera precisa el contenido de los archivos (a
diferencia del PostScript, que no posibilita esta opción, y del PostScript encapsu-
lado (EPS), en el que la vista previa puede diferir mucho del contenido de los ar-
chivos). El reducido número operadores PostScript disponibles en PDF hace de
los archivos compactos PDF una alternativa más consistente frente a los archivos
PostScript convencionales.
Por supuesto y aplicando inducción, en esta nueva manera de trabajo también va-
mos a tener que reaprender sus reglas y problemas. Crear un PDF consistente, que
certifique en la mayoría de las plataformas de preprensa y que sirva de comienzo
seguro para una producción gráfica, también tienen sus inconvenientes. La ten-

19
dencia es esta, flujos de trabajo basados en software y plataforma de estandari-
zación y certificación en PDF.
Desde los originales en papel hasta los modernos archivos de intercambio, sigue
habiendo estándares que se mantienen: las marcas accesorias de corte y regis-
tro, las cuñas de control, el overprint, el trapping (serán analizados más adelante)
y el área de demasía de color, entre las más importantes.

TRAMAS

La impresión de imágenes de tono continuo

No existe una máquina de impresión industrial que pueda imprimir tonos conti-
nuos. Esta sentencia, superable con el avance tecnológico, nos dice que para
poder imprimir una imagen con variaciones tonales (simplemente mire a su alre-
dedor, todo tiene una variación de tono que nos inserta en un universo al menos
tridimensional), deberemos, o algo deberá, convertir esta imagen análoga en una
información discreta o no-analógica. Los métodos de fines de siglo XIX fueron
realmente sorprendentes. En el año 1880, Stephen Horgan se vale de dos vidrios
rayados mecánicamente que, colocados en ángulo recto, lograban transmutar la
imagen, al fotografiarla intevernida, en una grilla de puntos variables en tamaño,
es decir, una trama.
Las tramas logran la variación tonal de una manera algo difícil de ver. Una imagen
impresa mono o policromática es, en la mayoría de los casos, una conjunción de
puntos que permanecen un sus sitios variando sus tamaños o que, a modo de
spray, utilizan el dithering para simular tonos más o menos oscuros o de color.
Más adelante ampliaremos estos conceptos. Quizás suene abstracto, pero re-
cuerden qué ven cuando se acercan a un afiche callejero, o en la parada de co-
lectivos, o con una lupa observan una foto impresa: no es otra cosa que la ‘trama’.
El ojo es engañado una vez más.

20
Clasificación, las tramas AM, FM, XM y PMR

La amplitud y la frecuencia son conceptos que provienen de la órbita científica y


que vienen a describir la magnitud y la reiteración de un impulso energético, como
las ondas electromagnéticas. En gráfica, la transcribimos de la siguiente manera:
las tramas son pequeños grafismos cuya ‘amplitud’ va a representar el tamaño
de cada punto y su ‘frecuencia’ la cantidad de repeticiones en la estructura de la
trama.

Tramas de amplitud modulada - AM


Ciertamente estas tramas, que llamaremos tramas AM (amplitud modulada; sí,
como la radio) delinean una imagen con la modulación del tamaño de los puntos,
son las utilizadas todavía en el 90% de los impresos en nuestro país. Sus carac-
terísticas son: su lineatura, su valor tonal, su inclinación y la forma de sus puntos.
Actualmente se refieren a ellas como “trama convencional”.
La frecuencia de puntos alineados (lineatura) se toma en relación a una unidad ho-
mologada mundialmente, la pulgada (inch). De manera que los puntos se acomo-
dan en una grilla damérica de líneas entrecruzadas. La cantidad de líneas de puntos
por pulgada son los LPI (lines per inch) propia de esa trama.
En la práctica corroborarán que una lineatura de más de 185 LPI será impercep-
tible al ojo promedio. Y que una lineatura inferior a 90 LPI deja en evidencia la po-
blación de puntos de una imagen impresa. Las podemos llamar cerradas o abier-
tas, aunque este dato no nos dice mucho objetivamente, nos daría una idea de lo
que estamos hablando, tramas cerradas como las que representan la imagen de
una manera más precisa por su alta lineatura y tramas abiertas las que, por tener
poca cantidad de estímulos por unidad de medida, se revelan ante nuestra mirada
dejando ver los puntos que la conforman.
El valor tonal de una trama se mide en una relación porcentual: un valor pleno (de
cualquier color) equivale al 100% de esa tinta-color. La ausencia de esa tinta im-
presa se considera un 0% de ese color. Por supuesto, un gris medio será el 50% de
negro y un rosa, posiblemente, sea un 50% de magenta. Otra vez, a nuestros ojos
humanos, un 1 o 2% de trama es normalmente imperceptible así como la diferencia
entre un 98 y un 100%.
Para hacer control de calidad del valor de la trama, existen espectro-fotómetros
por reflexión, suena difícil, pero es simple, un aparato con sensores lumínicos que
hacen rebotar sobre una trama impresa un haz de luz. El reflejo de esa luz es com-
parada IN-OUT, parametriza cuanta luz salió y cuanta es recibida por reflexión. La
diferencia es el valor tonal de la trama. Este dispositivo es esencial en cualquier
taller gráfico que ofrezca un servicio de calidad.
Siempre nos hemos referido a las tramas como sucesiones de puntos y en el imagi-
nario popular un punto equivale a un círculo. Pues no, una trama mecánica de pun-
tos circulares encuentra un damero cuadriculado en valores próximos a un 50%.
Y, en casos más recientes, la aparición de impresoras de alta resolución y de len-
guajes de descripción de páginas digitales más precisos (más ajustadamente a par-
tir de los lenguajes de Adobe Postscript versión 2 y 3) dieron la posibilidad de elegir
entre una suerte de puntos no circulares. Entonces además de round dot, encon-

21
traremos puntos elípticos, cuadrados, estrella, hexagonales, honey comb, rombo,
cadena, entre otros.
Las aplicaciones de cada punto, es decir la razón de su existencia, tienen que ver
con la capacidad de cada forma de reproducir con más acierto la realidad. Nos
cuentan los cuadernillos técnicos que, por ejemplo, el punto elíptico produce una
percepción más fiel de los colores pasteles o el color piel y que los romboidales
representan mejor los brillos metálicos. Un hecho práctico, tramas hexagonales
son utilizadas en las formas impresoras del huecograbado.
Las tramas AM nos han dado muchísimas satisfacciones como para hablar mal
de ellas, ciertamente imprimen muy bien en zonas de colores con grises medios
y procesan los plenos de una manera más sencilla y eficaz. También responden
óptimamente en el proceso de copiado fotográfico de las formas a partir de los
peliculados AM. Sus problemas, en cuanto a la reproductibilidad los vamos a en-
contrar en las zonas de reproducción de altas y bajas luces, es decir, sombras y
detalles muy claros, y, por otro lado, en el efecto moiré.

Efecto moiré
Para entender efecto moiré les preguntaré: ¿Han visto cómo el ojo ve rodar en
sentido contrario una rueda de bicicleta a cierta velocidad? ¿O cuando se apaga
un ventilador? Bueno, ese efecto visual se llama resonancia óptica. Ocurre cuando
dos o más tramados, sucesiones de grafismos o, sencillamente algo que se repite
con alguna frecuencia regular, se interpone y se mezcla visualmente conformando
un nuevo estímulo.

En gráfica es altamente probable que dos o más tramas se superpongan. Para


que las tramas puedan reproducir la gama tonal de un multitonono, se las inclina,
una con respecto a las otras, girándolas en valores determinados; por ejemplo, la
trama que representa el negro se imprime con una inclinación de 45º, la del ama-
rillo 90º, la del magenta 75º y la del cyan 105º. De esta manera, si están en reg-
istro, cada una donde debe estar, las tramas de las tintas CMYK se superponen
sin formar moiré y crean lo que se llama la ‘roseta de color’. Estos ángulos son
teóricos y de referencia general, existen talleres gráficos donde por producto de
un trabajo de investigación sobre la totalidad de los procesos se determinan an-

22
gulaturas diferentes, que son las más convenientes para cada empresa en cuanto
a la calidad del impreso.
En el gráfico observamos dos tramas superpuestas con una inclinación errónea.
Las figuras y las manchas de grises que se observan (sobre todo entrecerrando los
ojos) son el efecto moiré.
Su aparición puede suceder en dos momentos: la impresión o el escaneado. En la
impresión es más fácil de ver y de entender. Suele suceder cuando las formas están
mal registradas o mal montadas en los cilindros de impresión.
En el escaneado, la superposición de tramas se produce siempre entre un impreso
que queremos digitalizar (que obviamente está tramado) y la ‘trama’ de la pastilla
de lectores CCD. Para solucionar este problema hay varios trucos. Veamos tres.
Los programas de manejo, drivers, que traen los escáneres dan la primera solución.
Muchos aportan una herramienta de destramado que anula el moiré. Para poder
usarla, hay que saber a que lineatura está el impreso que queremos escanear.
Otra manera es utilizar los filtros de destramado que tienen muy a mano los pro-
gramas de edición de imágenes como el Adobe Photoshop.
Y la tercera, que quizás sea la que más respeta la imagen original, es digitalizar po-
niendo el original inclinado dentro del escáner en diferentes ángulos, hasta lograr un
archivo con muy poco o sin moiré.

Tramas de frecuencia modulada - FM


Es inevitable comentar lo que se expresa como “Procesos y producción Hi-Fi”. A
pesar de que es un término que nace en el entorno del audio de alta calidad, la in-
tertextualidad hace que de un detalle audiófilo nos movamos hacia lo que sería “la
búsqueda de la alta calidad en impresión”. El uso de los mejores componentes, la
excelencia en la manufactura y el control de calidad son algunas de las condicio-
nes para una producción Hi-Fi (High Fidelity). Las investigaciones sobre procesos
y productos gráficos han trabajado esencialmente sobre la reproductibilidad de las
formas y el color y dieron algunos resultados reales. En color, a modo de ejemplo
ya que volveremos a este tema, el hexacrome. O el uso de colores especiales. En
preprensa, las tramas FM y las híbridas.
Las tramas FM fueron presentadas por AGFA en la década del 90 como la panacea
de la preimpresión, es decir, la solución a todos los problemas que presentaban las
AM: el moiré, la ganancia de punto en la zonas críticas (luces y sombras) y la for-
mación de una roseta de color muy visible en algunos colores.
Su lógica es sencilla, representan las variaciones tonales con puntos, pero estos
puntos no varían su tamaño, sino que varían la distancia entre ellos. ‘Modulados en
frecuencia’, es decir, la concentración de puntos será variable. Cuanto más próxi-
mos estén, más densa en color será la imagen. ¿Cuál será la lógica de la distribu-
ción de estos micropuntos? Se denomina estocástico a aquel sistema que funcio-
na, sobre todo, por el azar. Las leyes de causa-efecto no explican cómo actúa el
sistema de manera determinista, sino en función de probabilidades. Estas tramas
determinan la posición de los puntos de manera aleatoria. Utilizan grandes mosa-
icos azarosos que componen las imágenes con las diferentes variaciones tonales
en función de una mejor reproducción de la imagen original. Por fin, después de
tanta inversión en tecnología, veremos algunas características de las tramas FM.

23
AM y FM

Las ventajas de estas tramas son, entre otras, la definición y la ausencia de moiré.
Los pequeños puntos de trama que generan las imágenes son casi impercep-
tibles, comparables al tamaño de un punto de trama AM a 240 lpi, lo que da a la
reproducción un acabado excelente.
Por otro lado, debido a que la distribución de los puntos es ‘aleatoria’, no existe
una frecuencia ordenada, cosa que determina la ausencia del moiré en la super-
posición de colores, recuerden que sería inimaginable el efecto moiré en una im-
presión monocroma.
Cuando necesitamos imprimir a varias tintas, en tramas AM cada una debe tener
diferente angulatura. ¡Peligro de rosetas de color demasiado evidentes! Tranquilos,
existen las tramas FM.
¿Cuál es la razón por la cual no tuvo aceptación inmediata? A nivel mundial, todo
nuevo producto requiere de un tiempo de adaptación y de recuperación de obso-
lescencia de la maquinaria. Todas las empresas gráficas sufren de este período,
se necesitan inversiones para poder aggiornar la maquinaria y sobre todo los pro-
cesos a nivel holístico, modificación en la producción de formas (ya veremos su
intervención en los flujos de trabajo Computer to Plate) e inversión en capacitación
de personal.
A nivel nacional, la razón es sencilla, para imprimir en sistemas Hi-Fi se necesitan
operarios especializados, productos que ameriten estas tecnologías y un buen
presupuesto. Historia conocida.
Para darnos una idea del uso de este tramado, desde las más sencillas impreso-
ras de chorro de tinta, hasta los plotters de mayor definición funcionan de esta
manera, con tramado FM.
Las tramas FM siguen avanzando y ya tienen nuevas versiones de “dithering”, es
decir, la manera que la procesadora planea la ubicación de los puntillos de trama,
ya que la práctica ha descubierto que ciertas disposiciones son más favorables
que otras.

24
En este sentido, las nuevas tramas FM, las de segunda generación, además de
variar el espacio entre los puntos, hacen que aquellas imágenes que necesiten rep-
resentaciones más planas (por ejemplo en plenos de color, o en medios tonos) se
junten entre sí, dando la impresión óptica de que se agrandan.
No son todas ventajas. El talón aquiliano se percibe venir. Hi-Fi, recuerden, la ob-
sesión de la calidad. FM deja ver un graneado regular en medios tonos, llamado
worming, o agusanado, razón para mejorar.

Tramas híbridas y PMR


En el tren de la modernización tecnológica, que seguramente dejará obsoletas es-
tas palabras en poco tiempo, de muchas empresas de gráfica utilizan una trama
híbrida, con las ventajas de las AM sumadas a las ventajas de las FM, a partir de un
ripiado ‘inteligente’ que detectará zonas donde convienen unas y zonas donde son
mejores las otras. Estas tramas se llaman tramas “XM” o de modulación cruzada.
El calificativo ‘inteligente’ es bastante acertado, sobre todo comparado con ciertos
seres humanos. Las tareas de estas nuevas tramas son varias y muy exigentes.
Primero, detectar dónde conviene un tramado estocástico y dónde uno tradicional.
Luego de descubrir estas zonas, tiene que lograr una transición dócil, pareja entre
los dos recursos, sin producir ‘banding’ (franjas tonales visiblemente separadas).
Debe angular las zonas con tramado AM y hacer ‘dithering’ en las partes de trama
estocástica. Recurre a las virtudes en los plenos y grisados medios de la trama AM
y a la FM para los detalles en altas luces y sombras. Y por si esto no fuera poco,
hace unos años, se ha introducido un concepto revolucionario: el concepto PMR.
¡Una pandilla de siglas nos persigue! PMR: Punto Mínimo Reproducible. Vale la
pena.
Se determina cuál es el menor punto de reproducción óptima de cierto sistema de
impresión. Por ejemplo: tal impresora offset imprime sin inconvenientes hasta un
punto de trama del 3% trabajando a 150 lpi. Entonces, la trama utiliza como menor
módulo de reproducción el tamaño de ese punto PMR. A partir de allí construye
toda la gama tonal. Se asegura de que no haya información sin imprimir, y evita lo
que en producción sería una ‘pérdida de puntos’ en la imagen tramada. Selecciona
puntos por debajo del PMR, los elimina y los reemplaza por puntos PMR más dis-
tanciados. Esta solución es una gran ventaja en sistemas de impresión en los que
los detalles eran muy difíciles de obtener por cuestiones de soporte y/o velocidad…
exacto, los diarios pueden aprovechar al máximo las tramas XM.
Así como existen las marcas automotrices, y a pesar de que todos los autos tienen
cuatro ruedas y opcionales, en gráfica también se observa que según la empresa
gráfica que ingenie productos digitales para preprensa, las tramas también sufren
pequeñas variaciones y opcionales, tramas con AirBags.

25
Ganancia de punto
Existen en artes gráficas varios conceptos que son utilizados una y otra vez en
distintos marcos de referencia. La misiva ‘imprimir bien es tan simple como con-
trolar la ganancia de punto’ es más que cierta. Veremos ahora el concepto de ga-
nancia de punto o gain dot.
El punto al que se refiere la expresión “ganancia de punto” es el de trama. La teo-
ría, nuevamente aquí, nos echa una finta. Cuando decíamos que un gris medio
se representa con el 50% de una trama, estábamos diciendo que la superficie a
imprimir está exactamente cubierta con tinta en forma de tablero de ajedrez. Es
decir, 50% cubierto con tinta y 50% del color del soporte, en general, blanco.
La ganancia de punto vendrá a denominar las variaciones de tamaño en el punto
impreso. Si el punto es más grande de lo teorizado, se llamará ganancia de punto
positiva. Si el punto es menor a esta pauta, se llamará ganancia de punto nega-
tiva. Nuestro gris se verá más oscuro o más claro, respectivamente. Este es un
error: 50% debería ser 50%.
Si encontramos variaciones de este tipo con un espectro-fotómetro, ya sea en
películas gráficas o planchas, midiendo sobre las cuñas de control, entonces ha
habido errores en la parte de procesos fotográficos o en la parte de rasterización
(escaneados). La fatiga química del revelador, temperaturas de proceso incorrec-
tas, fuera de fecha, materiales vencidos o de mala calidad pueden dar variaciones
de densidad y estas, a su vez, variaciones del tamaño del punto de trama. Las
lámparas de uso en laboratorio, conforme el paso del tiempo, se agotan. Estas
oscilaciones en el color de un lámpara, medidas en grados Kelvin (Kº), también
generan las mutaciones de valor antes descriptas.
Diferentes tipos de planchas de impresión, con distintas formas de copiado o ma-
teriales fotosensibles, también podrían provocar este efecto.
Coronando todo esto, también podemos nombrar la ganancia de punto óptica,
que tiene que ver con la percepción y siempre está funcionando. Simplemente,
se dice que es un efecto visual en el que el ojo genera un “halo” oscuro alrededor
de una forma clara o un halo claro alrededor de una oscura, dependiendo de la
fuente de luz y el material impreso.
Las causas de la ganancia de punto en un impreso son unas cuantas más, cau-
sas del proceso de impresión, selección de soportes y terminaciones o acabados,
pero en este capítulo solo aspiraremos alcanzar el mundillo de la preimpresión.

26
El color en pre-prensa

Luego de tantísimas aproximaciones a las diferentes teorías del color y la luz, pa-
saremos a un campo más pragmático.
Para no atiborrar de discusiones y anatemas infructuosos sobre si un verde es ver-
de o “ese” verde que buscábamos, desde hace casi 100 años se está pensando
en el tema del color industrial. Consideren que tras la linearización de la produc-
ción industrial de productos (Fordismo), cada pieza, una tras otra, debería se idénti-
ca. No solamente existen codificaciones en productos manufacturados, hay están-
dares de color para exportaciones de vegetales, como tomates o bananas, en los
cuales el color debe estar dentro de una escala (Munsell) para poder ser vendidos.
Imaginen la problemática del color en la producción industrial gráfica.

WYSIWYG o what you see is what you get.


Lo que ves es lo que obtenés. En gráfica es un sueño tan real como la peor de las
pesadillas, diría don Pedro Calderón de la Barca si mirara una impresión inkjet. Así
como el arte de imprimir era el de controlar la ganancia de punto, el deseado Grial
de la preprensa es mantener la consistencia del color a lo largo de todas las opera-
ciones y procesos digitales en toda la secuencia de tareas de esta etapa.
¿Dónde empieza el estímulo del color? En nuestro cerebro. Con este lamentable
comienzo, el resto es una obviedad. Cada cual ve como lo ordena su percepción,
es imposible probar que todos los seres humanos ven lo mismo.
La empresa Pantone fue fundada en 1962 por Lawrence Herbert, hoy aún es su
presidente. Al comienzo, Pantone era un pequeño negocio que comerciaba tarje-
tas de colores para compañías de cosméticos.
Una parte estaba solucionada, tenemos una estandarización cromática, impresa,
con la que nos manejamos para poder ponernos de acuerdo sobre un matiz: el ca-
tálogo Pantone. Una herramienta básica para la industria gráfica y textil.

27
La clasificación Pantone separa tintas Spot, tintas Proceso y tintas Especiales.
Las tintas Spot, por definición, se producen fuera de prensa, es decir, se com-
ponen en la mesa de trabajo del colorista, que produce la cantidad necesaria, en
kilos, para cada trabajo. En la estandarización Pantone, que dura hasta nuestros
días, existen 14 colores primarios, de la combinación de estos en proporciones
exactas expresadas en partes en los catálogos de colores spot, se generan más
de 800 tintas de colores diferentes. Algo muy parecido a una receta de trago lar-
go.
El catálogo de tintas proceso incluye el viejo estándar cyan, magenta, amarillo y
negro (CMYK) en combinaciones que, por estar tramadas, aparecen en porcen-
tajes, por ejemplo, un rojo será C:0% M:100% Y:100% K:0%, un verde esmeral-
da C:100% M:0% Y: 45% K: 35%. Hablamos de viejo estándar ya que hace unos
años, la misma empresa desarrolló, tras rigurosas investigaciones óptico-mecá-
nicas, el sistema de color Hi-Fi Hexacrome. Este sistema incluye CMYK más dos
tintas adicionales, el naranja (O) y el verde (G). Los resultados fueron formidables.
Además de incluir el obvio incremento en la cantidad de colores por simple com-
binatoria, el componente flúo de estas 2 nuevas tintas realzaba los colores. A es-
tas tintas también las llamamos proceso. Los procesos Hi-Fi pueden ser también
combinaciones de entre CMYK y dos tintas agregadas a voluntad por el impresor,
como ejemplo, CMYK + Pantone 485 C + Blanco iridiscente, o CMYK + Gris Per-
lado + Plata.
Por último, los colores especiales, que para Pantone son los metalizados y los
fluorescentes. Actualmente la empresa está por sacar una nueva codificación.
Pero suponiendo que nos ponemos de acuerdo sobre que la tapa de un libro
debe ser “azul Francia”, el primer problema es ponernos de acuerdo sobre qué
es ser azul Francia.
Ahora, ese color debería ser exactamente igual al de la cartilla de colores, tanto
en el monitor, como en las pruebas de color para la industria gráfica y por último
en el impreso. ¿Es posible esto? Peor aún. Cuando tenemos una imagen poli-
cromática, debe haber una conjunción de puntos de colores básicos CMYK en
perfecta sincronía. La información perceptual luego pasa a ser estímulo visual en
un monitor -aunque todo es una teatralización que esconde ceros y unos- ima-
gen que quizás provino de un scanner... y el scanner ¿ve como un ojo humano?
Seguramente voy a querer imprimir, y desde ya, la impresión con tintas es com-
pletamente distinta a la generación de una imagen luminiscente en el monitor, de
manera que no va a ser igual.
Entonces, un diseñador arma un boceto y el cliente aprueba una prueba de color
de alta calidad, ese compromiso intangible es bastante precario.
La tecnología actual nos ofrece un par de soluciones a estos problemas. Se lla-
man calibración y generación de perfiles de color.

Los perfiles de estandarización para color digital


Podemos definir dentro de los procesos de preprensa varias maneras de trabajo,
o workflows, que más adelante explicaremos. A pesar de ello, hay ítems que se
pueden definir sin la necesidad de ahondar en detalles.

28
• OEG
• Certificación de PDF
• Ripeado
• Pruebas de color
• Procesos para la generación de la forma impresora

Lo cierto es que esta es una simplificación en la que lo más miserable es la perver-


sión implícita en el deseo de que lo que uno imagina para un impreso sea como
debiera. En el primer capítulo habíamos planteado el tema de la calidad total y de
cómo cada paso conlleva un porcentaje de error. Desde la imagen en pantalla de
un diseño hasta la entrega al usuario final de una pieza impresa hay infinidad de
procesos –electrónicos, eléctricos y/o mecánicos–. Y cada proceso atenta contra
la calidad.
Entonces, ¿es imposible imprimir bien? En física no hay coincidencias ni simulta-
neidad, es decir, no es imposible imprimir bien; sí, difícil. Sobre todo con bajos pre-
supuestos y personal no capacitado. Este tormento nos acompaña desde la cuna
de la impresión, y muchos esfuerzos y dinero se han invertido de manera de ase-
gurarnos que el deseo de la calidad en impresos sea satisfecho en gran medida.
Veamos algunas causas del fracaso.
Nuestros órganos perceptivos son falibles, escuelas de psicología han trabajado
fuertemente sobre esto, las ondas electromagnéticas se hacen visibles en cierto
rango de frecuencia. Hay ondas infrarrojas (IR) por debajo de nuestro umbral de
visión, que pueden ser percibidas por los órganos del tacto –calor, frío–. Ciertas
ondas ultravioletas (UV) se asoman a nuestros ojos en los colores fluorescentes, el
límite por encima de nuestra visión. Con esto, en la realidad, hay emisiones que no
podemos ver.
De hecho, hay materiales sensibles que sí las pueden ‘ver’, por ejemplo, las emul-
siones que responden a los IR, que sirven para ver o tomar fotografías nocturnas, o
las lacas de terminación superficial para impresos y fotopolímeros que ‘secan’ con
radiación UV.
De las radiaciones de onda que podemos ver, hay menos que podemos fotografiar
(fotografía pancromática): muchos colores quedarán fuera de esa fotografía y pas-
arán a ser reemplazados por otros. Lo podemos comprobar cuando nos sorpren-
demos porque una foto muestra los colores tal como son…
Luego podríamos escanear esa foto: nuevamente la desidia. ¿Qué ocurre? ¿Por
qué en pantalla venos menos colores o colores que no estaban en la foto? ¿Y
cuándo imprimimos?
La explicación tiene que ver con los diferentes ‘espacios de color’. El Gamut, o es-
pacio colorimétrico, es un atributo particular de cada componente de la línea de
producción: monitores, escáneres, impresoras color ink-jet, impresoras de película
gráfica, en preprensa o impresoras offset, flexográficas, etcétera, en producción,
sirven de ejemplo.
La administración del color para todo el proceso (CMS: Color Management System)
va a estar a cargo de coordinar las distintas ‘personalidades’ para que cada device

29
(dispositivo) conozca en qué idioma ‘hablan’ los demás componentes del sistema.
El CMS maneja el color de una manera cuantitativa: el color es representado nu-
méricamente o por coordenadas matemáticas.
La idea es mantener la consistencia del color a pesar de que las imágenes hayan
sido escaneadas en otro momento o lugar, de que el monitor tenga 5 años de uso
o que nuestro proveedor de pruebas color inkjet use cartuchos no-originales.
Entonces, ¿se puede obtener color consistente? Sí, si se aplica administración del
color correctamente.
Existen, nuevamente simplificando, dos espacios de color utilizados en gráfica:
RGB y CMYK, pero por no ser matemáticamente consistentes, fue creado el siste-
ma Cie Lab. Este sistema especifica los colores ubicándolos en un espacio 3D de
coordenadas, en el que las variables son ‘L’, luminosidad, ‘a’ un eje que va del rojo
al verde y el ‘b’, el tercer eje variable que va del azul al amarillo.
Para verificar estos estándares y los perfiles internacionales de las distintas mar-
cas de dispositivos se creó el ICC (Internacional Color Consortium), que tiene tam-

30
31
bién la ardua y muchas veces ignorada tarea de proveer información sobre CMS
entre distintos proveedores de software, hardware y usuarios finales.
La administración de color funciona, ayuda a controlar el color dentro de un pro-
ceso de producción gráfica. Pero su implementación es compleja. Cambia el es-
tado de las cosas, muda de aires los viejos paradigmas típicos de los talleres grá-
ficos promedio. Para colmo, es más fácil usarla mal que bien, se necesita orden y
una buena planificación.

La separación del color


Para trabajar el concepto de separación de color en preimpresión, retomaremos
nuevamente la diferencia entre tinta y color, y, también, la clasificación de tintas
que la empresa Pantone desarrolló hace más de cuatro décadas.
Lo más importante, entonces, es conocer la diferencia conceptual entre los colo-
res que formamos por la mezcla de pigmentos y los que se forman por una con-
currencia óptica: la gran simulación de los puntos de trama.
Una imagen multicolor, la realidad, una fotografía, es una amalgama de colores
(HSL: Tinte, Saturación y Brillo) que de modo análogo se muestra a sí misma. De-
bemos separar lo que está unido para luego volver a unirlo.
Diferenciaremos ahora las impresiones monocromas de las policromas. En impre-
siones monocromas, una sola tinta, no tiene ningún sentido hablar de separación
de color pues se elige el color de la tinta, se trama y luego se imprime. Ahora bien,
dentro de las policromas encontraremos producciones a dos o más tintas, entre
las cuales se hallan policromías spot y policromías proceso: la impresión de foto-
cromos, el alma máter de la impresión.
Recuerden que ya hemos explicado que ningún sistema de impresión puede im-
primir imágenes de medios tonos. Es decir, imágenes que tengan pasajes entre
colores o valores de color; una fotografía familiar en papel fotográfico es una re-
producción mediotonal (sin considerar la delicadeza de que los granos molecula-
res de la emulsión son, de alguna manera, una trama).
Siguiendo con la necesidad de imprimir colores por separado, es decir, secuen-
cialmente, uno detrás de otro, deberemos preparar nuestros originales de manera
que a la impresora llegue la información procesada, o sea, separada.
En colores spot y en original papel, los colores podrían estar separados manual-
mente o, con alguna pericia, incluir la información entreverada en el mismo origi-
nal. La regla era: para cada tinta una forma y para cada forma al menos, un ori-
ginal. Cuando se debía incluir un diseño que incluyera medios tonos debíamos
preparar todo para hacer una autotipía (un tramado) o una fotocromía manual.
Utilizando los conocimientos de la teoría del color se separaba un original opaco
de medios tonos a una serie de cuatro películas grabadas en película gráfica a
través de una serie de filtros. Cada película llevaría la información de cyan, ma-
genta, amarillo y negro.

32
La separación en sistemas digitales se produce en el ordenador que envía la infor-
mación al RIP (raster image process), donde la imagen es tramada. Hablaremos
de este proceso más adelante. Los esquemas son muy parecidos, sólo que digi-
talizados. En ambos sistemas, atómicos o digitales, existen dos conceptos que es
necesario aclarar, el de overprint y el de trapping.

Trapping y overprint
Overprint significa, en inglés, sobreimpresión. Y de esto se trata. Cuando se impri-
me por tintas separadas, se espera que, al recomponerse la imagen, cada color
esté en su lugar. Esto se llama registrar. Un color oscuro u opaco, por lo general,
puede ser impreso sobre otro sin modificar su color. Entonces, aprovechando esta
peculiaridad, cuando tenemos una tinta, por ejemplo y en la mayoría de los casos
para texto, negra, sobreimprimiremos esta sin necesidad de recortar el fondo de
color y previniendo el posible fuera de registro entre el texto, se dirá entonces que
el texto está overprint. Un ejemplo muy típico, que hasta es considerado un de-
fault, por defecto, en programas de armado de páginas. Aclaremos que no sólo
se puede aplicar al texto y no sólo a la tinta negra, muchas veces por cuestiones
de diseño se determina deliberadamente que cierta tinta sobreimprima sobre otra.
Cuando la realidad indica que la tinta sobreimpresa cambia su color (y no debería),
la solución a problemas de registro es el trapping, que aparece como “abundancia”
en textos españoles. Este recurso consiste en agrandar el área de color de una de
las tintas participantes para que “pise”, a manera de filete, un color a otro. El tama-
ño de la zona de trapping se puede controlar con los programas adecuados de
separación de color, los estándares oscilan entre 0,1 y 0,35 mm, dependiendo en
cada caso del sistema de impresión escogido.

33
ESCÁNERES

De esta desgarrada clasificación del universo visible nos queda abordar qué acon-
tece con las imágenes icónicas. La realidad tal como la vemos es análoga. Es de-
cir, no hay sobresaltos, interrupciones perceptuales, es continua. Una sombra se
desvanece. Un amanecer aclara suavemente. La imagen es un tono continuo.
Cabe repetir una de las máximas de la tecnología gráfica: “No hay manera de re-
producir o imprimir tonos continuos de manera seriada o industrial.” Si bien exis-
tían a principios del siglo XX maneras semiartísticas de reproducción de medios
tonos, como la litografía, cuando la fotografía se convirtió en una pieza fundamen-
tal del lenguaje periodístico, se tornó indispensable la reproducción de tonos con-
tinuos, en este caso, fotos blanco y negro.
Si se podían imprimir de manera confiable planos de color pues, entonces, la
solución se hallaría en poder descomponer esa imagen análoga en una imagen
fragmentada, descompuesta en miles de “puntos” que más tarde se llamarían
trama.
En este lugar nos preocupa cómo hacer para que una imagen análoga, como una
fotografía o un arte, pueda ser manipulada en una esfera digital.
Los dispositivos de entrada en el universo de la gráfica son los escáneres. La fun-
ción esencial de un escáner es convertir la información análoga de una imagen en
información digital. Digitalizar.
Este concepto es el mismo que se aplica cuando se graba sonido o movimiento
en una computadora. Átomos en bits.
Lo que procesemos en un escáner se verá luego en la pantalla de nuestro moni-
tor, en general preparado para ser editado. Los escáneres profesionales suelen
venir acompañados con softwares asociados que permiten controlar el proceso
de digitalización, desde el tamaño y la posición hasta la resolución de la imagen
destino.
Cada proceso en una línea de producción tiene un objetivo y debe cumplir con
ciertos parámetros. Entonces, ¿con qué parámetros deberíamos escanear?
Ya conocemos las variables que definen una imagen digital: tamaño, resolución
y modo. Obviemos el modo, que vamos a establecer como una constante, RGB.
La resolución de una imagen pixelar se establece como una relación entre los dis-
positivos de entrada y salida. Entonces, enunciaremos una de las grandes fórmu-
las de la preprensa para resolver la incógnita acerca de la resolución con la que
escanear para obtener una buena impresión:

Dpi = Lpi x 2 x C

donde Dpi es la resolución a la que setearemos el escáner; Lpi es la frecuencia


de trama que se utilizará más adelante en la etapa de impresión y que está de-
finida por el sistema a utilizar; 2 no es un número arbitrario, sino un término que
se discutió en convenciones y que se declaró como estándar, y por último C, que

34
es un coeficiente de ampliación o reducción, que tiene que ver con el tamaño de
la imagen origen y el tamaño de la imagen destino, si dividimos el tamaño original
sobre el final, obtenemos un número (la relación entre los dos tamaños), ese es el
coeficiente C. Si se escanea al mismo tamaño del que se va a imprimir, este coefi-
ciente es 1.
Por lo general, ante un pedido de digitalización con un escáner de alta resolución,
estos cálculos los hará el operador de digitalización por medio del software de so-
porte y nosotros nunca nos enteraremos, sólo tendremos que informar en que li-
neatura se imprimirá la imagen destino en circunstancias de producción en impren-
ta. Por ejemplo: el sistema offset utiliza tramas promedio de 150 lpi; a un tamaño
1 a 1, la cuenta será: 150x2x1=300 dpi, que es la resolución a la que escanear la
imagen.

Tipos de escáneres
Los escáneres para objetos bidimensionales se pueden clasificar en tres: escáne-
res de mano, escáneres de cama plana y escáneres rotativos. Los escáneres de
mano están prácticamente en desuso y servían para previsualizar imágenes de alto
contraste con el fin de redibujarlas en cualquier software de edición vectorial.
Ahora, los escáneres utilizados para producción gráfica son esencialmente los de
cama plana y los rotativos.
Comencemos con los planos. Así como una fotocopiadora ‘lee’ una imagen a me-
dida que el carro de iluminación va explorando el original, un escáner plano explora
(en inglés scan) la superficie de cualquier superficie lo suficientemente plana como
para ser alcanzada en orden por una luz muy intensa.
Las fotocopiadoras comunes trabajan con un sistema de reflexión que proyecta la
imagen ‘rebotada’ en cilindros que, por una diferencia de potencial electromagné-
tico, toman el tóner o tinta sólida y lo transfieren al papel, al que se fijan por calor…
vaya resumen! Es decir, la imagen del original es leída y reflejada hacia la forma
impresora.
En un escáner no pasa esto. El módulo lector es una célula fotoeléctrica muy pe-
queña llamada CCD (Charge-coupled device). Los materiales fotoeléctricos son
sustancias que reaccionan ante la presencia de un estímulo luminoso devolviendo
una corriente eléctrica. Si este flujo es reconvertido, puede ser muy útil para, por
ejemplo, prender y apagar las luces de las calles, o mantener abierta la puerta de
un ascensor mientras sube la abuela, entre otros muchísimos usos.
Un escáner, entonces, consta de un módulo lector y un módulo codificador.
Las calidades y sistemas de estos módulos van a hacer variar, en algunos casos,
hasta 100 veces el valor de unos sobre otros.
El módulo lector de un escáner plano funciona casi como el de una fotocopiadora,
es decir, una luz potente ilumina el original. El reflejo de esa imagen es recogido
una serie de espejuelos y concentradores que lo dirigen hacia un dispositivo con
CCD en línea o en forma de grilla, CCD lineales o CCD de área, respectivamente.
Una de las características fundamentales que deciden la compra de un escáner
es la calidad con la que explora. Esta calidad depende también del tamaño y can-
tidad de CCD del módulo lector. Cada CCD ‘verá’ una porción de la imagen total

35
que será reconstruida luego por software. Cuando nos dicen “este escáner es de
600x300 dpi reales” nos están diciendo que la pastilla de CCD de ese escáner
tiene un área de 600 x 300 ‘ojitos electrónicos’ o sea unos 180.000 CCD por pul-
gada cuadrada.
Esta es la medida de resolución de entrada de la que hablábamos anteriormen-
te, DPI, en este caso, CCD por pulgada. Se deduce, entonces, que cuanto más
grande sea la densidad de CCD por pulgada, mejor será la resolución de la ima-
gen que entregue el escáner.
También como característica básica de un escáner encontramos la profundidad
de color de los CCD. Esto es más difícil de entender pero aquí vamos.
De un CCD que ‘solamente’ pueda discernir entre blanco y negro, se dice que
tiene la profundidad de 1 bit. Aquí caben varias aclaraciones. Blanco y negro es
presencia o ausencia de luz reflejada. Cuando manejamos 1 bit de información
podemos saber si SI o NO, o si uno o cero. Unos y ceros es, ni más ni menos,
código binario.
Avancemos, los CCD de los viejos escáneres de mano eran de 1 bit, pero hoy
encontramos profundidades de hasta 48 bits. Con 2 bits tenemos esta secuen-
cia 00, 01,10, 11: blanco, gris claro, gris oscuro y negro, respectivamente. Imagí-
nense la secuencia para 24 bits, que es la profundidad de color de los escáneres
más vendidos, resalto, profundidad de color, 24 bits es 8 bits por color de lectura,
RGB, o sea 8 x 3 = 24, algo más de 16 millones de colores. Una imagen pixelar
a color es la suma de tres canales de escala de grises cada uno con información
R, G y B.
Para que un escáner ‘explore a color’, el módulo lector separa por medio de fil-
tros la información que recibe que luego es recompuesta por software y enviada
al disco de la computadora.
Nuestros escáneres de escritorio son escáneres de cama plana, de baja resolu-
ción, muy útiles pero poco precisos. A veces nos comentan acerca de la ‘interpo-
lación’ de los escáneres de escritorio, que eleva su definición a 2.400 o más DPI.
Esta interpolación es una ‘cuenta’, un algoritmo que realiza un procesador que in-
venta píxeles para simular mejor calidad de imagen, un artilugio de venta más. El
consejo será saber diferenciar la definición óptica de la interpolada.
Otra de las características para observar en la compra es tener en cuenta si están
preparados para explorar sólo materiales opacos o tanto opacos como transpa-
rencias.
Dentro de los escáneres de cama plana también encontramos un abismo de cali-
dad y precio entre los de uso domiciliario, o desktop publishing, y los de uso pro-
fesional para artes gráficas.
Los escáneres de cama plana de alta definición tienen como función fundamental
el escaneo de materiales que ameriten un alto grado de definición, una obra de
arte o una película gráfica ya procesada.
El funcionamiento de estos es, en términos generales, similar, es decir, existe un
original para leer, un módulo lector y un sistema de procesamiento. ¿Dónde radica
la diferencia?, en el módulo lector.
Comenzada la década de los 90 se aplicó, para beneficio de la gráfica en gene-
ral, una propiedad que descubrió la física óptica: la excitación del fotón por arcos
fotovoltaicos. Para aclarar, cuando un CCD es excitado por un fotón, puede o no

36
responder con una corriente eléctrica y esto depende de la intensidad de energía
que provea el fotón, la carga del fotón. De manera que los CCD ‘solo’ pueden re-
gistrar una parte de la totalidad de tonos de la imagen original, fallan en las sutiles
variaciones de altas luces y en los delicados detalles de sombras.
Para solucionar este inconveniente, se han utilizado los ‘fotomultiplicadores’. Un fo-
tomultiplicador aumenta la carga de los fotones más débiles haciéndolos percep-
tibles por el CCD, esto da como resultado que el procesador incluya información
de los detalles de luces y las variaciones tonales de las sombras. Esta capacidad
suprema de los fotomultiplicadores se adiciona en estos escáneres a la presencia
de un lector láser.
La lectura de un láser azul comparada con la de una luz intensa, como en los es-
cáneres de escritorio, es como contrastar un grano de arena con la masa terrestre.
Hay modelos que contemplan incluso la posibilidad de una pequeña tridimensión
(eje z), consideren el caso de necesitar escanear una obra de arte al óleo con pin-
celadas de varios milímetros de diferencia, esto se logra por medio de ópticas que
aumentan la profundidad de campo del módulo lector.

El otro gran universo de los escáneres consiste en los rotativos o cilíndricos. Estos,
nacidos con anterioridad a los de cama plana de alta resolución, ya contaban con
la tecnología del fotomultiplicador.
Su funcionamiento es sencillo. En contraposición con los que acabamos de ver, en
los que el lector se desplaza a lo largo del original explorando su superficie, en los
rotativos el original también se moverá.
Imaginen un cilindro de vidrio, sin base ni techo, con un eje central. Sobre este cilin-
dro se montarán las transparencias a escanear. Este cilindro gira velozmente mien-
tras el módulo lector avanza, de manera mucho más lenta, sobre el eje del cilindro.

37
Si sumamos los dos movimientos, el de avance del lector y el de giro del cilindro,
obtendremos una línea de exploración de forma helicoidal.
El módulo lector se encuentra dividido en dos. Por fuera del cilindro, un emisor
láser. Por dentro, un receptor CCD ultrasensible a la luz conectado a un fotomul-
tiplicador.
El gran adelanto de estos escáneres fue conseguir una lectura lineal; por cada
giro del cilindro, una porción de la imagen es leída por un delgadísimo haz láser.
La definición de estos periféricos será entonces altísima, consideren que los es-
cáneres de 14.000 dpi en teoría pueden pasar 14.000 veces en el ancho de una
pulgada. Hagan la cuenta del espesor del láser…
Las imágenes para producción gráfica pueden ser solicitadas o provistas de dos
maneras: digital o analógica. La primera de gran expansión en los últimos tiempos
tiene que ver con la fotografía digital de alta calidad y con la producción de imáge-
nes virtuales en las que la herramienta principal es una computadora. La segun-
da manera tiene que ver con la producción fotográfica o artística de imágenes, y
pueden ser materializadas como “opacas” (un dibujo, una acuarela o una foto en
papel pueden ser ejemplos de esto) o “transparencias”, estas a su vez pueden ser
presentados como negativos o slides (diapositivas).
Si observamos la disposición mecánica de los lectores, nos damos cuenta de que
las transparencias, en general, son mejor aceptadas por los escáneres con foto-
multiplicadores, pero para una buena lectura, son preferibles las transparencias,
porque evitan un paso, el rebote o reflejo de la luz.
La situación ante la presencia de estas tecnologías, cama plana con CCD, cama
plana con fotomultiplicadores y rotativos, será la adecuada elección entre alguna
de ellas.
Es claro que unos tienen muchísima más resolución óptica, tanto como que su
costo en relación es elevadísimo, y que otros son sumamente accesibles, pero sin
la respuesta de calidad necesaria para la producción gráfica.
Pero el objetivo es el que manda: todas las tecnologías nos sirven. Supongan el
caso de una publicación digital para la Web, donde los requerimientos de defini-
ción de una imagen dependen de la velocidad de conexión, un escáner plano de
CCD será lo óptimo ya que estas imágenes deben estar a tamaño en una reso-
lución de 72 dpi.
Por otro lado, si debemos serle fiel a una imagen para una reproducción de una
obra de arte, o una fotografía, la elección no podría ser otra que un escáner ro-
tativo: la recolección de datos en altas luces y sombras profundas solamente es
posible con un lector láser.
Una situación bastante común es que el diseñador imponga las imágenes toma-
das en su escáner de mesa, y que luego, en el momento de producir el archivo
para realizar cualquier paso siguiente en preprensa, se reemplacen por imágenes
de alta resolución tomadas de escáneres rotativos.
Otro caso mucho más común es que el diseñador utilice su escáner y, con cierta
pericia en el retoque de imágenes, logre archivos de una calidad media y ahorre
plata, sabiendo (o no) ambas partes que el resultado podría no ser el óptimo.
La evolución en la calidad de respaldos digitales en fotografía comercial ha estado
desplazando el uso y el oficio que tiene que ver con la digitalización de elementos

38
materiales. El escáner —como otros elementos de este proceso— está pidiendo
pista en los museos de las “artes gráficas”.

Flujos de Trabajo

En el devenir hacia la forma podemos encontramos con algunas bifurcaciones. Es-


tos puntos de desvío no son opciones que uno puede tomar ni deliberadamente,
ni libremente.
Hace algunos años, unas tres décadas, con la aparición de la autoedición como
concepto y como realidad, las maneras de trabajo cambiaron radicalmente. Rápi-
damente los oficios cambiaron y las necesidades de velocidad de procesos y de
producción se consolidaron. La mudanza de la fotomecánica tradicional al estigma
del bit fue una constante, terreno donde el lenguaje Postscript iría a reinar hasta
nuestros días. Los procesos se digitalizaron y reemplazaron a los productos que
se realizaban en fotomecánica: fotolitos, películas, separación de color manual y
tramados en autotipías.
Estos modos de trabajo en preprensa siguen avanzando en busca de la calidad
total a través de algún sistema de consistencia del color, o inter-parametrización
y etiquetado de periféricos (ver: CMS: Color Management System). Actualmente
existen varios modos o flujos de trabajo (Workflows) a saber:
• CTF
• CTP
• DI
Esta clasificación inquieta es el cuerpo medular de la producción gráfica. La sensa-
ción de que el tiempo se achata y de que las cosas acontecen rápidamente tam-
bién modifica este apunte, incluso, en el momento en que se escribe.

CTF (Computer to Film). De la computadora a la


película
Es el llamado sistema “tradicional” ya que se utiliza desde hace casi 30 años. El
esquema general es el siguiente:

39
OE >>> PREVISUALIZACIÓN >>> PRUEBA COLOR HIFI >>>
RIPEADO >>> FILMADO y REVELADO DE PELÍCULAS >>>
PRUEBA DE COLOR DE PELICULADO

Si se considera realizar todo el proceso (ya que muchas veces no es así por cues-
tiones de costo o planificación de calidad) los objetos resultantes son:
• Pruebas color digitales
• Películas gráficas
• Pruebas de peliculado

1- Previsualización de los OE
Así como los oficios en gráfica —que de alguna manera se declaran extintos—
merecían una experticia para hacer copias fotográficas de contacto, hacer foto-
grabados, separar en colores fotocromo, armar a mano la imposición peliculada
con papel vegetal de todas las páginas de un libro, etcétera, realizar un original
electrónico (OE) en perfectas condiciones requiere muchísimas habilidades. Re-
cuerden de párrafos anteriores que una encuesta había arrojado que sólo el 42%
de los OE recibidos por bureaus de gráfica estaban en condiciones de ser trata-
dos electrónicamente como punto de partida para la producción gráfica. Hoy en
día, basados en la plataforma PDF se nos ahorran varias preocupaciones, pero
el caso es que hay que generarlo sabiendo cómo y cuáles son las características
de los procesos que le seguirán, tipos de maquinarias y calidades de mínima y
máxima, para un buen control de los procesos. Como siempre, es recomendable
concertar una entrevista con el encargado de planta de la empresa en la cual va-
mos a imprimir para saber qué tecnologías implementarán y acordar ciertos pará-
metros, como perfiles de color y tipos de tintas.
Con la certeza de un OE bien confeccionado que genere un PDF correctamente
parametrizado, sólo nos queda enviar el archivo digital grabado en algún medio
y/o aprovechar las herramientas de conectividad que ofrece internet para que el
servicio de preimpresión o bien el área de preprensa de la imprenta se haga cargo
del comienzo del proceso. Es altamente recomendable enviar un impreso junto
a los archivos, no importa la calidad de tal, ya que la función de este impreso es
mostrar el trabajo en su forma general.
El primer paso es previsualizar el trabajo, ya sea en PDF o en el software selec-
cionado para tal caso. Se chequearán los archivos en busca de errores y/o in-
compatibilidades. Cabe destacar que las cosas pueden salir mal, y alguna vez no
es nuestra culpa. Sólo alguna vez. Dependiendo de la empresa, de su servicio al
cliente y de su experticia, pueden acontecer al menos estas posibilidades:
1. No hay errores, se continúa el proceso.
2. Hay errores de poca importancia, se arreglan y se continúa el proceso.
3. Hay errores de gravedad, se avisa, se arreglan y se continúa el proceso.
4. Hay errores de gravedad, no se avisa, se detiene el proceso.

40
5. Hay errores de gravedad, sobrepasan los controles, nadie se percata de ellos y se continúa
el proceso.
Obviamente, todos los actores que formamos parte de este circo gráfico queremos
que las cosas salgan bien. Pero la optimización de los procesos requiere que las
cosas salgan bien.
En los casos 1 y 2 todo fluye, podríamos decir que el caso b es mucho más común
que el a y que la buena predisposición de la empresa de servicios es fundamental.
El caso 3 es más complicado, hay errores graves, que pueden ser resueltos por la
empresa o por la persona que armó el OE. Si los resuelve la empresa, puede haber
un costo por hora/máquina que incrementaría el costo de producción, claramente
dependiendo del tipo de error. El caso 4 es bastante común también. En nuestra
querida área gráfica, siempre hay poco tiempo, y si algo complica las cosas, nos
tienta dejarlo para el final: se ‘cajonea’. Uno se entera que nada avanzó porque
hubo un problema cuando después de 2 o 3 días se llama para saber si está listo
el trabajo de preprensa (horror). Pero sin lugar a dudas, el caso e es el más terri-
ble, hubo errores y nadie se ha dado cuenta (esto podría ser el camino directo al
purgatorio del Dante). Existen, como veremos, instancias de pruebas de color o de
control de calidad, en las que los errores podrían hacerse observables y que sub-
sanan los inconvenientes dantescos del caso 5.

2- Pruebas de Color (de contrato)


¿Qué prueba una prueba de color? La respuesta, aunque trivial, es: depende. Pre-
guntemos entonces cómo se resuelve el problema del control de calidad de los
procesos intervinientes. La necesidad de ‘ver’ el trabajo antes de ser impreso,
toma muchas formas, pero lo que realmente define que las pruebas existan es una
cuestión económica: optimización de recursos tal que el trabajo quede en condi-
ciones ‘óptimas’.
Quizás las únicas pruebas de color que abordaban los aspectos esenciales de la
impresión ya hayan desaparecido, no por inútiles sino por poco rentables. Se lla-
maban ‘Pruebas Progresivas de Color’ y se realizaban en una máquina ad-hoc, lla-
mada ‘Sacaprueba’, con el mismo soporte impresor, las mismas tintas y las formas
impresoras que se iban a utilizar luego en la producción industrial del objeto (estas
características sólo vuelven a aparecer en las pruebas para máquinas de impresión
digital). Asimismo, estas pruebas eran presentadas con la combinatoria de tintas
necesaria para controlar cada cuerpo impresor; en impresión de fotocromos, po-
díamos controlar el cyan, amarillo, magenta y negro por separado, el cyan más el
amarillo, el cyan-amarillo-magenta y por supuesto la cuatricromía CMYK; u otras
combinaciones que se creyeran necesarias.
La velocidad de los requerimientos industriales y comerciales las hicieron obsoletas
e improductivas a pesar de ser excelentes herramientas de control de calidad, hoy
tenemos otro tipo de pruebas, que veremos más adelante.
En nuestro país, la expresión prueba de contrato carece de significado legal, sí de
palabra y gestión. La idea de una instancia de acuerdo sobre cómo va a quedar
impreso un objeto es realmente necesaria, y los actores son el diseñador gráfico,
el impresor (o el encargado de producción) y el interesado final o cliente. Con el
acuerdo de los tres (como mínimo, puede haber más responsables, lógicamente) y
las firmas según el caso y el compromiso, se decide comenzar o proseguir una en-
comienda. Esta prueba firmada seguirá siempre a la vista para las comparaciones
de pliego en manos de los maquinistas impresores.

41
Las pruebas de color, entonces, nos servirán a su medida para controlar algunos
de los aspectos de la producción gráfica, como las propiedades del color (ma-
tiz, saturación y brillo), la separación del color en todo su significado y las tramas.

Pruebas color digitales HI-FI


Si tuviésemos que ser rigurosos en una línea de tiempo histórico, estas pruebas
son más recientes que las pruebas de contrato de peliculado. Para mantener una
coherencia interna las veremos ahora.
Importante: también se usan en los otros flujos de trabajo, CTP o DI.
Tomemos como idea que la impresión de una prueba de color, es una impresión a
color, igual, en otra escala, a una impresión casera. Es decir, tenemos un archivo y
se manda a imprimir. ¿Qué archivo mandan a imprimir en preprensa para realizar
una prueba de color consistente, apta para el control de calidad? Por lógica, de-
bería ser exactamente el mismo archivo con el cual se proseguirá adelante en los
procesos subsiguientes. En la práctica cotidiana se manda a imprimir el OE luego
de ser previsualizado y controlado.
Las máquinas de impresión de pruebas a color que se usan en preprensa pue-
den estar equipadas con tecnologías de inyección de tinta, láser, sublimación o
de transferencia térmica.
Hay diferentes tecnologías en el proceso de la inyección de tinta. Las aspiradas
y las de materiales piezo-eléctricos. La tecnología por aspiración es antigua y de
poca resolución, los vibratorios electro-asistidos o piezo-eléctricos se encuentran
en diferentes calidades, que varían su resolución, y realizan la inyección de micro-
gotas de tinta a través de pipetas dispuestas en cabezales monocromáticos que
pueden imprimir monotonos, a 4 tintas (CMYK) o HiFiColors con más de 6 cabe-
zales; por ejemplo, máquinas CMYK más Light Cyan y Light Magenta. La subli-
mación y la transferencia térmica de tinta en cera son hoy en día sólo aplicables
económicamente a la impresión en alta calidad, ya que producen buena repro-
ducción de color y son muy ‘amigables’ con los soportes que imprimen.
Tienen algunas ventajas:
• muy fáciles de manejar, ya que es simple como imprimir en cualquier sistema operativo
• muy buena respuesta a los sistemas de calibración de color
• rapidez
• muchas opciones de calidad y prestación en el mercado
• lenguaje Postscript
• soporte para flujos PDF
• fácil sharing en red (como dispositivo compartido)
• el costo relativo es bajo
• soporte mate o brillante
• aptas, aunque caras, para corrección de texto y control de la presencia de imágenes

y algunas desventajas:

42
• son poco confiables en sistemas no calibrados
• no pueden controlar la calidad ni el tipo de trama
• no pueden controlar la separación de los colores, ni trapping ni overprint
• no pueden controlar el peliculado ni las películas (sólo CTF)
• no controlan la calidad de la forma (sólo CTP)
• en general, el brillo de los colores es diferente a una impresión con tintas de impresión in-
dustrial

En sistemas de control, los mejores tienen una eficacia de entre el 85% y el 95%,
donde la eficacia es la relación entre la prueba y el original impreso, con calidades
cercanas a los 9600 dpi. (WYSIWYG)

Pruebas en plotters a chorro de tinta


Conocidas en la jerga como ‘InkProof’ o ‘ploter’, son pruebas color de baja calidad
que tienen diferentes usos. Las impresoras son como grandes ‘chorro de tinta’ de
anchos de hasta 180 cm en producción editorial; en el ámbito de la gigantografía o
la arquigráfica, hay anchos de carro de hasta 6 metros. La impresión no sobrepasa
los 1200 dpi en los mejores casos.
Se utiliza especialmente como ‘prueba de pliego’ ya que debido a su área impri-
mible se puede visualizar el tamaño de pliego de impresión con todas las marcas
accesorias y la imposición de las páginas. ¡Demasiado útil! Aunque no aplicable a
control de color. En general, se utilizan como última prueba antes del peliculado
(CTF) o antes de la impresión de la forma (CTP).
Pruebas de color de peliculado
Las pruebas de peliculado se utilizan para comprobar el proceso completo de pre-
prensa en CTF. Ya que se necesitan las películas, optaré por que veamos primero
el ripiado y el peliculado. Ampliaremos este párrafo más adelante.

3- Rasterización
El proceso de rasterizado de imagen (RIP) o ripiado es un proceso digital que se
produce dentro de un ordenador. Básicamente traduce los datos incrustados en el
OE a formatos reconocibles por los dispositivos que se utilizan en preprensa, como
las filmadoras, pruebas de color e impresión de planchas CTP o fotopolímeros. Los
RIP se clasifican en dos: de hardware y de software.
Los RIP más viejos son los de hardware, en los cuales el proceso de ripiado era
ejecutado en una máquina con procesadores exclusivamente dedicados a esta ta-
rea. Cuando uno quería comprar un RIP, simplemente compraba una computadora
dedicada, incluso con un sistema operativo dedicado. Recibían los datos de otra
máquina, archivos en general .eps o .tif y los convertían a lenguaje postscript puro,
creaban un documento .ps. También tienen la tarea de ‘separar los colores’, es de-
cir, separar en la cantidad de canales que correspondan a cada trabajo, en general,
un canal por tinta de color. Cuando se separa una citocromía (también se llama así

43
al fotocromo), se obtienen 4 archivos .ps, para el cyan, el magenta, el amarillo y el
negro. Con estos archivos se continúa el proceso de preprensa.
Actualmente existe el ripiado de software. Para nosotros es más común, un siste-
ma o grupo de programas corriendo en una Mac o PC. Programas con muchísi-
mas utilidades de control del flujo de trabajo. Se utilizan plataformas PDF o JDF de
alta calidad; entonces, los archivos que se obtienen son basados en este lenguaje
creado por Adobe Inc. Este formato incluye tipografías e imágenes y comprime,
de ser necesario, la calidad de reproducción. Desde el OE, se generan los PDF y
se impone el pliego de impresión, lo que luego se usa en los plotters de control
de pliego.
Así como en los RIP de hardware, separan colores y traman la imagen a medi-
da de los requerimientos introducidos en el programa de ripiado, tipo de trama,
resolución, angulatura, etcétera. Como los procesos son todos matemáticos, se
puede esperar precisión, aunque muchas veces aparecen errores en el procesa-
miento de los datos a nivel binario; como cualquier otra cosa, puede fallar y tener
que repetir el procedimiento. No es una tarea fácil incluso hasta para las compu-
tadoras más modernas, consumen recursos y levantan temperatura.

4- Filmado y revelado de películas gráficas


Las películas gráficas nos servirán para realizar por copia de contacto el fotogra-
bado de la forma. Cuanto más definición, cuanto mejor sea la optimización de
densidad, mejores van a ser los resultados. La versión no oficial –ya que no es una
película gráfica y se usa con el mismo objetivo– utilizada por cuestiones de costo
y rapidez, es la impresión láser sobre papel vegetal. Con esto se consigue pelicu-
lar interiores de libros de texto ya que (aparentemente) para tipografía de lectura,
a una tinta de impresión y con la necesidad de abaratar los costos, el rinde es
aceptable. Nunca jamás utilizaremos papel vegetal para cuestiones donde la cali-
dad sea notoria: su densidad es pésima y su definición mediocre.
El ‘peliculado’ de calidad se realiza por medio de láser sobre material fotosensible
en película ortocromática de alto contraste con máquinas filmadoras especial-
mente diseñadas para ello. Las filmadoras pueden ser de tambor interno o exter-
no. Esto depende de la marca comercial y no genera demasiadas mejoras dife-
renciales. La cuestión importante es la resolución y la calidad del láser.
La concepción general de una filmadora de películas gráficas es como la de un
plotter. En este caso, el láser ‘dibujará’ sobre el material fotosensible lo que el ar-
chivo ya ripeado le indique. En una suma de precisiones micrométricas, el láser
(que puede variar en calidad según su ancho o como comercialmente se lo cono-
ce, según su color) excita la emulsión fotosensible de la película, a modo de barri-
do, y las últimas maquinarias son de hasta 14.000 dpi de resolución. Esto, como
en todo sistema fotográfico, generará una imagen latente, que luego en la etapa
de revelado hará que el diseño sea visible de manera positiva o negativa, siempre
negro y transparente.
El control de calidad de esta etapa tiene que ver con los resultados de este proce-
so, el filmado y revelado fotográfico. Sobre pequeñas cuñas de control se podrá
medir el valor de la densidad de la emulsión revelada. Luego se verá si el orien-

44
tado de la película es el correcto, es decir, si la emulsión quedo UP o DOWN (en
espejo) y si la lineatura de trama es la correcta.

5- Pruebas de color de peliculado


Aunque ya casi en desuso, las PCP (pruebas color de peliculado) son las pruebas
de preimpresión más confiables ya que para realizarlas se utilizan las películas y de
esta manera uno puede comprobar todo el proceso de preprensa.
Si utilizamos pruebas digitales solamente, no podremos controlar la calidad de las
películas, ni la separación de color, ni las tramas, ni el overprint, ni el trapping, ni
colores especiales... pero a pesar de estos ítems (que pueden verlos en las des-
ventajas de las pruebas digitales) son casi historia, sobre todo con la atropellada
del CTP, en el que no se utilizan películas. Lo recomendable en CTF sería utilizar
todas las instancias de prueba que nos ofrece la tecnología. Las pruebas digitales
nos darían muchas seguridades acerca de la correcta implementación del original
electrónico y el ripeado, las PCP sobre todo el proceso.
Vamos a encontrar dos tipos de PCP: las de tóner y las de filminas de color.
Las PCP de tóner son las archiconocidas pruebas que incluso dieron el nombre
genérico al proceso y que es una marca comercial: el CROMALIN. Para realizar
esta prueba es necesario tener todas las películas, es decir, la separación de lo que
va a ser el fotocromo impreso, en general 4, una para cada color proceso, CMYK.
Esta prueba permite componer colores especiales del tipo PANTONE, de manera
que será una película por tinta a imprimir, y esto es una característica diferencial:
ninguna otra prueba puede hacerlo. Con las películas y un papel especial emulsio-
nado, secuencialmente expuesto en una insoladora, van depositándose los tóners
de color, que por ser un polvillo muy finito queda adherido al papel donde corres-
ponda. Esto ocurre porque este soporte pierde en superficie su estado virgen, que
es ‘pegajoso’ y donde la luz no llega (justamente donde la película es negra y co-
rresponde a lo que será la tinta en impresión) retiene el tóner de color.
Las PCP de filminas funcionan de una manera parecida, aunque no pueden dar la
posibilidad de probar un color especial. Se expone un papel emulsionado con las
películas correspondientes a cada color. Las filminas se adhieren al papel donde
corresponde.
De esta manera, por la combinación de los CMYK se obtiene la imagen resultante
de altísima calidad con el resultado del diseño tal y como será impreso con las di-
ferencias del caso: no son las tintas de impresión ni el papel que se utilizará para
el producto final.
De cualquier manera, en un sistema calibrado, estas pruebas, las digitales o las de
peliculado, son asombrosamente útiles ya que tenemos la previsualización del tra-
bajo final con poco margen de error.

45
46
47

Vous aimerez peut-être aussi