Rango dinámico

No es otro blog más sobre fotografía

Archive for the ‘Artículos’ Category

El enfoque en digital IV

Posted by caiser en octubre 4, 2007

Ir al artículo anterior: El enfoque en digital III


Ya sabemos porque necesitamos enfocar en digital, así que ahora necesitaremos saber como aplicar ese enfoque. Cualquier neófito, incluso muchos usuarios avanzados utilizan exclusivamente la máscara de enfoque, seguramente la herramienta de enfoque más utilizada. La máscara de enfoque se compone de tres controles deslizantes muy poco intuitivos, así pues comenzaremos explicando para que sirven esos controles para poder usar la mde correctamente y no lograr una degradación de la imagen, más adelante veremos como utilizar otras técnicas que nos resolverán ciertos problemas asociados a la máscara de enfoque. Pero antes de abordar la mde veremos ciertas consideraciones que tendremos que tener en cuenta antes de aplicarla

Consideraciones a tener en cuenta en el enfoque

A continuación se enumeran unas reglas a tener en cuenta a la hora de aplicar el enfoque, como toda regla que se precie tiene sus excepciones siempre se cumplirán, sin embargo, por regla general, serán los detalles que deberemos tener en cuenta a la hora de aplicar el enfoque

  • Todos los dispositivos de salida no son iguales. Los monitores y las impresoras utilizan distintas tecnologías, el hardware y el software que los controla también es distinto, incluso las gamas de color que manejan no son las mismas. Por ello un monitor no nos permite determinar con precisión como será la nitidez de una copia impresa. Se puede tener cierta idea, la experiencia en el uso de monitores puede hacer que mejoremos nuestra técnica para reconocer la nitidez final en papel. Pero, las impresiones de mayor calidad solo se pueden conseguir viéndolas impresas.
  • Para evaluar una imagen para saber su nitidez la única forma de hacerlo es con dos vistas en la pantalla: una visión al tamaño actual de la imagen (100%) y otra a la mitad (50%), aunque según fuentes también se considera buena una vista al 75%. En mi opinión no es posible dar unos datos concretos, depende de distintos factores como la tecnología del monitor (TFT o CRT) o la resolución de este, este segundo dato es más importante en el CRT ya que esta puede ser variada sin perder calidad, en el caso de un TFT y hablando de fotografía la única forma de usarlos es con la resolución nativa. Sin embargo, existe un problema con tamaños distintos al 50% y al 100%, para poder verlos el programa de edición debe realizar una interpolación y en esa interpolación se pueden producir problemas de pixelado.
    Con la vista a 100% vemos lo que ocurre en los pixeles exactamente, sin embargo no es buen indicativo de lo que ocurrirá al ser impresa. Para ello deberemos verla a una resolución menor. El 50% puede ser una buena vista para monitores TFT, nos permite ver una aproximación de lo que obtendremos en una copia impresa en impresoras de tinta. Para monitores CRT el método es distinto. Los monitores CRT no se ven tan definidos como los TFT, los pixeles son más difusos, así que en ocasiones la propia vista al 100% se podrá considerar como buena, si se usa una resolución menor de la que permite el monitor quizás se podría disminuir hasta el 75%, sin embargo hay que tener en cuenta que la interpolación puede falsear datos en esa disminución y hacerla inutilizable.
  • Como hemos visto ver la imagen al 50% nos puede dar una idea de lo que obtendremos en una impresora de tinta. Pero hay que tener en cuenta que la imagen que veremos en pantalla tendrá algo de sobreenfoque. Esto es así las copias en impresora saldrán con un enfoque menor que el que veremos en pantalla al 50%. Solamente la experiencia nos educará el ojo para obtener los resultados deseados.
  • En líneas generales el enfoque se debe realizar como último paso del retoque. Cualquier proceso realizado en una imagen tiende a degradar su nitidez, si el enfoque se realiza al comienzo este se degradará con ediciones consecutivas.
  • Los valores óptimos de enfoque varían dependiendo de la situación. Para determinar los valores óptimos deberemos tener en cuenta ciertos factores: el dispositivo de captura (cámara o escáner), el contenido de la imagen (detalles pequeños o más grandes), el dispositivo de salida (impresora u offset) y el tamaño de impresión.
    Lamentablemente no tenemos una forma de automatizar el proceso. Hay que analizar todos los elementos que intervienen y tomar las consideraciones oportunas en cada ocasión. Sobre todo, si queremos obtener los mejores resultados en cada ocasión. Si realmente te conformas con un enfoque moderado y no necesitas el mejor resultado en tus impresiones seguramente los únicos conocimientos necesarios serán los que vendrán a continuación sobre la mde o quizás los de algunos de los plugin que existen y que se comentarán más adelante.

Ir al artículo siguiente: El enfoque en digital V

Posted in Artículos | 3 Comments »

El enfoque en digital III

Posted by caiser en octubre 4, 2007

Ir al artículo anterior: El enfoque en digital II

Cómo funciona el enfoque

El enfoque nos sirve para recuperar la perdida de acutancia que se produce en el proceso de la captura. El enfoque lo que hace es oscurecer el tono más oscuros y aclarar el más claro en los bordes. Un esquema de esto de puede ver en la figura 5.


Figura 5

En la primera gráfica podemos ver la representación de como sería un borde tal y como lo ve el ojo humano, estaría representado por la línea roja, la transición es brusca y por lo tanto vemos un borde nítido. Con la línea verde vemos la representación de como serían los bordes en una captura de una cámara digital. La transición ahora es más gradual debido a las razones expuestas en el capitulo anterior. Es decir, tenemos una pérdida de acutancia y el borde parece menos nítido. Con la línea azul vemos una representación de como actúa la mde sobre la línea del borde. El enfoque hace que el borde más oscuro sea todavía más oscuro y que el más claro lo sea todavía más. Todavía sigue existiendo una transición gradual entre las dos zonas del borde, sin embargo la acutancia se ha aumentado significativamente. El ojo ahora vuelve a ver el borde nítido. La esencia de todo esto es que el enfoque realiza un incremento del contraste en los bordes para engañar a nuestros ojos que considera que la imagen está más enfocada que la que realmente captura la cámara.

Cómo funciona la máscara de enfoque

Ya vimos en un artículo anterior que la máscara de enfoque (mde) es la adaptación de de un proceso realizado en el cuarto oscuro en la época de la supremacía de la fotografía argéntica. Con ella se lograba un incremento de nitidez en las copias impresas. Con la versión digital hemos ganado en rapidez y economía. La mde lo que hace es buscar los bordes de la imagen, entonces oscurece la zona oscura y aclara la más clara como veíamos en la figura 5. Sin embargo existe un problema, la mde es incapaz de encontrar bordes lo que hace es buscar zonas de gran contraste. Para hacerlo utiliza la misma técnica que se usaba en el cuarto oscuro, comienza creando una copia de la imagen, desenfoca esa copia y la une con el original para calcular la diferencia de valores tonales entre ellas.

En la figura 6 podemos ver un esquema de como la mde encuentra las zonas con gran contraste. En primer lugar tenemos una imagen que representaría la información recogida por el sensor. A continuación tendríamos una imagen desenfocada de la primera. A continuación se superponen las imágenes y se mezclan en modo diferencia, lo que nos daría la imagen de abajo en la que se puede ver como las zonas sin diferencia de contraste aparecen en negro y las zonas con una zona de contraste aparecen en un gris claro. Es en esas áreas de gris claro donde la máscara de enfoque realizará el incremento de contraste para obtener más acutancia.


Figura 6

Ir al artículo siguiente: El enfoque en digital IV

Posted in Artículos | 3 Comments »

El enfoque en digital II

Posted by caiser en octubre 3, 2007

Ir al artículo anterior: El enfoque en digital I

¿Por qué se necesita enfocar?

Quizás te estés haciendo una pregunta ¿por qué es necesario enfocar las imágenes en digital, si las de película no lo necesitaban?. La clave de esta está en la naturaleza del sensor. Los sensores de las cámaras digitales están hechos de matrices de pixeles. Cada uno de estos pixeles mide la luz en una diminuta parte del sensor, además de esto, a excepción del sensor Foveon, cada pixel solamente mide la luz de un de los tres colores primarios (rojo, verde o azul). La figura dos nos muestra un esquema de como miden la luz los sensores.

Figura 2. Matriz Bayer
Figura 2. Imagen obtenida de Wikipedia (Commons)

Cada cuadrado representa un pixel y cada color representa la luz que recoge cada uno de los pixeles.Para que los pixeles recojan la información de esa manera delante de ellos hay un filtro, llamado filtro Bayer, que solo permite que la luz que llega a cada pixel sea de un color específico y solo de ese. De esta manera, lo que cada pixel hace es recoger información de luminosidad y no de color. En la figura tres podemos ver un recorte de un ejemplo de lo que el sensor recogería. Como se puede observar la imagen no es uniforme, está compuesta de pixeles intercalados de distintas luminosidades.


Figura 3

Ahora imaginemos que ocurre al tomar una fotografía. Si en el pixel cae la información de una zona uniforme no tenemos ningún problema. El pixel tomará la información de luminosidad en ese trocito de imagen. Pero, si en el pixel cae la información de una zona de transición, por ejemplo, el borde de un sujeto, en el que aparece parte del sujeto y del fondo. Ese pixel tiene una información doble con distintas luminosidades, en ese caso lo que hace es promediarlo y obtendremos un pixel con un gris intermedio entre los dos. Para entenderlo un poco mejor tomemos un ejemplo en blanco y negro. Imaginemos una botella de leche fotografiada sobre un fondo negro. Si en el pixel cae información de la leche tendremos un pixel blanco, si en un pixel cae información del fondo tendremos un pixel negro, pero si el pixel está en el borde de la botella, puede tener información tanto de la leche como del fondo, así que obtendremos un pixel gris. Debido a esto lo que logramos es una disminución de la acutancia de la imagen en los bordes. Pocemos ver un ejemplo en la figura 4.


Figura 4

Hay otra razón por la que nuestras imágenes no están tan enfocadas como nos gustaría. Como hemos visto arriba el sensor no recoge información de color, solo de luminosidad, por ese motivo acabamos con imágenes en escalas de grises. Pero como hemos visto, cada pixel ha recogido información de distintos colores. Ahora bien, esa información está alternada, no es continua y si aumentamos lo suficiente nuestros ojos lo distinguen. Aquí es donde entra en escena la llamada interpolación Bayer. Ésta lo que hace es aplicar a cada pixel información de los tres colores (rojo, verde y azul), para ello utiliza los valores vecinos. Para que te hagas una idea, cada pixel verde tiene al lado dos pixeles azules y dos pixeles rojos, el algoritmo de la interpolación coge la información de luminosidad de esos dos pixeles azules vecinos y realiza una media, ese valor medio se lo añade al pixel verde y realiza el mismo proceso con los rojos. Pasamos de tener un pixel que solo tenía información del canal verde y a otro que tiene información completa del color.

Pero al igual que ocurría con los distintos valores de luminosidad en los bordes, la interpolación Bayer puede ocasionar problemas de acutancia en aquellos bordes donde hay una transición de color. Donde nuestros ojos ven un definido borde entre azul y verde, la interpolación Bayer puede crear un color intermedio que suavizará el borde y por lo tanto tendremos una disminución de acutancia.

Hay un tercer factor que influye en la disminución de acutancia. Las cámaras digitales en determinadas circunstancias pueden presentar un moire. El moire se da en al fotografiar ciertos materiales con tramas muy prietas, regulares y sobre todo repetitivas. Si la inclinación de de las líneas que poseen esas tramas está cercana a la trama que poseen los propios pixeles del sensor, éste producirá colores falsos y que variaran dependiendo de como inclinemos o movamos la cámara lateralmente.

En principio la solución para esto es desenfocar ligeramente la imagen. Los fabricantes delante del sensor colocan un filtro de paso bajo (low pass filter), este es el encargado de realizar un ligero desenfoque, para minimizar el efecto moire es incluso habitual el uso de hasta tres filtros paso bajo combinados. Canon fue el primero en adoptar el sistema de tres filtros paso bajo en sus imágenes, se jactaba de haber eliminado el efecto moire en sus imágenes, pero obtuvo muchas quejas de sus usuarios por la falta de nitidez de sus imágenes. Tuvo que sacar un comunicado de prensa explicando que las imágenes digitales necesitaban enfocarse.

Los procesadores internos de las cámaras intentan reenfocar el pequeño desenfoque producido por el filtro paso bajo, pero aún así se sigue sufriendo una falta de acutancia por causa de esos filtros.

Aparte de los tres factores que hemos visto, el proceso posterior de una imagen que realicemos en un programa de edición puede disminuir la acutancia. Para resolver todos estos problemas la solución es realizar un enfoque.

Ver el artículo siguiente: El enfoque en digital III

Posted in Artículos | 3 Comments »

El enfoque en digital I

Posted by caiser en septiembre 28, 2007

La nitidez de una imagen es uno de los factores determinantes de la calidad final de una imagen. Además, cuanto mayor es el tamaño de impresión, la calidad del enfoque es cada vez más importante.

Aunque tengas la mejor cámara digital y trabajes con los mejores objetivos en las aberturas que mejor rinden necesitarás saber como conseguir imágenes nítidas con ayuda del ordenador. Es algo inherente a la tecnología utilizada en la actualidad. El método más habitual para conseguir enfocar las imágenes el la máscara de enfoque (mde). Para muchos fotógrafos el enfoque comienza y termina en la mde, sin embargo ésta es solo el principio. Hay otros muchos métodos y conocerlos nos ayudará a saber cual nos viene mejor en cada situación.

Lamentablemente, para conseguir la máxima calidad en el enfoque no es posible automatizar el proceso, cada imagen requiere distintos métodos o siendo los mismos se deben usar distintas configuraciones. Incluso, existen distintos parámetros que influyen en el método a utilizar como pueden ser la calidad inicial, el método de captura (cámara, escáner…) o el medio de salida (impresora de tinta, offset, páginas web…). Con esta serie de artículos intentaremos conocer los distintos métodos que existen a nuestra disposición para lograr un enfoque óptimo, así como herramientas o los análisis que haremos a las imágenes para saber que herramientas aplicar en cada ocasión y con cada imagen.

Que es el la nitidez

Cualquier persona sabe que es la nitidez sin necesidad de tener conocimientos fotográficos, sabe si una imagen está enfocada o no. Sin embargo, es difícil que sepan darnos una definición técnica, incluso la mayoría de los fotógrafos más consumados no sabrían darla. Para conseguir los mejores resultados en las copias finales es imprescindible comprender que es la nitidez, así conoceremos mejor las herramientas disponibles para lograrla.

La nitidez se determina por dos valores: la resolución y la acutancia. La resolución es el concepto más cercano a la idea que la mayoría de la gente tiene sobre la nitidez. La resolución es la habilidad para distinguir los detalles finos. Ésta se mide en pares de líneas por milímetro, para obtener la resolución de un objetivo se utilizan tablas donde las líneas cada vez son más finas. Cuanto mayores son los pares de líneas por milímetro distinguidas por un objetivo mayor es la resolución de este. Los equipos fotográficos de gran resolución pueden revelar detalles que los de baja resolución no pueden. La resolución depende enteramente de la cámara y el objetivo utilizados y los procesos posteriores nunca podrán crearla donde no existía, así pues el software poco puede hacer en ese sentido.

La acutancia de una imagen es el grado de contraste que se observa en el límite entre detalles que difieren por su luminancia o densidad óptica. Cuanto más contrastado sea el límite entre una zona oscura y otra más clara, mayor es la acutancia y con ella la nitidez percibida en la imagen. La definición o resolución de la imagen no crecen cuando aumenta la acutancia, pero sí la capacidad para distinguir los detalles y la sensación subjetiva, que es la de un aumento de definición, de detalle. El sistema perceptivo visual humano es capaz de distinguir detalles más pequeños cuando su contraste es mayor, por esa misma razón, si un conjunto de pixeles luminosos están al lado de unos más oscuros el ojo lo interpreta como un borde.


Figura 1

Esto lo podemos ver en la figura 1. En ambas imágenes podemos ver un rectángulo gris oscuro junto a otro gris claro. En la primera imagen la transición entre los rectángulos es aguda. En esa imagen el contraste, y consecuentemente, la acutancia son altos. Los bordes aparecen enfocados y bien definidos. La imagen 2 tiene los mismos rectángulos, sin embargo la transición en los bordes es más gradual. El contraste entre los bordes ha disminuido. Dicha imagen tiene una acutancia baja. Esta baja acutancia es interpretada por el ojo como una falta de nitidez.

Aquí tenemos un detalle de importancia, la apariencia de nitidez de la imagen 1 y la falta de ella en la imagen 2 no tiene nada que ver con la resolución o el detalle. Tiene que ver con el contraste a lo largo de los bordes. Este punto es en el que se basan las herramientas de enfoque disponibles: se encargan de incrementar la apariencia de enfoque de una imagen incrementando la acutancia de la imagen. En otras palabras, las herramientas de enfoque aumrntan el contraste a lo largo de los bordes, en ningún caso incrementan la resolución o el detalle.

Debido a esto es fácil comprender que dichas herramientas no pueden devolverle el foco a una imagen desenfocada. Una imagen desenfocada es una imagen con una resolución muy baja. Las herramientas de enfoque no puede aumentar la resolución, así que no es posible rescatar las imágenes que tienen problemas de enfoque. Por lo tanto, el enfoque funcionará mejor en aquellas imágenes que tienen detalles definidos como los captados por buenos equipos y usando las técnicas correctas.

Hay ciertos factores que también influyen en la nitidez que percibimos, no tienen demasiada importancia en las herramientas que usaremos para enfocar pero es interesante conocerlos. El ruido o el grano en la película logran un detrimento de la imagen, sin embargo en pequeñas cantidades incrementan la apariencia de nitidez.

La nitidez también depende de la distancia de observación, un poster o una valla publicitaria tiene mucha menos definición que las excelentes impresiones en una galería de arte, pero ambos se perciben nítidos debido a la distancia de observación. Teniéndo esto en cuenta si el trabajo final se va a ver a cierta distancia habrá que tener en cuenta que el enfoque que veamos en la pantalla no coincidirá con la sensación que percibirán los observadores.

Por último y como hemos dicho al principio, el tamaño final de impresión tbién influye en la nitidez percibida. No es lo mismo imprimir una foto a 13 x 18 que a 40 x 60. En el tamaño pequeño siempre será fácil conseguir sensación de nitidez, los detalles son más pequeños y a nuestro ojo le cuesta más distinguirlos, sin embargo si aumentamos el tamaño de impresión, aumentan con él el tamaño de los detalles, es por eso que es más fácil percibir los defectos y la falta de nitidez. Es el mismo caso que nos ocurre cuando miramos las fotos en la pantalla de la cámara, casi siempre las vemos enfocadas, sin embargo al verlas a un tamaño mayor nos damos cuenta realmente si lo están o no.

Ir al artículo siguiente: El enfoque en digital II

Posted in Artículos | 5 Comments »

La mal llamada máscara de enfoque

Posted by caiser en septiembre 26, 2007

A punto de terminar con la serie de ventajas del raw comienzo una nueva serie en la que hablaré del enfoque en digital. Para el que quiera ir abriendo boca os recomiendo el artículo de Paulo Porta en Quesdesabesde, todos los métodos que se tratan allí los trataré en la serie, además de algunos más. También hablaré de las razones por las que es necesario enfocar. Empiezo con este, versa sobre el tema del enfoque, aunque lo escribo más como curiosidad que como parte de la serie.

Lo que en Photoshop conocemos como «máscara de enfoque», al igual que otras técnicas utilizadas en digital proviene del mundo químico, en inglés es conocida como «unsharp mask», es decir, máscara de desenfoque, las razones por las que se cambió el nombre en la versión española de Photoshop las desconozco, quizás porque para los que desconocen la técnica original el nombre puede llevarles a confusión.

La máscara de enfoque es una técnica de manipulación de imágenes que parece provenir de Alemania y que fue empleada por primera vez en los años treinta del pasado siglo. Es una forma de aumentar la acutancia o apariencia de nitidez. El término «desenfoque» (el que debería ser) deriva de el hecho de que en la técnica se usa un negativo desenfocado, positivado, para crear la máscara de la imagen original. La máscara desenfocada se combina con el negativo, creando la ilusión de que la imagen está más enfocada que el original.

El proceso es el siguiente: partiendo de placas de cristal de gran formato se crea mediante contacto una copia en positivo en otra placa o en una película. Dicha copia se realiza en contacto con la parte trasera del original en vez de juntando las emulsiones, por lo tanto conseguimos una copia borrosa. A la hora del revelado se colocan las dos copias, al pasar la luz por ambas emulsiones, el positivo cancela parcialmente parte de la información del negativo.

La información cancelada es la desenfocada. En los bordes de la imagen es donde más actúa por lo que se genera una gradación que va de un gris claro hasta el tono normal de la imagen, dando la sensación de una mayor nitidez. Además no existe pérdida de detalle en las sombras ni en las luces.

La cantidad de desenfoque se puede controlar cambiando la dureza o suavidad de la fuente de luz, haciéndola concentrada o difusa. La fuerza del efecto se puede controlar cambiando el contraste y la densidad de la máscara.

En la fotografía química esta técnica se solía utilizar en con películas en blanco y negro y existían películas especiales pancromáticas para utilizarse como la copia desenfocada.

En digital se utilizan los mismos conceptos. Al realizar una máscara de enfoque lo que el software realiza es un desenfoque gausiano del original y que posteriormente usa para mezclarlo con el original, además tenemos opciones para delimitar el contraste entre los bordes o el tamaño del detalle. Por esa misma razón se utiliza el mismo nombre, sin embargo en castellano le pusieron el contrario.

Posted in Artículos | 2 Comments »

El formato raw. Ventajas IX – Exposición

Posted by caiser en septiembre 26, 2007

Ver artículo anterior: El formato raw. Ventajas VIII – Los espacios de color

Esta es quizás la ventaja más conocida y en algunos casos la más apreciada, más que nada porque es muy evidente. En los ficheros raw, la exposición puede ser ajustada en el revelador raw (habitualmente dos pasos hacia arriba o hacia abajo). Es algo que nos está vetado en los archivos JPEG, se puede intentar imitar con diversas técnicas pero donde se conseguirá buenos resultados será en los tonos medios, en la zona alta y baja, si la exposición está al límite no será posible obtener resultados aceptables.

Para lograr buenos resultados el revelador raw, juega con ciertas ventajas. En las luces altas, por ejemplo, puede darse el caso de que ciertas zonas de la imagen en un JPEG nos aparezcan quemadas, en muchas ocasiones dichos quemados, sobre todo si afectan a zonas grandes son irrecuperables; incluso trabajando con ficheros raw, sin embargo, existen muchos casos en los que esos quemados realmente no lo son o pueden ser recuperados. Un caso ya lo hemos visto con anterioridad, al aplicar la curva tonal es posible que cierta información en las luces altas se desperdicie dándonos zonas quemadas e irrecuperables en JPEG. Otro caso sería si en la zona quemada no se han quemado todos los canales de color, es posible que la información se haya quemado en uno o en dos de ellos. En este caso en el JPEG obtendríamos una zona sin detalle al aplicar la curva tonal, sin embargo los reveladores raw juegan con ventaja, a partir de la información presente en los canales no quemados y en ocasiones con la información aportada por los pixeles adyacentes pueden recuperar esa zona logrando detalle allí donde no se encontraba.

El hecho de poder obtener archivos con revelados con distinta exposición nos permite recuperar sombras y detalles en las luces que en los archivos JPEG se han perdido. Además, también nos permite realizar distintos revelados de un fichero raw, con uno rescataríamos las luces, en el otro captaríamos el detalle de las sombras, una vez mezclados en el programa de edición lograríamos una nueva imagen con mayores detalles en todo el rango tonal.

En un fichero JPEG también sería posible obtener detalle adicional pero nos encontraríamos con dos problemas. En primer lugar la curva tonal aplicada ha provocado que ciertos detalles se pierdan, dichos detalles desaparecen y nunca pueden ser recuperados. En segundo lugar, el archivo JPEG tiene menos tonos en las sombras que el archivo raw. Esto hace que al intentar recuperar detalles de las sombras tengamos muchas probabilidades de conseguir posterización.

Ver artículo siguiente: El formato raw. Ventajas – Daño acumulativo

Posted in Artículos | 3 Comments »

El formato raw. Ventajas VIII – Los espacios de color

Posted by caiser en septiembre 26, 2007

Ver artículo anterior: El formato raw. Ventajas VII – Compresión

Hay varios espacios de color disponibles para el uso de los fotógrafos. Los dos más habituales son sRGB y AdobeRGB. Cada espacio de color define una cantidad de colores que estarán disponibles para usar en los archivos de imagen. Hay espacios de color más amplios que otros, por eejmplo AdobeRGB es mayor que sRGB y tiene mayor número de colores que este. Las propias cámaras tienen su espacio de color, que puede ser más o menos grande que los espacios que se usan habitualmente, pero en algún momento el espacio de la cámara se tiene que convertir a un espacio estandarizado como lo son sRGB o AdobeRGB.

A la hora de asignar un espacio de color a un archivo la mejor opción es utilizar el que mejor se adapte al dispositivo de salida, ni mayor, ni menor, el más cercano. Si nuestra intención es utilizar las imágenes en páginas web, el espacio que deberemos asignar es sRGB, si por el contrario deseamos utilizar una impresora de inyección de tinta con tintas de pigmentos el espacio deseable sería Adobe RGB.

Si utilizamos espacios que no sean aproximados nos puede llevar a pérdidas de color y degradaciones de imagen. Por ejemplo, si nuestra cámara asigna sRGB a un fichero y después deseamos imprimirlo, lo haremos en un dispositivo que utiliza un espacio mayor que el espacio de origen, estaremos perdiendo información debido a la limitación impuesta por un espacio menor del deseado. Si por el contrario el espacio de color es más grande, tendremos una distancia entre tonos mayor para lograr una mayor gama de colores, colores que luego no podrán ser reproducidos por el dispositivo de salida. Al tener una distancia entre tonos mayor hay mayores problemas de posterización. De hecho, convertir de un espacio de color a otro produce cierta degradación y cuanta mayor es la diferencia entre espacios de color, mayor es la degradación. Por consiguiente, es deseable utilizar el espacio de color correcto e intentar evitar la conversión entre espacios de color y en caso de hacerlo hacerlo el mínimo de veces.

Aquí es donde le raw adquiere otra ventaja. El raw no tiene asignado ningún espacio de color. Es algo que ocurre en el momento del revelado. Por lo tanto, disparando en raw tenemos la flexibilidad de poder asignar el espacio de color que mejor se nos adapte al dispositivo de salida que usaremos para nuestras fotos procesadas. Es especialmente ventajoso cuando dispongamos de fotografías que vayan a tener como destino distintos dispositivos de salida, podremos hacer el mismo proceso partiendo desde el mismo raw pero asignando distintos espacios y asegurándonos una calidad óptima en cualquier dispositivo.

En el caso del JPEG el espacio se asigna en la cámara y es adjuntado al fichero. Si queremos cambiar de espacio de color más adelante, tendremos cierta degradación. Incluso el propio espacio tiene cierta degradación. Las mismas ventajas aplicables al raw por la cantidad de bits son adaptables al espacio de color. Al trabajar con un JPEG, el espacio de color es de solo 8 bits, si hacemos una conversión a otro espacio tendremos errores de cuantización mayores que si trabajásemos con archivos de 12 ó 16 bits como sería el caso del raw.

Ver artículo siguiente: El formato raw. Ventajas IX – Exposición

Posted in Artículos | 3 Comments »

El formato raw. Ventajas VII – Compresión

Posted by caiser en septiembre 26, 2007

Ver el artículo anterior: El formato raw. Ventajas VI – Las curvas

La compresión hablando de archivos de imagen se refiere al acto de eliminar datos para hacer los ficheros más pequeños. Los archivos raw no tienen compresión o si la tienen utilizan compresión sin pérdida (hay una excepción: Nikon usa un tipo de compresión que en teoría elimina información no visible, existe cierta controversia en si es cierto o no, aunque ellos si que la llaman sin pérdida: lossless). Por lo tanto, en un archivo raw no se eliminan datos.

En una imagen raw partimos de un archivo de 12 bits, pero tal y como están construidos los sensores, estos no reciben información de color, solo de luminosidad (dejamos de lado los sensores Foveon). Los datos de color se introducen después mediante la interpolación Bayer. Es decir, en un archivo raw solo tenemos un canal de información, una especie de blanco y negro, por lo tanto es un archivo de 12 bits.

Los archivos JPEG si que tienen información de color, ha sido aplicada la interpolación Bayer y ya disponemos de tres canales, cada uno de ellos de 8 bits, por lo que tendremos ficheros de 8×3= 24 bits de datos. Es decir, en JPEG hay el doble de información que en un archivo raw, y eso que sabemos que el JPEG tiene 8 bits y el raw 12. Cosecuentemente, la única forma de que un JPEG sea menor la lograremos comprimiendo los datos.

Hay dos tipos de compresiones, con pérdida o sin pérdida. La compresión sin pérdida es aquella en la que no perdemos información. La que utilizamos al usar archivos zip o rar, por ejemplo. El problema de este tipo de conversión es que para imágenes no es muy efectiva. La compresión con pérdida tiene la ventaja de que disminuye el tamaño final las imágenes pero a costa de cierta degradación. Los ficheros JPEG utilizan compresión con pérdida, por ese motivo se logran ficheros pequeños, aunque con cierto degradado en la imagen (cuanto mayor es la compresión, mayor es el degradado).

La compresión JPEG sigue ciertos pasos para reducir el tamaño, para empezar convierte el archivo de RGB a modo LAB (es un formato de archivo donde se guarda por un lado la información de luminosidad y en otros dos canales la información de color). Después divide la imagen en cuadraditos de 8 x 8 pixeles. Por último, el algoritmo elimina cierta información de color y detalle para reducir el tamaño. Dicho algoritmo trata cada cuadrado por separado. Esto es la causa de ciertos problemas. Como cada cuadrado es tratado por separad, los cuadrados próximos pueden ser tratados de distinta manera, por ese motivo pueden hacerse visibles los bordes entre cuadrados contiguos dando como resultado una degradación de la imagen.

La visibilidad de estos bordes dependerá de la cantidad de compresión que apliquemos a la imagen. Para ello usaremos unas imágenes de Wikipedia:

 

Imagen «Calidad» Tamaño (bytes) Comentario
JPEG example JPG RIP 100.jpg La mejor calidad (100) 83,261 En general la calidad es buena. hay pocos artefactos visibles y cuesta reconocerlos
JPEG example JPG RIP 050.jpg Calidad buena (50) 15,138 Comienzan a verse artefactos. los bordes empiezan a no estar definidos.
JPEG example JPG RIP 025.jpg Calidad media (25) 9,553 Los artefactos son muy visibles. Hay perdidas muy evidentes de detalles.
JPEG example JPG RIP 010.jpg Calidad baja (10) 4,787 Perdida muy acusada,ya no solo son detalles o bordes, en las zonas más o menos homogéneas aparecen artefactos y bordes muy aparentes.
JPEG example JPG RIP 001.jpg La peor calidad (1) 1,523 Perdida total de detalle, deja zonas irreconocibles

Las cámaras nos permiten elegir la calidad que queremos utilizar a la hora de grabar en JPEG, desde luego si vamos a usar ese formato la única opción si queremos obtener un mínimo de calidad es la de máxima calidad. Por supuesto, en la calidad mínima no van a guardar las imágenes como en los dos últimos ejemplos presentados, ni siquiera como el antepenúltimo, será algo aproximado al segundo ejemplo, pero las pérdidas son evidentes. Si comenzamos a editar utilizando una imagen con esos artefactos lograremos aumentarlos y además al volver a grabar la imagen en JPEG los aumentaremos un poco más.

Ver artículo siguiente: El formato raw. Ventajas VIII – Los espacios de color

Edito: Al ir a poner los enlaces al artículo anterior me he dado cuenta que no he publicado la parte VI. La tengo en borrador esperando a que realice unas imágenes para ilustrarlo, cuando lo cuelgue borraré este comentario y pondré los enlaces.

Posted in Artículos | 3 Comments »

El formato raw. Ventajas V – Posterización.

Posted by caiser en septiembre 23, 2007

Ver artículo anterior: El formato raw. Ventajas IV – Enfoque.

Una consideración a tener en cuenta con las imágenes JPEG es que la limitada cantidad de tonos disponibles hace que estos se encuentren mucho más distantes entre si que los disponibles en una imagen raw. Si además procesamos posteriormente la imagen esa distancia puede incrementarse con lo que se tendrían zonas de tonos en las que los colores adyacentes tendrían un hueco. En ocasiones esto es visible en forma de posterización. Cuando ocurre la posterización, el ojo humano detecta cambios bruscos de un color a otro, por el contrario, cuando no está presente se producen degradados suaves y sin diferencias. Como consecuencia de esto se producen perdidas de detalle y bandas. Los lugares más visibles son las áreas donde apenas hay detalle, por ejemplo, los cielos claros pueden tender a mostrar cierta posterización. Con los archivos raw es un problema menor porque tenemos una mayor cantidad de tonos disponibles lo que hace que esten mucho más cercanos los unos de los otros.

Para saber porque ocurre debemos saber algo de como funcionan los programas de edición. Las imágenes para un ordenador están compuestas de números. Además unos números limitados, como hemos visto con anterioridad un JPEG dispone de 256 tonos por color, es decir, solo trabaja con 256 números. Cuando Photoshop o cualquier programa de edición trabaja con las imágenes lo que hace son operaciones con esos números que determinarán los nuevos. Aunque Photoshop trabaje con decimales al final necesita entregar un número entero que concuerde con los tonos disponibles en la especificación JPEG, así pues, si despues de una operación obtiene que un determinado pixel en el rojo debería tener 134,26, redondeará y pondrá el número 134. La información eliminada se pierde para siempre, por lo tanto tenemos un error de cuantización y consiguientemente una degradación de la imagen. Por ejemplo, si dos tonos después de aplicarles un proceso acaban debido al redondeo siendo el mismo tono, estamos consiguiendo que lo que debían haber sido dos tonos distintos se conviertan en uno solo, es decir, una pérdida de detalle. El raw tiene muchísimos mas tonos disponibles que el JPEG, la distancia entre ellos es mucho menor, como consecuencia de ello los errores de cuantización es un asunto menor en el revelado raw y su posterior proceso.

Ver el artículo siguiente: El formato raw. Ventajas VI – Las curvas

Para una explicación más completa de la posterización, como evitarla o corregirla puedes ver el artículo: Posterización

 

Posted in Artículos | 2 Comments »

El formato raw. Ventajas IV – Enfoque.

Posted by caiser en septiembre 23, 2007

Ver artículo anterior: El formato raw. Sus ventajas III – El procesador

En las cámaras digitales es necesario usar algoritmos que enfoquen la imagen debido a que se produce cierto desenfoque causado por el filtro paso alto que poseen. La forma de hacerlo es incrementando el contraste local, sobre todo, a lo largo de los bordes. El ojo humano interpreta ese incremento de contraste como una mayor nitidez.

Se tiene como norma obligada entre los fotógrafos que el enfoque debe ser el último paso que se debe realizar en el retoque o mejora de una fotografía. Esto es así porque hay ciertos procesos que pueden disminuir la cantidad de enfoque de la imagen. Si lo hiciésemos al principio la nitidez podría disminuir a lo largo de la edición de la imagen. Además de esto al añadir enfoque la imagen sufre cierta degradación, esta degradación puede interferir en los procesos que realicemos después. Tampoco es bueno aplicar varias veces el enfoque, si lo aplicamos al principio y después de editar perdemos algo de nitidez, tenderemos a volver a utilizar la máscara de enfoque por lo que aumentaremos los artefactos introducidos por esta y obtendremos una imagen de peor calidad.

El JPEG es especialmente sensible a este problema. La cámara cuando convierte las imágenes de raw a JPEG, en el final del proceso aplica un enfoque para entregarnos las imágenes terminadas, cosa que no ocurre cuando tenemos una imagen raw. En estos el enfoque no ha sido aplicado y somos nosotros los que tenemos la decisión de cuando nos interesa aplicarlo (en el revelador raw o en cualquier otro punto del proceso)

Además hay un problema añadido. Al comprimir la imagen en JPEG pueden aparecer unos cuadraditos (llamados artefactos JPEG), debidos a los algoritmos usados para la compresión. En JPEG de calidad o en copias de tamaño normal no suelen tener mucha importancia. Sin embargo, si queremos hacer una ampliación y necesitamos interpolar, perderemos cierta nitidez por lo que será necesario aplicar una máscara de enfoque, esa máscara no solo enfocará los bordes de la imagen sino que también lo hará sobre los artefactos por lo que obtendremos más degradación y menor calidad.

Tenemos también otro problema cuando la cámara nos aplica el enfoque. Estas están configuradas para que apliquen un enfoque determinado independientemente de la imagen, en ocasiones podremos variar mediante menús de la propia cámara si queremos que sea mayor o menor, pero no podemos saber sin ver la imagen final cuanto debe ser el enfoque necesario, dependiendo de la cantidad de detalles o de bordes puede ser uno u otro, incluso puede requerir más enfoque en unas zonas de la imagen que en otras, esas decisiones no pueden ser tomadas automáticamente por la cámara, por ejemplo hay muchos fotógrafos que a la hora de hacer retratos, sobre todo en primeros y primerísimos planos, utilizan una máscara de enfoque en los ojos y sin embargo en la piel no la aplican para no resaltar los posibles defectos y dejarla más suave.

Por último, al aplicar el enfoque automáticamente en algunas imágenes puede resultar excesivo . Ese sobreenfoque no puede ser corregido a posteriori y obtenemos una imagen degradada sin posible solución.

Por lo tanto usando raw tendremos una gran ventaja al poder aplicar nosotros el enfoque necesario y obtendremos mayor flexibilidad e imágenes de mayor calidad.

Ver el artículo siguiente: El formato raw. Ventajas V – Posterización.

Posted in Artículos | 4 Comments »