Mostrando resultados del 1 al 11 de 11

Tema: Convertir un sensor en otro por software y en RAW

  1. #1
    Fecha de Ingreso
    nov 2006
    Ubicación
    Madrid (a ratos Alicante)
    Mensajes
    6.327

    Predeterminado Convertir un sensor en otro por software y en RAW



    Se me ha ocurrido un ejercicio loquísimo, que no tengo ni idea de si me saldrá bien o un churro. Pero bueno lo adelanto por aquí para guiarme yo mismo. Todos sabemos que, correctamente perfilados, los colores que produzcan dos cámaras tienen que ser muy similares tras el revelado RAW, aunque cada sensor sea de su padre y de su madre.

    Una forma de demostrar que esta equivalencia colorimétrica, si se hacen las cosas de determinada forma, es real, sería en lugar de perfilar las dos cámaras por separado (es decir diseñar un flujo de revelado RAW para cada una), convertir los valores RAW de una de ellas al espacio de la otra, y entonces una vez convertidos podrán revelarse con el mismo proceso que se haría con la otra cámara. Por ejemplo:
    • Cámara 1: Sony A7 II (RAWs ARW convertidos a DNG)
    • Cámara 2: Samsung S20 FE (mi móvil) (RAWs directamente en DNG)


    Pasos:
    • Se fotografía con ambas cámaras una carta de color IT8, y se obtienen los valores RAW de cada canal RGB en cada cámara.
    • Con la comparación entre valores RAW origen (Samsung) / destino (Sony) se obtiene un proceso (en mi caso una red neuronal; pero podría ser una LUT o cualquier otro proceso de regresión con los suficientes grados de libertad) que convierte las combinaciones RGB del móvil a las combinaciones RGB de la Sony.
    • Hecho esto ya se pueden coger los valores RAW del Samsung resultantes de fotografiar una escena de prueba, convertirlos al espacio Sony, e incrustarlos en un RAW de Sony donde se haya fotografiado la misma escena. Tendríamos un RAW con un trozo de imagen proveniente de la Sony y otro del Samsung.
    • Si al revelarlos (con el procesado propio de los RAW de Sony) los colores de la parte proveniente de cada cámara son indistinguibles (o muy parecidos), significa que hemos convertido con éxito un sensor en el otro.


    Se ha entendido algo? cómo lo veis?

    Salu2!
    Última edición por Guillermo Luijk; 12/06/24 a las 23:15:21

  2. #2
    Fecha de Ingreso
    ene 2012
    Ubicación
    A un clic de ti...
    Mensajes
    13.832

    Predeterminado

    Divertido en cualquier caso.

    ¿No has observado que dos objetivos de marcas distintas dan tonos distintos?
    Clic, clic, clic...

  3. #3
    Fecha de Ingreso
    nov 2006
    Ubicación
    Madrid (a ratos Alicante)
    Mensajes
    6.327

    Predeterminado

    Cita Iniciado por NerveNet Ver Mensaje
    Divertido en cualquier caso.

    ¿No has observado que dos objetivos de marcas distintas dan tonos distintos?
    Y de la misma marca. Pero la diferencia es tan poca que cuando leo a gente decir cosas como "me gusta este objetivo por los colores que da" me entra la risa. Mover unos pocos Kelvin el balance de blancos tiene mucho más impacto.

    Salu2!

  4. #4
    Fecha de Ingreso
    abr 2008
    Ubicación
    Linares
    Mensajes
    3.456

    Predeterminado

    Interesante, me apunto a ver como evoluciona, pensaba que no podia sorprenderme con tus publicaciones, pero veo que estaba equivocado.
    Mis conocimientos no dan para "entender " alguna de las palbras tecnicas que has usado pero en terminos generales si se entiendo lo que has posteado

  5. #5
    Fecha de Ingreso
    ene 2012
    Ubicación
    A un clic de ti...
    Mensajes
    13.832

    Predeterminado

    Cita Iniciado por Guillermo Luijk Ver Mensaje
    Y de la misma marca. Pero la diferencia es tan poca que cuando leo a gente decir cosas como "me gusta este objetivo por los colores que da" me entra la risa. Mover unos pocos Kelvin el balance de blancos tiene mucho más impacto.

    Salu2!
    Bueno puede ser. Pero es un tema de preferencias personales, está ahí y forma parte del resultado que se capta. Ríete todo lo que quieras pero me gustan más los tonos que obtengo de los objetivos Nikon manuales que tengo. No tienes que tocar nada y ya los tienes.

    Cuando tengas un Sigma de esos que amarillean pieles me lo cuentas...
    Clic, clic, clic...

  6. #6
    Fecha de Ingreso
    nov 2006
    Ubicación
    Madrid (a ratos Alicante)
    Mensajes
    6.327

    Predeterminado

    No confundas objetivos amarilleados (he tenido el campeón, el Super Takumar 50mm f/1,4), con ópticas nuevas tal y como las diseñaron y fabricaron. Yo hablo del segundo caso, y sí, me río porque las diferencias de color que algunos dicen percibir en ellos son ensoñaciones. Cualquier leve cambio en la iluminación o el balance de blancos aplicado enmascarará cualquier tinte de la óptica.

    Solo piensa una cosa: cuando vas a casa de alguien, o a cualquier edificio con cristales normales y corrientes, notas que estén tintados? notas que tu vecino el del cuarto, o la tienda de la esquina, tienen cristales cálidos o fríos? Si en un cristal de batalla como el que vas a encontrar en cualquier construcción eres incapaz de percibir ninguna tonalidad específica, cuánto más no será así con vidrio óptico especialmente diseñado para evitar lo más posible la desnaturalización del color? Insisto que no estoy hablando de objetivos deteriorados por el paso del tiempo.

    Salu2!
    Última edición por Guillermo Luijk; 14/06/24 a las 01:58:16

  7. #7
    Fecha de Ingreso
    may 2011
    Ubicación
    Rincón de la Victoria (Málaga)
    Mensajes
    282

    Predeterminado

    Buen ejercicio. Solo un comentario.
    El ejercicio estaría hecho con una carta de colores. Esta tiene un número finito de tonos.
    El proceso de "parametrización" para perfilar un sensor como el otro. Se hará para esa carta.
    ¿Cómo se comportará esa "parametrización" ante cambios de tonos, brillos, contrastes? ¿Seguiria "copiando" al sensor al que se trata de "imitar"? ¿Habría diferencias en el resultado por efecto de intensidades, brillos, contraste, comportamientos no lineales...?
    ¿Y extrapolando, si esto fuese así, podría un sensor de un móvil simular esto respecto de un sensor de mayor tamaño? ¿Donde tendría las limitaciones?
    Me hago toda estas preguntas porque no sé. Aunque posiblemente algunas de las limitaciones se vayan solucionando en el futuro cercano.
    Saludos desde Rincón de la Victoria en Málaga.

    Miguel A.
    Mi equipo:

  8. #8
    Fecha de Ingreso
    nov 2006
    Ubicación
    Madrid (a ratos Alicante)
    Mensajes
    6.327

    Predeterminado

    Cita Iniciado por Miguel Angel Ver Mensaje
    Buen ejercicio. Solo un comentario.
    El ejercicio estaría hecho con una carta de colores. Esta tiene un número finito de tonos.
    El proceso de "parametrización" para perfilar un sensor como el otro. Se hará para esa carta.
    ¿Cómo se comportará esa "parametrización" ante cambios de tonos, brillos, contrastes? ¿Seguiria "copiando" al sensor al que se trata de "imitar"? ¿Habría diferencias en el resultado por efecto de intensidades, brillos, contraste, comportamientos no lineales...?
    ¿Y extrapolando, si esto fuese así, podría un sensor de un móvil simular esto respecto de un sensor de mayor tamaño? ¿Donde tendría las limitaciones?
    Me hago toda estas preguntas porque no sé. Aunque posiblemente algunas de las limitaciones se vayan solucionando en el futuro cercano.
    Saludos desde Rincón de la Victoria en Málaga.
    Hola Miguel Ángel, no sé si tienes conocimientos o práctica en temas de modelos predictivos, pero si no es así te felicito porque estás haciendo justamente las preguntas adecuadas que se tiene que hacer cualquiera que esté en este mundo. En efecto, si el "modelo" tiene como base una carta de colores solo tenemos la certeza de poder hacerlo bueno convirtiendo esos precisos colores. Sobre lo que pase con colores intermedios nada podemos afirmar hasta que lo probemos. Por poder se puede diseñar una red neuronal que literalmente clave los parches de color de una IT8, o de cualquier carta de colores por muchos parches que tenga, pero seguirá siendo una incógnita cómo se comportará en colores nunca "vistos" por la red neuronal.

    Paradójicamente, superado cierto punto de complejidad de la red neuronal (complejidad = número de capas y nodos), el error en la predicción de los parches podemos hacerlo virtualmente 0, pero al hacerlo se puede disparar el error en colores que no estaban en la carta (esto se llama overfitting). Es aquí donde entra en juego la elección de una red neuronal de compromiso: que sea un poco peor (tenga algo más de error) al convertir los colores de los parches, para a cambio ser mejor prediciendo colores que nunca vio en su entrenamiento.

    Mi intuición me dice que la colorimetría de un sensor nos va a ayudar porque se comporta como una función "suave", es decir que ante variaciones leves de la entrada genera cambios leves en la salida. Esto juega a favor de que sea factible usar un modelo que de buen resultado en los parches y a la vez lo de en los colores intermedios entre dichos parches (intermedios en tono y/o luminosidad). También me ayuda a pensar de forma optimista que hace unos días hice un ejercicio similar para emular el proceso de una LUT de la nueva Panasonic S9, y con una sola imagen de entrenamiento (mucho menos genérica que una carta de colores), el resultado de la red neuronal tenía muy buena pinta al ser aplicado a otras imágenes, lo puedes ver aquí:

    http://guillermoluijk.com/datosimage...anasonics9.gif

    (la red se entrenó solo con la imagen de la chica japonesa. El resultado de aplicar el proceso a la chica con la red neuronal es indistinguible a la LUT original. Las otras dos imágenes tienen muy buena pinta en el cambio de tonos y luminosidades generados en ellas; aunque por desgracia no pude comprobarlos con lo que habría dado la LUT original genuina porque no tengo forma de aplicar esa LUT. En este ejercicio sí voy a poder medir el error en colores no vistos por la red)


    Por cierto como imaginarás el problema que planteas lo tienen todos los métodos de perfilado de color de sensores digitales basados en hacer fotos a cartas de color. A menudo veo gente que da por bueno el perfilado solo porque el error sobre los colores de la carta es bajo, pero nada se dice de los colores fuera de carta asumiendo, erróneamente, que si el perfil funciona bien sobre la carta necesariamente lo va a hacer sobre cualquier imagen.

    Salu2!
    Última edición por Guillermo Luijk; 14/06/24 a las 14:58:30

  9. #9
    Fecha de Ingreso
    nov 2006
    Ubicación
    Madrid (a ratos Alicante)
    Mensajes
    6.327

    Predeterminado

    Sigo con ejercicios de cálculo de LUTs. Aprovechando que Fuji ha sacado la emulación de película Reala Ace por firmware para varios de sus modelos (francamente me llama bastante la atención la locura de algunos con las emulaciones de película de Fuji, entre vosotros y yo no les veo tanto interés pero bueno), he empezado a emular estos procesos como la transformación que se ha de aplicar al modo Provia (que se considera el estándar o punto de partida) para llegar a los demás.

    Así la imagen Provia original ideal sería aquella que mejor represente las imágenes (JPEG o revelador RAW) promedio que puedan hacerse con cualquier cámara, porque el objetivo es poder aplicar estos procesados a imágenes aleatorias que uno cree con otras cámaras,...

    Lo que he hecho es lo siguiente:
    • He tomado de la web de Fuji la imagen de las casetas de colores en sus versiones Provia y Eterna Bleach Bypass (no por nada, sino porque es la que más se diferencia de Provia lo que resulta más complicado de modelar).
    • Con ambas imágenes he entrenado una red neuronal (2 etapas con 32 nodos por etapa). El objetivo es ver si esta red es capaz de emular el proceso que lleva de Provia a Eterna Bleach Bypass con fidelidad.
    • Para comprobar lo bien/mal que funciona la emulación, se la aplico a una imagen nueva que la red neuronal nunca vio durante su entrenamiento (el burro), comparando el resultado con el proceso original Eterna Bleach Bypass de Fuji.


    El resultado es muy bueno, aunque con bastante más desviación que lo que me suele salir con este tipo de proceso. Pero para haberlo emulado con una sola imagen de la Web de Fuji no está nada mal (se trata de ver cómo de parecidos son los dos burros del final)

    http://guillermoluijk.com/misc/etern...hbypass_NN.jpg

    El paso siguiente que voy a dar es usar la red neuronal para construir un archivo LUT estándar (.cube) que pueda usarse en cualquier programa o proceso que soporte LUTs, para aplicar la emulación Eterna Bleach Bypass a cualquier imagen. Estoy viendo que las LUT existen en distintas longitudes (número de muestras del archivo .cube). Alguien que suela manejarlas sabe el estándar?

    Salu2!

  10. #10
    Fecha de Ingreso
    nov 2020
    Mensajes
    1.307

    Predeterminado

    Creo que esto te sera de ayuda. No se porque pero ya no esta en la web de Adobe.

    https://web.archive.org/web/20220215...cation-1.0.pdf

    Saludos
    Mi equipo:

  11. #11
    Fecha de Ingreso
    nov 2006
    Ubicación
    Madrid (a ratos Alicante)
    Mensajes
    6.327

    Predeterminado

    Gracias Panxampla, pero no preguntaba por el formato .cube en sí, que es una chorradilla, sino por la longitud típica de las LUT. Es decir, qué longitud suelen tener como estándar las LUT de calidad comercial.

    Salu2!

Marcadores

Normas de Publicación

  • No puedes crear nuevos temas
  • No puedes responder temas
  • No puedes subir archivos adjuntos
  • No puedes editar tus mensajes
  •