PDA

Ver la Versión Completa : Sobre la iso y el tamaño de las fotos.



Invitado
04/05/06, 09:53:00
Situación:

Tenemos una tarjeta de 1GB en la cámara, recien formateada ( es decir, sin fotos) y la ISO la tenemos a 100 (lo normal), el 'contador de fotos restantes' nos dice que nos quedan 115 fotos.

Ahora, subimos la ISO a 400 y si miramos de nuevo el 'contador de fotos restantes' nos dice que tenemos para 111 fotos ?¿?¿?¿? :o :o

Plausible explicación....:

El formato RAW, no es mas que un formato JPG pero sin perdidas (aunque sí con compresión de datos) y alguna cabecera y datos extras. Esta compresión de datos está basada en la aparición de secuencias de puntos del mismo color y su codificación, es decir, si aparecen 100 puntos del color negro, no se guardan como negro,negro,negro,negro.....y así hasta 100, sino que se guardan con un ' y ahora 100 puntos negros'.

La única razón que se me ocurre para explicar esa disminución de capacidad de las tarjetas al subir el ISO es que existen 'tablas' con estimaciones previas según el ISO (debido a que en una imagen con mucho ISO el ruido se hace mas visible y es problable que NO existan series de colores repetidos tan largos)

¿ Alguna otra idea?

.....ahora me podéis decir que ¡¡¡¡ Vaya pajas mentales que me monto !!! :wink:

Un saludo.

cocosg
04/05/06, 11:00:55
jajajajajja


te digo una cosa docepollos??? el que tiene la paja mental soy yo!!!me he hecho la pich* un lio!!!

:P :lol:

Borfie
04/05/06, 11:01:16
No Docepollos, a mi en absoluto me parece una paja mental lo que tu dices...

Está claro que los de Canon saben muy bien el margen de ruido que tiene el sensor en función de la sensibilidad que se ajuste, es decir, ellos saben que para iso 200, tienen un porcentaje de ruido, por ejemplo, 1'002% mayor que para iso 100, por lo que la misma imagen a iso100 y a iso200 difieren en un 1'002%... y lo mismo con los otros isos.

Esos procentajes de desviación entre un iso y otro son píxeles que difieren del real y de los píxeles que estén alrededor, y estadísticamente estarán repartidos por todo el frame, con lo que al realizar la compresión (ya sea para el jpeg o para el raw sin pérdidas), el algoritmo si para iso 100 ponía... "y aquí vienen 100 píxeles negros" para iso 400 pondrá "y ahora 34 pixeles negros y ahora uno azul y ahora 12 negros y ahora 3 grises..." con lo que obviamente el fichero resultante tiene diferente tamaño.

Esa relación la conocen perfectamente los de canon y en el firmware de la máquina tendrán su tablita que dice algo así como
[table:b8c68e40b6][mrow:b8c68e40b6]ISO[col:b8c68e40b6]tamaño medio jpeg L[col:b8c68e40b6]tamaño medio raw
[row:b8c68e40b6]100[col:b8c68e40b6]3,2MB[col:b8c68e40b6]7,8MB
[row:b8c68e40b6]200[col:b8c68e40b6]3,3MB[col:b8c68e40b6]7,85MB
[row:b8c68e40b6]400[col:b8c68e40b6]3,5MB[col:b8c68e40b6]7,96MB
[row:b8c68e40b6]800[col:b8c68e40b6]3,9MB[col:b8c68e40b6]8,12MB
[row:b8c68e40b6]1600[col:b8c68e40b6]4,2MB[col:b8c68e40b6]8,57MB[/table:b8c68e40b6]

Ni que decir tiene que estas cantidades me las he inventado, y que no tienen por qué ni siquiera acercarse a la realidad :wink:

gafarro
04/05/06, 11:12:40
Totalmente de acuerdo con Borfie, pero es curioso que cuando menos ISO pongas ( menos ruido ) menos ocupe la foto.

Un saludo

Borfie
04/05/06, 11:22:51
(...) pero es curioso que cuando menos ISO pongas ( menos ruido ) menos ocupe la foto.(...)

Sorry, pero "mi nou entiendou"
:roll:

gafarro
04/05/06, 11:50:08
Vamos a ver

Estamos todos de acuerdo que a menos ISO más calidad (menos ruido); es decir a ISO 100 tenemos más calidad de imagen que a ISO 200, a ISO 200 más calidad de imagen que a ISO 400 y así sucesivamente.

Sin embargo a mas ISO más peso de imagen, o sea más ocupa la imagen en la targeta, precisamente por que la imagen tiene mas ruido; y eso lo has reflejado muy bien en la tabla (aunque con datos inventados).

fijate en la tabla cuando subes el ISO aumenta el tamaño medio.



Esa relación la conocen perfectamente los de canon y en el firmware de la máquina tendrán su tablita que dice algo así como
[table:caee95ce16][mrow:caee95ce16]ISO[col:caee95ce16]tamaño medio jpeg L[col:caee95ce16]tamaño medio raw
[row:caee95ce16]100[col:caee95ce16]3,2MB[col:caee95ce16]7,8MB
[row:caee95ce16]200[col:caee95ce16]3,3MB[col:caee95ce16]7,85MB
[row:caee95ce16]400[col:caee95ce16]3,5MB[col:caee95ce16]7,96MB
[row:caee95ce16]800[col:caee95ce16]3,9MB[col:caee95ce16]8,12MB
[row:caee95ce16]1600[col:caee95ce16]4,2MB[col:caee95ce16]8,57MB[/table:caee95ce16]



Eso es lo que quería destacar; que es un hecho curioso que teniendo una imagen de peor calidad ( con mas ruido) ocupe mas espacio en la targeta.


Espero haberme explicado un poco mejor ahora.

Saludos

Borfie
04/05/06, 11:58:32
(...)Estamos todos de acuerdo que a menos ISO más calidad (menos ruido); es decir a ISO 100 tenemos más calidad de imagen que a ISO 200, a ISO 200 más calidad de imagen que a ISO 400 y así sucesivamente.

Sin embargo a mas ISO más peso de imagen, o sea más ocupa la imagen en la targeta, precisamente por que la imagen tiene mas ruido; y eso lo has reflejado muy bien en la tabla (aunque con datos inventados).
(..)

Ahora te entiendo, pero has de tener en cuenta que los algoritmos de compresión lo que hacen es tomar patrones iguales de las imágenes y reemplazar estos patrones, como bien ha dicho 12pollos, por representaciones más escuetas, es decir, si encuentra 50 veces un cero, en lugar de dejar esos "50 ceros", lo cambia por un "50xcero", lo que redunda en que con menos datos viene a decir lo mismo.
Al tener menos ruidos, los patrones iguales son más largos, por lo que se reduce en mayor medida el espacio necesario para representar esos mismos patrones, y el resultado final es de mucho menor tamaño... por eso a mayor ISO, los ficheros son más grandes, porque como tiene mucho más ruido, los patrones son mucho más cortos.

Es decir:
ISO bajo->patrones más largos->menos patrones por imagen->mayor compresión->menor tamaño.
ISO alto->patrones más cortos->más patrones por imagen->menor compresión->mayor tamaño

¿Me he explicado?

gafarro
04/05/06, 12:11:10
Te has explicado como un libro abierto.

Yo creo que los dos estamos diciendo lo mismo pero con diferentes palabras.

El mecanismo de compresión lo conozco y es lógico que a mas ruido mas tamaño, pero no deja de ser una cosa al menos curiosa que cuando peor sea la foto mas ocupe.

Saludos

Zeos
05/05/06, 08:48:13
Docepollos y las dudas de tamaño...
El caso es que a primera vista, sin pensar en el ruido, parece absurdo que ocupe mas. No me lo habia planteado, pero es muy curioso el tema.
Cuando hay compresion por medio, la cosa cambia mucho. No hay tantos patrones iguales=no hay posibilidad de comprimir tanto. Tamaño de kk de foto punteada=tamaño doble de foto nitida.

Ahora lo que toca es que alguien pruebe si la camara tiene una correcta tabla de prevision :wink:

juanjfb
05/05/06, 23:13:00
Ahora lo que toca es que alguien pruebe si la camara tiene una correcta tabla de prevision

Pues no puede tener una tabla de previsión correcta, porque el tamaño de una foto depende de la foto en si.

No es lo mismo tirar una con la mitad de cielo azul y la mitad de suelo de asfalto negro (al ser homogénea la compresión será mayor), que tirar a una foto en un bosque con millones de ramitas y flores de todos los colores, la compresión de la primera será mayor que la de la segunda, y la cámara no puede saber qué tipo de fotos vas a echar.

Yo me he encontrado con fotos de hasta 11mb al lado de otras de 8mb, aunque es raro.

En jpg la variación de tamaño según el tipo de foto es muuuuuuucho mayor.

juanjfb
05/05/06, 23:14:19
Y hablando del tema, más curiosidades...

Hace tiempo posteé que me asombraba el nivel de compresión del RAW.
Si 8mp*36bits/8 = 36mb de archivo, una barbaridad para llegar a los 8mb de media es una compresión menor a 1/4, una barbaridad teniendo en cuenta lo rápido que lo hace y que un zip puede ser 1/2 o 1/3 como muuuucho.

Al final entendí, que el Raw no comprime casi nada.

El truco es que cada pixel tiene solo 12 bits, el raw es una imagen de 12 bits, que luego se interpola a 36 bits (para mostrar en pantalla) y luego se interpolará a 48 bits si se pasa a tiff.

que cada pixel tiene solo 12 bits !!! y el jpg tiene 24 !!!
jajajaaj, ya sé , esto no se lo va a creer casi nadie, pero es así.

asi que 8 mp * 12bits /8 = 12mb de archivo que se comprime un poquitin como mucho (que yo haya visto) hasta algo más de 7mb.

INTERPOLACIÓN es la clave.

continuará.

invitado
06/05/06, 01:09:26
Es que Juanma(docepollos) y yo nos quedamos tela de pillados cuando ibamos para Toledo y me lo comento. Al final creo Juanma que lo que comentaste del tema de gamas de color por causas del ruido, es la que más fuerza pilla de las tesis expuestas aqui. Creo que Borfie a sabido explicar lo que pensabamos nosotros pero mejor expuesto y además con tablita incluida.Gracias Borfie. :wink:

Zeos
09/05/06, 08:45:42
Pues no puede tener una tabla de previsión correcta, porque el tamaño de una foto depende de la foto en si.
Por eso es previsión. La tabla de previsión se referirá al estadístico gausiano percentil 50, que será lo que la mayoría de fotos cubriría y lo que unas compensarán con otras. Si el 100% de las fotos que haces están fuera de lo que se considera normal, el número previsto no tendrá nada que ver como se puede esperar, pero para casos normales (una de aquí, otra de allá, otra de otro tipo...) es para lo que pregunto si la tabla de previsión será correcta. O sea, si acertará en la mayoría de casos, algo así como el hombre del tiempo, pero al revés :wink:

Sobre lo de la interpolación, me parece excesivo. La interpolación siempre degrada enormemente, y se supone que en raw las cosas salen mejor, ¿no? Con 12 bit tenemos 4096 colores. La imagen saldría visiblemente "posterizada", y los colores no se pueden inventar a no ser que se reduzca la resolución. Quizá el tema está en que no son píxeles sino subpíxeles. Habrá que investigarlo.

Juanma
09/05/06, 09:15:41
La tabla de previsión se referirá al estadístico gausiano percentil 50...
O sea, la media... :wink: :D


Sobre lo de la interpolación, me parece excesivo. La interpolación siempre degrada enormemente, y se supone que en raw las cosas salen mejor, ¿no? Con 12 bit tenemos 4096 colores. La imagen saldría visiblemente "posterizada", y los colores no se pueden inventar a no ser que se reduzca la resolución. Quizá el tema está en que no son píxeles sino subpíxeles. Habrá que investigarlo.

Un sensor es monocromo. Tiene 12 bits, o sea, 4096 tonos de gris. Tiene 8Mpx monocromos de 12 bits cada uno. No hay subpixeles.

Para "ver" en color, ciertos píxeles de esos 8Mpx tienen filtros R, G o B delante. Los píxeles que tienen filtro están dispuestos estratégicamente para poder "deducir" (o interpolar, como se quiera) qué color poner a los píxeles colindantes. Esto es lo más común, aunque hay algunos sensores que sí ven los tres colores, pero no es el caso de la negrita.

Saludos.

Juanma.

juanjfb
09/05/06, 09:42:11
Hola Zeos,
Yo estoy investigando el tema y todavia no estoy seguro de nada, lo de los los 12 bits por pixel en raw, pues creo que van a ser solo 9 bits... Verás:

Un fotosito recibe la luz y la convierte en electricidad según su intensidad. Pero no distinquen colores. Nuestra máquina tiene unos 8 millones de fotositos monocromáticos, de los que salen 8 millones de pixeles en color.

¿como se obtiene el color? pues mediante la máscara de bayer (http://es.wikipedia.org/wiki/M%C3%A1scara_de_Bayer), es un a rejilla de filtros que permite pasar ditinttos colores a distintos fotositos. Entonces un diodo se filtra verde, otro rojo, y otro azul. Así un pixel está formado por su propio tono, más el tono del anterior, más el tono del posterior. Lo que es una interpolación.

Es más (en esto no había caido y por eso reduzco mi numero hipotético de bits de 12 a 9), un pixel se forma con 4 fotositos, según la máscara de bayer 2 verdes, uno azul, y otro rojo. Con lo que si de un raw resultan 36 bit/pixel y un pixel es la interpolación de 4, resultará que cada uno de los 8 millones de fotodiodos captará una variación únicamente de 9 bits (36/4).

así que el tamaño de un fichero raw sin comprimir sería algo así como 8 millones de fotodiodos*9bits/8bits= 9megabytes !!!

Pues siguen sin cuadrarme las cuentas porque a veces los raw me llegan a los 11mb !!

Lo de la interpolación que hacen todos los CCD y CMOS lo leí a partir de que vi que las cámaras SIGMA SG9 o SG10 incorporan a diferencia de las demás un sensor de 3'4 megapixeles reales sin interpolar (no como los CMOS y CCD que interpolan) y decían que equivaldría a 9 mp de cualquier otra cámara si se interpolara (la máscara de enfoque ya sabemos lo que es). Al recoger todas las frecuencias de la luz en un unico punto, la imagen es en la SIGMA son muuucho más nitidas y los colores muucho mejores, aunque claro solo tienen 3megapixeles, que para una cámara reflex de hoy día...

Juanma
09/05/06, 10:08:08
¿como se obtiene el color? pues mediante la máscara de bayer (http://es.wikipedia.org/wiki/M%C3%A1scara_de_Bayer)...
Trataba de acordarme del nombre, pero no me acordaba :oops:


Con lo que si de un raw resultan 36 bit/pixel y un pixel es la interpolación de 4, resultará que cada uno de los 8 millones de fotodiodos captará una variación únicamente de 9 bits (36/4).

No entiendo el razonamiento.... :cry:

No he profundizado en el formato en el que el RAW guarda la información, pero no puede guardar otra cosa que la que hay: 8 millones de números de 12 bits, de los cuales, en algunos de ellos se dice que son R, otros G y otros B. Esa es toda la información. El resto es inventado.

En la cuenta que haces de 36/4, ten en cuenta que la información de un mismo fotosito se emplea para obtener más de un pixel (en concreto, cuatro), y que el verde no puedes tomarlo entero, pues la foto quedaría verdosa: de los dos fotositos verdes, tendrás que tomar la media, o algún otro algoritmo de interpolación. Por eso sí que obtienes más de 9 bits.

Saludos.

Juanma.

Invitado
09/05/06, 11:45:43
Yo me pierdo ya con el tema de los 'fotolitos' y demas guarrerias :wink: , lo único que sé es que internamente la información de cada punto del sensor se guarda en 12 bits (en realidad 16bits pero 4 de ellos no se usan).


Un saludo.

juanjfb
09/05/06, 18:36:38
que el verde no puedes tomarlo entero, pues la foto quedaría verdosa

Quedará verdosa o no dependiendo del algoritmo de interpolación. Por un lado dicen que el verde es el más importante pues el el color al que el ojo es más sensible. Por otro lado, he leido que algunas cámaras usan uno de los verdes como indicador de la luminosidad. Los chips de fujifilm hexagonales tienen un fotodiodo en cada fotosito solo para medir la luminancia.

El caso es que si un pixel de un raw tiene 36 bits y esa gama de colores sale de 4 fotositos, cada fotosito tendrá 9 bits. Ese fue mi razonamiento, que no tengo ni idea.


lo único que sé es que internamente la información de cada punto del sensor se guarda en 12 bits (en realidad 16bits pero 4 de ellos no se usan).

En cuanto a lo que dice 12pollos, es otro tema que tiene que ver más con el postprocesado: de un raw sale una imagen de 36 bits, eso también se llama una imagen de 12bits (por canal) que para trabajarlo, por ejemplo al convertirlo a tiff o en fotoshop se pasan a 16bits (por canal) que son 48 bits en realidad. Pero eso es al final de todo el procesado.

En un archivo raw se guarda solo lo que el sensor capta, antes incluso de interpolar, y es por eso que los archivos raw son tan "pequeños".

Pensad que si realmente en un raw estuviera la información de 12bits por canal (36bits) nos daría un archivo de 36MB , y comprimir eso sin perdidas hasta los 8Mb que suelen resultar es más bien imposible.

Por lo que un raw solo puede contener tan poco como entre 9 y 12 bits por pixel. De los que por interpolación se sacan 36bits (12 bits por canal) y luego al pasarlo a tiff 48bits (16bits por canal).

Un tema complicado del que no hay mucha información, pero interesante (al menos para mi) yo voy sacando mis conclusiones de aquí y de allá.

Saludos

Juanma
09/05/06, 18:54:52
Un tema complicado del que no hay mucha información...

Quizá te interese la descripción del formato DNG, que es el RAW "universal" de Adobe, y de dominio público. Yo lo encontré una vez, pero ahora no sé por dónde anda. Si lo vuelvo a encontrar (ahora no puedo), lo pongo por ahí.

DNG promete que recoge toda la información de cualquier formato RAW sin pérdida, luego su formato interno no debe ser muy diferente de lo que guarde un RAW de nuestra cámara. Quizá estudiando el formato de DNG comprendamos el CR2 :)

Saludos.

Juanma.

Lister
09/05/06, 21:08:01
Me parece un tema interesante y aunque se poco o nada me lanzo a la piscina :D


asi que 8 mp * 12bits /8 = 12mb de archivo

Creo que estabas en lo cierto inicialmente.
Tus cuentas de 9bits no me salen, es decir necesitamos la información de los 3 colores, 36 bits/3= 12 bits para cada color, da igual si saco esa información interpolando de los 2 de al lado ó de 4 ó de los 8 adyacentes, al final tengo la información para cada uno de los 3 colores, por eso no me cuadra lo de 36bits/4pixel

Ahora lo que yo creo

Tenemos 8mp de fotodiodos, cada uno tiene "al lado" un A/D de 12 bits. Esto son 8mp *12bits/8= 12Mb como decías.

Hasta los 36 bits que tiene el raw se llega por interpolación. Cada fotodiodo tiene información sólo de 1 color, los valores para los otros dos colores los obtiene de la información de los 8 pixeles adyacentes y aplicando los algoritmos que cada marca implemente para el caso... así que me quedan 36bits*8MP=36MB hasta los 8Mb pues es una compresión considerable.

He encontrado esta página (http://www.majid.info/mylos/weblog/2004/05/02-1.html) donde habla del metodo de compresión de nikon para los NEF de la D70, al parecer en esta camara si hay perdida de información :P, pero no he visto nada sobre canon :(



Un tema complicado del que no hay mucha información, pero interesante (al menos para mi) yo voy sacando mis conclusiones de aquí y de allá.

Pues ya somos dos :D

Un placer hablar con vosotros de estos temas

saludos

juanjfb
09/05/06, 23:08:57
muy interesante el artículo.
Como ponen a nikon ! poco menos qeu de chapuzas por el acojono de la presión de la tecnología de Canon.

Interesante del artículo que Canon no da soporte después de 4 o 5 años (ya dejó de darlo para la EOS D30 de 2001) Los que tengan fotos de esa cámara y luego se pasen al windows vista (o lo que venga en pocos años más) y no les entre el driver viejo para el windows millenium.... sus raw a la basura (o pasar días convirtiendo miles de fotos a tiff)

Hay que apoyar openRAW.org, yo ya mandé una carta a Canon expresando mi preocupación a través de la web de coborian http://www.caborian.com//content/view/269/142/ donde hay una carta modelo y las direcciones donde enviarla.

Zeos
10/05/06, 09:48:59
"La tabla de previsión se referirá al estadístico gausiano percentil 50"
O sea, la media...
No, no me refería a la media, aunque se puede tomar así. Me refiero a la zona central de la campana de Gauss.

Un sensor es monocromo
Con subpíxeles me refiero a los componentes de color. Un monitor tft tampoco tendría subpíxeles tal como comentais (también es monocromo), pero el hecho es que sí los tiene. Debería ser igual.

Así un pixel está formado por su propio tono, más el tono del anterior, más el tono del posterior. Lo que es una interpolación.
Añado: Una interpolación es generar un punto a partir de un conjunto de otros puntos por medio de una fórmula matemática.
Tengo que informarme del tema de captación porque el asunto no me convence del todo. Creo que la palabra interpolar necesita ahí más aclaraciones. La unión de los 4 fotositos es unión de información de componentes de color (rojo verde y azul y el otro verde, que ahí hay tema), pero no interpolación según se entiende normalmente (esas cámaras que venden con resolución interpolada superior a la real). Aunque lo que confunde es el cachondeo de coger un subpíxel de aquí y otro de allá. ¿Los 8 megapíxeles se refieren a los subpíxeles?

Juanma
10/05/06, 10:15:18
"La tabla de previsión se referirá al estadístico gausiano percentil 50"
O sea, la media...
No, no me refería a la media, aunque se puede tomar así. Me refiero a la zona central de la campana de Gauss.
Pues una "zona central" (o sea, una región de confianza alrededor de la media, que es así como se llama :wink: ), del "ancho" que sea, es un rango de valores, y para hacer una estimación del número de fotos que puedes tirar, necesitas un único valor (una estimación). El "único valor" más adecuado que puedes tomar para representar a toda la muestra es la media.



Un sensor es monocromo
Con subpíxeles me refiero a los componentes de color. Un monitor tft tampoco tendría subpíxeles tal como comentais (también es monocromo), pero el hecho es que sí los tiene. Debería ser igual.
Pues fíjate: no es igual :)

Un TFT sí tiene subpíxeles de tres colores (R, G, B). Un CMOS o CCD (como el de nuestra negrita; otros no) es monocromo con filtros de colores en matriz de Bayer (en Wikipedia viene) por delante. Y no hay una correspondencia del tipo "estos cuatro fotositos van a este pixel y sólo a este pixel".


Una interpolación es generar un punto a partir de un conjunto de otros puntos por medio de una fórmula matemática.
Que es, exactamente, lo que se hace en foto digital a partir del sensor.


Aunque lo que confunde es el cachondeo de coger un subpíxel de aquí y otro de allá. ¿Los 8 megapíxeles se refieren a los subpíxeles?
Es que no hay "subpíxeles", como ya te cuento arriba. Un mismo pixel monocromo de los 8Mpx, teñido de rojo, se usa para "construir" (si te gusta más que "interpolar"), junto con algunos de sus vecinos, hasta cuatro píxeles de 48bits de la imagen final, es decir, un fotosito no es un subpixel de nadie, sino que su información se "usa" para construir píxeles.

Toda la información que puede contener un RAW de la negrita son 8Mpx de 12 bits monocromos, o sea, 12Mbytes. Comprimir eso a 6-8MBytes sin pérdidas no es mucha hazaña.

Y sí, es una interpolación.

Saludos.

Juanma.

Zeos
10/05/06, 10:50:09
Pues una "zona central" (o sea, una región de confianza alrededor de la media, que es así como se llama Wink ), del "ancho" que sea, es un rango de valores, y para hacer una estimación del número de fotos que puedes tirar, necesitas un único valor (una estimación). El "único valor" más adecuado que puedes tomar para representar a toda la muestra es la media.
También se puede interpolar :lol: Si es una tabla puede tener valores según tipo. O incluir la varianza.
Por cierto, me equivoqué al decir percentil. Repito que me refería a la zona central. Aunque ya habia dicho yo mismo que se puede tomar como la media. Si seguimos así, nos repetiremos constantemente y no acabaremos nunca.

Pues fíjate: no es igual
Pues molaría que lo fuera.

Es que no hay "subpíxeles"
Veamos. Un píxel es un elemento de imagen. Un elemento de imagen es la mínima unidad de una imagen, o sea, un punto. Y ese punto tiene un color generado por compomentes (RGB u otros). Por tanto, cualquier cosa que sea menor que un píxel no puede llamarse píxel. Es como llamar átomo a un electrón. Por tanto, la terminología está equivocada en cuestión de sensores.
Ya tengo claro que interpola, pero digo que a mi me ha confundido con el otro tema por no conocer éste en profundidad, y otros lo leerán y pensarán: pues me he gastado una pasta para comprarme una mierda de camara que interpola como una de 50 euros.

Una interpolación.....Lo habia explicado precisamente por aclararlo para quien no lo sepa, no por corregir a nadie. Por esto y lo anterior había dicho que interpolar necesitaba más aclaraciones, que es lo que pretendía.
Editado:
¿Los 8 megapíxeles coinciden con los fotositos? ¿hay 8 megafotositos?

juanjfb
10/05/06, 11:03:35
@Zeos:
Juanma lo ha dejado todo clarísimo


Creo que la palabra interpolar necesita ahí más aclaraciones. La unión de los 4 fotositos es unión de información de componentes de color (rojo verde y azul y el otro verde, que ahí hay tema), pero no interpolación según se entiende normalmente (esas cámaras que venden con resolución interpolada superior a la real).

Eso de lo que se entiende... no sé lo que tú entenderás, pero según la RAE

interpolar:
(Del lat. interpolāre, alterar, mezclar, cambiar).
1. tr. Poner algo entre otras cosas.
2. tr. Intercalar palabras o frases en el texto de un manuscrito antiguo, o en obras y escritos ajenos.
3. tr. Interrumpir o hacer una breve intermisión en la continuación de algo, y volver luego a proseguirlo.
4. tr. Mat. Calcular el valor aproximado de una magnitud en un intervalo cuando se conocen algunos de los valores que toma a uno y otro lado de dicho intervalo.

Verás.

Nuestra cámara tiene 2millones de puntos rojos, 2 millones de puntos y 4 millones de puntos verdes (puntos=pixeles).

Si haces una foto a una pared roja, obtienes una foto con 8 millones de pixeles con tonos rojos con un sensor que solo tiene 2 millones de puntos rojos. ¿es eso interpolación o no? yo creo que sí

Si de un pixel que solo tiene 12 bits interpolas con los de al lado para sacar una gama de 36 bits, ¿es eso interpolación o no? yo creo que sí

Mirate esto que es interesante, aun sin entender mucho ingles, los gráficos se entienden por si mismos: http://www.dpreview.com/reviews/sigmasd10/
La sigma se vende como una cámara de 3,4Mp (o 10,6Mp interpolados para compararla con otra cualquiera) y dicen:
Effective pixels 3.4 million
Sensor photo detectors 10.6 million

Esa, y una hasselblad con el mismo chip son las únicas que no interpolan.

Saludos

Juanma
10/05/06, 11:11:12
Si seguimos así, nos repetiremos constantemente y no acabaremos nunca.
¡¡¡Mola!!! :) :) Esto es un foro, y es para eso, ¿no? :wink:



El "único valor" más adecuado que puedes tomar para representar a toda la muestra es la media.
También se puede interpolar :lol: Si es una tabla puede tener valores según tipo. O incluir la varianza.
Insisto en que no tiene sentido tener un intervalo de valores salvo que la cámara fuera a informarte de un intervalo de número de fotos que puedes hacer. La cámara hace esto: dispongo de 1024Mb para llenar, y estimo que una foto "pesa" 8.7Mb (por poner algo). Total: me da para 1024/8.7=115 fotos. ¿Qué hace si tiene en la tabla algo así como "una foto pesa entre 6 y 9 Mb"? Sería util si me fuera a decir: puedes hacer entre 1024/9=113 y 1024/6=170 fotos, pero como no es el caso, porque sólo da un número, sólo necesita un valor, y el mejor valor para poner en la tabla es la media.



Pues fíjate: no es igual
Pues molaría que lo fuera.
Hay sensores en los que sí es igual o muy parecido (Sigma).


Por tanto, la terminología está equivocada en cuestión de sensores.
Bueno... la terminología se adapta al campo en el que se aplica. Lo que no puedes es trasladar los términos directamente de un campo a otro. Decir que está equivocada es querer encasillar los términos sólo al campo en que tú crees que deben estar.
De todas formas, estoy de acuerdo en que es más inequívoco hablar de 8 millones de fotosensores, pero, ¿quién lo hace? :wink:


... pues me he gastado una pasta para comprarme una mierda de camara que interpola como una de 50 euros.
Jajajaja :P :P La de 50 euros interpola dos veces: una para hacer lo mismo que la nuestra, y otra para hacer lo que hace el PS cuando agrandamos la imagen.

La discusión es buena. Se depuran conceptos :wink:

Saludos.

Juanma.

juanjfb
10/05/06, 11:13:27
pues me he gastado una pasta para comprarme una mierda de camara que interpola como una de 50 euros.

Si te vas a analógico, es como comparar una nikon F6 de casi 2000 Eur con una kodak de 20 Eur, ¡¡¡ ambas usan la misma película de 35mm !!! ¿saldrán las fotos iguales?

Pero es que esa interpolación es una solución tecnológica necesaria, hasta que se inventó el sensor Faveon X3 y que puede que continue si este no tiene más exito, porque eso de menos megapixeles (aunque sean sin interpolar) no vende.

Zeos
10/05/06, 11:27:33
Chavalotes, que igual no estoy muy inspirado, y me habré enterado del tema de la captación poco a poco, pero se que quiero decir. No es que me guste o me disguste ni estoy negando que interpole. Un ejemplo:
Una persona corriente que no sabe que es un sensor va a una tienda. Ve una cámara de marca nisu. Pone 12 megapíxeles y vale 50 euros. Tras mirar las especificaciones, ve que la cámara tiene 2 megapíxeles e interpola a 12, con resultados bastante pésimos tras probarla.

Siento haber creado confusión. ¿Por que ha sido? Por no leer todo. Muy mal. Mejor me callo y leo.

Zeos
10/05/06, 11:29:55
Y salen mensajes de golpe. Vale, cuestión de actualizar más rapido. Esperarse un poco que os lea :P

juanjfb
10/05/06, 11:39:44
Muy mal. Mejor me callo y leo.

Hombre, tampoco te lo tomes a mal, lo que pasa es que estabamos 2 contra uno :lol: :lol: y atacando rápido :P :P :P


Como Juanma ha dicho:



Zeos: Si seguimos así, nos repetiremos constantemente y no acabaremos nunca.

Juanma: ¡¡¡Mola!!! :) :) Esto es un foro, y es para eso, ¿no? :wink:

Juanma
10/05/06, 11:52:19
Mejor me callo y leo.

No, mejor lee y no te calles :)

Saludos.

Juanma.

Lister
10/05/06, 12:03:15
Toda la informaci¾n que puede contener un RAW de la negrita son 8Mpx de 12 bits monocromos, o sea, 12Mbytes.
Comprimir eso a 6-8MBytes sin pÚrdidas no es mucha haza±a.

¿Eso es asi? veras en el raw tenemos 8mp con 36bits de profundidad de color, 12bits para cada color primario.
Ya sabemos que uno de los colores se obtiene directamente de cada fotodiodo y los otros dos por interpolación.
Lo que no tengo claro es que esta información no se guarde en el raw, eso querría decir, que cuando abrimos un raw con cualquier visor
el programa en cuestion debería calcular por interpolación los dos colores que faltan para cada fotodiodo ¿no? y esto lógicamente no tiene mucho sentido.
Es la camara la que hace esta interpolación y en el raw estan los 8mp con sus 36bits. ¿que opináis?

Lo mismo me he columpiado y no tiene sentido lo que he dicho :P


un saludo

Juanma
10/05/06, 12:14:05
... en el raw tenemos 8mp con 36bits de profundidad de color, 12bits para cada color primario.
Pues, realmente, eso es lo que no sabemos, porque el formato no está documentado :?

Personalmente, pienso que sería un derroche de espacio triplicar esa información, cuando la interpolación tiene que ser trivial algorítimicamente. Dudo mucho que se guarden los tres colores por pixel, sino sólo el que le corresponde. Y, ni siquiera, si es R, G o B, pues se puede deducir sabiendo los dos primeros (la matriz de Bayer tiene una secuencia predeterminada). Creo que la interpolación la debe hacer el programa que interpreta el RAW.


Lo mismo me he columpiado y no tiene sentido lo que he dicho :P
No lo sabemos, al no estar documentado el formato. Sólo se puede saber por ingeniería inversa :cry:

Yo me inclino a pensar que sólo se guardan los 12 bits de cada pixel. Si se guardaran los tres colores, no me cuadran los tamaños del RAW resultante. Date cuenta que una cámara no tiene mucho procesador para poder hacer compresiones de ficheros complejas: tiene que ser algo rápido, y, por ende, no mucha compresión.

Saludos.

Juanma.

juanjfb
10/05/06, 12:34:35
Lo que no tengo claro es que esta información no se guarde en el raw, eso querría decir, que cuando abrimos un raw con cualquier visor
el programa en cuestion debería calcular por interpolación los dos colores que faltan para cada fotodiodo ¿no? y esto lógicamente no tiene mucho sentido.
Es la camara la que hace esta interpolación y en el raw estan los 8mp con sus 36bits. ¿que opináis?


No, en el raw se guarda solo lo que el sensor ha captado. es decir unos puntos son solo verdes, otros rojos y otros azules.

Quien interpola es el programa que muestra la imagen. Por eso se dice que futuros softwares pueden añadir nuevas ventajas nuevas tecnologías al raw y es otra de las quejas sobre el formato raw privativo frente a uno estandar en el que el raw podrá tratarse después de los años con los softwares más avanzados.

El que el archivo raw guarde solo lo que capta el sensor sin procesar (el interpolado ya es un procesado), me parece lógico por una razón de ahorrar espacio y tiempo. Es en el ordenador cuando hay potencia, tiempo y espacio para interpolar y expandir la imagen.

Y por eso que el visionado de un raw es muuuucho más lento que si la foto está en jpg, aunque el raw suele contener un thumnail en jpg de la imagen para previsualizarlo, según leí ayer en un enlace a los archivos NEF de nikon en este hilo del foro.

Saludos

Zeos
10/05/06, 12:42:42
Es que no me dais tiempo. Por cierto, el trabajo me cunde poco.

No es tomarmelo a mal (del todo :lol: ) es que he dicho cosas que estaban comentadas pero no las había leido.

Sobre lo de la estadística. La cuestión que había expuesto era únicamente si la cámara acierta con los cálculos de número de fotos para RAW. Luego ya hemos desvariado un poco. ¿Como será la tabla de previsión? ¿Medias? ¿Cálculos más complejos? Pues serán medias, pero por decir... De todas maneras, lo de meter a Gauss molaba. Que use para algo el digicII cuando no hace fotos. Entre foto y foto, según como son las que hacemos. Es un decir. Tranquilos. Aunque no estaría nada mal que pusiera un intervalo.

Interpolación. La hace, pero no como el GIMP o algún otro programa de retoque (como ese que piratean algunos...). Ahora la cosa es si soy el único que tiene mal vista a la interpolación.

Si haces una foto a una pared roja, obtienes una foto con 8 millones de pixeles con tonos rojos con un sensor que solo tiene 2 millones de puntos rojos. ¿es eso interpolación o no? yo creo que sí
Que si, que si, que no he dicho que no en ningún momento. Solo digo que no es lo mismo el caso en el que solo es en la captación que el de las cámaras que dicen en sus especificaciones que interpolan, con lo que lo hacen dos veces.
Como si metemos ahora lo del zoom digital. ¿Que es mejor, el óptico o el digital? Hay cámaras con 10x pero óptico 2x. Pues ahí está el tema. Diferenciar que es lo uno y lo otro, y eso es lo que yo quería clarificar.

Lo que tengo que mirar es la comparativa entre las que interpolan en la captación y las que no. ¿Hay diferencias?

Y a todo esto, ¿de que iba esto al principio? :P

La cámara tiene 8 megapíxeles porque interpola de los 8 megafotositos. Por tanto la terminología está bien, pero a veces se aplica mal, o interesadamente. Más exactamente. En las especificaciones de la camara: 8.2 millones de píxeles totales, y 8 millones efectivos. Los totales son los fotositos y los efectivos son los píxeles que saca de interpolar de los fotositos. Más exactamente aún. La imagen mayor es de 3456 x 2304=7962624 píxeles (efectivos según Canon).

RAW se supone que son datos en bruto. Vamos, que no tiene formato ninguno aunque realmente tenga alguno. O sea, que se guarda el valor de cada fotosito directamente en el archivo, y luego se comprime, se le mete la cabecera con algunos datos, y hecho. Puesto que son 12bit por fotosito (no píxel), cada par de fotositos son 3 bytes(octetos). Si losfotositos son 8'2millones, la foto ocuparía 8'2 megabytes(megaoctetos), pero como son 12 bit, 8'2*12/8=12,3. Comprimiendo un poco, algo menos. Y pensar en patrones de colores según el iso siendo píxeles que parten de interpolar componentes de color ya es demasiado. Creo que le daría dolor de cabeza a David Huffman.

"Thumbnail" es minimagen. Hablemos para entendernos todos.

Juanma
10/05/06, 14:32:50
¿Como será la tabla de previsión? (...)Entre foto y foto, según como son las que hacemos.
Pues como idea, no estaría mal que tuviera un algoritmo adaptativo que "calibrara" cuánto pesan nuestras fotos en particular. Y sería muy sencillo: bastaría con sumar todo el peso de todas las fotos que ha tirado la cámara (que puede registrarlo) y dividirlo por el número de fotos tiradas (que lo almacena, de hecho, para los nombres de ficheros).

Habrá que proponérselo a los que están haciendo modificaciones al software :wink:


Ahora la cosa es si soy el único que tiene mal vista a la interpolación.
Pues no te enfades con ella, hombre... :P Si es muy maja :lol:
Las técnicas de interpolación, bien usadas, permiten aproximar con bastante fidelidad información de donde no la hay o no puede obtenerse. Sin ellas no tendríamos audio digital, ni foto digital, ni previsiones, ni meteorología, ni muestreos, ni... :wink:


Lo que tengo que mirar es la comparativa entre las que interpolan en la captación y las que no. ¿Hay diferencias?
No sé si habrá algún sitio donde las comparen a igualdad de número de fotosensores, pero dudo que haya diferencia. Las de fotositos de 3 colores también tienen sus desventajas (más ruido entre los tres "subfotositos", necesariamente, pues están mucho más juntos que si estuvieran planos).


Y pensar en patrones de colores según el iso siendo píxeles que parten de interpolar componentes de color ya es demasiado.
Pero lo que comprimes es en BN, y teniendo en cuenta que las imágenes tieneden a ser "suaves", en el sentido de que puntos adyacentes tienden a tener luminosidades parecidas, la compresión puede ser muy buena.

Ahora bien: el ruido hace que haya más diferencia de luminosidad entre puntos adyacentes, lo que hace que se pueda comprimir menos. Esto sustenta la teoría de que mayor ISO da mayores ficheros.


"Thumbnail" es minimagen. Hablemos para entendernos todos.
¿"Minimagen" está en el diccionario? :wink: Nos hemos entendido :lol:

Saludos.

Juanma.

Lister
10/05/06, 15:38:58
No, en el raw se guarda solo lo que el sensor ha captado. es decir unos puntos son solo verdes, otros rojos y otros azules.

Pues me habéis convencido, inicialmente pense que esto era lo más lógico, por temas de espacio y rapidez a la hora de generar y almacenar los raw.
Pero luego pense, erroneamente, que tal vez a Canon no le interesase que un mal visor de raw ofreciese pobres resultados de sus camaras, por aquello de la mala publicidad.
Supongo que estos algoritmos de interpolación estarán más que trillados y no supone problema alguno implementarlos.

Por cierto he encontrado este (http://www.sno.phy.queensu.ca/~phil/exiftool/canon_raw.html) enlace donde se detalla el formato de los ficheos crw de la 300d y donde dice "The CR2 files use a TIFF format" :o

seguiremos mirando

saludos

Lister
10/05/06, 16:25:22
Aqui (http://distro.ibiblio.org/pub/linux/distributions/sourcemage/mirror/dcraw.c) podéis ver el fuente (solo es uno :P) del dcraw, que permite manejar entre otros los CR2 de nuestra camara... eso si, es algo denso :P

saludos

Zeos
10/05/06, 17:46:35
Sin ellas no tendríamos audio digital, ni foto digital, ni previsiones, ni meteorología, ni muestreos, ni...
Te olvidas de los gráficos vectoriales, dibujo y maquetación, entornos 3d... :) No se incluyen los muestreos.
Me refiero sólo al caso de la interpolación para incrementar la resolución o el zoom falsamente. Por lo demás, me llevo muy bien con ella. La saludo todos los dias.

Pero lo que comprimes es en BN, y teniendo en cuenta que las imágenes tieneden a ser "suaves", en el sentido de que puntos adyacentes tienden a tener luminosidades parecidas, la compresión puede ser muy buena.
Uy, pues no lo habia pensao. :lol: De todas maneras no es tan directo de deducir qué imagen se comprimiría más. Las luminosidades responden a puntos con filtrado de luminosidad por color.

¿"Minimagen" está en el diccionario?
Me parece bastante triste el tomarselo a broma. Quien no haya pasado por páginas en inglés y haya visto esas "uñas" no sabrá de que hablas. Porque un señor inglés cree un neologismo en SU lengua no tiene por qué entrar en la MIA. El buen uso del idioma propio incluye saber manejar prefijos y sufijos. (Minimagen está aceptada por la comunidad hispana) Además, coger palabras ajenas es estridentemente cursi. Pero para quien no conoce bien otros idiomas le mola infectar el español. No lo entiendo.

Zeos
10/05/06, 18:13:03
"The CR2 files use a TIFF format"
O sea, que los archivos CR2 de la cámara usan el formato TIFF. Nunca he sabido como era ese formato, así que le he pegado una mirada. Un extracto:
TIFF es Tagged Image File Format (formato de archivo de imágenes con etiquetas)
Los TIFF contienen, además de los datos de la imagen propiamente dicha, "etiquetas" en las que se archiva información sobre las características de la imagen, que sirve para su tratamiento posterior. Estas etiquetas describen el formato de las imágenes almacenadas, que pueden ser de distinta naturaleza. El tipo que se aplicaría en nuestro caso es: Niveles de gris, adecuadas para imágenes de tonos continuos como fotos en blanco y negro

Conclusión. Es TIFF pero seguimos igual. Es un RAW con datos de lo que lleva, y compresión. Abrirlo como TIFF no se como resultaría...