Eso es algo que no tengo nada claro y me gustaría ver algo que lo demuestre. Si le echo una pensada al tema me sale lo siguiente.
Hay dos formas de meter más píxeles en un sensor: reduciendo el tamaño de cada píxel, o reduciendo el espacio entre ellos. Respecto al sensor de la 450D no sé cuál de los dos casos tenemos, aunque supongo que el primero.
De ser así, con píxeles más pequeños, lo que por lógica obtendríamos en tomas del mismo tiempo de exposición sería una relación señal/ruido más pobre por el hecho de que en una superficie menor (un píxel más pequeño) entrarán menos fotones por unidad de tiempo. Sin embargo, ¿es igual el ruido en un pixel grande que pequeño? Ni idea. Quizás el ruido se haya conseguido reducir, y la relación s/r se haya conseguido mantener.
Luego está el procesador, que también tiene algo que ver en la reducción de ruido, y en este caso tenemos que el de la 500D es más avanzado que el de la 450D. En concreto es el DIGIC4, el mismo que monta la 5D Mark II.
En fin, que pensar aquí no nos saca de nada. Habría que comparar.
Eso sí. La resolución de las ópticas actuales no sigue la onda de esta moda de los minipíxeles, y el abanico de objetivos perfectamente corregidos se reduce bastante. Al tener un sensor con una resolución superior a la de la óptica, los defectos de ésta se hacen más evidentes. El tema ahora es: la diferencia entre la 450D y la 500D es muy significativa en este sentido? Habría que verlo.
Creo que te refieres a elegir una resolución de disparo baja, en S o M... No es ninguna tontería esa pregunta, pero me temo que no se consigue nada. A ver si me consigo explicar. La aberración cromática consiste en que un rayo de luz de una frecuencia (o color) determinada se refracta al atravesar una lente, descomponiendo el color en un haz que incide en el sensor en una superficie mayor de la que debería. Hasta ahí estamos. Si el sensor tiene detectores grandes ese haz puede entrar entero en un mismo píxel, por lo que ese píxel recibe toda la señal original del rayo de luz y representa su color con bastante fidelidad. No seremos capaces de saber si la luz se ha descompuesto o no antes de llegar al pixel. Sin embargo, si el haz incide en varios píxeles diferentes, algunos de ellos recogerán sólo la parte más descompuesta del color, y con eso ya la habremos cagado. Tendremos píxeles con un potente color pero falso, originado por la aberración de la lente.
Al hacer una reducción de resolución de imagen lo que pasa es que se interpolan píxeles contiguos, pero al tener ya píxeles con una información falsa muy fuerte, contaminarán al resto en la interpolación y seguiremos viendo esas aberraciones.
En fin, no se si me explico
Un saludo.
Marcadores