martes, 24 de noviembre de 2020

FOTOGRAFIA COMPUTACIONAL

Hace unos pocos años, los buenos aficionados a la fotografía soñaban  con poder adquirir una cámara con un buen sensor (APS-C o de fotograma completo si se podía) y un objetivo de calidad. Hoy en día se ha llegado a un nivel de desarrollo tecnológico en que la Inteligencia Artificial complementa de forma muy importante la calidad de la lente y del sensor y cualquiera puede llevar en su bolsillo un aparato que consigue buenas fotos y además puede hacer muchas cosas más. Y esto cualquiera lo puede tener desde 250€ hasta 2100€ (una fracción de lo que cuesta una cámara de foto/vídeo semi-profesional).

Con las cámaras que incorporan estos móviles, a  efectos prácticos para la mayoría de usuarios, se llega a un nivel tan bueno que la mayoría de las personas en una “cata a ciegas” no distinguen los resultados de los que consiguen muchas cámaras semiprofesionales. Muchos usuarios incluso prefieren los resultados conseguidos por los móviles baratos debido al tratamiento de color y al “efecto belleza” que hacen muchos de ellos. 

Hace medio siglo prácticamente nadie tenía cámara fotográfica (el video todavía no se había inventado) y hoy la fotografía se ha democratizado. Todos nos creemos fotógrafos porque tenemos una herramienta en el bolsillo que hace fotografías muy chulas comparado con la que podrían hacer la mayoría de personas, sin conocimientos fotográficos, con las cámaras de fotos que muchos tenían hace 10 años.

Lo fabricantes de cámaras fotográficas convencionales, si no quieren desaparecer o quedarse reducidas a clientes muy profesionales se tendrán que adaptar. Los teléfonos con sus pantallas táctiles, filtros digitales y gran potencia de procesamiento compensan cada vez mejor la información reducida que proporcionan los pequeños sensores y lentes de los teléfonos. El futuro será de la hibridación de los 2 mundos, donde los procesadores de alto rendimiento ayuden a las cámaras sin espejo a mejorar aún más la eliminación del ruido, la rapidez y el seguimiento del enfoque, la estabilización y el rango dinámico a un precio más contenido.

Algunos verán en la fotografía computacional asistida por Inteligencia Artificial una oportunidad para aprender y mejorar sus creaciones fotográficas y mejorar sus creaciones artísticas. Otros (la mayoría) la usarán solo para  presumir y para engañar con lo que “no es”,  buscando la espectacularidad o el aplauso fácil. A todos nos gusta ser estrellas y presumir de looks espectaculares si no nos cuesta mucho esfuerzo conseguirlo y difundirlo.

pastedGraphic.png

Viajar es caro y cuando visitamos lugares siempre tenemos tiempo limitado. A veces visitamos un lugar a una hora en la que no podemos sacar una buena foto porque la luz no acompaña y no podemos volver a otra hora o día para tener una luz mejor. Hace sólo 3 años podíamos  conseguir guardar en nuestro archivo digital un recuerdo del lugar “como nos hubiera gustado verlo” usando un programa de edición (Photoshop es el rey) y sabiéndolo usar adecuadamente, porque si bien todos conocen el nombre de este programa, pocos se desenvuelven bien con las selecciones, las máscaras, los pinceles, los modos de fusión de capas, los filtros, etc.. Pronto, con la Inteligencia Artificial y la fotografía computacional, incorporada en los teléfonos móviles, cualquiera puede conseguirlo fácilmente en la misma ubicación donde toma la foto/vídeo y compartirla al momento en redes sociales o con los amigos. Así, los amigos dirán ¡Vaya lugar paradisíaco y vaya atardecer! Y los likes volarán. Poco importará si la foto recibida es un reflejo de la realidad o no. Lo importante es la “reacción” que causará.

Hoy en día cualquiera, sin ningún conocimiento de fotografía, puede pulsar el círculo en la pantalla de su móvil y obtener una imagen bien expuesta o un video estabilizado que compartir o recordar.

Los puristas y los profesionales se tiran de los pelos. Los mas expertos venden sus “presets” o cursos de formación a precio de saldo porque saben que su know How pronto no valdrá nada para la mayoría de los aficionados que hace sólo unos años pagaban miles de euros por poder asistir a sus cursos.

Todos podremos conseguir resultados no excelentes, pero a la mayoría nos valdrán. Incluso los que nos ha gustado siempre la fotografía cada vez valoramos más la portabilidad y dejamos en casa la mochila, los grandes cuerpos Réflex, los objetivos voluminosos y pesados, los filtros, los trípodes, etc. Las fotos no quedan igual, pero como ya no hacemos grandes ampliaciones, la mejor cámara es la que llevamos siempre encima. En el móvil hacemos todo el proceso desde la toma, la edición rápida, compartir, comentar con los amigos, etc. y se ha convertido directamente en la única cámara que utilizamos. 

Todo lo que hace cinco años se podía conseguir dedicando mucho tiempo de preparación, de procesado y sobre todo sabiendo como usar bien las herramientas (cámaras y programas de revelado/composición digital), ahora lo puede conseguir prácticamente todo el mundo apretando sólo un botón en el móvil que llevamos siempre encima.

A pesar de todos estos avances en la técnica, no todo lo hace la máquina. No todos los móviles son iguales ni todos los usuarios tienen la misma capacidad de “mirada fotográfica”, de componer la imagen, no saben bien el efecto que quieren conseguir o la historia que quieren explicar, etc.

Gracias al sensor más grande mi cámara réflex ofrece una imagen más limpia, mejor separación del sujeto con el fondo, mejor balance de blancos, etc. pero mi iPhone va siempre conmigo y cuando veo algo que quiero captar, lo puedo usar con resultados decentes. La portabilidad es importantísima y por ello mi cámara de fotos está a punto de jubilarse.

Los aficionados a la fotografía/vídeo le dan gran importancia a la calidad y rendimiento de la cámara a la hora de probar un móvil. Los fabricantes hacen su propaganda y publicitan ciertos rasgos que a veces no tienen la importancia que se les da. Por ello antes de comprarse un móvil y dejarse hipnotizar por la publicidad hay que preguntarse: ¿Qué vas a hacer con tu teléfono? Para llamadas mensajes y Whatsapp, con este vale: Un Nokia 6300 4G, remake de un clásico con mejoras significativas: KaiOS alimentado por un procesador Snapdragon 210 junto con 512 MB de RAM, 4 GB de almacenamiento incorporado. También hay soporte para la expansión del almacenamiento (hasta 32 GB) a través de una ranura para tarjetas MicroSD.

La pantalla es de 2.4 pulgadas y la batería extraíble es de 1500mAh y se carga a través de un puerto Micro USB y durará hasta 27 días en modo de espera. Soporte 4G y un punto de acceso Wi-Fi. Cámara VGA en la parte posterior con una linterna que funciona como el flash de la cámara. Hay GPS, Bluetooth, soporte dual nano-SIM, radio FM y un jack de audio. Con WhatsApp, Facebook, WhatsApp y YouTube y Google Assistant para configurar recordatorios y obtener respuestas a preguntas. Y todo por 49€.

Para hacer fotos geniales no es imprescindible un gran equipo. El artista eres tú, aunque cada vez más hay teléfonos que aplican post-producciones por software diseñados por “artistas” y que pueden dar su look a nuestras fotos. Incluso hay programas de postproducción que consiguen con muy pocos toques lo que llevaría horas de trabajo en Photoshop sabiendo usarlo a nivel de maestro.

Los desenfoques que precisaban objetivos con grandes aberturas (cuando más tele mejor) ahora se pueden conseguir bastante realistas depende de la calidad del software. Por supuesto la calidad no es la misma, pero para fotos que sirven principalmente para compartir en redes sociales a baja resolución y en tamaño pequeño es más que suficiente.

¿Cuáles son los mejores móviles fotográficos? 

¿Vale la pena gastarse más dinero para obtener unas mejores prestaciones? 

¿Nos toman el pelo con eso del zoom o de los Megapíxeles de los objetivos? 

¿Mejor muchos objetivos o mejor uno y bueno?  


Todos los fabricantes aspiran a lograr un mayor detalle en la fotografía mediante una captura más precisa de la luz en la escena, pero luego la interpretación del fabricante de esos datos lleva a mejores o peores resultados.

A veces un sensor de 12M puede ser mejor que uno de 102M. ¿Cómo es eso posible?: Porque la calidad no depende sólo de la cantidad de Megapíxeles. Su se tienen muchos megapíxeles se puede hacer una ampliación mayor (con menos saltos entre pixel y pixel), pero la calidad de cada píxel es más importante aún porqué cuanto más grande sea el tamaño del pixel, más sensible es a la luz que es capaz de captar sin ruido y con resultados más nítidos. ¿Nos interesa más una imagen muy grande pero poco nítida y con poco rango de colores o una imagen menos ampliable pero mucho más nítida y con más diversidad y gradación de  colores?.

Apple logra buenos resultados mediante el uso del aprendizaje automático para dividir una escena en piezas más fáciles de entender. El fondo, el primer plano, los ojos, los labios, el cabello, la piel, la ropa, los  cielos. Procesan todo esto de forma independiente y automáticamente, sin que el usuario se entere, igual que haríamos un entendido en Lightroom con un montón de ajustes locales. Ajustan todo, desde la exposición, el contraste y la saturación, y lo combinan todo junto para dar un JPG de alta calidad.

Todos hemos experimentado lo difícil que resulta conseguir que los cielos queden bien expuestos en relación a la tierra. Apple aplica la tecnología Smart HDR para segmentar el cielo y tratarlo de forma completamente independiente y luego mezclarlo de nuevo para recrear más fielmente la iluminación, saturación vivacidad y temperatura de color. La calidad se logra cuando se consigue capturar de forma lo más fiel posible a lo que  nuestros ojos ven y nuestro cerebro interpretó cuando tomamos la imagen o el vídeo. No es mismo que lo que hacen algunos fabricantes que ofrecen productos de gama media o baja, los cuales, basándose en estadísticas de preferencias (likes) dan un tratamiento que ofrece lo que a la mayoría les gusta: colores luminosos, saturados y vívidos, pero irreales. 

La diferencia entre las capturas en HDR de un dispositivo u otro se encuentra en las paradas, que sería algo así como la cantidad de niveles de exposición, de luz, que el sensor puede distinguir en la fotografía. Así,  a mayor cantidad de paradas, más detalladas serán las fotografías. 

Al igual que ocurre con el formato ProRES para vídeo, el ProRAW es un formato creado por Apple (vendrá con IOS 14.3) para aprovechar al máximo las capacidades de la cámara de los nuevos iPhone 12 Pro. Gracias a estos archivos DNG, tendremos acceso a imágenes con una cantidad de información de hasta 14 paradas de rango dinámico en cada fotografía y color de 12-bit según PetaPixel, por encima incluso de lo que se puede encontrar en cámaras profesionales como la Canon EOS R5, capaz de alcanzar las 12,8 paradas de rango dinámico y con un precio tres veces más alto.

El archivo de una toma realizada con un iPhone 12 Pro se escribirá en el formato DNG, o negativo digital. La aplicación Fotos nativa, así como ciertas aplicaciones de terceros, como Darkroom, podrán obtener acceso completo a una gran cantidad de datos de imágenes digitales desde el primer momento. Programas como Adobe Lightroom y Photoshop, así como Capture One, también podrán leer el archivo, pero esos renderizados iniciales mejorarán una vez que esas empresas actualicen sus perfiles para incluir el iPhone 12 Pro y Pro Max.

Podrá habilitar ProRAW activando un interruptor en la aplicación Configuración, después de lo cual la aplicación Cámara tendrá un botón que se puede tocar para activar y desactivar la función. Si toma una foto ProRAW y la ve en la aplicación Fotos, verá una insignia "RAW" en ella como ya lo hace para una imagen HDR o Live Photo.

pastedGraphic_1.png

Sin embargo, lo que verá es la foto renderizada, no la cruda en sí. Esto significa que el teléfono esencialmente se está capturando en JPEG y RAW automáticamente. Si elige editar la imagen, se le mostrará la imagen RAW que puede guardar de forma no destructiva.

También puede optar por exportar el DNG a una aplicación de edición en su teléfono o a su computadora para editarlo en cualquier programa que sea compatible con DNG.

Solo el iPhone 12 Pro y el 12 Pro Max tendrán acceso a ProRAW y las fotos ProRAW de Apple serán DNG de 12 bits con 14 paradas de rango dinámico.

El que quiera quedarse con el tratamiento automático de la cámara le bastará con pulsar y enviar la foto/vídeo y el que quiera perfeccionar o tener otra interpretación de la realidad, el archivo RAW le dará acceso a las opciones de balance de blancos, mapeo de tonos, exposición y punto negro, mapas de pigmentación para la piel y el cielo, etc..

Ya vemos que hay que tener en cuenta muchos aspectos que la publicidad no explicita y la inmensa mayoría de las personas desconocen. Al final hay que ser equilibrado, pensar muy bien lo que cada uno necesita y comprar el producto que satisfaga esas necesidades reales y  puntuales. Si estas cambian en el futuro seguro que tendremos nuevas oportunidades para satisfacerlas.

Aquí les dejo dos videos:

  • Un vídeo con imágenes tomadas con un iPhone 12 Pro Max comparadas con otras tomadas al mismo tiempo con una cámara semiprofesional.
  • https://www.youtube.com/watch?v=Baq7JADxeqY
  • Reseña sobre el iPhone 12 Pro Max realizada por  Austin Mann

http://austinmann.com/trek/iphone-12-pro-camera-max-review-zion


ANEXO para personas que les guste la tecnología.-

Algunas consideraciones para entender lo que compramos sin dejarnos confundir por la publicidad.

A la hora de valorar una cámara de fotos/vídeo, incluidas las de los móviles, los vendedores suelen publicitar el número de megapixeles y con eso la mayoría de la gente valora que una cámara es mejor cuántos más megapixeles tenga. Los vendedores aprovechan esta incultura del personal, como lo hacen en muchos otros campos… (economía incluida) para vender su móvil base con cámara de 12M, su gama media con cámara de 64M y su tope de gama con cámara de 102M, sin especificar nada más y la mayoría de compradores piensan que a más M, más calidad, cuando no es así en absoluto. .
Nada o poco nos especifican sobre el rango dinámico, la nitidez, el rolling/global shutter, el tratamiento/fidelidad del color, la facilidad de uso del móvil, facilidad de acceso a la toma, la facilidad de edición posterior in situ, la rapidez de procesado, almacenamiento y transmisión, el sellado contra las inclemencias climáticas, el sobrecalentamiento y otras características que pueden ser más importantes para obtener la toma que queremos donde la necesitamos. Todo esto es mucho más importante que tener 5G (que no se puede utilizar en casi ningún sitio) o que pueda grabar en Dolby Visión porque pocos usuarios podrán aprovechar esta característica debido a las servitudes técnicas de toda la cadena de creación/compartición.
Algunos “opinadores”, (con muchos seguidores en You Tube) se contentan con usar una verborrea fluida y mucho movimiento en sus vídeos para sólo comparar el tamaños de los notch o el tamaño físico del aparato y decir si les gusta más o menos uno que otro. La mayoría de análisis y las comparativas que hacen estos «influencers» son tan nimias que solo sirven para gente indecisa (la mayoría). Estos influencers se mantienen porque hay muchos tipos de personas que no tienen ningún conocimiento sobre tecnología, ni siquiera saben bien lo que les gusta y menos lo que necesitan, para poder hacer en condiciones lo que quieren hacer. Siendo así, compran según las modas o según lo que compran sus amigos del club de fans, para no desentonar y ser “wuais” como (o más que sus amigos.
Cualquier cámara digital o móvil (que también tiene cámara) necesita un sensor, y dependiendo de su “calidad” (que va más allá del número de megapixeles que tiene) podrá captar mejores instantáneas o  grabar mejores vídeos.
El SENSOR
Los sensores más populares son los CMOS (Complementary Metal Oxide Semiconductor) y utilizan un sustrato sensible a la luz pero, contrariamente a los sensores CCD, trabajan mediante un método de acceso aleatorio para transferir la información del píxel, en lugar de utilizar registros de desplazamiento. Los sensores CMOS pueden trabajar de dos formas en cuanto a la transferencia de la imagen. Estas dos formas de funcionamiento se denominan: rolling shutter y global shutter.
Los sensores CMOS incluyen en su substrato, el área activa del píxel y el espacio necesario para el chip que se encuentra en el propio circuito. La ventaja principal de los sensores CMOS es su velocidad. Estos dispositivos son capaces de funcionar a miles de imágenes por segundo. Además, proporcionan una alta capacidad “de pozo” (cantidad de luz que puede almacenar cada pixel) y unas excelentes características de respuesta. Sin embargo, presentan desventajas, como la existencia de ruido denominado “fixed pattern noise”. 
Rolling shutter y Global shutter
Algunas de las cámaras CMOS son del tipo Global Shutter y todos los píxeles del sensor son sensibles a la luz durante el mismo tiempo. Los valores de la señal de integración se almacenan en el nodo de almacenamiento de píxel y posteriormente se vuelcan en el periodo de transferencia. Sin embargo, hay otras cámaras CMOS de más bajo coste, que utilizan la tecnología «Rolling shutter». En este caso se utiliza una arquitectura de control de exposición en el que en el periodo de captura, una ventana de integración se desplaza a lo largo del sensor. La anchura de la ventana de integración, conjuntamente con la velocidad de barrido, define el tiempo de integración. Cada línea de píxeles se lee de forma consecutiva y se transfiere de la misma forma, de esta forma, si hay movimiento, aparece una cierta distorsión en la imagen.
Cuanto mayor es el valor, más pronunciados son los artefactos del rolling shutter. Si se cuenta con estabilización del sensor en el cuerpo, en cierto punto es posible mitigar los efectos de un rolling shutter malo (valor alto).
Factor de relleno 
El factor de relleno es el porcentaje del área de píxel que es sensible a la luz. El caso ideal es 100%, cuando los píxeles activos ocupan el 100% del área del sensor. Sin embargo, circuitos como los registros de lectura y los circuitos antiblooming reducen este factor, en algunas ocasiones hasta al 30%. El efecto de esta reducción se traduce en una menor sensibilidad y en efectos de aliasing. Para mejorar esto, muchos sensores con bajo factor de relleno, (normalmente CCD con Transferencia Inter Línea) utilizan micro lentes que cubren cada uno de los píxeles incrementando la efectividad del factor de relleno.
Tipo de Transferencia
Hay varios tipos de sensores por la forma de transferencia de la información de los píxeles, que son:
Transferencia interlinea (ITL)
Los CCD que incorporan esta tecnología son los más comunes y utilizan registros de desplazamiento, que se encuentran entre las líneas de píxeles y que se encargan de almacenar y transferir los datos de la imagen. La principal ventaja de este tipo de CCD es la alta velocidad de obturación, pero no son tan sensibles y precisos como otros tipos de tecnología. Tienen un  bajo nivel de factor de relleno y un rango dinámico  más bajo.
Transferencia de cuadro 
Los CCD que tienen este tipo de transferencia tienen un área dedicada al almacenamiento de la luz que está separada del área activa y otra área para los píxeles activos que permiten un mayor factor de relleno. El inconveniente en este tipo de sensores es que la velocidad de obturación no puede ser tan rápida y que el coste de estos sensores es más alto al ser más grande su tamaño.
Cuadro entero (FULL FRAME)
Son los CCD que tienen una arquitectura más simple. Emplean un registro paralelo simple para exposición de los fotones, integración de la carga y transporte de la carga. Se utiliza un obturador mecánico para controlar la exposición. El área total del CCD está disponible para recibir los fotones durante el tiempo de exposición. El factor de relleno de estos tipos de  CCD es del 100%.
Cámaras color
Tanto en aplicaciones industriales como científicas cada vez se están utilizando más las cámaras color. Aunque el proceso de las imágenes color es más complejo. Este tipo de cámaras pueden proporcionar más información que las cámaras monocromo. 
VELOCIDAD DE OBTURACIÓN (SHUTTER)
Las imágenes de objetos en movimiento a menudo aparecen movidas, incluso utilizando cámaras progresivas. Esto es debido a que la luz se acumula en los píxeles durante un determinado tiempo de exposición. Para reducir el efecto de desenfoque se debe reducir el tiempo de exposición utilizando un obturador. En las cámaras fotográficas esto se hace mecánicamente, pero en las cámaras CCD se hace de forma electrónica. A medida que se aumenta la velocidad de obturación se reduce el tiempo de exposición y los objetos aparecen mas nítidos en la imagen. En muchas aplicaciones de visión artificial es necesario aumentar la velocidad de obturación, sin embargo el efecto inmediato es que el sensor es menos sensible debido a que la luz incide durante menos tiempo. Por tanto, a medida que se aumenta la velocidad de obturación se debe también aumentar la intensidad de iluminación.
Captura en modo reset asíncrono
Este método de capturar imágenes es muy importante en muchas aplicaciones de visión artificial, donde los objetos a capturar se mueven por delante del campo de visión de la cámara y donde se debe capturar el objeto en una posición concreta de la imagen.
El concepto de captura asíncrona radica en reinicializar internamente la señal de sincronismo vertical. Para activar esta cualidad se necesita una señal externa de control que se toma como referencia del estado de reset. De este modo, se realiza la captura siempre en el mismo instante de tiempo, independientemente del estado inicial de la señal de sincronismo vertical. Es decir, no se debe esperar a que llegue el siguiente pulso de sincronismo vertical para realizar la captura.
En un estándar CCIR, la frecuencia de la señal de sincronismo vertical es de 25Hz, lo que equivale a un periodo de 40ms. Si no se emplea reset asíncrono en la captura, puede existir un desfase temporal de hasta 20ms en distintas adquisiciones. Si el objeto a capturar está en movimiento, éste se desplazará a lo largo de la imagen dependiendo del instante de la captura. Este problema se soluciona con la captura en modo de reset asíncrono.
La captura asíncrona permite que las imágenes sean capturadas en un momento preciso. Este concepto permite que el sincronismo vertical de la cámara sea activado en el momento preciso, de modo que el objeto esté centrado en el campo de visión de la imagen. La captura asíncrona se activa a partir de un trigger externo.

RANGO DINÁMICO
Es la relación de la señal máxima relativa a la señal mínima medible, generalmente medida en decibelios o dB. El rango dinámico se utiliza habitualmente de forma similar al SNR (relación Señal/Ruido). También se expresa a veces como Rango Dinámico óptico.
Algunas cámaras CMOS utilizan lo que se denomina multi-pendiente, o knee LUT, o rango dinámico extendido. La multi-pendiente proporciona un modo no lineal que permite visualizar a la vez zonas muy oscuras y muy claras de la misma imagen. 
Hay que establecer un punto de referencia de base independiente que permita la comparación directa entre las distintas cámaras en el mercado.
El rango dinámico de una cámara se puede definir de manera simplista como la relación de la luminancia máxima y mínima que puede capturar una cámara. El problema es que hay que cuantificar el término «capturar». 
La capacidad de una cámara para capturar los detalles en las luces altas es bastante obvia, pero el problema comienza en las áreas de sombra – aquí, el ruido comienza a introducirse rápidamente y nos deja espacio para la interpretación de qué tipo de ruido es todavía utilizable o no (ruido del sensor y la relación señal ruido (RSR)).
El ruido es la variación aleatoria de la luminancia de los píxeles en comparación con su valor de luminancia real. Por lo tanto, debajo de cierta luminancia base, la imagen puede estar tan corrompida por el ruido que realmente no podemos decir que el detalle en las sombras se captura con precisión o que el detalle de la imagen es utilizable.
Siempre que se indique la lectura de rango dinámico de una cámara ten en cuenta que solo tiene sentido si también se indica un valor de umbral de ruido claramente establecido para ese resultado de rango dinámico.
Algunas cámaras con «codecs avanzados» te permiten recuperar detalle de imagen en el piso de ruido mediante post-procesamientos avanzados, mientras que otras no. 
Siempre es bueno que el Rango Dinámico sea lo más grande posible porque permitirá una mayor cantidad de gradación de luces y sombras, aunque en último término la PERSONA más o menos creativa y con más o menos conocimientos que usa el móvil o la cámara, siempre podrá ayudar a mejorar la foto o el video que el artilugio ha captado.
Calidad de las ópticas
Factores que cabe destacar:
Función de Modulación de Transferencia (MTF).
 La óptica ideal sería aquella que reprodujera exactamente el objeto que está enfocando, incluyendo los detalles y las variaciones de iluminación. En la práctica, esto no es posible y las ópticas actúan como un filtro de paso bajo. La cantidad de atenuación de una frecuencia dada (o detalle) se clasifica en términos de Función de Modulación de Transferencia (MTF), que proporciona una indicación de la eficiencia de transferencia de la óptica. Las estructuras de mayor dimensión, como pueden ser líneas grandes separadas, se transfieren con un buen contraste. Las estructuras más finas, como líneas estrechas con escasa separación, no se transfieren tan bien.
Para una óptica dada, cuanto más se incrementa la frecuencia espacial llega un punto en que la modulación es cero. En términos más sencillos, este límite se denomina el límite de la resolución, y se expresa en pares de líneas por milímetro (lp/mm).
El poder resolutivo de la lente es muy importante. Cuando se selecciona una óptica para un determinado CCD o CMOS es, que se pueda asegurar que esta lente es ópticamente capaz de resolver cada uno de los píxeles del sensor de la cámara.
El tamaño de los píxeles varia de una cámara a otra dependiendo de la resolución (número de píxeles) y del tamaño del sensor. Cuanto menor es el píxel, mayor debe ser la resolución de la lente. La siguiente formula muestra la forma de calcularlo: resolución de la lente en (ip/mm)= 500 / tamaño del píxel del ccd/Cmos en micras.
Uniformidad relativa de la Iluminación.
Todas las ópticas producen una variación de intensidad luminosa desde el centro hacia los bordes. Si este efecto es muy marcado, puede afectar a nuestra aplicación, se deberá tener en cuenta. Hay dos factores que pueden influir en la uniformidad relativa de la iluminación: el primero es un efecto natural de descenso de la iluminación del centro de la lente a los bordes, que aumenta cuanto menor es la apertura de la lente, el segundo es un efecto mecánico de las ópticas denominado viñeteo.
El viñeteo se produce por el bloqueo de la luz producido por alguna parte mecánica de la lente. Las ópticas de alta calidad presentan menos viñeteo. Este efecto puede reducirse cerrando la apertura de la lente, pero el mejor método para reducirlo es utilizando una lente de mayor formato.
Al seleccionar una lente se debe tener en cuenta para qué tipo de sensor  ha sido fabricada, y siempre seleccionar una óptica que haya sido construida para un sensor igual o superior al de la cámara que se va a utilizar.
Distorsión.
El termino distorsión se refiere al cambio de la representación geométrica de un objeto en el plano de la imagen. Por ejemplo, un rectángulo puede aparecer como una figura geométrica curvada hacia adentro (almohadilla) o curvada hacia fuera (barril).
La distorsión de la imagen puede causar serios problemas en las aplicaciones de visión artificial. Cuando se debe hacer una medida sobre la imagen es vital, que esta imagen sea una representación real de los objetos a medir. Una cierta corrección de la distorsión es posible vía software pero no es deseable, dado que requiere cierto tiempo de proceso y, por tanto, una calibración previa. Es importante tener en cuenta las especificaciones de distorsión de las lentes que se acostumbran a expresar en porcentajes.
La distorsión de las lentes está causada por la difracción de la luz en el vidrio de la lente. Como las lentes no están hechas con un espesor uniforme de vidrio y las superficies no son planas, la refracción varia a lo largo de la lente y es máxima en los bordes. Esto se ve claramente con las ópticas gran angular (longitud focal baja), que presentan mayor distorsión. En las ópticas de alta calidad, la distorsión se minimiza utilizando múltiples lentes intermedias.
El efecto de este tipo de distorsión en las aplicaciones de visión puede ser muy costoso en tiempo de proceso. Para medir correctamente dentro de la imagen, antes se deberá hacer un proceso de calibración. Posteriormente, en el tiempo de ejecución de la aplicación, será necesario realizar una corrección por software de la aberración producida por las lentes, para obtener medidas correctas.
Transmisión Espectral y Aberración Cromática. 
Los materiales ópticos transmiten las diferentes longitudes de onda de la luz con distinta eficiencia. Algunas longitudes de onda se reflejan o absorben en proporciones distintas y afectan el balance de color de las ópticas.
La aberración cromática en las lentes está causada porque las diferentes longitudes de onda de la luz (colores) se refractan de forma distinta en el vidrio. Hay lentes que corrigen este efecto, y que son especialmente útiles cuando se utilizan cámaras en color con 3 CCD o bien cámaras de 2CCD en las que, además, influye el efecto del prisma.
La distorsión cromática no es muy prominente con cámaras de resolución estándar pero pueden ser de 4 o 5 píxeles en cámaras de alta resolución o cámaras lineales con 3CCD. Esta distorsión se puede minimizar utilizando una lente acromática de baja apertura, o lentes especialmente diseñados para reducir este efecto.
Uno de los efectos perversos que puede causar la aberración cromática está relacionado con el desenfoque de los límites de los objetos a medir, lo que dificulta en gran manera la medida en aplicaciones donde se utilizan luz blanca para su iluminación.
Otro factor a tener en cuenta en las ópticas utilizadas en las cámaras de 3CCD es que no deben sobrepasar la profundidad de la rosca C, ya que este tipo de cámaras acostumbran a no tener espacio entre el filtro del sensor y la óptica.
Readout
Se puede definir como velocidad de trasferencia y se refiere a cómo los datos se transfieren desde el sensor al procesador. La velocidad de transferencia es uno de los parámetros importantes a tener en cuenta en las cámaras, a mayor velocidad de transferencia mayor será el número de imágenes capturadas en un periodo de tiempo determinado.
Región de Interés
También denominada área de Interés (AOI) se refiere a una función de la cámara, donde sólo una parte, normalmente rectangular, de la imagen se envía a la salida para ser procesada. El resultado no es solamente obtener una imagen menor al tamaño del sensor, sino que además aumenta la velocidad de trasferencia de forma proporcional. También puede denominarse escaneado parcial.
Resolución Espacial
La medida de cómo un sensor o una cámara puede distinguir los objetos pequeños. Normalmente no es solo una función del número de píxeles, sino que depende también de la resolución de la lente.