¿Qué es la fotografía computacional y cómo funciona?

La fotografía computacional utiliza software para mejorar las fotografías digitalmente. Lo hace de muchas maneras y se usa más comúnmente en teléfonos inteligentes. De hecho, la fotografía computacional es en gran parte responsable de por qué las cámaras de los teléfonos inteligentes ahora son tan buenas, especialmente en comparación con cámaras mucho más grandes y caras.

Echemos un vistazo a lo que implica la fotografía computacional y cómo se utiliza para mejorar las imágenes.

¿Cómo mejora la fotografía computacional las imágenes?

Tradicionalmente, cada fotografía se realiza mediante dos procesos principales. Primero, está el componente óptico, que incluye la lente, el sensor de la cámara y la configuración, y luego está el procesamiento de imágenes. Por lo general, el procesamiento de imágenes se produce después de realizar una fotografía, al revelar una película o al manipular una imagen con un software como Photoshop.

Por el contrario, la fotografía computacional ocurre automáticamente, al lado de la captura real de la fotografía. Por ejemplo, cuando abre la cámara de su teléfono inteligente, ya están sucediendo varias cosas, incluido el análisis del color del área local y la detección de objetos como caras dentro de la escena. Estos procesos ocurren antes, durante e inmediatamente después de tomar una fotografía y pueden mejorar drásticamente su calidad.

Entonces, ¿cuáles son algunas de las funciones de la fotografía computacional?

Apilamiento de imágenes

El apilamiento de imágenes se produce cuando se combinan varias imágenes para conservar las mejores cualidades de cada una. Los teléfonos inteligentes lo usan con mucha frecuencia, especialmente cuando se toman fotografías de alto rango dinámico (HDR). La cámara toma imágenes secuenciales muy rápidamente, alterando ligeramente la exposición cada vez. Al apilar las imágenes, se pueden retener los detalles de las partes más claras y más oscuras de la imagen.

Esto es particularmente útil con escenas que tienen partes claras y oscuras. Por ejemplo, podría estar tomando una fotografía de una ciudad con una puesta de sol brillante detrás. El apilamiento de imágenes permite que su teléfono exponga correctamente tanto el sol como la ciudad más oscura, lo que permite tomar una imagen vívida y detallada.

Binning de píxeles

El problema con los teléfonos inteligentes es que los sensores de su cámara deben ser muy pequeños, lo que significa que para un sensor con alta resolución, los píxeles también deben ser muy pequeños. Por ejemplo, uno de los sensores del Samsung S21 mide 64 megapíxeles y 1,76 pulgadas de ancho. Esto equivale a un tamaño de píxel de 0,8 micrómetros, más de cinco veces más pequeño que la mayoría de los píxeles DSLR, lo cual es un problema porque los píxeles más pequeños dejan entrar menos luz que los píxeles más grandes , lo que da como resultado imágenes de menor calidad.

La agrupación de píxeles evita este problema al combinar la información de los píxeles vecinos en un píxel. De esta forma, cuatro píxeles vecinos se convertirán en uno. El problema con esto es que reduce la resolución final en un cuarto (por lo que una cámara de 48 megapíxeles producirá una imagen de 12 megapíxeles). Pero, la compensación por lo general vale la pena cuando se trata de calidad de imagen.

Profundidad de campo simulada

Notará que las imágenes de teléfonos inteligentes generalmente muestran todo más o menos enfocado, incluido el fondo de la toma. La razón de esto se vuelve un poco técnica, pero básicamente, debido a que el sensor de un teléfono inteligente es tan pequeño y la apertura de la lente generalmente es fija, cada toma tiene una gran profundidad de campo .

En comparación, las imágenes de cámaras de gama alta como las DSLR suelen tener un fondo desenfocado muy suave que mejora la calidad estética general de la imagen. Las lentes y los sensores de las cámaras de alta gama se pueden manipular para obtener este resultado.

En cambio, los teléfonos inteligentes utilizan software para lograr este efecto. Algunos teléfonos tienen múltiples lentes que toman una foto del primer plano y del fondo simultáneamente, mientras que otros tienen un software que analiza la escena en busca de objetos y sus bordes y difumina el fondo de manera artificial.

A veces, este proceso no funciona muy bien y el teléfono inteligente no capta los bordes correctamente, lo que hace que partes de una persona u objeto se vean borrosas en el fondo y produzcan algunas fotos interesantes. Pero, el software se está volviendo más sofisticado, lo que lleva a una excelente fotografía de retratos desde teléfonos inteligentes.

Corrección de color

Prácticamente todas las cámaras tienen una opción de balance de color. Hoy en día, la mayoría de las cámaras pueden hacer esto de forma totalmente automática. La cámara tomará información sobre la temperatura del color en la escena y determinará qué tipo de iluminación es abundante. ¿Es el cálido resplandor anaranjado del atardecer o el azul brillante de la iluminación fluorescente interior? La cámara tomará esta información y ajustará los colores de la fotografía en consecuencia.

Afilado, reducción de ruido y manipulación de tono

Para mejorar la calidad de las imágenes, muchos teléfonos inteligentes aplicarán varios efectos a la fotografía, que incluyen nitidez, reducción de ruido y manipulación de tono.

  • La nitidez se aplica de forma selectiva a las secciones de imágenes enfocadas.
  • La reducción de ruido elimina gran parte de la granulosidad que surge en situaciones de poca luz.
  • La manipulación de tonos es como aplicar un filtro. Alterará las sombras, las luces y los tonos medios de la fotografía para darle un aspecto más atractivo.

Usos de la fotografía computacional

La fotografía computacional ha hecho posibles cosas asombrosas en las cámaras pequeñas y discretas de nuestros teléfonos inteligentes.

Fotografía nocturna

El uso del apilamiento de imágenes HDR para tomar múltiples exposiciones de una escena permite a los teléfonos inteligentes tomar imágenes nítidas y de alta calidad con poca luz.

Astrofotografía

Ciertos teléfonos, como el Google Pixel 4 y superior, incluyen un modo de astrofotografía. Por ejemplo, el Pixel 4 toma 16 exposiciones de 15 segundos. La exposición prolongada permite que el sensor del teléfono capte la mayor cantidad de luz posible, mientras que las exposiciones de 15 segundos no son lo suficientemente largas para que el movimiento de las estrellas provoque rayas en la foto resultante.

Luego, estas imágenes se combinan, los artefactos se eliminan automáticamente y el resultado es una hermosa imagen del cielo nocturno.

Modo retrato

Con la opción de simular la profundidad de campo, los teléfonos inteligentes pueden tomar magníficas fotografías de retratos, incluidos selfies. Esta opción también puede aislar objetos en una escena, agregando una apariencia desenfocada al fondo.

Modos panorámicos

Al igual que HDR, otras formas de fotografía implican la combinación de varias imágenes. El modo panorámico incluido en la mayoría de los teléfonos inteligentes implica tomar varias fotografías y luego unirlas con el software donde se encuentran para crear una fotografía grande.

Algunas cámaras incluyen versiones realmente interesantes de esto. Por ejemplo, algunos drones como el Mavic Pro 2 incluyen una opción de fotografía esférica. El dron tomará una serie de fotografías y las unirá para crear lo que parece una Tierra en miniatura.

Fotografía computacional: sensores pequeños, fotos excelentes

A medida que evoluciona la fotografía computacional, las cámaras más pequeñas como las que se usan en teléfonos, drones y cámaras de acción mejorarán drásticamente. Ser capaz de simular muchos de los efectos deseables de combinaciones de cámara / lente más grandes y costosas será atractivo para muchas personas.

La automatización de estos procesos ayudará a las personas comunes y corrientes sin experiencia en fotografía a tomar fotografías increíbles, ¡algo con lo que los fotógrafos profesionales podrían no estar muy contentos!