La cámara de mi iPhone 14 Pro está arruinada y todo es culpa de Apple
Cada año, Apple promociona el iPhone por tener un sistema de cámara increíble y, sí, el hardware es ciertamente impresionante. El iPhone 14 Pro tiene los últimos avances que ofrece Apple en términos de actualizaciones de cámara, incluido un gran salto a una cámara principal de 48MP con tecnología de agrupamiento de píxeles (cuatro su-píxeles para formar un píxel más grande), un teleobjetivo con óptica de 3x. zoom, modo nocturno más rápido y más. Nuevamente, en el frente del hardware, la cámara del iPhone 14 Pro se ve impresionante. ¡Y es!
Pero, ¿de qué sirve un excelente hardware de cámara cuando el software continúa arruinando las imágenes que toma? Desde la línea de iPhone 13 , parece que cualquier imagen tomada desde un iPhone, a menos que se tome en formato ProRaw, se ve mal en comparación con las tomadas con iPhones más antiguos y los mejores teléfonos Android de la competencia. Esto se debe a que Apple ha subido el nivel de la fotografía computacional y el posprocesamiento cada vez que captura una foto. Está arruinando mis imágenes, y Apple necesita tomar una pastilla para relajarse y bajar un poco el nivel.
Estas funciones 'inteligentes' no son tan inteligentes como dicen
Para tomar fotos, necesitamos sensores que ayuden a capturar la luz y los detalles para crear esas imágenes. Sin embargo, dado que los teléfonos inteligentes son mucho más compactos que una DSLR completa, los sensores están bastante limitados en lo que pueden hacer. Es por eso que Apple, así como otros fabricantes de teléfonos inteligentes, pueden confiar en el software para mejorar la calidad de imagen de las imágenes que captura en un teléfono.
Apple introdujo Smart HDR en el iPhone en 2018, y esta función de software ahora se encuentra en su cuarta iteración con la línea de iPhone 14 . Con Smart HDR 4, el dispositivo tomará varias fotos con diferentes configuraciones y luego combinará los "mejores" elementos de cada imagen en una sola foto. Hay mucha fotografía computacional en este proceso, y aunque la intención es hacer que las imágenes se vean bien, en realidad hace lo contrario.
Es posible que haya notado esto cuando toma una foto en su iPhone 14 (o iPhone 13) e inmediatamente toca la miniatura en la esquina para ver las imágenes que acaba de tomar. La imagen se verá como lo que capturó por un segundo rápido, pero luego se ve demasiado nítida, con colores que parecen más artificiales, tal vez desteñidos en ciertas áreas y demasiado saturados en otras. Incluso el tono de la piel puede verse un poco diferente de lo que ves en la vida real. Si bien me encantó el modo nocturno cuando debutó por primera vez en la serie iPhone 11 , en comparación con la competencia ahora, el modo nocturno hace que las fotos se vean demasiado "brillantes" debido al sobreprocesamiento, y muchas fotos nocturnas ni siquiera parecen haber sido tomadas en noche.
¿Y alguna vez has intentado tomar una selfie en condiciones de poca luz? Claro, el iPhone también tiene el modo nocturno para la cámara frontal, pero no he encontrado que sea de mucha ayuda. Los selfies con poca luz se ven horribles sin importar lo que hagas porque iOS agrega muchos artefactos digitales a la imagen para tratar de "salvarla". Pero en lugar de guardar la foto, termina pareciendo una acuarela mala y desordenada. De hecho, trato de no tomar selfies en mi iPhone 14 Pro cuando estoy en un ambiente oscuro porque casi siempre terminan luciendo mal.
No estoy seguro de cuándo las fotos tomadas con un iPhone comenzaron a verse de esta manera, pero definitivamente siento que se volvió más prominente a partir de la serie iPhone 13. Podría estar equivocado, pero no recuerdo particularmente que las imágenes de mi iPhone 12 Pro se vean tan exageradas, y especialmente no las fotos de mi iPhone 11 Pro. El iPhone solía tomar fotos que se veían realistas y naturales, pero todo este Smart HDR y el posprocesamiento de fotografía computacional se han ido de las manos, haciendo que las imágenes se vean peor de lo que deberían ser.
Apple, apaguemos esto
Hace unos años, era posible no usar Smart HDR en absoluto. Esta era una configuración opcional, y una que podía activar o desactivar como mejor le parezca. Esta configuración solo estaba disponible en los modelos iPhone XS, iPhone XR, iPhone 11 series, iPhone SE 2 y iPhone 12. Desde el iPhone 13 y posteriores, se eliminó la opción de activar Smart HDR.
Eliminar esta opción fue un movimiento miope, y espero que Apple la recupere en algún momento. A pesar de que mi iPhone 14 Pro es mi dispositivo personal y principal, especialmente para la fotografía, a veces necesito editar una imagen antes de considerarla adecuada para compartirla con otros. Entiendo lo que Apple está tratando de hacer con Smart HDR, pero la imagen resultante generalmente parece demasiado artificial en comparación con lo que ves en la realidad.
Por ejemplo, cuando tomo fotos al aire libre en condiciones soleadas, la foto puede tener un cielo azul demasiado saturado, lo que la hace parecer falsa. También creo que, a veces, la alteración del color hace que mi tono de piel se vea un poco extraño, algo de lo que el YouTuber Marques Brownlee (MKBHD) incluso habla en un video reciente .
La competencia de Android lo hace mejor
Nuevamente, Apple ha puesto un excelente hardware de cámara en la línea de iPhone 14 Pro, pero está contaminado por el sobreprocesamiento del software. Como he elegido algunos dispositivos Android diferentes en mi tiempo aquí en Digital Trends, he llegado a disfrutar cómo algunos teléfonos Android de la competencia manejan la fotografía sobre el iPhone.
Por ejemplo, Google Pixel 7 toma excelentes fotos con la cámara principal sin necesidad de un esfuerzo adicional. Simplemente apunte y dispare, y los resultados serán exactos a lo que ven sus ojos, si no mejor. Google todavía usa gran parte de su propio procesamiento de imágenes, pero no hace que las fotos se vean antinaturales como lo hace Apple. El único problema que tiene, por lo que he notado, son las selfies. No obtiene el tono de piel con precisión, pero por lo demás, la cámara principal es excelente. Los colores están equilibrados, no desteñidos, y el software no se esfuerza demasiado para que "se vea bien", porque ya lo está. Y con herramientas divertidas como Magic Eraser , prefiero usar mi Google Pixel 7 para editar fotos.
También probé el Samsung Galaxy S21 anterior para algunas de estas comparaciones de fotos, y aunque no creo que maneje tan bien el tono y el color de la piel, parece funcionar bien para las selfies con poca luz, lo cual me sorprende. También manejó bastante bien las imágenes en modo nocturno, haciéndolas parecer naturales y realistas en lugar de apagarse con los colores apagados como el iPhone 14 Pro.
Entonces, si bien Apple puede decir que tiene el "mejor" hardware de cámara, iOS y la dependencia excesiva de la fotografía computacional están arruinando el aspecto de las imágenes. Claro, a algunas personas les puede gustar esta estética, pero personalmente no soporto lo antinaturales que terminan pareciendo muchas de mis imágenes. Apple necesita atenuar las cosas de Smart HDR, o al menos traer de vuelta la opción de apagarlo si así lo deseamos. Porque, en este momento, las cosas no se ven muy bien.