He estado llevando mi Canon R7 por un tiempo cada vez que estoy de viaje. La razón es fácil: estoy muy cansado de las fotos del iPhone 16 Pro. No es un problema exclusivo de este teléfono, después de analizar todas las cámaras de alto gas que he llegado a la misma conclusión durante años: no ha sido de nada que mejora el hardware si el proceso aún es malo. ¿Y por qué lo considero mal? Porque con los sensores que tocan la pulgada y los procesadores más potentes que los de una computadora, los teléfonos móviles deberían estar más cerca de un SRFLEX que de las mismas fotos que hicieron hace cinco años.
Hace casi 10 años, había una compañía que quería cambiar todo con la «fotografía computacional». Esa compañía fue Google, quien lanzó en 2016 el Google Pixel. En su día, fue un hito: un móvil que aprovechó la inteligencia artificial (aunque en ese momento no había tanto énfasis en esa palabra) para llevar mucho por encima de los de sus rivales. A la cabeza del equipo de fotografía del Google Pixel estaba Marc Levoy, actualmente un trabajador de Adobe. Después de unos años en silencio, ha hecho lo que ningún fabricante ha querido hacer: apretar al límite del poder de un móvil para enseñarnos lo que realmente puede hacer.
¿Por qué es importante?. Adobe ha anunciado muy discretamente Proyecto IndigoUna aplicación que se aplica ya que nunca habíamos visto los principios de la fotografía computacional al iPhone. Hasta ahora, no se ha hecho tal intento radical: esta aplicación consume muchos recursos y muestra resultados que, hasta ahora, no parecían posibles en el modo automático de un teléfono.
Es la mejor muestra de cómo los fabricantes estancados (incluida Google) en la fotografía móvil. Y aunque gastamos más de 1,000 euros en un teléfono, la cámara siempre está muy por debajo de lo que realmente podría hacer. El propio Levoy deja en claro en su publicación: «La gente a menudo se queja de la» apariencia del teléfono inteligente «: demasiado brillante, de bajo contraste, saturación de alto color, fuerte suavizado y fuerte nitidez. Este procesado viene, en parte, para las preferencias de los usuarios más convencionales. Pero cuando alguien pasa un pastelero en un teléfono (y en Europa lo estamos haciendo más que nunca), esto comienza a ser un problema.
¿Qué es Project Indigo?. Esta es una aplicación gratuita desarrollada por Adobe Labs y LED, entre otros, por Marc Levoy. La mayor cantidad de nerd puede disfrutar de controles manuales, pero el usuario promedio no tendrá que preocuparse por nada: es una «normal y actual» con la que abre, apunta y dispara. La clave es que, cuando toma la foto, está haciendo algo completamente diferente de lo que hace Apple.
Esto es lo que Indigo puede hacer con un RAW del iPhone.
En absoluto trapo. Hace unos años, cuando Apple habló sobre Smart HDR, la compañía mostró combinaciones de hasta 9 imágenes para obtener una foto en HDR. El número actual no se conoce, pero el HDR de Apple no ha mejorado sustancialmente en los últimos años. Levoy deja en claro cómo funciona su aplicación: 32 fotos en RAW para crear solo una, ni más ni menos.
Combinar 32 cuadros para crear una sola foto es una figura muy alta. Gracias a esto, se logra menos ruido en las áreas de sombra, menos reflejos y menos sobreexposición (piezas blancas, muy quemadas), usando marcos más de bajo costo. Gracias a tener tanta información, las texturas se mantienen mejor, la reducción del ruido del software es menos necesaria y el suavizado se minimiza.
MAPOO DE TONO NUGUAL | Lo que se puede lograr con un mapeo de tonos correctos.
Yendo más allá. Otro de los grandes problemas de la fotografía actual tiene que ver con HDR, y cómo las áreas de sombra están trituradas (o, viceversa, todo se quema) en escenas que requieren un rango dinámico alto. Para evitar el efecto HDR forzado clásico (y desagradable), esta aplicación tiene su propio mapeo de tono (un proceso fundamental para obtener información sobre luminosidad y color al tratar con el contenido de HDR). En otras palabras menos complejas: este proceso de aplicación como Adobe quiere, y no como Apple quiere.
El zoom. La última clave de Indigo tiene que ver con el Zoom, uno de los puntos débiles históricos del iPhone. Esta aplicación, sin que no se dé cuenta, toma múltiples fotos constantemente mientras está abierta (no teme por su almacenamiento, hasta que tome la foto final y se procese, no se guarda nada). Esto permite, cuando tomamos una foto con Zoom, se pueden combinar para obtener una final con más detalle.
Cuándo usar esta aplicación. Todo se ve muy bien con índigo, hasta que te preguntes cómo es posible que un móvil pueda tomar 32 fotos y procesarlas sin estremecerse. No es tan fácil. Esta aplicación hace que el iPhone funcione al máximo, lo que puede hacer que esté caliente, especialmente en verano. A pesar de esto, si tiene tiempo para tomar una buena foto (se tarda unos segundos en procesarse) y quiere escapar de ese aspecto móvil, esta cámara es prácticamente perfecta.
Sus propios desarrolladores lo consideran una aplicación de cámara experimental, y en su primera fase de desarrollo será completamente gratuita. Es compatible con todo el iPhone desde 12, y se planea terminar aterrizando en Android pronto. A pesar de ser una aplicación experimental, tiene un gran futuro por delante. Sus desarrolladores afirman que quieren cargarlo con un aspecto personalizado, funciones de video computacionales y mejoras que muestran en el potencial de la fotografía computacional bien aplicada.
Imagen |
En | El mejor iPhone. Que para comprar en 2025 y los modelos recomendados basados en el presupuesto, los gustos y el precio de calidad