Por Carlos Fernández De Lara / Forbes México

En 1999, la firma japonesa Kyocera lanzó al mercado el VP-210, para muchos el primer teléfono comercialmente disponible equipado con una cámara fotográfica. El móvil, que solo se vendió en Japón, tenía una cámara de 0.11 megapixeles y tenía la capacidad de tomar 20 fotografías antes de que su memoria se saturara. Sin saberlo, las pésimas fotos que capturaba el VP-210 fueron la semilla de uno de los principales factores de compra de los smartphones actuales: su cámara de fotos y videos.

Hoy las marcas de tecnología presumen sus nuevos lanzamientos con teléfonos inteligentes, no con uno, sino hasta cinco o seis lentes fotográficos, con sensores de hasta 108 megapixeles y telefotos híbridos de 50x hasta 100x. Todas, menos Apple, la firma de la manzana, mantiene desde hace varios sensores de 12 megapixeles, se ha rehusado a intrigar telefotos excesivos o aumentar el número de lentes en la cámara del iPhone, dos para el iPhone 13 y 13 Mini y tres para los modelos Pro.

Sigue la información sobre la economía y el mundo de los negocios en Forbes Centroamérica

¿La razón? Simple. La tecnología por sí sola no sirve para contar historias. Forbes México platicó en exclusiva con Jon McCormack, vicepresidente de Camera Software; Graham Townsend, vicepresidente de Camera Hardware, y Louis Dudley, product manager del iPhone, tres de los principales responsables de definir qué funciones, hardware, tecnología y software termina en la cámara de los iPhones cada año.

“Cuando pensamos en diseñar y curar un sistema de cámara, miramos hacia atrás a 150 años de fotografía fija y luego de videografía cinematográfica, y realmente lo usamos para informarnos. La pregunta clave que estamos tratando de responder es: ¿cómo permitimos que las personas representen mejor los momentos hermosos?  Y no comenzamos con algo así como: aquí hay una nueva y loca pieza de tecnología, vamos a lanzarla. La visión impulsora para nosotros es cómo permitimos que todos cuenten su historia”, comparte McComarck.

Imágen tomada con iPhone 13.

Los expertos compartieron para el iPhone 13 (y en general para cada nuevo iPhone lanzado), el objetivo es trabajar de cerca no solo con las piezas que conformarán los sensores, sino el software que ayudará a traer nuevas nuevas funciones al usuario, sin tener que sacrificar la facilidad de uso.

“Nuestro trabajo es hacer que eso sea lo más fácil posible. Cinematic Mode (una función nueva en el iPhone 13) es un gran ejemplo de ello. Si piensas en la forma en que trabajan los grandes directores de fotografía, usan el enfoque seleccionado para dirigir la atención del espectador. Pero el problema es que hacer eso requiere lentes realmente costosos y personas realmente altamente capacitadas, hay personas en Hollywood que se dedican solo a eso. Por eso cuando pensamos que nos encantaría traer esa función al iPhone, conversamos con Graham para entender qué tipo de lentes necesitamos, qué tipo de sensores necesitamos, y del lado de software comenzamos a analizar, ¿tenemos suficientes ciclos en el A15? ¿Hay cosas adicionales que debamos agregar al motor neuronal para poder hacerlo? Con eso construimos la tecnología y después trabajamos con la gente de diseño para asegurarnos de que el consumidor la pueda usar de forma intuitiva”, agrega McComarck.

Con más de 1,500 millones de iPhones activos en el mundo, el iPhone se ha convertido en una de las cámaras de bolsillo más utilizadas a nivel global, aunque enfrenta una fuerte competencia de varias marcas asiáticas. De acuerdo con análisis de firmas independientes como Dxomark, una empresa especializada en analizar el desempeño de equipos fotográficos profesionales y móviles, el modelo más reciente de Apple, el iPhone 13 Pro, se encuentra en cuarta posición a nivel global con 137 puntos, por detrás de equipos de firmas como Huawei y Xiaomi

Pese ello, la forma de trabajo de combinar hardware y software, según los expertos, le permite a Apple desmitificar y salirse de la carrera del número de lentes o la competencia por tener sensores con más megapixeles. Una clara tendencia a la que firmas como Samsung, Xiaomi, Oppo y Motorola han apostado en los últimos años, con teléfonos con 4 o más lentes o sensores de hasta 108 megapixeles, y que invariablemente no se traducen en mejores imágenes o valor para el consumidor.

Apple asegura que ha mejorado la foto en baja condiciones de luz gracias a algoritmo de cómputo visual y sensores con capacidad de recibir 50% más luz.

“Si miras los lentes del iPhone y sus características lo que buscan es darle experiencias a los usuarios que realmente usarán y le sacarán provecho. Este año, por ejemplo el ultra gran angular del iPhone 13 Pro, también permite capturar imágenes con un enfoque macro porque vimos que hay un valor en ese tipo de imágenes para el consumidor y lo hicimos sin tener que agregar un lente más”, explica Dudley.

Y del tema de los megapixeles, Townsend remata que Apple no ve valor en traer imágenes con información (píxeles) solo porque sí.

“Estoy seguro de que recordarás que el mercado de las cámaras digitales de bolsillo, que prácticamente ha sido eliminado ahora por los teléfonos inteligentes, y que también vivieron esa carrera por el recuento de megapíxeles, cuando en realidad no estaban entregando más información en las fotos y, de hecho, hacían peor las fotos porque estaban entregando más ruido dado que los pixeles más pequeños simplemente no estaban a la altura de lo que se requería. Por eso en el iPhone nos enfocamos en desarrollar los lentes que pudieran entregar la mayor cantidad de información para que el equipo de John pueda procesarla”, dice.

Le invitamos a seguir nuestra página de Facebook

Si bien las nuevas versiones del iPhone 13, 13 Mini y los dos modelos Pro mantienen un diseño muy similar al de sus predecesores —lo que causó que muchos usuarios consideraran que los modelos no contaban con innovaciones—, los expertos compartieron que en cuanto a cámara, los cambios serán muy notables.

Dudley explica que los nuevos iPhone 13 y 13 Mini ahora integran un sensor angular que permite la entrada de 50% más luz y tiene un sistema de estabilización de imagen óptica por cambio de sensor, algo que anteriormente sólo estaba disponible el modelo iPhone 12 Pro Max.

“El nuevo sensor OIS del iPhone 13 es lo suficientemente rápido como para estabilizar un solo cuadro de video para reducir el brillo, pero lo suficientemente precisa como para permitir exposiciones portátiles de hasta dos segundos para fotografías. Los píxeles más grandes realmente permiten que el sensor capture más detalles y reduzca el ruido, lo que significa que el firmware tiene más información y, por lo tanto, más flexibilidad para adaptarse a la escena específica que se está cubriendo”, explica Townsend.

El iPhone 13 Pro es la primera versión del móvil de Apple en integrar fotografía macro, algo que existe desde hace algunos años en equipos con Android. Foto: Apple.

Combinado con el nuevo procesador del iPhone 13, el A15 Bionic, McComarck promete que este año los teléfonos son capaces de entregar técnicas avanzadas de cómputo visual. 

“En las imágenes fijas, ahora en HDR 4 inteligente, procesamos a las personas principales en una escena individualmente, según su tamaño en el marco, la iluminación que tienen y el color y tono de su piel.  Entonces, esto significa que los individuos en una foto se renderizan mucho más como estaban en la escena con una iluminación precisa en sus rostros y piel”, dice el vicepresidente de Software de Camera Software.

Y aunque Apple no es la única firma de tecnología que ha logrado incorporar funciones como Cinematic Mode (que maneja en tiempo real enfoque dependiendo de lo que sucede en la escena), McComarck dice para la compañía, el iPhone 13 y 13 Pro es la primera generación en la que han logrado integrar algoritmos de videografía computacional.

“Al igual que en las imágenes fijas, segmentamos el video en tiempo real y procesamos el cielo, la piel y el follaje individualmente.  Y esto hace que nuestro video, que ya es líder en la industria, sea aún mejor al crear una mayor claridad y detalle en diferentes partes del video, incluso durante cambios de movimiento o de escena o con poca luz. La idea es poder traer para todos, herramientas que tradicionalmente estaban disponibles solo para profesionales”, agrega McComarck.

Aunque los ejecutivos no confirmaron si algunas de las tecnologías, que hoy integran marcas de la competencia serán parte de las nuevas versiones de iPhone, aseguraron que más que saltos cuánticos continuarán por entregar lentes capaces de capturar imágenes y video que sirvan en el día a día de las personas.

“Creeme que tenemos ingenieros brillantes, por lo que nunca tenemos escasez de ideas. Lo realmente interesante es el proceso de edición por el que pasamos Graham y yo.  Es decir, de todas esas ideas, ¿cuáles le van a importar a cientos de millones de personas?  Porque no sólo estamos construyendo un teléfono, estamos construyendo una cámara para todo el mundo. Hoy, los iPhone sirven para capturar momentos importantes en la vida de las personas: el nacimiento de su hijo, sus primeros pasos, tu primera cita o la última vez que viste a tus padres. Eso es lo que nos impulsa a tomar decisiones sobre los productos”, dice McComarck.

Sin embargo, los directivos reconocen que eso no significa que Apple no se haga la constante pregunta de “qué más podemos hacer”.

“Tú lo puedes ver. Incluso con el primer iPhone hasta ahora, ha habido un logro y mejora dramática.  Eso es en lo que somos realmente buenos enfocarnos en saber cuál es el próximo paso que hará mejor la cámara a la de este año. Eso en sí mismo es una motivación porque cada año que la tecnología avanza, el software avanza, hay nuevas ideas. Entonces, cada año nos enfocamos en entender qué es lo mejor que podemos hacer.  Es muy difícil predecir cuál es el futuro de la fotografía móvil o qué camino tomará, pero te puedo garantizar que siempre mejorará”, apunta Townsend.