Entiendo lo que comentas, pero sinceramente, el argumento de que “la lente y la cámara son más complejas” no me parece válido. Si estamos usando el modo automático, la cámara debería ajustar todo correctamente por sí sola, como siempre ha hecho en generaciones anteriores. Otra cosa distinta sería usar el modo manual, donde sí entran en juego los conocimientos y ajustes del usuario.
Imagino que mucha gente hace fotos y no se fija en el detalle, pero conforme amplías la imagen se nota claramente que el teléfono decide desenfocar elementos que están en el mismo plano. Ni siquiera estamos hablando de profundidad de campo o de objetos a distintas distancias, sino de partes del mismo nivel que deberían verse nítidas. Me sigue pareciendo increíble que algo así ocurra en un dispositivo de este nivel.
Lo más llamativo es que en el iPhone 15 Pro esto no pasaba, o al menos no de una forma tan exagerada. Algo ha cambiado en la gestión del enfoque o en el procesamiento de imagen, y no sé como es posible que todavía no lo hayan corregido.
Yo también esperaba que la actualización 26.1 corrigiera el problema, y aunque mejora ligeramente, no lo soluciona. Por eso finalmente decidí devolver el dispositivo.
En mi caso, utilizo a diario la cámara para escanear y fotografiar documentos, y con los resultados actuales simplemente no puedo confiar en ella para trabajar. Es una función básica que debería ofrecer resultados precisos sin necesidad de configuraciones avanzadas.
Sinceramente, me sorprende que no haya más usuarios alarmados por esto, porque basta con ampliar cualquier foto para ver que algo no está funcionando como debería.