Google realizó una investigación con científicos del Instituto Tecnológico de Massachusetts (MIT), relacionada con la fotografía computacional, que consistió en el uso de algoritmos y el aprendizaje de la máquina para mejorar sus broches de presión; obteniendo unos algoritmos capaces de retocar fotografías tomadas en tiempo real, como si fuese el trabajo de un fotógrafo profesional.
El software fue creado a partir de aprendizaje automático que funciona entrenando redes neuronales dentro de un conjunto de datos de 5 mil imágenes creadas por Adobe y el MIT. Dichas imágenes fueron retocadas por cinco fotógrafos diferentes, mientras que los algoritmos usaban estos datos para aprender los tipos de mejoras que podrían realizarse.
A pesar de que el aprendizaje automático en máquinas se ha hecho antes, la novedad de este caso consiste en el pequeño tamaño de sus algoritmos así como su eficacia.
Según un blog del MIT, el software podría ser equipado “para procesar imágenes en una variedad de estilos”; lo que significa que las redes neuronales podrían ser entrenadas en nuevos conjuntos de imágenes y hasta aprender a reproducir, de modo individual, el estilo de un fotógrafo, de manera similar a Facebook y Prisma con sus filtros artísticos que imitan los estilos de pintores famosos.
Aunque las cámaras fotográficas y cámaras de smartphones son capaces de procesar datos de imágenes en tiempo real, la novedad de esta técnica empleada radica en que es mucho más sutil y reactiva, además de ir enfocada a las necesidades de imágenes individuales, en lugar de aplicar reglas generales.
Se empelaron técnicas diferentes para adelgazar los algoritmos, éstas incluyeron el uso de una cuadrícula para coordinar las imágenes y cambios realizados en cada foto mediante fórmulas. Es decir que toda la información referente al retoque de fotos se puede expresar matemáticamente.
"El uso del aprendizaje automático para la fotografía computacional es una perspectiva interesante, pero está limitado por las severas restricciones computacionales y el poder de los teléfonos móviles. Este documento nos puede proporcionar una manera de evitar estos problemas y producir experiencias fotográficas nuevas, convincentes y en tiempo real sin drenar su bateríani darle una experiencia de visor laggy", declaró Jon Barron, investigador de Google Research.
Se espera la aparición de estos algoritmos en alguno de los siguientes modelos Pixel de Google.