Taula de continguts:
- Així funciona l'algoritme de Google
- Correcció automàtica tenint en compte el context
- Potser vegem aquesta tecnologia en el Pixel
Investigadors de Google i el MIT van desenvolupar un algoritme que busca corregir els defectes de les preses en gran angular.
Potser hagis vist que els rostres d'algunes persones llueixen estirats, lleugerament aixafats o amb alguna distorsió en les fotografies. Si bé pot ser per les poques habilitats de el fotògraf, la veritat és les preses amb el lent gran angular des de dispositius mòbils solen causar distorsió en els objectes o persones que es troben en la vora de la imatge.
Hi ha diferents mètodes que tracten de fer això, però fins al moment cap ha estat tan efectiu com la nova proposta de Google. Si bé pot semblar fàcil de solucionar, no ho és, ja que requereix una edició local complexa que no afecti la resta dels objectes de la fotografia.
Així funciona l'algoritme de Google
Segons expliquen els investigadors, aquest algoritme detecta les cares i crea com una malla que permet revertir automàticament aquest tipus de distorsió a l'realitzar una presa amb un gran angular com es mostra a la imatge:
Podem notar la diferència a l'aplicar aquest algorisme en les següents imatges. És una selfie que va ser presa amb un lent gran angular amb un camp de visió de 97 °.
A la primera imatge es veuen les distorsions en els rostres i la segona mostra com l'algoritme va restaurar les formes de les cares al seu estat original.
És a dir, aquest procés s'activa automàticament a l'utilitzar el lent gran angular brindant aquesta assistència especial als rostres, però sense causar modificacions en la resta de la imatge. I per descomptat, la velocitat d'aquesta correcció automàtica (uns 920 mil·lisegons) fa que sigui impossible de detectar pels usuaris.
Segons les proves que han realitzat, aquest algoritme funciona de manera reeixida en el rang de 70 ° a 120 ° en camp de visió, abastant gairebé tots els des d'un dispositiu mòbil.
Per aprofitar el potencial d'aquest algoritme, l'usuari no hauria de fer cap acció ni activar cap manera de cambra especial. Aquesta funció s'implementaria automàticament només quan detecta que s'utilitza el lent en gran angular.
Correcció automàtica tenint en compte el context
Podem veure la dinàmica d'aquest algoritme en el següent vídeo:
L'algoritme corregeix de manera automàtica tenint en compte la resta dels objectes que apareixen en escena, aconseguint que tot el context de la fotografia coincideixi. Els resultats són naturals sense detalls que deixin veure que la fotografia ha estat modificada en absolut.
L'equip després d'aquest projecte ha compartit una galeria de fotos a Flickr mostrant com diferents mètodes aborden aquest problema en comparació amb la dinàmica del seu algorisme. Hi ha més de 160 fotografies (com la que veus a el començament de l'article) que ens ajuden a avaluar els resultats.
Potser vegem aquesta tecnologia en el Pixel
Podríem esperar que aquest algoritme o alguna tecnologia derivada s'apliqui en la propera generació de Píxel, ja que l'equip que participa d'aquest projecte són empleats de Google.
No obstant això, en el document que han compartit, no han esmentat res a l'respecte. Aquestes primeres proves de l'algoritme en acció han estat exitoses mostrant una vegada més com el potencial de la intel·ligència artificial pot perfeccionar la dinàmica dels dispositius mòbils i facilitar la vida dels usuaris.
Ja que sense dubtes, comptar amb una dinàmica similar al nostre dispositiu mòbil estalviaria molts mals de cap i temps tractant d'editar aquestes distorsions en les fotografies.