Porady

Poznajmy technologię: Jak działa rozpoznawanie twarzy?

14 lutego 2016, Aktualizacja 30 maja 2018Lenovo

Rozpoznawanie obrazów to dziedzina niezwykle szeroka i powiązana z tak wieloma zagadnieniami i zastosowaniami, że dość trudno wszystkie jej aspekty zawrzeć w jednym artykule. Dziś przybliżmy jedno z ciekawszych zastosowań tej technologii.

Dokładne identyfikowanie ludzkich twarzy to bardzo naturalny proces. I aż do czasów obecnych zarezerwowany był właśnie dla ludzi. Choć pierwsze, współczesne próby masowego rozpoznawania Jak działa rozpoznawanie twarzy?twarzy na podstawie obrazów przeprowadzane przez największy serwis społecznościowy na świecie były raczej średnio efektywne (stosowano i stosuje się je nadal, ale już znacznie ulepszonej formie np. do sugerowania oznaczania osób na zdjęciach) to rzeczywistość zaczyna się powoli zmieniać. Mówimy tu oczywiście o popularnych czy masowych zastosowaniach tego typu technologii, nie zaś o badaniach naukowych czy zastosowaniach bardzo specyficznych z naszego punktu widzenia – np. wojskowych czy z dziedziny bezpieczeństwa.

Z punktu widzenia biologii – jak działa rozpoznawanie twarzy?

Rozpoznawanie twarzy to rzecz charakterystyczna dla naszego gatunku. Jest to o tyle unikalne, że podczas gdy większość innych zwierząt, np. psy do identyfikacji innych osobników korzystają z węchu, my używamy wzroku. Rozpoznawanie twarzy wykształciło się u nas w wyniku ewolucji i znacząco przyczyniło się do naszego sukcesu jako gatunku. Co więcej, nasz mózg posiada cały obszar właśnie za to odpowiedzialny – zakręt wrzecionowaty (łac. gyrus fusiformis). Ta część płata skroniowego umożliwia nam poprawne rozpoznawanie twarzy i jej wyrazu emocjonalnego oraz specyficzne przetwarzanie informacji, które czytamy. Jej uszkodzenie prowadzi do prozopagnozji – zaburzenia percepcji wzrokowej polegające na upośledzonej zdolności rozpoznawania twarzy znajomych lub widzianych już osób, a w niektórych przypadkach także ich wyrazu emocjonalnego, przy niezaburzonej percepcji wzrokowej innych obiektów.

Nasza dominacja na tym polu niedługo może jednak być zagrożona. Aktualne rozwiązania zastosowane przez Facebook (wyjaśnienie, dlaczego posługujemy się akurat tym przykładem, znajdziemy w dalszej części tekstu) pozwalają na rozpoznawanie twarzy z dokładnością 97,35%, a to już bardzo blisko naszej, ludzkiej skuteczności. Od serwisu społecznościowego dzieli nas margines zaledwie 0,28%. Jest to o tyle ciekawe i zastanawiające, że zazwyczaj komputery są znacznie bardziej precyzyjne niż nasz mózg. Jednak w akurat tym przypadku te 0,28% to efekt naszej ewolucji i znacznie lepszego dopasowania naszego mózgu do tego typu zadań. Wspomniany już zakręt wrzecionowaty pozwala nam nie tylko na rozpoznawanie samych twarzy, ale również wzorów w ogóle – jest on np. wykorzystywany przez profesjonalnych graczy w szachy do zapamiętywania i analizowania różnych ustawień pionów na szachownicy. Ludzki mózg jest wybitnie wyspecjalizowany w rozpoznawaniu powtarzających się wzorów a, mówiąc o rozpoznawaniu twarzy, mówimy tak naprawdę właśnie o pewnego rodzaju wzorach.

Pierwsze próby maszynowego rozpoznawania twarzy skupiały się właśnie na próbach skopiowania naszego toku rozumowania. Nasze twarze traktowano właśnie jak zbiory powtarzających, ale i nieznacznie różniących się cech – dzielono je na „wyróżniki wizualne” tzw. punkty nodalne, takie jak odległość pomiędzy naszymi oczami czy długość naszego nosa. Na podstawie tych zależności usiłowano stworzyć coś na kształt wizualnego odcisku palca, bazującego na naszej twarzy. Zazwyczaj napotykano jednak na przeszkodę, o której wspominaliśmy już w tej serii – zdjęcia, na podstawie których identyfikowano w ten sposób twarze musiałby być zawsze wykonane w ten sam sposób, a przecież wystarczy zajrzeć do swojego albumu, żeby stwierdzić, że nawet zdjęcia wykonywane tuż po sobie potrafią się znacznie od siebie różnić.

Znacznie dla nas, a co dopiero dla maszyny, która ma na ich podstawie coś wyliczyć i bazując na wyliczeniach – zidentyfikować nas. Warto zaznaczyć, iż nasze twarze nie są stworzone do takiej identyfikacji – nie dość, że można je sfotografować pod różnymi kątami, bo są trójwymiarowe, to jeszcze w zasadzie nigdy nie są statyczne – wystarczy się uśmiechnąć czy skrzywić, a wszystkie statyczne „zależności nodalne” można, z punktu widzenia skuteczności rozpoznawania twarzy, wyrzucić do kosza. Oczywiście nikt tego nie robi, bo okazuje się jednak, że przy zmianie podejścia do tematu dane te okazują się bardzo pomocne, ale o tym za chwilę.

Przymierzając się do opracowania skutecznego mechanizmu rozpoznawania twarzy trzeba się zmierzyć z czterema zasadniczymi wyzwaniami Są to starzenie się, ustawienie (pozycja), oświetlenie oraz emocje.

Z ustawieniem czy też pozycją osoby na zdjęciu radzi sobie na przykład system rozpoznawania twarzy nazwany DeepFace. Na podstawie dwuwymiarowej fotografii potrafi on zbudować trójwymiarowy obraz badanego obiektu – w tym wypadku twarzy, a taki model można oczywiście dowolnie obracać, co niweluje różne kąty, pod jakimi widzimy siebie na zdjęciach. Kwestię starzenia się fotografowanych osób także udało się już rozwiązać. System rozpoznający do tej pory wspominane już cechy, takie jak rozstaw oczu czy odległości od poszczególnych elementów naszych twarzy, nazwany Faceprint, udało się udoskonalić do tego stopnia, że jest on w stanie rozpoznać cechy dość niezależne od naszego wieku, takie jak kształt naszych oczodołów, nosa czy żuchwy.

Wymienione kwestie udało się rozwiązać dzięki zmianie podejścia do rozpoznawania twarzy, zmianie badanych cech i postępowi technologii samego obrazowania. Największy postęp i znaczny wzrost dokładności dokonał się jednak dzięki sztucznej inteligencji, a dokładniej dzięki uczeniu maszynowemu czyli interdyscyplinarnej nauce, która szczególnie uwzględnia dziedziny takie jak informatyka, robotyka oraz, co warto podkreślić – statystyka.

Deep learning i sieci neuronowe

Deep Learning, jedna z gałęzi uczenia maszynowego opiera się o zestawy algorytmów, które próbują modelować wysokopoziomowe abstrakcje, wyrażając je w zestawach danych. Używa się do tego skomplikowanych procesów, składających się z wielu warstw i przekształceń nieliniowych. W skrócie – algorytmy te sprawdzają, czy obliczenia są na dobrym tropie. Przy każdym poprawnym bądź niepoprawnym rozpoznaniu twarzy system zapamiętuje wszystkie kroki swojego postępowania, tworząc pomiędzy nimi powiązania, z których korzysta w kolejnych przypadkach. Im więcej procesów przeprowadzi tym takich powiązań jest więcej, za czym idzie wzrost liczby poprawnych rozpoznań. Maszyna uczy się na własnych błędach.

Siec neuronowa Facebooka, odpowiadająca za rozpoznawanie twarzy, ma takich połączeń około 20 milionów, a liczba ta rośnie z każdą przeprowadzoną analizą. I tu wracamy do, fenomenalnych z punktu widzenia maszynowego rozpoznawania twarzy, ponad 97% poprawności. Facebook ma nad innymi systemami rozpoznawania twarzy ogromną przewagę, którą codziennie jeszcze zwiększa za pomocą… nas samych. To my bowiem dostarczamy mu ogromnych ilości informacji, które może przetworzyć – zdjęcia naszych twarzy. Baza około 4,4 miliona twarzy oznaczonych z imienia i nazwiska to gratka nie do pogardzenia i podejrzewamy, że wielu naukowców zajmujących się Big Data nie pogardziłoby taką porcją danych statystycznych. Inna sprawa, że do nauki wykorzystano tylko nieco ponad 4000 użytkowników, a efekt i tak już niezbyt odbiega od poziomu rozpoznawania twarzy, który oferuje ludzki mózg.

Co czeka Nas w przyszłości?

Jednym z najbardziej oczywistych sposobów na wykorzystywanie rozpoznawania twarzy jest zastosowanie go w różnych systemach bezpieczeństwa czy identyfikacji. Postępy systemów wciąż bazujących na dwuwymiarowych obrazach pochodzących np. z miejskiego monitoringu (tu przy okazji poradzono sobie także z identyfikacją na podstawie obrazu słabej jakości) mogą być wykorzystywane np. do wyławiania z tłumu osób potencjalnie niebezpiecznych czy do rozpoznawania złodziei sklepowych już przy wejściu. Technologia ta jest już tak skuteczna, że MasterCard rozważa już wprowadzenie systemu zatwierdzającego płatności za pomocą selfie. Co więcej może się ona przydać także chorym dotkniętym wspomnianą wcześniej prozopagnozją. Twarze może za nich rozpoznawać np. wyspecjalizowana aplikacja. Rozwiązanie takie jest już zresztą testowane – beta aplikacji NameTag już w 2014 r. dostępna była dla Google Glass.

A to tylko czubek góry lodowej możliwych zastosowań rozpoznawania twarzy – technologia ta rozwija się w zawrotnym tempie. Niedługo możemy się spodziewać personalizacji sklepowych ofert na podstawie naszego wieku, płci czy aktualnego samopoczucia.



Udostępnij

Powiązane Artykuły

Minuta w internecie [Infografika]

Lenovo

Poznajmy technologie: jak działa akumulator?

Lenovo

Poznajmy technologię – jak działają płatności mobilne?

Lenovo

Komentarze do artykułu


widget instagram lenovo
widget twitter lenovo
widget facebook lenovo
widget youtube lenovo
Przeczytaj poprzedni wpis:
Jak usunąć historię przeglądania i pliki cookies – HelpZone #22

Wszystkie przeglądarki domyślnie zapisują historię naszej podróży przez internet oraz zapisują na dysku ciasteczka ze stron, które odwiedziliśmy. Dzisiaj coś...

Zamknij