Go to documentation repository
Page History
...
- Wybierz obiekt typu Detektor twarzy.
Jeśli narzędzie detekcji ma przeprowadzać rozpoznawanie Rozpoznawanie twarzy w czasie rzeczywistym, zaznacz Tak przy odpowiednim parametrze (1).
If you want to use this facial recognition tool in real time in parallel with FaceCube Recognition Server (see Configuring FaceCube integration), set Yes for Jeśli zamierzasz korzystać z narzędzie detekcji twarzy jednocześnie pracując z serwerem rozpoznawania twarzy FaceCube (zobacz: Konfigurowanie integracji FaceCube), nadaj wartość Tak dla parametru Real-time recognition on external Service (42).
- Jeśli narzędzie detekcji ma zapisywać metadane, zaznacz tak przy opcji Zapis metadanych (3).
- Jeśli kamera wspiera multistreaming, wybierz strumień wideo, dla którego detekcja ma być przeprowadzana (4). Wybranie strumienia wideo o niskiej jakości ograniczy obciążenie Serwera.
Jeśli niezbędne są informacje na temat wieku oraz płci dla każdej rozpoznanej twarzy, zaznacz Tak przy polu Wykryj wiek i płeć (1, zobacz: Rozpoznawanie oraz wyszukiwanie twarzy).
- Wybierz procesor, który będzie dekodować strumienie wideo (2) Jeśli wybierzesz GPU, dedykowana karta graficzna będzie używana w pierwszej kolejności (przy dekodowaniu przy użyciu chipów NVidia NVDEC). Jeśli nie ma odpowiedniego GPU, dekodowanie będzie odbywało się za pośrednictwem technologii Intel Quick Sync Video. W innym przypadku, do dekodowania używane będzie CPU.
Jeśli używany będzie Detektor maski, zaznacz Tak przy opcji Rozpoznawanie maseczki na twarzy(3, zobacz: Konfiguracja Detektora maski).
W niektórych przypadkach narzędzie detekcji twarzy może uznać obiekty niebędące twarzami za twarze. Aby przefiltrować takie obiekty podczas zapisu modelów wektorowych twarzy do bazy metadanych, zaznacz Tak przy opcji Odfiltruj fałszywe wyniki. (4). Jeśli filtrowanie jest włączone, fałszywe wyniki mogą wyzwalać detekcję, lecz będą one ignorowane podczas wyszukiwania w archiwum.
- Wyznacz czas (w milisekundach) między operacjami detekcji twarzy w klatce wideo w polu Period of face searchpolu Okres przetwarzania klatek (5). Zasięg parametru: [1, 10000]. Podwyższenie tej wartości spowoduje zmniejszenie obciążenia Serwera, lecz może spowodować, że część twarzy może nie zostać wykryta.
Analizowane klatki są skalowane w dół do określonej rozdzielczości (6; 1280 pikseli po dłuższej krawędzi obrazu z kamery). Funkcjonuje to następująco:
Jeśli dłuższa krawędź źródłowego obrazu przekracza wartość wyznaczoną w polu Przeskaluj wszystkie klatki do, jest ona dzielona przez 2.
Jeśli długość krawędzi nie przekracza określonej wartości, przeskalowana klatka będzie używana do celów analizy wideo.
Jeśli długość krawędzi nadal przekracza określoną wartość, jest ona dzielona przez 2 do skutku.
Info title Informacja Dla przykładu: jeśli rozdzielczość obrazu źródłowego to 2048 * 1536, a limit ustawiony na 1000, obraz zostanie podzielony dwa razy: pierwszy raz z 2048 * 1536 na 1024 * 768, a następnie z 1024 * 768 na 512 * 384; po pierwszym dzieleniu długość dłuższej krawędzi nadal jest większa od ustalonej wartości (1024 > 1000).
Wyznacz minimalny oraz maksymalny rozmiar twarzy w procentach wielkości ramki (7).
W polu Minimalny próg poprawności wykrycia twarzy określ minimalną trafność rozpoznawania twarzy w celu śledzenia ich ścieżek (8). Można wyznaczyć dowolną wartość metodą prób i błędów; zalecane są wartości wyższe niż 90. Im wyższa ta wartość, tym mniej twarzy jest wykrywane, lecz trafność detekcji rośnie.
Wybierz procesor dla detekcji twarzy - CPU lub NVIDIA GPU (9).
Note title Uwaga! Uruchomienie algorytmu po zastosowaniu zmian na NVIDIA GPU może zająć do kilku minut.
If you use FaceCube integration (see Configuring FaceCube integration), activate the Send face image parameter Jeśli korzystasz z integracji FaceCube (zobacz: Konfigurowanie integracji FaceCube), aktywuj parametr Wyślij zdjęcie twarzy (10).
Wpisz czas w milisekundach, po którym ścieżka śledzonej twarzy jest tracona, w polu Czas zgubienia ścieżki śledzenia twarzy (11). Wartość powinna zawierać się w przedziale: [1, 10000]. Parametr ten odnosi się przykładowo do sytuacji, w której wykryta twarz w trakcie poruszania się w polu widzenia kamery zostanie przesłonięta przez przeszkodę przez pewien czas. Jeśli będzie on krótszy niż ustalona wartość, twarz zostanie rozpoznana jako ta sama.
Podczas korzystania z kamer XingYun z wieloma soczewkami o szerokim polu widzenia, domyślnie detektor będzie analizować dwa sferyczne obrazy 180° (zobacz: Konfigurowanie kamer fisheye). Może to spowodować zmniejszenie jakości detekcji. Aby odkształcić obraz przed rozpoczęciem detekcji twarzy, co zwiększy jakość detekcji, zaznacz Tak przy parametrze Użyj transformacji kamery (12). Parametr ten funkcjonuje także dla innych typów transformacji obrazu.
Wyznacz prostokątny obszar, w którym będą wykrywane twarze, w oknie podglądu kamery. Aby regulować obszar, przeciągnij krawędzie obszaru za przytrzymując
.- Naciśnij Zastosuj.
...