Go to documentation repository
Documentation for Axxon Next 4.5.0. Documentation for other versions of Axxon Next is available too.
Niektóre parametry mogą zostać odgórnie ustalone dla narzędzi Analizy Sceny korzystających z Analizy Wideo. Aby je skonfigurować, wykonaj następujące kroki:
Wybierz obiekt typu Analiza wideo.
Domyślnie, metadane ze strumienia wideo są zapisywane w bazie danych. Można wyłączyć zapisywanie metadanyh poprzez zaznaczenie Nie przy opcji Zapis metadanych (1).
Uwaga!
Aby uzyskać metadane, niezbędna jest dekompresja oraz analiza wideo, co może spowodować wyższe obciążenie Serwera, a w konsekwencji ograniczyć ilość kamer, które mogą być jednocześnie wykorzystywane przez Serwer.
Jeśli kamera wideo wspiera multistreaming, zaznacz strumień wideo, z którego Analiza wideo ma korzystać (2). Wybór strumienia wideo o niższej jakości może zredukować obciążenie Serwera.
Uwaga!
Aby trajektorie obiektów były prawidłowo wyświetlane, upewnij się, że wszystkie strumienie wideo z kamer z funkcją multistream mają te same współczynniki proporcji.
Jeśli jest wymagana automatyczna regulacja czułości Narzędzi detekcyjnych Analizy Sceny, wybierz Tak przy opcji Automatyczna czułość (3).
Informacja
Ta opcja jest zalecana w przypadku, gdy poziom światła nie jest jednostajny, i podlega zmianom w czasie operacji kamery (np. na zewnątrz).
Aby zredukować ilość fałszywych alarmów dla kamer typu fisheye, należy wybrać prawidłową Pozycję montażu kamery (4). Parametr ten jest ignorowany przez inne typy kamer.
- Wybierz procesor, który będzie dekodować obraz przy opcji Tryb dekodera (5). Jeśli wybierzesz GPU, dedykowane karty graficzne będą priorytetyzowane (dla chipów NVidia NVDEC). Jeśli odpowiedni GPU nie zostanie znaleziony, dekodowanie będzie się odbywać w technologii Intel Quick Sync Video. W innym przypadku, do dekodowania wykorzystane zostanie CPU.
- Dla pola Czułość: ruch (6), wybierz czułość narzędzi detekcji na ruch, w skali od 1 do 100.
- Ustaw parametr Redukcja drgań na Tak(7), jeśli jest to konieczne. Opcja ta jest zalecana wyłącznie dla kamer, które wykazują degradację obrazu wyraźnie spowodowaną drganiami kamery.
Analizowane klatki są skalowane w dół do określonej rozdzielczości (8; 1280 pikseli po dłuższej krawędzi obrazu z kamery). Funkcjonuje to następująco:
Jeśli dłuższa krawędź źródłowego obrazu przekracza wartość wyznaczoną w polu Przeskaluj wyjście klatki do, jest ona dzielona przez 2.
Jeśli długość krawędzi nie przekracza określonej wartości, przeskalowana klatka będzie używana do celów analizy wideo.
Jeśli długość krawędzi nadal przekracza określoną wartość, jest ona dzielona przez 2 do skutku.
Informacja
Dla przykładu: jeśli rozdzielczość obrazu źródłowego to 2048 * 1536, a limit ustawiony na 1000, obraz zostanie podzielony dwa razy: pierwszy raz z 2048 * 1536 na 1024 * 768, a następnie z 1024 * 768 na 512 * 384; po pierwszym dzieleniu długość dłuższej krawędzi nadal jest większa od ustalonej wartości (1024 > 1000).
- Wyznacz Maksymalny czas bezczynności (9). Wyznacza to czas, przez który właściwości obiektów będą zapisane w bazie danych w sekundach. Jeśli obiekt opuści, a następnie znowu wejdzie w pole widzenia kamery w trakcie tego okresu, będzie on zidentyfikowany jako ten sam obiekt (to samo ID).
Jeśli jest to konieczne, skonfiguruj filtr sieci neuronowej. Filtr sieci neuronowej przetwarza rezultaty pracy Analizy wideo, a następnie odrzuca fałszywe alarmy przy skomplikowanych obrazach wideo (liście, odbite światło, itd.).
Włącz filtr wybierając Tak (1).
Wybierz procesor, z którego będzie korzystać filtr sieci neuronowej - CPU, jeden z GPU, lub IntelNCS (2).
Uwaga!
Włączanie algorytmu na NVIDIA GPU może zająć kilka minut po zastosowaniu ustawień.
- Wybierz plik filtra sieci neuronowej (3). Aby uzyskać sieć neuronową, skontaktuj się ze wsparciem technicznym. Jeśli nie ma pliku sieci neuronowej lub ustawienia są nieprawidłowe, filtr sieci neuronowej nie podejmie żadnej pracy.
Uwaga!
Filtr sieci neuronowych może być używany albo do analizy poruszających się obiektów, albo do analizy opuszczonych obiektów. Na jednym obiekcie Analizy wideo nie mogą jednocześnie pracować dwa filtry sieci neuronowej.
- Naciśnij Zastosuj.
Ogólna konfiguracja Narzędzi detekcji Analizy Sceny jest zakończona.