Go to documentation repository
Page History
Niektóre parametry mogą zostać odgórnie ustalone dla Narzędzi detekcji Analizy Sceny. Aby je skonfigurować, wykonaj następujące kroki:
Wybierz obiekt typu Analiza wideo
Some parameters can be bulk configured for Situation Analysis detection tools. To configure them, do as follows:
Select the Object Tracker object.
By default, video stream's metadata are recorded in the database. You can disable it by selecting No in the Record object tracking list Domyślnie, metadane ze strumienia wideo są zapisywane w bazie danych. Można wyłączyć zapisywanie metadanyh poprzez zaznaczenie Nie przy opcji Zapis metadanych (1).
Note title Attention! Video decompression and analysis are used to obtain metadata, which causes high Server load and limits the number of video cameras that can be used on it.
Aby uzyskać metadane, niezbędna dekompresja oraz analiza wideo, co może spowodować wyższe obciążenie Serwera, a w konsekwencji ograniczyć ilość kamer, które mogą być jednocześnie wykorzystywane przez Serwer.
Jeśli kamera wideo wspiera multistreaming, zaznacz strumień wideo, z którego Analiza wideo ma korzystać (2). Wybór strumienia wideo o niższej jakości może zredukować obciążenie SerweraIf a video camera supports multistreaming, select the stream for which detection is needed (2). Selecting a low-quality video stream allows reducing the load on the Server.
Note title Attention! To display oject trajectories properly, make sure that all video streams from multi-streaming camera have the same aspect ratio settings.
Aby trajektorie obiektów były prawidłowo wyświetlane, upewnij się, że wszystkie strumienie wideo z kamer z funkcją multistream mają te same współczynniki proporcji.
Jeśli jest wymagana automatyczna regulacja czułości Narzędzi detekcyjnych Analizy Sceny, wybierz Tak przy opcji Automatyczna czułość If you require automatic adjustment of the sensitivity of scene analytic detection tools, in the Auto Sensitivity list, select Yes (3).
Info title Note Enabling this option is recommended if the lighting fluctuates significantly in the course of the video camera's operation (for example, in outdoor conditions)
To reduce false alarms rate from a fish-eye camera, you have to position it properly (4). For other devices, this parameter is not valid.
- Select a processing resource for decoding video streams (5). When you select a GPU, a stand-alone graphics card takes priority (when decoding with NVidia NVDEC chips). If there's no appropriate GPU, the decoding will use the Intel Quick Sync Video technology. Otherwise, CPU resources will be used for decoding.
- In the Motion detection sensitivity field (6), set the sensitivity for motion detection tools, on a scale of 1 to 100.
- To correct for camera shake, set Antishaker to Yes (7). This setting is recommended only for cameras that show clear signs of shaking-related image degradation.
If the longer side of the source image exceeds the value specified in the Frame size change field, it is divided by two.
If the resulting resolution falls below the specified value, it is used further.
Ta opcja jest zalecana w przypadku, gdy poziom światła nie jest jednostajny, i podlega zmianom w czasie operacji kamery (np. na zewnątrz).
Aby zredukować ilość fałszywych alarmów dla kamer typu fisheye, należy wybrać prawidłową Pozycję montażu kamery (4). Parametr ten jest ignorowany przez inne typy kamer.
- Wybierz procesor, który będzie dekodować obraz przy opcji Tryb dekodera (5). Jeśli wybierzesz GPU, dedykowane karty graficzne będą priorytetyzowane (dla chipów NVidia NVDEC). Jeśli odpowiedni GPU nie zostanie znaleziony, dekodowanie będzie się odbywać w technologii Intel Quick Sync Video. W innym przypadku, do dekodowania wykorzystane zostanie CPU.
- Dla pola Czułość: ruch (6), wybierz czułość narzędzi detekcji na ruch, w skali od 1 do 100.
- Ustaw parametr Redukcja drgań na Tak(7), jeśli jest to konieczne. Opcja ta jest zalecana wyłącznie dla kamer, które wykazują degradację obrazu wyraźnie spowodowaną drganiami kamery.
Analizowane klatki są skalowane w dół do określonej rozdzielczości (8; 1280 pikseli po dłuższej krawędzi obrazu z kamery). Funkcjonuje to następująco:
Jeśli dłuższa krawędź źródłowego obrazu przekracza wartość wyznaczoną w polu Przeskaluj wyjście klatki do, jest ona dzielona przez 2.
Jeśli długość krawędzi nie przekracza określonej wartości, przeskalowana klatka będzie używana do celów analizy wideo.
Jeśli długość krawędzi nadal przekracza określoną wartość, jest ona dzielona przez 2 do skutku.
Info title Note Dla przykładu: jeśli rozdzielczość obrazu źródłowego to 2048 * 1536, a limit ustawiony na 1000, obraz zostanie podzielony dwa razy: pierwszy raz z 2048 * 1536 na 1024 * 768, a następnie z 1024 * 768 na 512 * 384; po pierwszym dzieleniu długość dłuższej krawędzi nadal jest większa od ustalonej wartości (1024 > 1000).
- Wyznacz Maksymalny czas bezczynności (9). Wyznacza to czas, przez który właściwości obiektów będą zapisane w bazie danych w sekundach. Jeśli obiekt opuści, a następnie znowu wejdzie w pole widzenia kamery w trakcie tego okresu, będzie on zidentyfikowany jako ten sam obiekt (to samo ID).
Jeśli jest to konieczne, skonfiguruj filtr sieci neuronowej. Filtr sieci neuronowej przetwarza rezultaty pracy Analizy wideo, a następnie odrzuca fałszywe alarmy przy skomplikowanych obrazach wideo (liście, odbite światło, itd.).
Włącz filtr wybierając Tak (1).
Wybierz procesor, z którego będzie korzystać filtr sieci neuronowej - CPU, jeden z GPU, lub
- Enter the time interval in seconds, during which object's properties will be stored in the Time of Object in DB field (9). If the object leaves and enters the FoV within the specified time, it will be identified as one and the same object (same ID).
If necessary, configure the neural network filter. The neural network filter processes the results of the tracker and filters out false alarms on complex video images (foliage, glare, etc.).
Enable the filter by selecting Yes (1).
Select the processor for the neural network — CPU, one of GPUs or a IntelNCS (2).
Note title Attention! It may take several minutes to launch the algorithm on an NVIDIA GPU after you apply the settings.
Włączanie algorytmu na NVIDIA GPU może zająć kilka minut po zastosowaniu ustawień.
- Wybierz plik filtra sieci neuronowej (3). Aby uzyskać sieć neuronową, skontaktuj się ze wsparciem technicznym. Jeśli nie ma pliku sieci neuronowej lub ustawienia są nieprawidłowe, filtr sieci neuronowej nie podejmie żadnej pracySelect a neural network (3). To access a neural network, contact technical support. If no neural network file is specified, or the settings are incorrect, no filtering will occur.
Note title Attention! A neural network filter can be used either only for analyzing moving objects, or only for analyzing abandoned objects. You cannot operate two neural networks simultaneously.
- Click the Apply button.
Filtr sieci neuronowych może być używany albo do analizy poruszających się obiektów, albo do analizy opuszczonych obiektów. Na jednym obiekcie Analizy wideo nie mogą jednocześnie pracować dwa filtry sieci neuronowej.
- Naciśnij Zastosuj.
Analyzed framed are scaled down to a specified resolution (8, 1280 pixels on the longer side). This is how it works:
If the resulting resolution still exceeds the specified limit, it is divided by two, etc.
Info | ||
---|---|---|
| ||
For example, the source image resolution is 2048 * 1536, and the limit is set to 1000. In this case, the source resolution will be divided two times (down to 512 * 384): after the first division, the number of pixels on the longer side exceeds the limit (1024 > 1000). |
Ogólna konfiguracja Narzędzi detekcji Analizy Sceny jest zakończonaThe general parameters of the situation analysis detection tools are now set.