Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.

Aby skonfigurować Neurocounter, wykonaj następujące kroki:

  1. Jeśli kamera wspiera multistreaming, wyznacz strumień wideo, z którego będzie korzystać narzędzie detekcji

To configure Neuralcounter, do the following:

  1. If a camera supports multistreaming, select the stream to apply the detection tool to (1). 
  2. Select a processing resource for decoding video streams (2). When you select a GPU, a stand-alone graphics card takes priority (when decoding with NVidia NVDEC chips). If there's no appropriate GPU, the decoding will use the Intel Quick Sync Video technology. Otherwise, CPU resources will be used for decoding.
  3. If you need to outline objects in the preview window, select Yes in the Detected Objects parameter (3).
  4. Set the recognition threshold for objects in percent (4). If the recognition probability falls below the specified value, the data will be ignored. The higher the value, the higher the accuracy — for the cost of sensitivity.
  5. Set the interval between the analyzed frames in seconds (5). The value should be within the range of 0,05 – 30.

  6. Wybierz procesor dla dekodowania strumienia wideo przy parametrze Tryb dekodera (6). Jeśli wybierzesz GPU, dedykowana karta graficzna będzie traktowana priorytetowo (przy dekodowaniu przy użyciu chipów NVidia NVDEC). Jeśli nie ma odpowiedniego GPU, dekodowanie będzie się odbywać za pomocą technologii Intel Quick Sync Video. W innym przypadku, do dekodowania używane będzie CPU.
  7. Aby zarysy rozpoznawanych obiektów były widoczne w oknie podglądu, wybierz wartość Tak dla parametru Pokaż rozpoznawane obiekty (3).
  8. Wyznacz Próg rozpoznawania obiektów, w procentach (4). Jeśli prawdopodobność prawidłowego rozpoznania znajduje się poniżej sprecyzowanej wartości, dane będą ignorowane. Im wyższa wartość, tym wyższa jakość detekcji, lecz też mniejsza czułość.
  9. Wyznacz czas między analizowaniem kolejnych klatek wideo w sekundach w polu SamplingInterval (5). Wartość ta powinna znajdować się w przedziale 0,05 - 30.

  10. Wyznacz minimalną ilość klatek z liczbą obiektów przekraczającą limit, by narzędzie zostało wyzwolone dla parametru Liczba pomiarów z rzędu przed wyzwoleniem (9). Wartość ta powinna znajdować się w zasięgu Set the minimum number of frames with excessive numbers of objects for Neuralcounter to trigger (9). The value should be within the range of 2 – 20.

    Info
    titleNote

    The default values Domyślne wartości (3 frames and klatki i 1 second) indicate that Neuralcounter will analyze one frame every second. If Neuralcounter detects more objects than the specified threshold value on 3 frames, then it triggers.sekunda) określają, że Neurocounter będzie analizować jedną klatkę na sekundę. Jeśli Neurocounter wykryje więcej obiektów niż wynosi limit przez 3 klatki, narzędzie zostanie wyzwolone.


  11. Wyznacz procesor, z którego będzie korzystała sieć neuronowa - CPU, jeden z GPU, bądź Intel NCS, w polu Tryb (6, zobacz: Select the processor for the neural network - CPU, one of GPUs, or Intel NCS (6, see Wymagania sprzętowe dla analizy neuronowej). 

    Note
    titleAttention!

    It may take several minutes to launch the algorithm on an NVIDIA GPU after you apply the settingsUruchomenie algorytmu na NVIDIA GPU może zająć do kilku minut po zastosowaniu konfiguracji.


    Note
    titleAttention!

    If you specify other processing resource than the CPU, this device will carry the most of computing load. However, the detection tool will consume CPU as well.

    Jeśli wybrany zostanie procesor inny niż CPU, procesor ten przejmie większość obciążenia, jednakże narzędzie detekcji będzie nadal korzystało, w mniejszej mierze, z CPU.


  12. Wybierz Plik sieci neuronowej Select the neural network file (7).

    Info
    titleNote

    For correct neural network operation under Linux, place the corresponding file in the Aby sieć neuronowa funkcjonowała poprawnie pod systemem Linux, plik sieci neuronowej powinien znajdować się w katalogu /opt/AxxonSoft/AxxonNext/ directory .


  13. Wyznacz warunki wyzwalające dla neurocountera:

    1. W polu Liczba obiektów wyznacz ilość obiektów w polu widzenia kamery będącą wartością progową

    Set the triggering condition for the neural counter:

    1. In the Number of alarm objects field, set the threshold value for the number of objects in FoV (8). In the Trigger upon count field, select the condition polarity: whether triggering should occur on exceeding the threshold, or dropping below it

    2. W polu Wyzwól jeśli licznik osiągnie wartość, określ polaryzację warunku: czy wyzwalanie powinno przebiegać, gdy ilość obiektów przekroczy, czy spadnie poniżej określonego progu (10). 

  14. In the preview window, you can set the detection zones with the help of anchor points much like privacy masks in Scene Analytics (see Istnieje możliwość określenia stref detekcji w podglądzie kamery poprzez przesuwanie punktów kotwiczących, podobnie do masek prywatności dla Analizy Sceny (zobacz: Setting General Zones for Scene Analytics). By default, the entire FoV is a detection zoneDomyślnie całe pole widzenia kamery jest strefą detekcji.
  15. Click Apply.

After the neural tracker is created, the layout can display the sensor icon with the number of objects within the controlled area. To configure this option, please follow the steps below:

  1. Naciśnij Zastosuj.

Po utworzeniu neurotrackera, układ może wyświetlać ikonę sensora, podającą ilość obiektu w kontrolowanej strefie. Aby skonfigurować tę opcję, wykonaj następujące kroki:

  1. Przełącz do trybu Edycji Układów (zobacz: Przełączanie do trybu edycji układu).
  2. Wyznacz pozycję sensora gdziekolwiek w polu widzenia kamery.
    Image Added
  3. Określ czcionkę, klikając Image Added.
  4. Zapisz layout (zobacz: Opuszczanie trybu edycji układu
  5. Proceed to the Layout Editing mode (see Switching to layout editing mode).
  6. Place the sensor anywhere in FoV.
    Image Removed
  7. Customize the font. To do this, press the button Image Removed.
  8. Save the layout (see Exiting layout editing mode).