Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.

Aby skonfigurować Neurotracker, wykonaj następujące kroki:

  1. Wybierz obiekt typu Neurotracker

To configure the neural tracker, do the following:

  1. Select the Neurotracker object
  2. By default, metadata are recorded into the database. To disable metadata recording, select NoDomyślnie, metadane są przechowywane w bazie danych metadanych. Aby wyłączyć generowanie metadanych, wybierz Nie (1) from the Record object tracking list.przy opcji  Zapis metadanych.
  3. Jeśli kamera wspiera multistreaming, wybierz odpowiedni strumień wideo dla narzędzia detekcji If a camera supports multistreaming, select the stream to apply the detection tool to (2). 
  4. To reduce false alarms rate from a Aby zredukować ilość fałszywych alarmów dla kamer typu fish-eye camera, you have to position it properly , wybierz Pozycję montażu kamery (3).  For other devices, this parameter is not valid.Inne rodzaje urządzeń ignorują ten parametr.

  5. Wybierz Tryb dekodera, aby wybrać rodzaj procesora, który będzie odpowiedzialny za dekodowanie wideo Select a processing resource for decoding video streams (4). When you select a GPU, a stand-alone graphics card takes priority (when decoding with NVidia NVDEC chips). If there's no appropriate GPU, the decoding will use the Jeśli wybierzesz GPU, dedykowana karta graficzna posiada priorytet (przy dekodowaniu przy pomocy chipów NVidia NVDEC). Jeśli nie ma odpowiedniego GPU, dekodowanie będzie korzystało z technologii Intel Quick Sync Video technology. Otherwise, CPU resources will be used for decoding.
  6. Set the recognition threshold for objects in percent (5). If the recognition probability falls below the specified value, the data will be ignored. The higher the value, the higher the accuracy — for the cost of sensitivity.
  7. Specify the Minimum number of detection triggers for the neural tracker to display the object's trajectory (6). The higher the value, the more is the time interval between the object's detection and display of its trajectory on screen.  Low values may lead to false triggering.
  8. W innych przypadkach, do dekodowania wykorzystywany będzie CPU.
  9. Określ Próg detekcji (5). Jeśli prawdopodobieństwo rozpoznawania spadnie poniżej określonej wartości, wynik detekcji zostanie zignorowany. Im wyższa wartość, tym wyższa dokładność, lecz mniejsza czułość.
  10. Określ wartość dla parametru Minimalna liczba wyzwoleń detekcji (6); gdy liczba detekcji z rzędu przekroczy tę wartość, neurotracker wyświetli trajektorię obiektu. Im wyższa wartość, tym większy czas między detekcją obiektu, a wyświetleniem jego trajektorii na ekranie. Niskie wartości tego parametru mogą doprowadzić do fałszywych wyzwoleń narzędzia detekcji.
  11. Wybierz Plik sieci neuronowych neurotrackera Select the neural network file (7).

    Note
    titleAttention!Uwaga!

    Sieć neutronowa wytrenowana dla danej sceny będzie z wysoką dokładnością wykrywać obiekty określonego typu (np. osoby, rowerzystów, motocykleA trained neural network does a great job for a particular scene if you want to detect only objects of a certain type (e.g. person, cyclist, motorcyclist, etc.). 

    To train your neural network, contact AxxonSoft (see Aby wytrenować sieć neuronową, skontaktuj się z AxxonSoft (zobacz: Wymagania danych dla potrzeb trenowania sieci neuronowych).


    Info
    titleNoteInformacja

    Aby sieć neuronowa poprawnie działała na systemach operacyjnych Linux, umieść plik sieci neuronowej w folderze For correct neural network operation under Linux, place the corresponding file in the /opt/AxxonSoft/AxxonNext/ directory. 

  12. You can use the neural filter to sort out video recordings featuring selected objects and their trajectories. For example, the neural tracker detects all freight trucks, and the neural filter sorts out only video recordings that contain trucks with cargo door open. To set up a neural filter, do the following:

    1. To use the neural filter, set Yes in the corresponding field (8).

    2. In the Neurofilter file field, select a neural network file (9).
    3. In the Neurofilter mode field, select a processor to be used for neural network computations (10).


  13. Możesz skorzystać z filtra sieci neuronowych w celu wyselekcjonowania fragmentów wideo zawierających dokładnie określone obiekty oraz ich trajektorie. Dla przykładu: neurotracker może wykryć wszystkie wagony przejeżdżającego pociągu, a specjalnie przygotowany filtr sieci neuronowych przefiltruje wyniki zawężając je tylko do wagonów, które mają otwarte drzwi towarowe. Aby dodać filtr sieci neuronowych, wykonaj następujące kroki:

    1. Aby użyć filtra neuronowego, zaznacz Tak w polu Włącz filtr (8).

    2. W polu Plik filtra sieci neuronowych wskaż ścieżkę do pliku filtra sieci neuronowych (9).
    3. W polu Tryb filtra neuronowego wybierz procesor, którym będzie posługiwał się filtr sieci neuronowych (10).

  14. Wybierz procesor dla sieci neuronowej: CPU lub jeden z GPU Select the processor for the neural network: the CPU or one of GPUs (11). 

    Note
    titleAttentionUwaga!

    We recommend the GPU.

    It may take several minutes to launch the algorithm on an NVIDIA GPU after you apply the settings.

    Do korzystania z sieci neuronowej zalecane są GPU.

    Po zastosowaniu zmian, włączenie algorytmu sieci neuronowej na NVIDIA GPU może trwać kilka minut.


  15. Wybierz Ilość klatek dla sieci neuronowej (12). Inne klatki będą interpolowane. Wyższe wartości oznaczają dokładniejsze śledzenie, ale także wyższe obciążanie procesoraSet the frame rate value for the neural network (12). The other frames will be interpolated. The higher the value, the more accurate tracking, the higher the CPU load.

    Note
    titleAttentionUwaga!

    Zalecane jest 6 FPS or more is recommended. For fast moving objects (running individuals, vehicles), you must set frame rate at 12 FPS or above.

  16. If you don't need to detect moving objects, select Yes in the Hide moving objects field (13). An object is treated as static if it does not change its position more than at 10% of its width or height during its track's lifetime.

  17. If you don't need to detect static objects, select Yes in the Hide stationary objects field (14). This parameter lowers the false alarm rate when detecting moving objects.

  18. In the Track retention time field, set a time interval in seconds after which the tracking of a vehicle is considered lost (15). This helps if objects in scene temporarily obscure each other.  For example, a larger vehicle may completely block the smaller  one from view. 

  19. By default, the entire FoV is a detection zone. If you need to narrow down the area to be analyzed, you can set one or several detection zones.

    Info
    titleNote

    The procedure of setting zones is identical to the primary tracker's (see Setting General Zones for Scene Analytics). The only difference is that the neural tracker's zones are processed while the primary tracker's are ignored.

  20. lub więcej. Dla szybko poruszających się obiektów (biegnący ludzie, pojazdy), wymagane jest 12 FPS lub więcej.


  21. Jeśli wykrywanie poruszających się obiektów nie jest wymagane, wybierz Tak dla pola Ukryj obiekty w ruchu (13). Obiekt jest traktowany jako statyczny, jeśli jego pozycja nie zmienia się o więcej niż 10% wysokości lub szerokości podczas trwania jego ścieżki.

  22. Jeśli wykrywanie statycznych obiektów nie jest wymagane, wybierz Tak dla pola Ukryj statyczne obiekty (14). Parametr ten obniża ilość fałszywych alarmów podczas wykrywania poruszających się obiektów.

  23. W polu Czas retencji śledzenia wpisz czas w sekundach, po których śledzenie obiektu jest zakończone (15). Opcja ta jest pomocna w przypadku, gdy obiekty mogą się tymczasowo przesłaniać: na przykład, gdy większy pojazd na ulicy zasłania mniejszy pojazd.

  24. Domyślnie całe pole widzenia kamery jest strefą detekcji. Jeśli istnieje potrzeba zawężania strefy detekcji, możesz stworzyć jedną lub kilka określonych stref detekcji.

    Info
    titleInformacja

    Procedura ustawiania stref detekcji jest taka sama, jak dla Analizy Wideo (zobacz: Tworzenie stref dla Analizy Sceny). Jedyną różnicą jest, że strefy detekcji wyznaczają strefy, na których ma być przeprowadzana detekcja; strefy maskowania wyznaczają strefy, które mają być ignorowane.


  25. Naciśnij Zastosuj.
  26. Utwórz i skonfiguruj wymagane narzędzia detekcji. Konfiguracja narzędzi jest taka sama, jak dla Analizy Wideo.

    Note
    titleUwaga!

    Aby narzędzie detekcji Ruchu w strefie korzystające z Neurotrackera zostało wyzwolone, obiekt musi pokonać odległość równą przynajmniej 25% jego szerokości lub wysokości w polu widzenia kamery.


    Note
    titleUwaga!

    Narzędzie detekcji Pozostawienia obiektu działa tylko z Analizą Wideo. Pozostawienie obiektu nie jest dostępne dla Neurotrackera

  27. Click Apply.
  28. The next step is to create and configure the necessary detection tools. The configuration procedure is the same as for the primary tracker.

    Note
    titleAttention!

    To trigger a Motion in Area detection tool under a neural network tracker, an object must be displaced by at least 25% of its width or height in FoV.

    Note
    titleAttention!

    The abandoned objects detection tool works only with the primary tracker.