Documentation for Axxon Next 4.5.0. Documentation for other versions of Axxon Next is available too.

Previous page Next page

You are viewing an old version of this page. View the current version.

Compare with Current View Page History

« Previous Version 2 Current »

Aby skonfigurować Neurotracker, wykonaj następujące kroki:

  1. Wybierz obiekt typu Neurotracker
  2. Domyślnie, metadane są przechowywane w bazie danych metadanych. Aby wyłączyć generowanie metadanych, wybierz Nie (1) przy opcji  Zapis metadanych.
  3. Jeśli kamera wspiera multistreaming, wybierz odpowiedni strumień wideo dla narzędzia detekcji (2). 
  4. Aby zredukować ilość fałszywych alarmów dla kamer typu fish-eye, wybierz Pozycję montażu kamery (3).  Inne rodzaje urządzeń ignorują ten parametr.

  5. Wybierz Tryb dekodera, aby wybrać rodzaj procesora, który będzie odpowiedzialny za dekodowanie wideo (4). Jeśli wybierzesz GPU, dedykowana karta graficzna posiada priorytet (przy dekodowaniu przy pomocy chipów NVidia NVDEC). Jeśli nie ma odpowiedniego GPU, dekodowanie będzie korzystało z technologii Intel Quick Sync Video. W innych przypadkach, do dekodowania wykorzystywany będzie CPU.
  6. Set the recognition threshold for objects in percent (5). If the recognition probability falls below the specified value, the data will be ignored. The higher the value, the higher the accuracy — for the cost of sensitivity.
  7. Specify the Minimum number of detection triggers for the neural tracker to display the object's trajectory (6). The higher the value, the more is the time interval between the object's detection and display of its trajectory on screen.  Low values may lead to false triggering.
  8. Wybierz Plik sieci neuronowych neurotrackera (7).

    Attention!

    Sieć neutronowa wytrenowana dla danej sceny bardzo skutecznie wykrywa obiekty A trained neural network does a great job for a particular scene if you want to detect only objects of a certain type (e.g. person, cyclist, motorcyclist, etc.). 

    Aby wytrenować sieć neuronową, skontaktuj się z AxxonSoft (zobacz: Wymagania danych dla potrzeb trenowania sieci neuronowych).

    Note

    Aby sieć neuronowa poprawnie działała na systemach operacyjnych Linux, umieść plik sieci neuronowej w folderze /opt/AxxonSoft/AxxonNext/ directory. 

  9. Możesz skorzystać z filtra sieci neuronowych w celu wyselekcjonowania fragmentów wideo zawierających dokładnie określone obiekty oraz ich trajektorie. Dla przykładu: neurotracker może wykryć wszystkie wagony przejeżdżającego pociągu, a specjalnie przygotowany filtr sieci neuronowych przefiltruje wyniki zawężając je tylko do wagonów, które mają otwarte drzwi towarowe. Aby dodać filtr sieci neuronowych, wykonaj następujące kroki:

    1. Aby użyć filtra neuronowego, zaznacz Tak w polu Włącz filtr (8).

    2. W polu Plik filtra sieci neuronowych wskaż ścieżkę do pliku filtra sieci neuronowych (9).
    3. W polu Tryb filtra neuronowego wybierz procesor, którym będzie posługiwał się filtr sieci neuronowych (10).

  10. Wybierz procesor dla sieci neuronowej: CPU lub jeden z GPU (11). 

    Attention!

    Do korzystania z sieci neuronowej zalecane są GPU.

    Po zastosowaniu zmian, włączenie algorytmu sieci neuronowej na NVIDIA GPU może trwać kilka minut.

  11. Wybierz Ilość klatek dla sieci neuronowej (12). Inne klatki będą interpolowane. Wyższe wartości oznaczają dokładniejsze śledzenie, ale także wyższe obciążanie procesora.

    Attention!

    Zalecane jest 6 FPS lub więcej. Dla szybko poruszających się obiektów (biegnący ludzie, pojazdy), wymagane jest 12 FPS lub więcej.

  12. Jeśli wykrywanie poruszających się obiektów nie jest wymagane, wybierz Tak dla pola Hide moving objects (13). Obiekt jest traktowany jako statyczny, jeśli jego pozycja nie zmienia się o więcej niż 10% wysokości lub szerokości podczas trwania jego ścieżki.

  13. Jeśli wykrywanie statycznych obiektów nie jest wymagane, wybierz Tak dla pola Hide stationary objects (14). Parametr ten obniża ilość fałszywych alarmów podczas wykrywania poruszających się obiektów.

  14. W polu Track retention time wpisz czas w sekundach, po których śledzenie obiektu jest zakończone (15). Opcja ta jest pomocna w przypadku, gdy obiekty mogą się tymczasowo przesłaniać: na przykład, gdy większy pojazd na ulicy zasłania mniejszy pojazd.

  15. Domyślnie całe pole widzenia kamery jest strefą detekcji. Jeśli istnieje potrzeba zawężania strefy detekcji, możesz stworzyć jedną lub kilka określonych stref detekcji.

    Note

    Procedura ustawiania stref detekcji jest taka sama, jak dla Analizy Wideo (zobacz: Tworzenie stref dla Analizy Sceny). Jedyną różnicą jest, że strefy detekcji wyznaczają strefy, na których ma być przeprowadzana detekcja; strefy maskowania wyznaczają strefy, które mają być ignorowane.

  16. Naciśnij Zastosuj.
  17. Utwórz i skonfiguruj wymagane narzędzia detekcji. Konfiguracja narzędzi jest taka sama, jak dla Analizy Wideo.

    Attention!

    Aby narzędzie detekcji Ruchu w strefie korzystające z Neurotrackera zostało wyzwolone, obiekt musi pokonać odległość równą przynajmniej 25% jego szerokości lub wysokości w polu widzenia kamery.

    Attention!

    Narzędzie detekcji Pozostawienia obiektu działa tylko z Analizą Wideo. Pozostawienie obiektu nie jest dostępne dla Neurotrackera.

  • No labels