Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.

...

  1. Wybierz obiekt typu Neurotracker
  2. Domyślnie, metadane są przechowywane w bazie danych metadanych. Aby wyłączyć generowanie metadanych, wybierz Nie (1) przy opcji  Zapis metadanych.
  3. Jeśli kamera wspiera multistreaming, wybierz odpowiedni strumień wideo dla narzędzia detekcji (2). 
  4. Aby zredukować ilość fałszywych alarmów dla kamer typu fish-eye, wybierz Pozycję montażu kamery (3).  Inne rodzaje urządzeń ignorują ten parametr.

  5. Wybierz Tryb dekodera, aby wybrać rodzaj procesora, który będzie odpowiedzialny za dekodowanie wideo (4). Jeśli wybierzesz GPU, dedykowana karta graficzna posiada priorytet (przy dekodowaniu przy pomocy chipów NVidia NVDEC). Jeśli nie ma odpowiedniego GPU, dekodowanie będzie korzystało z technologii Intel Quick Sync Video. W innych przypadkach, do dekodowania wykorzystywany będzie CPU.
  6. Set the recognition threshold for objects in percent Określ Próg detekcji (5). If the recognition probability falls below the specified value, the data will be ignored. The higher the value, the higher the accuracy — for the cost of sensitivity.Specify the Minimum number of detection triggers for the neural tracker to display the object's trajectory (6). The higher the value, the more is the time interval between the object's detection and display of its trajectory on screen.  Low values may lead to false triggeringJeśli prawdopodobieństwo rozpoznawania spadnie poniżej określonej wartości, wynik detekcji zostanie zignorowany. Im wyższa wartość, tym wyższa dokładność, lecz mniejsza czułość.
  7. Określ wartość dla parametru Minimalna liczba wyzwoleń detekcji (6); gdy liczba detekcji z rzędu przekroczy tę wartość, neurotracker wyświetli trajektorię obiektu. Im wyższa wartość, tym większy czas między detekcją obiektu, a wyświetleniem jego trajektorii na ekranie. Niskie wartości tego parametru mogą doprowadzić do fałszywych wyzwoleń narzędzia detekcji.
  8. Wybierz Plik sieci neuronowych neurotrackera (7).

    Note
    titleAttentionUwaga!

    Sieć neutronowa wytrenowana dla danej sceny bardzo skutecznie wykrywa obiekty A trained neural network does a great job for a particular scene if you want to detect only objects of a certain type (e.g. person, cyclist, motorcyclistbędzie z wysoką dokładnością wykrywać obiekty określonego typu (np. osoby, rowerzystów, motocykle, etc.). 

    Aby wytrenować sieć neuronową, skontaktuj się z AxxonSoft (zobacz: Wymagania danych dla potrzeb trenowania sieci neuronowych).


    Info
    titleNoteInformacja

    Aby sieć neuronowa poprawnie działała na systemach operacyjnych Linux, umieść plik sieci neuronowej w folderze /opt/AxxonSoft/AxxonNext/ directory. 


  9. Możesz skorzystać z filtra sieci neuronowych w celu wyselekcjonowania fragmentów wideo zawierających dokładnie określone obiekty oraz ich trajektorie. Dla przykładu: neurotracker może wykryć wszystkie wagony przejeżdżającego pociągu, a specjalnie przygotowany filtr sieci neuronowych przefiltruje wyniki zawężając je tylko do wagonów, które mają otwarte drzwi towarowe. Aby dodać filtr sieci neuronowych, wykonaj następujące kroki:

    1. Aby użyć filtra neuronowego, zaznacz Tak w polu Włącz filtr (8).

    2. W polu Plik filtra sieci neuronowych wskaż ścieżkę do pliku filtra sieci neuronowych (9).
    3. W polu Tryb filtra neuronowego wybierz procesor, którym będzie posługiwał się filtr sieci neuronowych (10).

  10. Wybierz procesor dla sieci neuronowej: CPU lub jeden z GPU (11). 

    Note
    titleAttentionUwaga!

    Do korzystania z sieci neuronowej zalecane są GPU.

    Po zastosowaniu zmian, włączenie algorytmu sieci neuronowej na NVIDIA GPU może trwać kilka minut.


  11. Wybierz Ilość klatek dla sieci neuronowej (12). Inne klatki będą interpolowane. Wyższe wartości oznaczają dokładniejsze śledzenie, ale także wyższe obciążanie procesora.

    Note
    titleAttentionUwaga!

    Zalecane jest 6 FPS lub więcej. Dla szybko poruszających się obiektów (biegnący ludzie, pojazdy), wymagane jest 12 FPS lub więcej.


  12. Jeśli wykrywanie poruszających się obiektów nie jest wymagane, wybierz Tak dla pola Hide moving objectsUkryj obiekty w ruchu (13). Obiekt jest traktowany jako statyczny, jeśli jego pozycja nie zmienia się o więcej niż 10% wysokości lub szerokości podczas trwania jego ścieżki.

  13. Jeśli wykrywanie statycznych obiektów nie jest wymagane, wybierz Tak dla pola Hide stationary objectsUkryj statyczne obiekty (14). Parametr ten obniża ilość fałszywych alarmów podczas wykrywania poruszających się obiektów.

  14. W polu Track retention timeCzas retencji śledzenia wpisz czas w sekundach, po których śledzenie obiektu jest zakończone (15). Opcja ta jest pomocna w przypadku, gdy obiekty mogą się tymczasowo przesłaniać: na przykład, gdy większy pojazd na ulicy zasłania mniejszy pojazd.

  15. Domyślnie całe pole widzenia kamery jest strefą detekcji. Jeśli istnieje potrzeba zawężania strefy detekcji, możesz stworzyć jedną lub kilka określonych stref detekcji.

    Info
    titleNoteInformacja

    Procedura ustawiania stref detekcji jest taka sama, jak dla Analizy Wideo (zobacz: Tworzenie stref dla Analizy Sceny). Jedyną różnicą jest, że strefy detekcji wyznaczają strefy, na których ma być przeprowadzana detekcja; strefy maskowania wyznaczają strefy, które mają być ignorowane.


  16. Naciśnij Zastosuj.
  17. Utwórz i skonfiguruj wymagane narzędzia detekcji. Konfiguracja narzędzi jest taka sama, jak dla Analizy Wideo.

    Note
    titleAttentionUwaga!

    Aby narzędzie detekcji Ruchu w strefie korzystające z Neurotrackera zostało wyzwolone, obiekt musi pokonać odległość równą przynajmniej 25% jego szerokości lub wysokości w polu widzenia kamery.


    Note
    titleAttentionUwaga!

    Narzędzie detekcji Pozostawienia obiektu działa tylko z Analizą Wideo. Pozostawienie obiektu nie jest dostępne dla Neurotrackera.