Metadane to wirtualne informacje pozyskiwane ze strumieni wideo, służące do łatwiejszego zarządzania kamerami oraz do pozyskiwania danych o obiektach.
W Axxon One metadane mogą być uzyskane na dwa sposoby:
Aby uzyskać metadane z wideo, niezbędna jest zdekompresowanie i przeanalizowanie strumienia wideo, przez co zwiększane jest obciążenie Serwera, co z kolei może spowodować ograniczenie ilości możliwych do obsługi kanałów kamer. |
Następujące narzędzia są stosowane do analizy oraz generowania metadanych po stronie serwera:
Analiza wideo oraz Neurotracker generują metadane zawierające następujące informacje o poruszających się na scenie obiektach: typ obiektu, pozycja, wielkość, kolor, szybkość poruszania się, kierunek, etc. |
Detektor ruchu generuje mniej dokładne informacje; nie określa typów obiektów, ani ich kolorów. |
Metadane detekcji twarzy zawierają ramki granic twarzy oraz ich pozycje, a także wektory twarzy. |
Narzędzia automatycznego rozpoznawania tablic rejestracyjnych (LPR/ANPR).
Metadane ANPR zawierają ramki zawierające tablice rejestracyjne oraz ich pozycje, a także numery rejestracyjne pojazdów. |
Metadane z detektora pozy ciała zawiera informacje na temat pozycji oraz póz ciała wszystkich osób w polu widzenia. |
Narzędzia detekcji wyposażenia (PPE).
Metadane z detekcji wyposażenia zawierają informacje na temat pozycji wszystkich osób w polu widzenia. |
Metadane są używane przy korzystaniu z następujących funkcjonalności:
Jeśli kamera korzysta z kilku źródeł metadanych, wymagane źródło jest wybierane automatycznie (za wyjątkiem korzystania z MomentQuest). Do celów przeszukiwania twarzy/numerów rejestracyjnych używane są metadane wyłącznie z odpowiedniego narzędzia detekcji. |
Domyślnie pliki metadanych są przechowywane jako pliki w bazie trajektorii obiektów w folderze na lokalnym Serwerze wybranym podczas instalacji w podfolderze "vmda_db\VMDA_DB.0\vmda_schema".
Zamiast tego, można je umieścić na dowolnym sieciowym urządzeniu pamięci masowej (zobacz: Konfigurowanie przechowywania zdarzeń systemowych oraz metadanych). |