Unable to render embedded object: File (books.jpg) not found.
Zum Dokumenten-Repository wechseln
Dokumentation für die Version Axxon Next 4.2.2. Eine Dokumentation für andere Versionen ist [ebenfalls erhältlich].
2Einige Parameter werden für alle Situationsanalysedetektoren gleichzeitig eingestellt. Gehen Sie zu deren Einrichtung wie folgt vor::
Wählen Sie das Objekt Situationsanalyse (1).
Standardmäßig werden die Metadaten des Videostreams in der Datenbank aufgezeichnet (2).
Achtung!
Zur Erfassung von Metadaten werden die Videos dekomprimiert und analysiert, was den Server massiv belastet und die Anzahl der an ihm nutzbaren Videokameras einschränkt
- Wenn die Videokamera Multistreaming unterstützt, wählen Sie den gewünschten Stream für die Erfassung (3). Die Wahl eines Videostreams mit geringer Qualität ermöglicht eine Reduzierung der Serverbelastung.
- Müssen Kameravibrationen ausgeglichen werden, wählen Sie für den Parameter Vibrationsbeseitigung den Wert Ja (4). Es empfiehlt sich, diesen Parameter nur bei deutlich spürbaren Vibrationen der Kamera zu verwenden.
Ist eine automatische Empfindlichkeitsregelung von Situationsanalysedetektoren, wählen Sie in der Liste Auto-Empfindlichkeitsregelung die Option Ja (5).
Hinweis
Die Aktivierung dieser Option empfiehlt sich, wenn die Beleuchtungsverhältnisse während des Kamerabetriebs stark schwanken (z.B. beim Einsatz auf Straßen).
Geben Sie die Empfindlichkeit des Situationsanalysedetektors im Feld Empfindlichkeit gegenüber der Bewegung (6) im Bereich [1, 100] ein.
Standardmäßig ist der Frame auf der längeren Seite auf 1920 Pixel komprimiert. Um Erkennungsfehler bei Strömen mit höherer Auflösung zu vermeiden, empfiehlt es sich, die Kompression zu reduzieren (7).
Geben Sie im Feld Verweildauer des Objekts in der Datenbank die Verweilzeit des Objekts in der Datenbank des Trackers in Sekunden an (8). Wenn das Objekt das Bild verlassen hat und in der definierten Zeit zurückgekehrt ist, wird es vom Tracker als ein und dasselbe Objekt identifiziert (es wird die gleiche ID vergeben).
Konfigurieren Sie ggf. den neuronalen Netzwerkfilter. Der neuronale Netzwerkfilter verarbeitet die Ergebnisse des Trackers und filtert Fehlalarme bei komplexen Videobildern (Laub, Blendung, usw.).
Achtung!
Ein neuronaler Netzwerkfilter kann entweder nur zum Analysieren sich bewegender Objekte oder nur zum Analysieren verlassener Objekte verwendet werden. Sie können zwei neuronale Netze nicht gleichzeitig betreiben.
Aktivieren Sie den Filter, indem Sie Ja (1) auswählen.
- Wählen Sie ein neuronales Netzwerk (2). Um auf ein neuronales Netzwerk zuzugreifen, wenden Sie sich an den technischen Support. Wenn keine neuronale Netzwerkdatei angegeben ist oder die Einstellungen falsch sind, erfolgt keine Filterung.
Wählen Sie den Prozessor für das neuronale Netzwerk - CPU, einen der GPUs oder Movidius (3).
- Klicken Sie auf Übernehmen.
Die allgemeinen Parameter der Situationsanalysedetektoren sind damit eingestellt.