Dokumentation für die Version Axxon Next 4.4.6. Eine Dokumentation für andere Versionen ist [ebenfalls erhältlich].

Vorherige Seite Konfigurieren von Situationsanalysedetektoren basierend auf Objektverfolgung  Definition allgemeiner Situationsanalysezonen Folgeseite

2Einige Parameter werden für alle Situationsanalysedetektoren gleichzeitig eingestellt. Gehen Sie zu deren Einrichtung wie folgt vor::

  1. Wählen Sie das Objekt Situationsanalyse (1).



  2.  Standardmäßig werden die Metadaten des Videostreams in der Datenbank aufgezeichnet (2).

    Achtung!

     Zur Erfassung von Metadaten werden die Videos dekomprimiert und analysiert, was den Server massiv belastet und die Anzahl der an ihm nutzbaren Videokameras einschränkt

  3. Wenn die Videokamera Multistreaming unterstützt, wählen Sie den gewünschten Stream für die Erfassung (3). Die Wahl eines Videostreams mit geringer Qualität ermöglicht eine Reduzierung der Serverbelastung.

    Achtung!

     Um die korrekte Anzeige von Multistreaming-Kameraspuren zu gewährleisten, müssen alle Video-Streams dasselbe Seitenverhältnis haben.

  4. Müssen Kameravibrationen ausgeglichen werden, wählen Sie für den Parameter Vibrationsbeseitigung den Wert Ja (4).  Es empfiehlt sich, diesen Parameter nur bei deutlich spürbaren Vibrationen der Kamera zu verwenden.
  5. Ist eine automatische Empfindlichkeitsregelung von Situationsanalysedetektoren, wählen Sie in der Liste Auto-Empfindlichkeitsregelung die Option Ja (5).

    Hinweis

    Die Aktivierung dieser Option empfiehlt sich, wenn die Beleuchtungsverhältnisse während des Kamerabetriebs stark schwanken (z.B. beim Einsatz auf Straßen).

  6. Geben Sie die Empfindlichkeit des Situationsanalysedetektors im Feld Empfindlichkeit gegenüber der Bewegung (6) im Bereich [1, 100] ein.

  7. Analysierte Einzelbilder werden auf eine bestimmte Auflösung (7, 1280 Pixel auf der längeren Seite) verkleinert. So funktioniert es:

    1. Wenn die längere Seite des Quellbildes den im Feld "Größenänderung Einzelbild" angegebenen Wert überschreitet, wird sie durch zwei geteilt.

    2. Unterschreitet die resultierende Auflösung den angegebenen Wert, wird sie weiter verwendet.

    3. Überschreitet die resultierende Auflösung weiterhin den angegebenen Grenzwert, wird sie durch zwei geteilt, etc.

      Hinweis

      Beispielsweise beträgt die Auflösung des Quellbildes 2048 * 1536, und der Grenzwert wird auf 1000 gesetzt.

      In diesem Fall wird die Quellauflösung zweimal geteilt (bis auf 512 * 384): Nach der ersten Teilung überschreitet die Anzahl der Pixel auf der längeren Seite den Grenzwert (1024 > 1000).

  8. Geben Sie im Feld Verweildauer des Objekts in der Datenbank die Verweilzeit des Objekts in der Datenbank des Trackers in Sekunden an (8). Wenn das Objekt das Bild verlassen hat und in der definierten Zeit zurückgekehrt ist, wird es vom Tracker als ein und dasselbe Objekt identifiziert (es wird die gleiche ID vergeben).

  9. Konfigurieren Sie ggf. den neuronalen Netzwerkfilter. Der neuronale Netzwerkfilter verarbeitet die Ergebnisse des Trackers und filtert Fehlalarme bei komplexen Videobildern (Laub, Blendung, usw.). 

    Achtung!

    Ein neuronaler Netzwerkfilter kann entweder nur zum Analysieren sich bewegender Objekte oder nur zum Analysieren verlassener Objekte verwendet werden. Sie können zwei neuronale Netze nicht gleichzeitig betreiben.

    1. Aktivieren Sie den Filter, indem Sie Ja (1) auswählen.

    2. Wählen Sie ein neuronales Netzwerk (2). Um auf ein neuronales Netzwerk zuzugreifen, wenden Sie sich an den technischen Support. Wenn keine neuronale Netzwerkdatei angegeben ist oder die Einstellungen falsch sind, erfolgt keine Filterung.
    3. Wählen Sie den Prozessor für das neuronale Netzwerk - CPU, einen der GPUs oder IntelNCS (3). 

  10. Klicken Sie auf Übernehmen.

Die allgemeinen Parameter der Situationsanalysedetektoren sind damit eingestellt.