Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.

...

  1. Wählen Sie das Objekt Situationsanalyse (1).



  2.  Standardmäßig werden die Metadaten des Videostreams in der Datenbank aufgezeichnet (2).

    Note
    titleAchtung!

     Zur Erfassung von Metadaten werden die Videos dekomprimiert und analysiert, was den Server massiv belastet und die Anzahl der an ihm nutzbaren Videokameras einschränkt


  3. Wenn die Videokamera Multistreaming unterstützt, wählen Sie den gewünschten Stream für die Erfassung (3). Die Wahl eines Videostreams mit geringer Qualität ermöglicht eine Reduzierung der Serverbelastung.

    Note
    titleAchtung!

     Um die korrekte Anzeige von Multistreaming-Kameraspuren zu gewährleisten, müssen alle Video-Streams dasselbe Seitenverhältnis haben.


  4. Müssen Kameravibrationen ausgeglichen werden, wählen Sie für den Parameter Vibrationsbeseitigung den Wert Ja (4).  Es empfiehlt sich, diesen Parameter nur bei deutlich spürbaren Vibrationen der Kamera zu verwenden.
  5. Ist eine automatische Empfindlichkeitsregelung von Situationsanalysedetektoren, wählen Sie in der Liste Auto-Empfindlichkeitsregelung die Option Ja (5).

    Info
    titleHinweis

    Die Aktivierung dieser Option empfiehlt sich, wenn die Beleuchtungsverhältnisse während des Kamerabetriebs stark schwanken (z.B. beim Einsatz auf Straßen).


  6. Geben Sie die Empfindlichkeit des Situationsanalysedetektors im Feld Empfindlichkeit gegenüber der Bewegung (6) im Bereich [1, 100] ein.Standardmäßig ist der Frame auf der längeren Seite auf 1920 Pixel komprimiert. Um Erkennungsfehler bei Strömen mit höherer Auflösung zu vermeiden, empfiehlt es sich, die Kompression zu reduzieren (7

  7. Analysierte Einzelbilder werden auf eine bestimmte Auflösung (7, 1280 Pixel auf der längeren Seite) verkleinert. So funktioniert es:

    1. Wenn die längere Seite des Quellbildes den im Feld "Größenänderung Einzelbild" angegebenen Wert überschreitet, wird sie durch zwei geteilt.

    2. Unterschreitet die resultierende Auflösung den angegebenen Wert, wird sie weiter verwendet.

    3. Überschreitet die resultierende Auflösung weiterhin den angegebenen Grenzwert, wird sie durch zwei geteilt, etc.

      Info
      titleHinweis

      Beispielsweise beträgt die Auflösung des Quellbildes 2048 * 1536, und der Grenzwert wird auf 1000 gesetzt.

      In diesem Fall wird die Quellauflösung zweimal geteilt (bis auf 512 * 384): Nach der ersten Teilung überschreitet die Anzahl der Pixel auf der längeren Seite den Grenzwert (1024 > 1000).


  8. Geben Sie im Feld Verweildauer des Objekts in der Datenbank die Verweilzeit des Objekts in der Datenbank des Trackers in Sekunden an (8). Wenn das Objekt das Bild verlassen hat und in der definierten Zeit zurückgekehrt ist, wird es vom Tracker als ein und dasselbe Objekt identifiziert (es wird die gleiche ID vergeben).

  9. Konfigurieren Sie ggf. den neuronalen Netzwerkfilter. Der neuronale Netzwerkfilter verarbeitet die Ergebnisse des Trackers und filtert Fehlalarme bei komplexen Videobildern (Laub, Blendung, usw.). 

    Note
    titleAchtung!

    Ein neuronaler Netzwerkfilter kann entweder nur zum Analysieren sich bewegender Objekte oder nur zum Analysieren verlassener Objekte verwendet werden. Sie können zwei neuronale Netze nicht gleichzeitig betreiben.

    1. Aktivieren Sie den Filter, indem Sie Ja (1) auswählen.

    2. Wählen Sie ein neuronales Netzwerk (2). Um auf ein neuronales Netzwerk zuzugreifen, wenden Sie sich an den technischen Support. Wenn keine neuronale Netzwerkdatei angegeben ist oder die Einstellungen falsch sind, erfolgt keine Filterung.
    3. Wählen Sie den Prozessor für das neuronale Netzwerk - CPU, einen der GPUs oder IntelNCS (3). 

  10. Klicken Sie auf Übernehmen.

...