Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.

장면 분석 감지 도구에 대해 일부 매개변은 동시에 구성할 수 있습니다. 이를 구성하려면 다음과 같이 하세요.

  1. 객체 추적기 객체를 선택합니다.

    Image Added
  2. 기본적으로 비디오 스트림 메타데이터는 데이터베이스에 기록됩니다. 기록을 비활성화하려면 객체 추적 기록 목록(1)에서 아니오를 선택하면 됩니다

Some parameters can be configured for Scene Analytics detection tools simultaneously. To configure them, do as follows: 

  1. Select the Object tracker object.

    Image Removed
  2. By default, video stream metadata are recorded to the database. You can disable the recording by selecting No in the Record objects tracking list (1).

    Note
    titleAttention!

    Video decompression and analysis are used to obtain metadata, which causes high Server load and limits the number of video cameras that can be used on it.

    비디오 디코딩과 분석은 메타데이터를 얻기 위해 사용되며, 이로 인해 서버 부하가 증가하고 서버에서 사용할 수 있는 비디오 카메라 수가 제한됩니다.


  3. 비디오 카메라가 멀티스트리밍을 지원하는 경우, 감지가 필요한 스트림을 선택하세요 (2). 낮은 품질의 비디오 스트림을 선택하면 서버의 부하를 줄일 수 있습니다If the video camera supports multistreaming, select the stream for which detection is needed (2). Selecting a low-quality video stream allows reducing the load on the Server.

    Note
    titleAttention!

    To display the object tracks properly, make sure that all video streams from multistreaming camera have the same aspect ratio settings.

    객체 추적이 제대로 표시되도록 하려면 멀티스트리밍 카메라의 모든 비디오 스트림이 동일한 가로세로 비율 설정을 갖도록 해야 합니다.


  4. 장면 분석 감지 도구의 민감도를 자동으로 조정해야 하는 경우, 자동 민감도 목록(3)에서 를 선택하세요If you need to automatically adjust the sensitivity of the scene analytics detection tools, select Yes in the Auto sensitivity list (3).

    Info
    titleNote

    It is recommended to enable this option if the lighting fluctuates significantly in the course of the video camera operation (for example, in outdoor conditions).

  5. To reduce the number of false positives from a fish-eye camera, you have to position it properly (4). For other devices, this parameter is not valid.

  6. Select a processing resource for decoding video streams (5). When you select a GPU, a stand-alone graphics card takes priority (when decoding with NVIDIA NVDEC chips). If there is no appropriate GPU, the decoding will use the Intel Quick Sync Video technology. Otherwise, CPU resources will be used for decoding.
  7. In the Motion detection sensitivity field (6), set the sensitivity of the scene analytics detection tools to motion in the range [1, 100].
  8. To smooth camera shake, set Yes for the Antishaker parameter (7). This parameter is recommended to use only when the camera shake is evident.
  9. 특히 비디오 카메라가 작동하는 동안 조명이 크게 변동하는 경우(예: 야외 환경에서) 이 옵션을 활성화하는 것이 좋습니다.


  10. 어안 카메라에서 잘못된 경고를 줄이기 위해서는 카메라를 적절히 배치해야 합니다 (4). 다른 장치에서는 이 매개변수가 적용되지 않습니다.

  11. 비디오 스트림 디코딩을 위한 처리 자원을 선택하세요 (5). GPU를 선택하면 독립형 그래픽 카드가 우선 사용됩니다 (NVIDIA NVDEC 칩을 사용하여 디코딩 시). 적절한 GPU가 없으면, 디코딩은 Intel Quick Sync Video 기술을 사용하고, 그 외의 경우 CPU 자원이 디코딩에 사용됩니다.
  12. 움직임 감지 민감도 필드(6)에서 장면 분석 감지 도구의 민감도를 [1, 100]범위로 설정하세요.
  13. 카메라 흔들림을 부드럽게 하기 위해 안티 셰이커(Antishaker) 매개변수(7)를 로 설정하세요. 이 매개변수는 카메라 흔들림이 뚜렷할 때만 사용하는 것이 좋습니다.
  14. 분석된 프레임은 지정된 해상도(8, 긴 쪽은 1280픽셀)로 축소됩니다. 작동 방식은 다음과 같습니다.

    1. 원본 이미지의 긴 쪽이 프레임 크기 변경 필드에 지정된 값을 초과하면 해당 값은 두로 나누어집니다.

    2. 결과 해상도가 지정된 값을 아래로 낮추면 그 해상도가 계속 사용됩니다.

    3. 그럼에도 불구하고 결과 해상도가 여전히 지정된 제한을 초과하면 다시 둘로 나누어집니다

    Analyzed framed are scaled down to a specified resolution (8, 1280 pixels on the longer side). This is how it works:

    1. If the longer side of the source image exceeds the value specified in the Frame size change field, it is divided by two.

    2. If the resulting resolution falls below the specified value, it is used further.

    3. If the resulting resolution still exceeds the specified limit, it is divided by two, etc.

      Info
      titleNote

      예를 들어, 원본 이미지 해상도가 2048x1536이고 지정된 값이 1000으로 설정된 경우,

      원본 해상도는 두 번 절반으로 나누어집니다 (512x384). 첫 번째 나누기 후 긴 쪽의 픽셀 수가 제한을 초과하므로

      For example, the source image resolution is 2048*1536, and the specified value is set to 1000.

      In this case, the source resolution will be halved two times (512*384), as after the first division, the number of pixels on the longer side exceeds the limit

      (1024 > 1000) 두 번째 나누기가 이루어집니다.


      Info
      titleNote

      If detection is performed on a higher resolution stream and detection errors occur, it is recommended to reduce the compression.

      더 높은 해상도의 스트림에서 감지가 수행되고 감지 오류가 발생하는 경우, 압축을 줄이는 것이 권장됩니다.


  15. 객체 속성 저장 시간을 Enter the time interval in seconds, during which object properties will be stored in the Time of object in DBfield 필드(9). If the object leaves and enters the FOV within the specified time, it will be identified as one and the same object (same ID).  에 초 단위로 입력하세요. 지정된 시간 내에 객체가 시야(FOV)에서 나갔다가 다시 들어오면, 동일한 객체(같은 ID)로 인식됩니다.
  16. 필요한 경우,신경망 필터를 구성하세요(If necessary, configure the neural network filter (see 신경망 분석 작업을 위한 하드웨어 요구 사항). The neural network filter processes the results of the tracker and filters out false positives on complex video images (foliage, glare, etc.) 참조). 신경망 필터는 추적기의 결과를 처리하고 복잡한 비디오 이미지(나뭇잎, 반사광 등)에서 잘못된 경고를 걸러냅니다.

    Note
    titleAttention!

    A neural network filter can be used either for analyzing moving objects, or for analyzing abandoned objects only. You cannot operate two neural networks simultaneously.

    신경망 필터는 이동하는 객체 분석 또는 버려진 객체 분석 중 하나에만 사용할 수 있습니다. 두 개의 신경망을 동시에 운영할 수는 없습니다.

    1. 필터를 활성화하려면 를 선택하세요Enable the filter by selecting Yes (1).

    2. Select the processor for the neural network신경망 처리기를 선택하세요 CPU, one of NVIDIA GPUs, or one of Intel GPUs GPU 중 하나, 또는 Intel GPU 중 하나를 선택할 수 있습니다. (2, see  신경망 분석 작업을 위한 하드웨어 요구 사항, 검출 구성에 대한 일반 정보 참조).

      Note
      titleAttention!
      • CPU 이외의 다른 처리 자원을 지정하면 해당 장치가 대부분의 계산 부하를 담당하게 됩니다. 그러나 CPU는 여전히 감지 도구 실행에 사용됩니다.
      • 설정을 적용한 후 NVIDIA GPU에서 알고리즘을 실행하는 데 몇 분 정도 걸릴 수 있습니다. 향후 실행 속도를 높이려면 캐싱을 사용할 수 있습니다 (
      • If you specify other processing resource than the CPU, this device will carry the most of computing load. However, the CPU will also be used to run the detection tool.
      • It may take several minutes to launch the algorithm on NVIDIA GPU after you apply the settings. You can use caching to speed up future launches (see Optimizing the operation of neural analytics on GPU 참조).
      • Starting with Detector Pack 3.11, 11부터는 Intel HDDL and Intel NCS aren’t supportedHDDL과 Intel NCS가 지원되지 않습니다.


      Tip

      신경망 필터 작동을 위한 카메라 요구 사항


    3. Select a neural network 신경망을 선택하세 (3). To access a neural network, contact AxxonSoft technical support. If no neural network file is specified, or the settings are incorrect, the filter will not operate.
  17. Click the Apply button.
    1. 신경망에 접근하려면 AxxonSoft 기술 지원에 문의하세요. 신경망 파일이 지정되지 않았거나 설정이 잘못된 경우, 필터는 작동하지 않습니다.


  18. 적용 버튼을 클릭하세요.

이제 장면 분석 감지 도구의 일반 매개변수가 설정되었습니다The general parameters of the Scene Analytics detection tools are now set.