신경망 카운터 작동을 위한 영상 스트림 및 장면 요구 사항

신경망 분석 작업을 위한 하드웨어 요구 사항

신경망 카운터를 구성하려면 다음 단계를 따르세요.

  1. 아카이브에 마스크(인식된 객체 강조 표시)를 기록하려면 해당 매개변수를 로 설정합니다 (1).
  2. 카메라가 멀티스트리밍을 지원하는 경우, 감지가 필요한 스트림을 선택합니다 (2).
  3. 디코드 키 프레임 매개변수(3)는 기본적으로 활성화되어 있습니다. 이 경우 키 프레임만 디코딩됩니다. 디코딩을 비활성화하려면 해당 필드에서 아니오를 선택하세요. 이 옵션을 사용하면 서버의 부하가 줄어들지만 감지 품질은 자연스럽게 낮아집니다. 비디오 이미지가 표시되지 않는 “블라인드” 서버에서 감지를 수행하려면 이 매개변수를 활성화하는 것을 권장합니다. MJPEG 코덱의 경우, 모든 프레임이 키 프레임으로 간주되므로 이 설정은 적용되지 않습니다.

    초당 처리 프레임 수 매개변수와 디코드 키 프레임 매개변수는 상호 연관되어 있습니다.

    서버에 로컬 클라이언트가 연결되어 있지 않은 경우, 원격 클라이언트에 대해 다음 규칙이 적용됩니다.

    • 키 프레임 속도가 초당 처리 프레임 수 필드에 지정된 값보다 낮으면 감지 도구는 키 프레임 기준으로 작동합니다.
    • 키 프레임 속도가 초당 처리 프레임 수 필드에 지정된 값보다 높으면 설정된 주기에 따라 감지가 수행됩니다.

    로컬 클라이언트가 서버에 연결되면 검출 도구는 항상 설정된 주기에 따라 작동합니다. 로컬 클라이언트 연결이 끊기면 위 규칙이 다시 적용됩니다.

  4. 비디오 스트림 디코딩에 사용할 처리 자원을 선택하세요 (4). GPU를 선택하면 독립형 그래픽 카드가 우선 사용됩니다(NVIDIA NVDEC 칩으로 디코딩할 때). 적합한 GPU가 없으면 Intel Quick Sync Video 기술을 사용하여 디코딩하며, 이마저 없으면 CPU 자원을 사용하여 디코딩합니다.
  5. 초당 검출 도구가 처리할 프레임 수를 설정하세요 (5). 이 값은 [0; 100] 범위여야 합니다.

    기본값(출력 프레임 3개, 1 FPS)은 신경망 카운터가 1초에 한 프레임씩 분석함을 의미합니다. 신경망 카운터가 3개 프레임에서 지정된 수 이상의 객체를 감지하면 트리거가 발생합니다.


  6. 객체 인식 임계값을 백분율로 설정하세요 (6). 인식 확률이 지정된 값보다 낮으면 데이터가 무시됩니다. 값이 높을수록 인식 정확도가 높아지지만 일부 트리거는 무시될 수 있습니다. 이 값은 [0.05; 100] 범위여야 합니다.

  7. 신경망 분석에 사용할 프로세서를 선택하세요—CPU, NVIDIA GPU 중 하나, 또는 Intel GPU 중 하나 (7신경망 분석 작업을 위한 하드웨어 요구 사항, 검출 구성에 대한 일반 정보 참조).

    • CPU 이외의 처리 자원을 지정하면 해당 장치가 대부분의 연산 부하를 담당하지만 신경망 카운터 실행을 위해 CPU도 사용됩니다.
    • 설정을 적용한 후 NVIDIA GPU에서 알고리즘이 실행되기까지 몇 분이 소요될 수 있습니다. 향후 실행 속도를 높이려면 캐싱 기능을 사용할 수 있습니다(GPU에서 신경 분석 작업 최적화 참조).
    • Detector Pack 3.11 버전부터 Intel HDDL과 Intel NCS는 지원되지 않습니다.


  8. Set the triggering condition for Neurocounter:

    1. In the Number of alarm objects field (8), set the threshold value for the number of objects in the frame. This value must be in the range [0; 100].

    2. In the Trigger upon count field (10), select when you want to generate a triggerwhen the number of objects in the detection area is:

      1. Greater than or equal to threshold value.
      2. Less than or equal to threshold value.

        Neurocounter will generate a trigger from the specified threshold (8).


  9. In the Object type field (9), select the object for counting:
    1. Human.
    2. Human (top view).
    3. Vehicle.
    4. Human and Vehicle (Nano)low accuracy, low processor load.
    5. Human and Vehicle (Medium)medium accuracy, medium processor load.
    6. Human and Vehicle (Large)high accuracy, high processor load.

  10. If you need to outline the recognized objects in the preview window, select Yes for the Detected objects parameter (11).
  11. If you use a unique neural network, select the corresponding file (12).

    • To train your neural network, contact AxxonSoft (신경망 학습을 위한 데이터 수집 요구 사항 참조).
    • A trained neural network for a particular scene allows you to detect only objects of a certain type (for example, a person, a cyclist, a motorcyclist, and so on).
    • If the neural network file is not specified, the default file will be used, which is selected automatically depending on the selected object type (9) and the selected processor for the neural network operation (7). If you use a custom neural network, enter a path to the file. The selected object type is ignored when you use a custom neural network.
    • For correct neural network operation in Linux OS, place the corresponding file in the /opt/AxxonSoft/DetectorPack/NeuroSDK directory.


  12. Set the minimum number of frames on which Neurocounter must detect objects in order to trigger (13). The value must be in the range [2; 20].
  13. If necessary, specify the class/classes of the detected object (14). If you want to display tracks of several classes, specify them separated by a comma with a space. For example, 1, 10.
    The numerical values of classes for the embedded neural networks: 1—Human/Human (top view), 10—Vehicle.
    1. If you leave the field blank, the tracks of all available classes from the neural network will be displayed (9, 12).
    2. If you specify a class/classes from the neural network, the tracks of the specified class/classes will be displayed (9, 12).
    3. If you specify a class/classes from the neural network and a class/classes missing from the neural network, the tracks of a class/classes from the neural network will be displayed (9, 12).
    4. If you specify a class/classes missing from the neural network, the tracks of all available classes from the neural network will be displayed (9, 12).

      Starting with Detector Pack 3.10.2, if you specify a class/classes missing from the neural network, the tracks won’t be displayed (9, 12).


  14. In the preview window, you can set the detection areas with the help of anchor points much like privacy masks in Scene Analytics detection tools (장면 분석 검출 도구를 위한 일반 영역 설정 참조). By default, the entire frame is a detection area.

  15. Click the Apply button.

Configuring a Neurocounter is complete.

It is possible to display the sensor and the number of objects in the controlled area in the surveillance window on the layout. To configure this option, do the following:

  1. Go to the layout editing mode (Switching to layout editing mode 참조).
  2. Place the sensor anywhere in the frame.
  3. Customize the font. To do this, click the button.
  4. Save the layout (Exiting Layout Editing mode 참조). As a result, the sensor and the number of objects will be displayed in the selected place: