Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.

...

  1. 아카이브에 마스크(인식된 객체 강조 표시)를 기록하려면 해당 매개변수를 로 설정합니다 (1).
  2. 카메라가 멀티스트리밍을 지원하는 경우, 감지가 필요한 스트림을 선택합니다 (2).
  3. 디코드 키 프레임 매개변수(3)는 기본적으로 활성화되어 있습니다. 이 경우 키 프레임만 디코딩됩니다. 디코딩을 비활성화하려면 해당 필드에서 아니오를 선택하세요. 이 옵션을 사용하면 서버의 부하가 줄어들지만 감지 품질은 자연스럽게 낮아집니다. 비디오 이미지가 표시되지 않는 “블라인드” 서버에서 감지를 수행하려면 이 매개변수를 활성화하는 것을 권장합니다. MJPEG 코덱의 경우, 모든 프레임이 키 프레임으로 간주되므로 이 설정은 적용되지 않습니다.

    Note
    titleAttention!

    초당 처리 프레임 수 매개변수와 디코드 키 프레임 매개변수는 상호 연관되어 있습니다.

    서버에 로컬 클라이언트가 연결되어 있지 않은 경우, 원격 클라이언트에 대해 다음 규칙이 적용됩니다.

    • 키 프레임 속도가 초당 처리 프레임 수 필드에 지정된 값보다 낮으면 감지 도구는 키 프레임 기준으로 작동합니다.
    • 키 프레임 속도가 초당 처리 프레임 수 필드에 지정된 값보다 높으면 설정된 주기에 따라 감지가 수행됩니다.

    로컬 클라이언트가 서버에 연결되면 검출 도구는 항상 설정된 주기에 따라 작동합니다. 로컬 클라이언트 연결이 끊기면 위 규칙이 다시 적용됩니다.

  4. 비디오 스트림 디코딩에 사용할 처리 자원을 선택하세요 (4). GPU를 선택하면 독립형 그래픽 카드가 우선 사용됩니다(NVIDIA NVDEC 칩으로 디코딩할 때). 적합한 GPU가 없으면 Intel Quick Sync Video 기술을 사용하여 디코딩하며, 이마저 없으면 CPU 자원을 사용하여 디코딩합니다.
  5. 초당 검출 도구가 처리할 프레임 수를 설정하세요 (5). 이 값은 [0; 100] 범위여야 합니다.

    Info
    titleNote

    기본값(출력 프레임 3개, 1 FPS)은 신경망 카운터가 1초에 한 프레임씩 분석함을 의미합니다. 신경망 카운터가 3개 프레임에서 지정된 수 이상의 객체를 감지하면 트리거가 발생합니다.


  6. 객체 인식 임계값을 백분율로 설정하세요 (6). 인식 확률이 지정된 값보다 낮으면 데이터가 무시됩니다. 값이 높을수록 인식 정확도가 높아지지만 일부 트리거는 무시될 수 있습니다. 이 값은 [0.05; 100] 범위여야 합니다.

  7. 신경망 분석에 사용할 프로세서를 선택하세요—CPU, NVIDIA GPU 중 하나, 또는 Intel GPU 중 하나 (7신경망 분석 작업을 위한 하드웨어 요구 사항, 검출 구성에 대한 일반 정보 참조).

    Note
    titleAttention!
    • CPU 이외의 처리 자원을 지정하면 해당 장치가 대부분의 연산 부하를 담당하지만 신경망 카운터 실행을 위해 CPU도 사용됩니다.
    • 설정을 적용한 후 NVIDIA GPU에서 알고리즘이 실행되기까지 몇 분이 소요될 수 있습니다. 향후 실행 속도를 높이려면 캐싱 기능을 사용할 수 있습니다(GPU에서 신경 분석 작업 최적화 참조).
    • Detector Pack 3.11 버전부터 Intel HDDL과 Intel NCS는 지원되지 않습니다.


  8. 신경망 카운터의 트리거 조건을 설정하세요.

    1. 알람 객체 수 필드(8)에서 프레임 내 객체 수에 대한 임계값을 설정합니다. 이 값은

    Set the triggering condition for Neurocounter:

    1. In the Number of alarm objects field (8), set the threshold value for the number of objects in the frame. This value must be in the range [0; 100] 범위여야 합니다.

    2. 트리거 발생 조건 필드(10)에서 트리거를 발생시킬 시점을 선택하세요—감지 영역 내 객체 수가:

      1. 임계값 이상일 때
      2. 임계값 이하일 때

      In the Trigger upon count field (10), select when you want to generate a triggerwhen the number of objects in the detection area is:

      1. Greater than or equal to threshold value.
      2. Less than or equal to threshold value.

        Info
        titleNote

        Neurocounter will generate a trigger from the specified threshold 신경망 카운터는 지정된 임계값에 따라 트리거를 생성합니다 (8).


  9. In the Object type field 객체 유형 필드(9), select the object for counting:에서 카운팅할 객체를 선택하세요.
    1. 사람

    2. 사람(상단 뷰)

    3. 차량

    4. 사람 및 차량

    5. Human.
    6. Human (top view).
    7. Vehicle.
    8. Human and Vehicle
    9. (Nano)

    10. low accuracy, low processor load.
    11. 낮은 정확도, 낮은 프로세서 부하

    12. 사람 및 차량

    13. Human and Vehicle
    14. (Medium) 중간 정확도, 중간 프로세서 부하

    15. 사람 및 차량

      medium accuracy, medium processor load.

      Human and Vehicle (Large) high accuracy, high processor load.높은 정확도, 높은 프로세서 부하

  10. 미리보기 창에서 인식된 객체를 표시하려면 감지된 객체 매개변수를 로 설정하세요 If you need to outline the recognized objects in the preview window, select Yes for the Detected objects parameter (11).
  11. If you use a unique neural network, select the corresponding file 고유한 신경망을 사용하는 경우 해당 파일을 선택하세요 (12).

    Note
    titleAttention!
    • To train your neural network, contact AxxonSoft 신경망 학습을 위해서는 AxxonSoft에 문의하세요 (신경망 학습을 위한 데이터 수집 요구 사항 참조).
    • A trained neural network for a particular scene allows you to detect only objects of a certain type (for example, a person, a cyclist, a motorcyclist, and so on).
    • If the neural network file is not specified, the default file will be used, which is selected automatically depending on the selected object type (9) and the selected processor for the neural network operation (7). If you use a custom neural network, enter a path to the file. The selected object type is ignored when you use a custom neural network.
    • 특정 장면에 대해 학습된 신경망은 특정 유형의 객체(예: 사람, 자전거 운전자, 오토바이 운전자 등)만 감지할 수 있습니다.
    • 신경망 파일이 지정되지 않은 경우, 선택한 객체 유형(9)과 신경망 실행에 선택된 프로세서(7)에 따라 자동으로 기본 파일이 사용됩니다. 사용자 정의 신경망을 사용하는 경우 파일 경로를 입력하세요. 사용자 정의 신경망을 사용할 때는 선택된 객체 유형이 무시됩니다.
    • Linux OS에서 신경망이 정상 작동하려면 해당 파일을 For correct neural network operation in Linux OS, place the corresponding file in the /opt/AxxonSoft/DetectorPack/NeuroSDK directory.디렉터리에 위치시키세요.


  12. 신경망 카운터가 트리거를 발생시키기 위해 객체를 감지해야 하는 최소 프레임 수를 설정하세요 Set the minimum number of frames on which Neurocounter must detect objects in order to trigger (13). The value must be in the range 값은 [2; 20] 범위여야 합니다.
  13. 필요한 경우 감지된 객체의 클래스/클래스를 지정하세요 (14). 여러 클래스를 표시하려면 쉼표와 공백으로 구분하여 입력합니다. 예: 1, 10
    내장 신경망의 클래스 숫자 값: 1—사람/사람(상단 뷰), 10—차량
    1. 필드를 비워두면 신경망에서 사용 가능한 모든 클래스의 트랙이 표시됩니다
    If necessary, specify the class/classes of the detected object (14). If you want to display tracks of several classes, specify them separated by a comma with a space. For example, 1, 10.
    The numerical values of classes for the embedded neural networks: 1—Human/Human (top view), 10—Vehicle.
    1. If you leave the field blank, the tracks of all available classes from the neural network will be displayed (9, 12).
    2. If you specify a class/classes from the neural network, the tracks of the specified class/classes will be displayed 신경망에서 특정 클래스/클래스를 지정하면 지정한 클래스/클래스의 트랙만 표시됩니다 (9, 12).
    3. If you specify a class/classes from the neural network and a class/classes missing from the neural network, the tracks of a class/classes from the neural network will be displayed 신경망의 클래스/클래스와 신경망에 없는 클래스/클래스를 함께 지정하면 신경망에 있는 클래스/클래스의 트랙만 표시됩니다 (9, 12).
    4. If you specify a class/classes missing from the neural network, the tracks of all available classes from the neural network will be displayed 신경망에 없는 클래스/클래스만 지정하면 신경망에서 사용 가능한 모든 클래스의 트랙이 표시됩니다 (9, 12).

      Info
      titleNote

      Starting with Detector Pack 3.10.2 , if you specify a class/classes missing from the neural network, the tracks won’t be displayed 버전부터는 신경망에 없는 클래스/클래스를 지정하면 트랙이 표시되지 않습니다 (9, 12).


  14. In the preview window, you can set the detection areas with the help of anchor points much like privacy masks in Scene Analytics detection tools 미리보기 창에서는 앵커 포인트를 이용해 장면 분석 검출 도구의 프라이버시 마스크처럼 감지 영역을 설정할 수 있습니다 (장면 분석 검출 도구를 위한 일반 영역 설정 참조). By default, the entire frame is a detection area기본값은 전체 프레임이 감지 영역입니다.

  15. Click the Apply button.

Configuring a Neurocounter is complete.

It is possible to display the sensor and the number of objects in the controlled area in the surveillance window on the layout. To configure this option, do the following:

  1. 적용 버튼을 클릭합니다.

신경망 카운터 구성이 완료되었습니다.

레이아웃의 감시 창에서 센서와 제어 구역 내 객체 수를 표시할 수 있습니다. 이 옵션을 구성하려면 다음을 수행하세요.

  1. 레이아웃 편집 모드로 전환하세요 Go to the layout editing mode (Switching to layout editing mode 참조).
  2. Place the sensor anywhere in the frame프레임 내 원하는 위치에 센서를 배치하세요.
  3. Customize the font. To do this, click the Image Removed button.
  4. 글꼴을 사용자 지정하려면 Image Added 버튼을 클릭하세요.
  5. 레이아웃을 저장하세요 Save the layout (Exiting Layout Editing mode 참조). As a result, the sensor and the number of objects will be displayed in the selected place:이 결과, 선택한 위치에 센서와 객체 수가 표시됩니다.