...
To configure a Neurocounter, do the following:
신경망 카운터를 구성하려면 다음 단계를 따르세요.
- 아카이브에 마스크(인식된 객체 강조 표시)를 기록하려면 해당 매개변수를 예로 설정합니다 To record mask (highlighting of recognized objects) to the archive, select Yes for the corresponding parameter (1).

- If the camera supports multistreaming, select the stream for which detection is needed 카메라가 멀티스트리밍을 지원하는 경우, 감지가 필요한 스트림을 선택합니다 (2).
The Decode key frames parameter 디코드 키 프레임 매개변수(3) is enabled by default. In this case, only key frames are decoded. To disable decoding, select No in the corresponding field. Using this option reduces the load on the Server, but at the same time the quality of detection is naturally reduced. We recommend enabling this parameter for "blind" (without video image display) Servers, on which you want to perform detection. For MJPEG codec decoding isn’t relevant, as each frame is considered a key frame는 기본적으로 활성화되어 있습니다. 이 경우 키 프레임만 디코딩됩니다. 디코딩을 비활성화하려면 해당 필드에서 아니오를 선택하세요. 이 옵션을 사용하면 서버의 부하가 줄어들지만 감지 품질은 자연스럽게 낮아집니다. 비디오 이미지가 표시되지 않는 “블라인드” 서버에서 감지를 수행하려면 이 매개변수를 활성화하는 것을 권장합니다. MJPEG 코덱의 경우, 모든 프레임이 키 프레임으로 간주되므로 이 설정은 적용되지 않습니다.
Note |
---|
|
The Number of frames processed per second and Decode key frames parameters are interconnected. If there is no local Client connected to the Server, the following rules work for remote Clients: - If the key frame rate is less than the value specified in the Number of frames processed per second field, the detection tool will work by key frames.
- If the key frame rate is greater than the value specified in the Number of frames processed per second field, the detection will be performed according to the set period.
If a local Client connects to the Server, the detection tool will always work according to the set period. After a local Client disconnects, the above rules will be relevant again. |
Image Removed
- Select a processing resource for decoding video streams (4). When you select a GPU, a stand-alone graphics card takes priority (when decoding with NVIDIA NVDEC chips). If there is no appropriate GPU, the decoding will use the Intel Quick Sync Video technology. Otherwise, CPU resources will be used for decoding.
초당 처리 프레임 수 매개변수와 디코드 키 프레임 매개변수는 상호 연관되어 있습니다. 서버에 로컬 클라이언트가 연결되어 있지 않은 경우, 원격 클라이언트에 대해 다음 규칙이 적용됩니다. - 키 프레임 속도가 초당 처리 프레임 수 필드에 지정된 값보다 낮으면 감지 도구는 키 프레임 기준으로 작동합니다.
- 키 프레임 속도가 초당 처리 프레임 수 필드에 지정된 값보다 높으면 설정된 주기에 따라 감지가 수행됩니다.
로컬 클라이언트가 서버에 연결되면 검출 도구는 항상 설정된 주기에 따라 작동합니다. 로컬 클라이언트 연결이 끊기면 위 규칙이 다시 적용됩니다. |
Image Added
- 비디오 스트림 디코딩에 사용할 처리 자원을 선택하세요 (4). GPU를 선택하면 독립형 그래픽 카드가 우선 사용됩니다(NVIDIA NVDEC 칩으로 디코딩할 때). 적합한 GPU가 없으면 Intel Quick Sync Video 기술을 사용하여 디코딩하며, 이마저 없으면 CPU 자원을 사용하여 디코딩합니다.
초당 검출 도구가 처리할 프레임 수를 설정하세요 (5). 이 값은 [0; 100] 범위여야 합니다Set the number of frames for the detection tool to process per second (5). This value must be in the range [0; 100].
Info |
---|
|
The default values (three output frames and 1 FPS) indicate that Neurocounter will analyze one frame every second. If Neurocounter detects the specified number of objects (or more) on three frames, then it triggers. |
기본값(출력 프레임 3개, 1 FPS)은 신경망 카운터가 1초에 한 프레임씩 분석함을 의미합니다. 신경망 카운터가 3개 프레임에서 지정된 수 이상의 객체를 감지하면 트리거가 발생합니다. |
- 객체 인식 임계값을 백분율로 설정하세요 (6). 인식 확률이 지정된 값보다 낮으면 데이터가 무시됩니다. 값이 높을수록 인식 정확도가 높아지지만 일부 트리거는 무시될 수 있습니다. 이 값은 Set the recognition threshold for objects in percent (6). If the recognition probability falls below the specified value, the data will be ignored. The higher the value, the higher the recognition accuracy, but some triggers may not be considered. This value must be in the range [0.05; 100] 범위여야 합니다.

Select the processor for the neural network—신경망 분석에 사용할 프로세서를 선택하세요—CPU, one of NVIDIA GPUs, or one of Intel GPUs GPU 중 하나, 또는 Intel GPU 중 하나 (7, see 신경망 분석 작업을 위한 하드웨어 요구 사항, 검출 구성에 대한 일반 정보 참조).
Note |
---|
|
- CPU 이외의 처리 자원을 지정하면 해당 장치가 대부분의 연산 부하를 담당하지만 신경망 카운터 실행을 위해 CPU도 사용됩니다.
- 설정을 적용한 후 NVIDIA GPU에서 알고리즘이 실행되기까지 몇 분이 소요될 수 있습니다. 향후 실행 속도를 높이려면 캐싱 기능을 사용할 수 있습니다(
- If you specify other processing resource than the CPU, this device will carry the most of computing load. However, the CPU will also be used to run Neurocounter.
- It may take several minutes to launch the algorithm on NVIDIA GPU after you apply the settings. You can use caching to speed up future launches (see GPU에서 신경 분석 작업 최적화 참조).
- Starting with Detector Pack 3.11 , 버전부터 Intel HDDL and Intel NCS aren’t supportedHDDL과 Intel NCS는 지원되지 않습니다.
|
Set the triggering condition for Neurocounter:
In the Number of alarm objects field (8), set the threshold value for the number of objects in the frame. This value must be in the range [0; 100].
In the Trigger upon count field (10), select when you want to generate a trigger—when the number of objects in the detection area is:
- Greater than or equal to threshold value.
Less than or equal to threshold value.
Info |
---|
|
Neurocounter will generate a trigger from the specified threshold (8). |
- In the Object type field (9), select the object for counting:
- Human.
- Human (top view).
- Vehicle.
- Human and Vehicle (Nano)—low accuracy, low processor load.
- Human and Vehicle (Medium)—medium accuracy, medium processor load.
Human and Vehicle (Large)—high accuracy, high processor load.
- If you need to outline the recognized objects in the preview window, select Yes for the Detected objects parameter (11).

If you use a unique neural network, select the corresponding file (12).
Note |
---|
|
- To train your neural network, contact AxxonSoft (see신경망 학습을 위한 데이터 수집 요구 사항 참조).
- A trained neural network for a particular scene allows you to detect only objects of a certain type (for example, a person, a cyclist, a motorcyclist, and so on).
- If the neural network file is not specified, the default file will be used, which is selected automatically depending on the selected object type (9) and the selected processor for the neural network operation (7). If you use a custom neural network, enter a path to the file. The selected object type is ignored when you use a custom neural network.
- For correct neural network operation in Linux OS, place the corresponding file in the /opt/AxxonSoft/DetectorPack/NeuroSDK directory.
|
- Set the minimum number of frames on which Neurocounter must detect objects in order to trigger (13). The value must be in the range [2; 20].
- If necessary, specify the class/classes of the detected object (14). If you want to display tracks of several classes, specify them separated by a comma with a space. For example, 1, 10.
The numerical values of classes for the embedded neural networks: 1—Human/Human (top view), 10—Vehicle.
- If you leave the field blank, the tracks of all available classes from the neural network will be displayed (9, 12).
- If you specify a class/classes from the neural network, the tracks of the specified class/classes will be displayed (9, 12).
- If you specify a class/classes from the neural network and a class/classes missing from the neural network, the tracks of a class/classes from the neural network will be displayed (9, 12).
If you specify a class/classes missing from the neural network, the tracks of all available classes from the neural network will be displayed (9, 12).
Info |
---|
|
Starting with Detector Pack 3.10.2, if you specify a class/classes missing from the neural network, the tracks won’t be displayed (9, 12). |
In the preview window, you can set the detection areas with the help of anchor points much like privacy masks in Scene Analytics detection tools (see 장면 분석 검출 도구를 위한 일반 영역 설정 참조). By default, the entire frame is a detection area.

- Click the Apply button.
...
- Go to the layout editing mode (see Switching to layout editing mode 참조).
- Place the sensor anywhere in the frame.

- Customize the font. To do this, click the
button. - Save the layout (see Exiting Layout Editing mode 참조). As a result, the sensor and the number of objects will be displayed in the selected place:
