Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.


Note
titleAttention!

You need to create a cache beforehand in order to start and correctly operate the basic Face detection tool on GPU (see 기본 얼굴 인식 도구를 GPU에서 시작하고 정상적으로 운영하려면 미리 캐시를 생성해야 합니다 (GPU에서 얼굴 검출 작업 최적화 참조).

To configure the basic Face detection tool, do the following:

기본 얼굴 인식 도구를 구성하려면 다음 단계를 따르세요.

  1. 얼굴 인식 객체를 선택합니다. 
    Image Added
  2. 이 도구를 실시간 얼굴 인식에 사용하려면 해당 매개변수를 로 설정하세요 (1

  3. Select the Face detection object. 
    Image Removed
  4. If you need to use this detection tool for real-time face recognition, set the corresponding parameter to Yes (1, see실시간 얼굴 검출 구성 참조).

    If you need to record metadata, select Yes from the Record objects tracking list
  5. 메타데이터를 기록해야 하는 경우, 객체 추적 기록 목록에서 를 선택하세요 (2).
  6. If the camera supports multistreaming, select the stream for which detection is needed (3). For the correct operation of the Face detection, it is recommended to use a High-quality video stream.
  7. If you need to use this face detection tool in real-time together with FaceCube Recognition Server (see FaceCube 통합 구성), set Yes for the Real-time recognition on external service parameter (4).
  8. 카메라가 멀티스트리밍을 지원하는 경우, 인식이 필요한 스트림을 선택하세요 (3). 얼굴 인식의 정상적인 작동을 위해 고화질 비디오 스트림을 사용하는 것이 좋습니다.
  9. FaceCube 인식 서버와 함께 실시간 얼굴 인식 도구를 사용하려면 (FaceCube 통합 구성 참조), 외부 서비스에서 실시간 인식 매개변수를 로 설정하세요 (4).
  10. 캡처된 얼굴에 대해 나이 및 성별 정보를 데이터베이스에 저장하려면, 해당 필드에서 를 선택하세요 If you need to save age and gender information for each captured face in the database, select Yes in the corresponding field (1).

    Info
    titleNote

    The average error in age recognition is 5 years나이 인식에서의 평균 오류는 5년입니다.

  11. If you use a biBi-spherical XingYun lens, the detector will analyze two 180° spherical images by default (see 렌즈를 사용하는 경우, 기본적으로 두 개의 180° 구면 이미지를 분석하게 됩니다 (Configuring fisheye cameras 참조). This may decrease recognition quality. To dewarp the image before detection, select Yes for the Camera transform parameter (2). This parameter is relevant for other types of image transformation as well. 
  12. Select a processing resource for decoding video streams (3). When you select a GPU, a stand-alone graphics card takes priority (when decoding with NVIDIA NVDEC chips). If there is no appropriate GPU, the decoding will use the Intel Quick Sync Video technology. Otherwise, CPU resources will be used for decoding.
  13. Set the time (in milliseconds) between face search operations in a video frame in the Face detection period (msec) field (4). Acceptable values range is [1; 10000]. Increasing this value decreases the Server load, but can result in some faces being undetected. 
  14. If you plan to apply the masks detection tool, set Yes for the Face mask detection parameter (5, see 마스크 검출 구성).
  15. In some cases, the detection tool may mistake other object for a face. Select Yes in the Filter false alarms field (6) to filter out non-face objects,while calculating the vector model of a face and its recording into the metadata DB. If the filtering is on, false results will appear in the detection feed (see 얼굴 인식 및 검색), but will be ignored during searches in the archive.
  16. 이로 인해 인식 품질이 저하될 수 있습니다. 얼굴 인식 전에 이미지를 디워핑하려면 카메라 변환 매개변수를 로 설정하세요 (2). 이 매개변수는 다른 유형의 이미지 변환에도 적용됩니다.
  17. 비디오 스트림을 디코딩할 처리 자원을 선택하세요 (3). GPU를 선택하면, 독립형 그래픽 카드가 우선적으로 사용됩니다 (NVIDIA NVDEC 칩을 사용한 디코딩 시). 적합한 GPU가 없으면 디코딩은 Intel Quick Sync Video 기술을 사용하고, 그 외에는 CPU 자원을 사용하여 디코딩합니다.
  18. 얼굴 검색 작업 간 시간 간격을 Face detection period (msec) 필드에서 설정하세요 (4). 허용되는 값의 범위는 [1; 10000]입니다. 이 값을 늘리면 서버 부하가 줄어들지만 일부 얼굴이 인식되지 않을 수 있습니다.
  19. 마스크 검출 도구를 적용할 계획이라면 Face mask detection 매개변수를 로 설정하세요 (5마스크 검출 구성 참조).
  20. 경우에 따라, 얼굴 인식 도구가 얼굴이 아닌 다른 객체를 얼굴로 잘못 인식할 수 있습니다. 비얼굴 객체를 필터링하려면 Filter false alarms 필드에서 를 선택하세요 (6). 필터링이 활성화되면, 잘못된 결과가 얼굴 인식 피드에 표시되지만 (얼굴 인식 및 검색 참조) 아카이브 검색에서는 무시됩니다.
  21. 분석된 프레임은 지정된 해상도로 축소됩니다 (7, 긴 변이 1920픽셀로 설정). 작동 방식은 다음과 같습니다.

    1. 원본 이미지의 긴 변이 Frame size change 필드에 지정된 값을 초과하면, 두 배로 나누어집니다.

    2. 결과 해상도가 지정된 값보다 작으면 그 해상도가 사용됩니다.

    3. 결과 해상도가 여전히 지정된 한도를 초과하면 계속해서 두 배로 나누어집니다

    Analyzed framed are scaled down to a specified resolution (7, 1920 pixels on the longer side). This is how it works:

    1. If the longer side of the source image exceeds the value specified in the Frame size change field, it is divided by two.

    2. If the resulting resolution falls below the specified value, it is used further.

    3. If the resulting resolution still exceeds the specified limit, it is divided by two, etc.

      Info
      titleNote

      For example, the source image resolution is 2048*1536, and the specified value is set to1000.

      In this case, the source resolution will be halved two times (512*384), as after the first division, the number of pixels on the longer side exceeds the limit (1024 > 1000).


      Info
      titleNote

      If detection is performed on a higher resolution stream and detection errors occur, it is recommended to reduce the compression.


  22. Specify the minimum and maximum sizes of the captured faces as a percentage of the frame size (8). 

  23. In the Minimum threshold of face authenticity field, set the minimum level of face recognition accuracy for the creation of a track (9). You can set any value by trial-and-error. No less than 90 is recommended. The higher the value, the fewer faces are detected, while the recognition accuracy increases.

  24. Select the processor for the face detection − CPU or NVIDIA GPU (10, see  검출 구성에 대한 일반 정보 참조). 

    Note
    titleAttention!

    It may take several minutes to launch the algorithm on NVIDIA GPU after you apply the settings.


  25. If you use FaceCube integration (see FaceCube 통합 구성 참조), activate the Send face images parameter (11).

  26. Enter the time in milliseconds after which the face track is considered to be lost in the Track loss time field (12). Acceptable values range is [1; 10000]. This parameter applies when a face moves in a frame and gets hidden behind an obstacle for some time. If this time is less than the set value, the face will be recognized as the same.

  27. If necessary, fine-tune the detection tool (see 얼굴 검출 도구 미세 조정 참조).
  28. In the preview window, set the rectangular area of the frame in which you want to perform face detection. To select the area, move the anchor points .

  29. Click the Apply button.

...