기관회원 [로그인]
소속기관에서 받은 아이디, 비밀번호를 입력해 주세요.
개인회원 [로그인]

비회원 구매시 입력하신 핸드폰번호를 입력해 주세요.
본인 인증 후 구매내역을 확인하실 수 있습니다.

회원가입
서지반출
역전가능 메쉬워프 알고리즘에 의한 정면 얼굴 영상의 포즈 변형
[STEP1]서지반출 형식 선택
파일형식
@
서지도구
SNS
기타
[STEP2]서지반출 정보 선택
  • 제목
  • URL
돌아가기
확인
취소
  • 역전가능 메쉬워프 알고리즘에 의한 정면 얼굴 영상의 포즈 변형
저자명
오승택,전병환
간행물명
정보과학회논문지. Journal of KIISE. 소프트웨어 및 응용
권/호정보
2003년|30권 1호|pp.153-163 (11 pages)
발행정보
한국정보과학회
파일정보
정기간행물|
PDF텍스트
주제분야
기타
이 논문은 한국과학기술정보연구원과 논문 연계를 통해 무료로 제공되는 원문입니다.
서지반출

기타언어초록

본 논문에서는 기하학적인 3차원 모델을 사용하지 않고 정면이 얼굴 영상 및 2차원 메쉬만으로 얼굴의 포즈 변형을 수행하는 영상기반 렌더링(Image Based Rendering; IBR) 기법을 제안한다. 3차원 기하학적 모델을 대신하기 위해, 먼저 표준 인물의 정면, 좌우 반측면, 좌우 측면의 얼굴 영상에 대한 표준 메쉬를 작성한다. 합성하고자 하는 임의의 인물에 대해서는 주어진 정면 얼굴 영상의 메쉬만을 작성하고, 그 밖의 메쉬는 표준 메쉬 집합을 근거로 자동 생성된다. 그런 다음, 메쉬 제어점들의 중첩 및 역전을 허용하도록 개선한 역전가능 메쉬워프 알고리즘(invertible meshwarp algorithm)을 이용하여 얼굴의 입체적인 회전 변형을 수행한다. 또한, 눈이나 입의 개폐 변형도 동일한 워핑 알고리즘으로 구현한다. 얼굴 변형 성능을 평가하기 위해, 총 10명으로부터 머리를 수평으로 회전하면서 동영상을 취득한 후, 실제 영상과 변형 영상마다 양 눈의 중간 위치인 기준점에서 각 특징점까지의 거리를 계산하여 평균 차이를 구하였다. 그 결과, 기준점에서 입의 중간 위치까지의 거리에 비해 약 7.0%의 평균 위치 오차만이 발생하였다.

기타언어초록

In this paper, we propose a new technique of image based rendering(IBR) for the pose transformation of a face by using only a frontal face image and its mesh without a three-dimensional model. To substitute the 3D geometric model, first, we make up a standard mesh set of a certain person for several face sides ; front. left, right, half-left and half-right sides. For the given person, we compose only the frontal mesh of the frontal face image to be transformed. The other mesh is automatically generated based on the standard mesh set. And then, the frontal face image is geometrically transformed to give different view by using Invertible Meshwarp Algorithm, which is improved to tolerate the overlap or inversion of neighbor vertexes in the mesh. The same warping algorithm is used to generate the opening or closing effect of both eyes and a mouth. To evaluate the transformation performance, we capture dynamic images from 10 persons rotating their heads horizontally. And we measure the location error of 14 main features between the corresponding original and transformed facial images. That is, the average difference is calculated between the distances from the center of both eyes to each feature point for the corresponding original and transformed images. As a result, the average error in feature location is about 7.0% of the distance from the center of both eyes to the center of a mouth.