기관회원 [로그인]
소속기관에서 받은 아이디, 비밀번호를 입력해 주세요.
개인회원 [로그인]

비회원 구매시 입력하신 핸드폰번호를 입력해 주세요.
본인 인증 후 구매내역을 확인하실 수 있습니다.

회원가입
서지반출
비디오 영상에서 사전정보 기반의 도로 추적
[STEP1]서지반출 형식 선택
파일형식
@
서지도구
SNS
기타
[STEP2]서지반출 정보 선택
  • 제목
  • URL
돌아가기
확인
취소
  • 비디오 영상에서 사전정보 기반의 도로 추적
저자명
이창우,Lee. Chang Woo
간행물명
한국산업정보학회논문지
권/호정보
2013년|18권 2호|pp.19-25 (7 pages)
발행정보
한국산업정보학회
파일정보
정기간행물|
PDF텍스트
주제분야
기타
이 논문은 한국과학기술정보연구원과 논문 연계를 통해 무료로 제공되는 원문입니다.
서지반출

기타언어초록

본 논문에서는 실 도로 환경에서 획득한 영상으로부터 도로 영역을 추적하는 방법을 제안한다. 제안된 방법은 이전 처리 결과로부터 미리 알려진 정보를 이용하여 현재 영상에서 도로를 검출하고 추적하는 방법이다. 제안된 방법은 시스템의 효율을 위해 연속적인 입력 영상에서 하위 60%이내에 도로가 있다고 가정하여 관심의 대상이 되는 영역(Region of Interest, ROI)을 설정하고 이 영역에서만 도로를 검출하고 추적한다. 최초 분할은 플러드필 알고리즘(Flood-fill algorithm)을 수행한 결과로부터 주위 영역과의 유사성을 평가한 후 병합하여 분할한다. 사전 정보로 사용되는 이전 영상에서 분할 결과에서 시드점(Seed Point)을 추출하고 이 시드점을 기준으로 현재 영상을 분할한다. 이전 영상에서 분할된 도로 영역과 현재 영상에서 분할된 결과를 변형된 자카드 계수(Jaccard coefficient)를 이용한 유사도 측정 결과에 따라 다음 영상에서 도로영역을 정제하고 추적한다. 연속적인 입력 영상을 대상으로 실험한 결과는 잡음이 존재하는 영상에서도 도로를 추적하는데 효과적임을 보여준다.

기타언어초록

In this paper, we propose an approach to tracking road regions from video sequences. The proposed method segments and tracks road regions by utilizing the prior information from the result of the previous frame. For the efficiency of the system, we have a simple assumption that the road region is usually shown in the lower part of input images so that lower 60% of input images is set to the region of interest(ROI). After initial segmentation using flood-fill algorithm, we merge neighboring regions based on color similarity measure. The previous segmentation result, in which seed points for the successive frame are extracted, is used as prior information to segment the current frame. The similarity between the road region of the previous frame and that of the current frame is measured by the modified Jaccard coefficient. According to the similarity we refine and track the detected road regions. The experimental results reveal that the proposed method is effective to segment and track road regions in noisy and non-noisy environments.