首页 / 专利库 / 电脑图像 / 计算机图形学 / 面部动画 / 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법

표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법

阅读:262发布:2020-07-30

专利汇可以提供표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법专利检索,专利查询,专利分析的服务。并且PURPOSE: A method for retargeting a sampled facial expression to a new face is provided to create the most suitable facial animation for a desired facial model by applying numerous facial expressions to a facial model of a 3D character. CONSTITUTION: A user captures various facial expressions produced by a specific performer using a face trace unit. The user extracts a behavior characteristic from the captured 3-dimensional facial expression data. The user applies the extracted behavior characteristic to various facial models. In the case of applying the behavior characteristic to different facial models, the user allocates a key pose every specific time while seeing each facial model directly.,下面是표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법专利的具体信息内容。

  • 사이버 인간의 얼굴표정을 표시하기 위한 얼굴표정 형성방법에 있어서,
    특정 연기자에 의해 연출되어진 다양한 얼굴 표정들은 페이스 추적수단을 사용하여 캡쳐하는 제 1과정과;
    상기 제 1과정을 통해 캡쳐되어진 3차원 얼굴 표정 데이터들에서 행위특성을 추출하는 제 2과정; 및
    상기 제 2과정을 통해 추출되어진 행위특성을 서로 다른 얼굴의 모델에 적용하는 제 3과정을 포함하는 것을 특징으로 하는 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법.
  • 제 1 항에 있어서,
    상기 제 3과정에서 임의의 행위특성을 서로 다른 얼굴의 모델에 적용시 사용자가 직접 얼굴 모델을 보면서 특정 시간마다 키 포즈(Key-pose)를 할당하도록 하는 제 4과정을 더 포함하는 것을 특징으로 하는 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법.
  • 제 1 항에 있어서,
    상기 행위특성은 상기 페이스 추적 수단을 사용하여 상기 특정 연기자의 얼굴 근육부분에 부착한 각 마커들의 속도 및 가속도 그리고 마커들 간의 상대거리등으로 이루어지는 것을 특징으로 하는 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법.
  • 제 3 항에 있어서,
    상기 마커들 간의 상대거리 인식은 Mass-spring-hinge 모델을 기준으로 인식하는 것을 특징으로 하는 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법.
  • 제 4 항에 있어서,
    상기 Mass-spring-hinge 모델은 스프링을 최대한으로 늘려도 거의 고정된 거리 영역을 가지고 있다고 가정하고, 각 스프링의 탄성이 강한 모델을 형성하되 각 연결점이 마커의 위치에 대응하는 것을 특징으로 하는 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법.
  • 제 1 항에 있어서,
    상기 제 3과정에서는 상기 제 2과정을 통해 추출되어진 행위특성이 적용되는 새로운 얼굴 모델의 특성을 사용자로부터 입력받고 두 얼굴 모델의 상호 관계를 결정하여 상기 행위특성의 단순적용을 억제하는 것을 특징으로 하는 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법.
  • 说明书全文

    표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법{Method for retargetting facial expression to new faces}

    본 발명은 사이버 인간의 얼굴표정을 표시하기 위한 얼굴표정 형성방법에 관한 것으로 특히, 기존의 얼굴 애니메이션에서 많이 사용하는 방법으로 얼굴 근육구조를 분석하고 이해하여 이를 그대로 얼굴 애니메이션에 적용하려는 방법에서 발생하는 제반 문제점과 얼굴 애니메이션이 특정 얼굴 모델에 한정되어 있다는 것을 해결하기 위해 기존의 이론적인 접근 방법이 아닌 실험적인 접근 방법으로서 인간이 가지고 있는 수많은 얼굴 표정들을 3D 캐릭터의 얼굴 모델에 적용하여 사용자들이 원하는 얼굴 모델에 가장 적합한 얼굴 애니메이션을 생성하도록 하는 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법에 관한 것이다.

    일반적으로, 전자 통신분야의 눈부신 발전과 더불어 컴퓨터 산업의 팽창으로 인해 이제 세상은 사이버 시대에 접어들었다 하여도 과언이 아닌 세상이 되었다. 더욱이 인터넷의 등장으로 인하여 시간과 공간의 제한이 없어졌으며, 더 나아가서는 기존의 통념이 무너지고 새로운 질서가 재창조되는 일들이 발생되고 있다.

    이러한 경향은 최근 멀티미디어의 보급이 확산되면서 일방적이거나 단편적인 정보의 제공에서 탈피하여 네티즌들의 적극적인 참여의 성향이 부각되고 있다. 따라서, 대화형 영화(Interactive Movie)나 여러 가지 동영상에서 실감나는 양방향성 혹은 대화식의 접속을 위한 여러 가지 노력들이 제안 혹은 연구되고 있는 실정이다.

    이러한 연구들 가운데, 인터넷을 통한 화상통화나 기타 방송프로그램(예를 들면 인터넷 비디오 자키, 오디오 자키 등등) 혹은 공중통신망을 이용한 화상통화 등의 경우 화상으로 취득되어 전송되는 사용자의 얼굴 표정(Facial Expression)의 자연스러움을 최대한 최적의 상태로 유지하려는 노력들이 이루어지고 있다.

    또한, 인터넷으로 인한 가상세계의 확산으로 말미암아 사용자가 가상세계에자신을 표출하려는 욕구가 생기게 되었다. 예를 들면, 인터넷 쇼핑몰 등에서 쇼핑을 하는 경우 화면에 표시된 상품을 클릭하여 선택하는 정도가 아니라 가상공간상에 자신의 체형과 유사한 하나의 가상인간을 설정하고 그 가상인간이 쇼핑을 하면서 옷이나 신발, 악세사리등을 쇼핑하면서 전체적인 코디를 같이 살펴보는 등의 기능을 점차 추구하고 있는 것이다.

    이러한 사용자들의 욕구를 충족시켜 주기 위한 상거래 쇼핑몰들이 점차 증가하는 추세 속에서 사용자들의 욕구 또한 증가하고 있는데, 그 욕구란 단순히 체형뿐만 아니라 사이버 공간 속에서 자신을 대신하고 있는 가상인간이 사용자의 감정을 나타낼 수 있도록 하고자 하는 것이다.

    예를 들면, 사이버 백화점에서 각각의 네티즌들은 자기 자신을 대표하는 가상인간 혹은 3차원 캐릭터를 생성한 후 실제 현실세계에서의 백화점에서와 같이 쇼핑을 하게되는 데 그에 따라 다른 사용자를 대표하는 가상인간과 인사도 나누고 대화를 할 수도 있게된다.

    이때, 사용자의 감정을 가상세계에서의 가상인간이 실 시간적으로 표현할 수 있었으면 하는 것이며, 이는 해당 가상인간이나 3차원 캐릭터의 얼굴표정이 사용자의 얼굴표정과 유사하면서도 자연스럽게 변화되어야 할 것이라는 전제조건이 형성되는 것이다.

    이러한 전제조건을 만족시키기 위하여 제안되어진 종래의 기술을 간단히 살펴보면, 최근 들어 상품화되어진 얼굴 애니메이션(Animation) 생성 시스템을 예로 들 수 있는데, 종래의 시스템에서의 디지털 얼굴 형성(Digital face Works)은 사용자가 원하는 하나의 2차원 얼굴 이미지로부터 3차원 얼굴 애니메이션을 생성할 수 있도록 하고 있으며, 그것으로 오디오 트랙(Audio Track)과 동기화를 시킨다. 그 결과 얼굴 애니메이션은 실제 사용자의 얼굴과 같이 움직이고 말을 하도록 하고 있다.

    상기 종래 시스템에서의 디지털 얼굴 형성에서 사용하고 있는 기법은 3D 와이어 프레임(Wireframe) 기하학(Geometry)을 사용하였으며, 입, 눈, 눈썹 같은 얼굴의 특정 영역을 사용자가 직접 제어할 수 있도록 하고 있다.

    얼굴형성은 크게 3가지 기능으로 구분되어져 있는데, 첫 번째 기능은 실시간 디스플레이(Real-time display) 기능으로서 사용자에 의해서 편집된 결과를 바로 보여준다. 즉, "Eye slider"는 눈을 뜨게 하고 감게 할 수 있고, "Mouse slider"는 입을 열고 닫을 수 있으며, "X rotation slider"는 머리를 왼쪽과 오른쪽으로 회전을 시킬 수 있고, "Y rotation slider"는 머리를 위 아래로 회전시킬 수 있다.

    두 번째 기능은 편집(Editing) 제어 패널(panel) 기능으로서 편집옵션(Editing option)을 보여준다. 즉, 사용자가 원하는 이빨의 모양과 눈의 모양 등을 선택할 수 있다. 마지막으로 세 번째 기능은 편집 윈도우(Editing window) 기능으로서 사용자가 와이어프레임 기하학으로 구성된 기하학 편집기(Geometry Editor)를 사용하여 애니메이션을 편집할 수 있도록 해준다.

    그러나, 상술한 종래의 시스템은 사용자가 원하는 한 장의 2D 정면 얼굴 이미지 모델을 사용하여 와이어프레임 기하학을 직접 조작함으로써 얼굴 애니메이션을 생성하는 방식이므로 즉, 와이어프레임 기하학을 기반으로 기존의 키프레임 애니메이션(Keyframe Animation) 방법을 그대로 적용하여 사용자가 원하는 얼굴 표정을 수동적으로 생성해야만 한다는 것이다.

    따라서, 이와 같은 종래의 방법은 사용자로 하여금 너무 많은 수 작업을 필요로 할뿐만 아니라, 정면 얼굴 이미지만을 사용하기 때문에 어느 누가 보아도 정확한 얼굴 표정으로 인한 얼굴 애니메이션을 생성할 수 있다고 볼 수 없다는 문제점이 발생되고 있다.

    상기와 같은 문제점을 해소하기 위한 본 발명의 목적은 기존의 얼굴 애니메이션에서 많이 사용하는 방법으로 얼굴 근육 구조를 분석하고 이해하여 이를 그대로 얼굴 애니메이션에 적용하려는 방법에서 발생하는 제반 문제점과 얼굴 애니메이션이 특정 얼굴 모델에 한정되어 있다는 것을 해결하기 위해 기존의 이론적인 접근 방법이 아닌 실험적인 접근 방법으로서 인간이 가지고 있는 수많은 얼굴 표정들을 3D 캐릭터의 얼굴 모델에 적용하여 사용자들이 원하는 얼굴 모델에 가장 적합한 얼굴 애니메이션을 생성하도록 하는 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법을 제공하는 데 있다.

    도 1은 특정 얼굴의 애니메이션 데이터에서 제어 포인트 한 개의 위치값 변화 예시도,

    도 2는 특정 얼굴의 애니메이션 데이터를 기반으로 사용자의 키 포즈(Key Pose)에 의해 생성된 새로운 제어 포인트,

    도 3은 키 포즈로 사용된 얼굴 표정의 예시도,

    도 4는 특정 얼굴 모델의 제어 포인트,

    도 5는 제어 포인트들이 밀집한 눈, 코, 입 부분,

    도 6은 Mass-spring-hinge 모델 예시도,

    도 7a와 도 7b는 입 주변에 6부분에 마커를 위치시키고, 그 움직임에 대한 좌표상태의 변화를 나타낸 것으로 본 발명의 개념을 설명하기 위한 예시도.

    상기 목적을 달성하기 위한 본 발명의 특징은, 사이버 인간의 얼굴표정을 표시하기 위한 얼굴표정 형성방법에 있어서, 특정 연기자에 의해 연출되어진 다양한 얼굴 표정들은 페이스 추적수단을 사용하여 캡쳐하는 제 1과정과; 상기 제 1과정을 통해 캡쳐되어진 3차원 얼굴 표정 데이터들에서 행위특성을 추출하는 제 2과정; 및상기 제 2과정을 통해 추출되어진 행위특성을 서로 다른 얼굴의 모델에 적용하는 제 3과정을 포함하는 데 있다.

    상기 목적을 달성하기 위한 본 발명의 부가적인 특징으로는, 상기 제 3과정에서 임의의 행위특성을 서로 다른 얼굴의 모델에 적용시 사용자가 직접 얼굴 모델을 보면서 특정 시간마다 Key-pose를 할당하도록 하는 제 4과정을 더 포함하는 데 있다.

    상기 목적을 달성하기 위한 본 발명의 부가적인 다른 특징으로 상기 행위특성은 상기 페이스 추적 수단을 사용하여 상기 특정 연기자의 얼굴 근육부분에 부착한 각 마커들의 속도 및 가속도 그리고 마커들 간의 상대거리 등으로 이루어지는 데 있다.

    본 발명의 상술한 목적과 여러 가지 장점은 이 기술 분야에 숙련된 사람들에 의해 첨부된 도면을 참조하여 후술되는 발명의 바람직한 실시 예로부터 더욱 명확하게 될 것이다.

    우선, 본 발명의 기술적 사상을 살펴보기로 한다. 본 발명은 전술한 종래 기술의 문제점을 해소하기 위하여 제안되어진 하나의 논문을 기초로 해당 논문의 문제점을 해소하고자 하는 것으로 해당 논문은 [Cyyriaque Kouadio, Pierre Ppoulin, Pierre Llachapelle, "Real-Time Facial Animation based upon a Bank of 3D Facial Expressions"]이다.

    이 논문에서는 연기자(Performance Actor)로부터 생생한 얼굴 표정을 캡쳐하는 애니메이션 시스템을 보여준다. 그리고 그들을 인조의 캐릭터(SyntheticCharacter)에 실시간으로 애니메이트(Animate)하기 위해 사용하고, 인조 모델의 3D 얼굴 표정들의 뱅크(Bank)에 기반을 두고 있으며, 얼굴 모델의 임계(Critical) 포인트들은 실제 마커들과 매치(Match)되어 진다.

    따라서, 대응(Corresponding)하는 포인트들과 마커들 사이에서 기하학적인 차이(Euclidean Distance)를 최소화함으로써 얻어진 기본 표정들의 선형 조합은 중간치 얼굴 표정을 구성하기 위해서 사용되어진다. 또한, 얼굴 표정들의 상기 뱅크에 있는 동작 맵(Motion Mapping)은 모델 자체의 특성에 더 많이 의존하는 미세한 동작(Subtle Motion)을 생성한다. 이때, 이러한 방식이 적용되는 경우 모델이 어떻게 움직이는지에 대한 추가적인 정보가 없이 모델을 변형하는 기존의 기법으로는 성취하기가 더 어렵다.

    그러므로 해당 논문에서는 대부분의 애니메이션들이 자동화되어지는 것과 함께, 얼굴에 생명을 불어넣기 위해 연기자(Performance Actor)의 기교와 얼굴 표정을 모델하기 위해 예술가의 기술적인 기교를 주로 사용한다. 또한, 마커 변위(Displacement)에 순차적으로 적용되어진 필터의 사용과 쌍꺼플(Eyelid)의 더 정밀한 제어를 위한 세부적인 항목들에 마커의 제어 향상을 보여준다. 얼굴 표정의 뱅크에 있어서 더 유연한 것은 독립된 성분들에서 얼굴 표정들의 일부를 분리함으로써, 그리고 단지 재구성된 표정의 수단인 이빨과 혀와 같은 보조적인 부분들을 조정함으로써 제공되어진다.

    즉, 선행논문은 Adaptive Optics의 FaceTrax TM 을 사용하여 연기자의 중립적(Neutral) 얼굴 표정에서부터 다양한 얼굴 표정을 캡쳐하고, n개의 기본 얼굴 표정을 선택한 다음 이들의 마커와 모델 포인트들을 매핑(Mapping)시킨다. 또한, 연기자의 마커와 캐릭터의 연관된 포인트들의 최대치 모션을 스케일링(Scale)하고, 뱅크에 저장한다.

    그러므로, 상술한 선행 논문의 기술적 요지를 간략하게 정리하면 연기자로부터 캡쳐한 얼굴 모션 데이터를 캐릭터에게 매핑시켜서 그대로 애니메이션을 생성시키는 것이므로, 물론 다양한 얼굴 표정들을 캡쳐하고 필터링(Filtering)이나 스케일링(Scaling) 등의 처리를 거친 다음 뱅크에 저장해서 사용한다고는 하지만, 사용자의 얼굴 모델에 적합한 얼굴 표정을 생성하는 것보다는 뱅크에 있는 얼굴 표정들을 재활용하는 것에 치중되어져 있으므로 실제로 다양한 얼굴 표정에서 비롯되는 얼굴 애니메이션을 생성할 수 있다고는 볼 수 없다.

    따라서, 본 발명에서는 상기 논문에서 제시하고 있는 연기자를 통한 다양한 표정연기를 데이터 베이스화한다는 기본 사상에 얼굴의 각 부위에 마커를 부착한 후 해당 마커간의 상대 위치 변화를 분석하여 표정에 대한 일대일 매칭이 아니라 표정의 추적 및 대응매칭을 통해 보다 자연스러운 표정의 애니메이션을 구현하도록 하는 것이다.

    이하, 첨부한 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 설명한다.

    첨부한 도 1은 특정 얼굴의 애니메이션 데이터에서 제어 포인트 한 개의 위치값 변화 예시도이며, 도 2는 특정 얼굴의 애니메이션 데이터를 기반으로 사용자의 키 포즈(Key Pose)에 의해 생성된 새로운 제어 포인트 예시도이고, 도 3은 키포즈로 사용된 얼굴 표정의 예시도이며, 도 4는 특정 얼굴 모델의 제어 포인트이고, 도 5는 제어 포인트들이 밀집한 눈, 코, 입 부분이며, 도 6은 Mass-spring-hinge 모델이다.

    따라서, 본 발명을 적용시키기 위해 우선적으로 필요한 파라메타는 특정 얼굴 모델에 페이스 추적기를 사용하여 여러 가지 얼굴 표정을 캡쳐하고 캡쳐된 데이터로부터 얼굴 애니메이션의 표정 특징을 추출하는 것이다. 이는 수많은 형태의 얼굴 표정을 사용하여 생성된 얼굴 애니메이션이 수많은 얼굴의 근육 중 어떤 근육들에 의해서 애니메이션이 진행되는지를 실험적으로 알아내는 것이 필요하다.

    또한, 두 번째 파라메타는 첫 번째 파라메타에서 추출된 제어 포인트들의 속도, 가속도, 제어 포인트들 간의 상대속도 등과 같은 표정동작 특징을 새로운 얼굴 모델에 적용하는 방법이라 할 수 있다.

    이를 위해 사용자가 몇몇 특정 시간에 원하는 얼굴 표정 즉 키 포즈(Key Pose)를 설정해주면, 얼굴 애니메이션 시스템이 추출된 표정동작 특징에 따라서 새로운 얼굴 모델에 맞는 얼굴 애니메이션을 생성하게 된다

    따라서, 상기 첫 번째 파라메타는 특정 얼굴의 모델에 페이스 추적기를 사용하여 여러 가지 얼굴 표정을 검출하고 검출된 데이터로부터 얼굴 애니메이션의 표정 특징을 추출하는 것이다. 이는 수많은 형태의 얼굴 표정을 사용하여 생성된 얼굴 애니메이션이 수많은 얼굴의 근육 중 어떤 근육들에 의해서 애니메이션이 진행되는지를 실험적으로 알아내기 위해서이다.

    즉, 본 발명에서 우리는 얼굴 애니메이션을 생성하기 위해서 필요한 얼굴 특징을 추출하기 위해 먼저 첫 번째로 다음과 같은 연구를 진행한다.

    먼저, 페이스 추적기를 사용하여 캡쳐한 얼굴 애니메이션은 첨부한 도 1에 도시되어 있는 바와 같이 매 프레임(시간)마다 얼굴에 부착된 마커의 3차원 위치값을 가지고 있으며 각각의 마커마다 시간에 따른 위치값이 존재한다. 그러나 추출한 3D 위치값을 새로운 얼굴 모델에 그대로 적용할 경우 새로운 얼굴 모델이 특정 얼굴 모델과 똑같은 얼굴구조를 가지고 있지 않기 때문에 새로운 얼굴 모델에 적합한 얼굴 애니메이션이 생성될 수가 없다.

    그러므로 페이스 추적기를 사용하여 특정 얼굴 모델의 얼굴 애니메이션을 생성하였을 때 사용된 얼굴의 제어 포인트의 시간에 따른 행위특성을 추출한다.

    여기서, 행위특성이라 함은 제어 포인트의 시간에 따른 속도와 가속도 그리고 제어 포인트들이 밀집한 눈, 코, 입 등의 부분에서 제어 포인트들간의 상대적 거리와 위치 등을 들 수 있는데, 본 발명에서는 이와 같이 얼굴 표정을 결정짓고 얼굴 애니메이션에 영향을 미치는 얼굴 표정동작 특징이 어떤 것들이 있는 지를 파악하는 것이다.

    그러나, 특정 얼굴 모델을 새로운 얼굴 모델에 적용할 경우에 두 얼굴 모델간의 특성이 어떻게 연관되는지 알 수 없다.

    따라서, 본 발명에서는 사용자로부터 새로운 얼굴 모델의 특성을 입력받고 두 얼굴 모델의 상호 관계를 결정하는 방식을 사용한다.

    또한, 본 발명에 있어서 두 번째 파라메타는 첨부한 도 2에서와 같이 사용자가 지정한 특정 시간에 첨부한 도 4에 도시되어 있는 바와 같은 특정 얼굴 모델에서 사용된 제어 포인트의 위치를 임의로 조정하여 키 포즈(Key Pose)를 준다. 사용자가 키 포즈를 준다는 것은 첨부한 도 2에서 참조번호 "t1", "t2", "t3", "t4", "t5"등으로 표시되는 특정 시간에 첨부한 도 3에 도시되어 있는 바와 같은 얼굴 표정들을 사용자가 첨부한 도 4에 도시되어 있는 제어 포인트를 조정하여 생성하도록 하는 것이다.

    그리고, 키 포즈(Key Pose)를 주지 않는 부분에 대해서는 특정 얼굴 애니메이션에서 각 제어 포인트들의 표정동작 특성을 계산한 후, 새로운 얼굴 모델의 각 제어 포인트들에 연관된 표정동작 특성값을 적용하여 새로운 위치값을 얻는다.

    그러나, 첨부한 도 5에 도시되어 있는 바와 같이 눈, 코, 입 등의 특정 부분 제어 포인트들은 상대적인 거리와 변화율을 가지고있기 때문에, 얼굴 표정에 따라서 이들의 변화율이 얼마나 심한지를 계산하고 이를 얼굴 모델 애니메이션에 적용하지 않을 경우에 위의 방법은 단순히 중간값을 생성해내는 것에 그치지 않는다.

    따라서, 본 발명에서는 얼굴의 제어 포인트들은 각각 일정량의 질량을 가지고 있다고 가정한다.

    그리고, 각 제어 포인트가 밀집한 부분인 눈, 코, 입 등의 부분에 있는 제어 포인트와 제어 포인트사이에는 첨부한 도 6에 도시되어 있는 Mass-spring-hinge 모델과 같이 강한 스프링이 서로 연결되어져 있다고 가정하면, 스프링을 최대한으로 늘려도 거의 고정된 거리 영역을 가지고 있다고 할 수 있다.

    따라서, 추출된 얼굴표정의 변화 중 눈 부분을 예를 들어 살펴보면, 눈을 작게 뜨면 스프링이 뻣뻣하게 연결되어져 있을 것이고, 최대한으로 크게 뜨면 제어포인트들 사이의 스프링이 최대한으로 늘어난다고 보는 것이다.

    그러므로, 본 발명은 특정 얼굴 애니메이션에서 추출된 표정 및 표정동작 특징을 얼굴 모델의 제어 포인트간의 상호 관계를 고려하면서 사용자가 원하는 새로운 얼굴 모델에 적용하여 얼굴 애니메이션을 생성하는 것이다.

    이와 같은 본 발명에 따른 Mass-spring-hinge 모델은 1997년 11월 Sarah FF Gibson과 Brian Mirtich에 의해 제안되어진 논문 "A Survey of Deformable Modeling in Computer Graphics"중 Mass-spring 모델의 개념을 차용한 것으로, 논문에 게재된 Mass-spring 모델의 수학적 모델은 아래의 수학식 1과 같다.

    상기 수학식 1에서 m i 는 첨부한 도 6에서 참조번호 "M"으로 표현되는 제어포인트 혹은 'mass'를 의미하며, 상기 수학식 1은 3차원 입방면체에서 각 mass와 각 mass를 연결하는 스프링의 모델을 기초로 설정된 것이다.

    이와 같은, 기술적 사상을 근거한 본 발명에서의 얼굴 표정의 특성이란 표현의 의미를 첨부한 도 7a와 도 7b를 참조하여 간략히 설명하면 다음과 같다.

    도 7a와 도 7b는 입 주변에 6부분에 마커(m1∼m6)를 위치시키고, 그 움직임에 대한 좌표상태의 변화를 나타낸 것이며, 본 발명의 개념을 설명하기 위한 예시 도이다.

    이때, 본 발명과 종래 기술의 차이점을 살펴보면, 종래 방식에서는 첨부한도 7a의 모습과 도 7b의 모습 자체를 데이터 처리하여 사용자가 굳은 표정(7a)상태에서 미소를 짓는 모습을 선택하면 도 7b의 모습만이 데이터 저장장소에서 액세스되어 해당 표정의 변화를 줄 수 없는데, 반하여 본 발명에서는 도 7a의 모습에서 도 7b의 모습으로 변화되는 과정 중 각 마커(m1∼m6)의 움직임 벡터

    와 각 움직임 벡터들간의 상관관계를 정의하여 이를 저장하는 것이다.

    따라서, 본 발명에서 사용자가 종전에서와 같이 굳은 표정(7a)상태에서 미소를 짓는 모습을 선택하면 본 발명은 데이터 저장장소에서 저장되어 있는 움직임 벡터들간의 상관관계를 액세스하고 액세스되어진 상관관계를 기준으로 미소를 짓는 모습을 표현한다.

    이때, 사용자가 표현된 미소 짓는 모습이 어색하다거나 희망하는 표정이 아닌 경우(예를 들어, 한쪽의 입꼬리는 조금만 올리는 약간의 비웃음을 희망한다고 가정)에 마우스 등의 입력수단을 이용하여 일 측의 입꼬리를 조정한다.

    이에 따라, 본 발명에 따른 리타켓팅 방식에서는 종전에 엑세스되어진 움직임 벡터들간의 상관관계를 사용자의 요구에 대응하도록 변경한 후 이를 다시 표현한다. 단, 데이터 저장장소에는 변경된 상관관계가 저장되는 것은 아니다.

    이와 같은 설명에 의해 즉, 본 발명의 표정특징을 추출하는데 있어 첨부한 도 7a와 도 7b를 기준으로 기술한 내용에서와 같이 움직임 벡터만을 이용하는 것으로 오인할 수 있으나, 본 발명은 상기 도 6에 도시되어 있는 Mass-spring-hinge 모델을 기준으로 표정 추출을 위한 특정 연기자의 얼굴 근육부분에 부착한 각 마커들의 속도 및 가속도 그리고 마커들 간의 상대거리 등으로 이루어지는 것을 부연 언급하는 바이다.

    이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도 내에서 다양한 개조 및 변화가 가능하다는 것을 당업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.

    상술한 바와 같이 동작하는 본 발명에 따른 표본화된 얼굴 표정을 새로운 얼굴에 리타켓팅하는 방법을 제공하면, 사용자가 원하는 새로운 얼굴 모델에 적합한 얼굴 애니메이션을 생성하여 멀티미디어분야 뿐만 아니라 인터넷의 가상세계를 돌아다니는 가상인간(Avatar) 외에 수많은 응용 분야에서 유용하게 사용될 것으로 기대된다.

    또한, 최근에는 사이버 가수, 사이버 탤런트, 사이버 도우미 등이 활동 중에 있으며, 특히 가상대학이 활성화됨에 따라 사이버 교수까지 등장하여 학생들을 가르치고 있으나 아직까지 이러한 사이버 스타들은 얼굴 표정이 현실감을 주기에는 너무나 미흡하여 사용자들에게 친밀감이나 설득력을 주지 못하고 있으므로 본 발명을 적용하면 수많은 사이버 스타나 역사적인 인물들을 생성하여 활용하고자 하는 교육기관이나 공공기관, 회사는 물론이고 컴퓨터 게임, 광고, TV, 영화 등에서 충분히 유용하게 활용할 수 있을 것으로 기대되며, 또한 유명한 역사적인 인물들의 얼굴 및 표정을 재구성하여 교육, TV, 영화는 물론 관광산업에도 크게 영향을 줄 수 있을 것으로 기대된다.

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈