Skip to content

ShrimpSnack/DeepFake_project

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

78 Commits
 
 
 
 
 
 
 
 

Repository files navigation

Deepfake technology for depressed patient

딥페이크 기술을 이용한 비대면 코로나 블루 진단

Necessity

  • 대면 진료의 어려움
  • 제3자에게 얼굴 노출에 대한 거부감과 불편함
  • 얼굴 정보 비식별화를 통해 얼굴 노출에 대한 불안감을 해소, 감정 분석을 통해 실시간으로 비대면 진료가 가능

Contributes

  • 실시간 비대면 진료
  • DeepLearning을 이용한 감정인식
  • DeepFake을 이용한 얼굴 비식별화

Result

image
image

  • 비대면 코로나블루 진단 프로그램 예시: (a) Happy (b) Surprising (c) Sad (d) Neutral
  • 본인의 얼굴을 연예인얼굴로 대체함으로써 얼굴 노출의 부담감 감소, 개인정보보호 가능
  • 표정 정보를 보존하고 딥러닝 감정 분석을 통해 코로나 블루 진단 보조

Detail of Technique

1. Deep fake를 이용한 얼굴 비식별화

First Order Motion Model을 사용하여 얼굴 데이터셋인 VoxCelebDataset을 사용하여 모델을 FineTuning 시킨다.
mona

  • 기존의 Deepfake : Autoencoder + GAN
  • 한계: 기존 Deepfake는 추가정보를 필요로 한다는 것 ex) 머리움직임 매핑 > 얼굴 랜드마크 , 전신 움직임 > 포즈 추정
  • First Order Motion Model for Image Animation은 추가정보가 필요로 하지 않다는 것.
  • 논문-https://arxiv.org/abs/2003.00196

Image animation 이란?

  • video sequence를 사용하여 원하는 motion과 object로 video sequence를 생성한다.
  • 전체 프로세스 : Motion 추출 / Motion video 생성
    • video object와 source object에 여러 지점을 표시(Key point)한 후 video object와 일치하도록 source의 해당 지점 근처에서 변환(로컬아핀변환)을 생성

Image animation을 위한 first order model

image

  • Source(S): source image는 애니메이션을 적용하려는 이미지
  • Drive frame(D) : Drive frame은 원하는 motion이 포함된 video object , 해당 motion을 source image에 포함하는 것이 목적
  • Motion module: S와 D를 입력으로 받아 key point detect, 로컬아핀변환을 통해 Dense optical flow와 Occlusion map을 생성
    • Key point detector
      • Key point : 이미지의 특징점, 보통 물체의 모서리나 코너
      • Autoencoder를 이용하여 S와 D 모두에서 핵심 키 포인트를 예측하는 감지기
    • 로컬아핀변환
      • 각 key point 뿐만아니라 주변에서의 motion을 수행할 수 있도록 변환.
      • D에서 역방향 광학 흐름을 추정한다.
      • Key point를 근사화하기위해 First order Taylor Series 확장을 사용한다.
      • Taylor Series : 어떤 미지의 함수 f(x)를 근사 다항함수로 표현하는 것
  • Generation module: Drive video sequence에서 제공되는 motion으로 source image를 렌더링한다.
    • 생성 네트워크 : S를 왜곡하고 Occlusion mask를 이용해 source image에서 가려진 image 부분을 생성

2. 표정 분석을 통한 감정 인식

Fer2013 Dataset을 사용하여 총 7개의 감정을 분류
image

Code_inform

개별코드

  • Deepfake
    • 입력된 Video또는 image에서의 얼굴을 target image로 변환.
    • Google colab 환경에서 실행 or cuda toolkit & pytorch_gpu 설치 필요
    • git clone https://github.com/alievk/first-order-model
  • Emotion
    • Real-time으로 얼굴표정으로 부터의 Emotion detection

통합코드

  • corona_blue
  • 기존 깃헙에 제공하던 deepfake 코드를 참고하여 감정인식기술을 추가
  • 기존깃헙 clone 후 afy dir의 code를 [avatarify]Coronablue로 교체
  • 실시간으로 웹캠을 통해 frame을 받아와 얼굴 비식별화(deep fake)와 감정인식을 해줌
  • pytorch(cpu버전 사용시 딜레이발생가능), anaconda 외 모듈 설치필요
  • 실행방법(cmd) run_windows.bat

참고자료

About

Deepfake technology for depressed patients

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published