LIP-JPPNet은 사람의 이미지에서 포즈 추출, 또한 옷 등 각 부위를 segment로 나누어주는 LIP 데이터셋을 사용한 CNN 모델이다. 소스코드 : https://github.com/Engineering-Course/LIP_JPPNet 논문 : https://arxiv.org/pdf/1804.01984.pdf 필요 환경 : Python2.7(3이상 사용시 코드의 xrange -> range 수정), tensorflow 전체를 clone 받으면 test를 위한 dataset이 있어 간단하게 돌려볼 수 있다. pretrained model 을 './checkpoint/JPPNet-s2' 폴더에 넣으면 model을 사용할 수 있다. (구글 드라이브 https://drive.google.com/open..
카테고리 없음
2018. 8. 13. 00:53