티스토리 뷰

LIP-JPPNet은 사람의 이미지에서 포즈 추출, 또한 옷 등 각 부위를 segment로 나누어주는 LIP 데이터셋을 사용한 CNN 모델이다.

소스코드 : https://github.com/Engineering-Course/LIP_JPPNet 

논문 : https://arxiv.org/pdf/1804.01984.pdf

필요 환경 : Python2.7(3이상 사용시 코드의 xrange -> range 수정), tensorflow


전체를 clone 받으면 test를 위한 dataset이 있어 간단하게 돌려볼 수 있다. pretrained model 을 './checkpoint/JPPNet-s2' 폴더에 넣으면 model을 사용할 수 있다. (구글 드라이브 https://drive.google.com/open?id=1BFVXgeln-bek8TCbRjN6utPAgRE0LJZg)

기존에 있는 이미지는 무리없이 돌아가고, 새로운 이미지로 테스트 해보았다.

evaluate_parsing_JPPNet-s2.py 파일을 실행시키면 이미지를 segment로 분류한다.

evaluate_pose_JPPNet-s2.py 파일을 실행시키면 포즈 데이터가 나온다 32개의 숫자로 표현된다. 좌표값을 가리키는 것으로 추정된다. 11 189 50 149 52 97 83 105 93 149 57 193 81 94 93 66 100 35 112 7 60 105 62 70 73 41 114 47 107 79 104 110

해야할 것

  • pose데이터와 Segment 데이터를 사용하고자 하는 형태에 맞춰서 수정

이슈

  • 용량이 큰 사진(3MB) , 가로가 긴 사진은 사용 불가


댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/04   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30
글 보관함