A funcionalidade de pesquisa está em construção.
A funcionalidade de pesquisa está em construção.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Human Pose Annotation Using a Motion Capture System for Loose-Fitting Clothes Anotação de pose humana usando um sistema de captura de movimento para roupas largas

Takuya MATSUMOTO, Kodai SHIMOSATO, Takahiro MAEDA, Tatsuya MURAKAMI, Koji MURAKOSO, Kazuhiko MINO, Norimichi UKITA

  • Exibições de texto completo

    0

  • Cite isto

Resumo:

Este artigo propõe uma estrutura para anotar automaticamente os pontos-chave de um corpo humano em imagens para aprender modelos de estimativa de pose 2D. Anotações verdadeiras para aprendizado supervisionado são difíceis e complicadas na maioria das tarefas de visão de máquina. Embora contribuições consideráveis ​​na comunidade nos forneçam um grande número de imagens com poses anotadas, todas elas se concentram principalmente em pessoas vestindo roupas comuns, que são relativamente fáceis de anotar os pontos-chave do corpo. Este artigo, por outro lado, concentra-se na anotação de pessoas que usam roupas largas (por exemplo, quimono japonês) que ocluem muitos pontos-chave do corpo. Para anotar essas pessoas de forma automática e correta, desviamos as coordenadas 3D dos pontos-chave observados sem roupas largas, que podem ser capturadas por um sistema de captura de movimento (MoCap). Esses pontos-chave 3D são projetados em uma imagem onde a pose do corpo sob roupas largas é semelhante àquela capturada pelo MoCap. A similaridade de pose entre corpos com e sem roupas largas é avaliada com configurações geométricas 3D de marcadores MoCap que são visíveis mesmo com roupas largas (por exemplo, marcadores na cabeça, pulsos e tornozelos). Resultados experimentais validam a eficácia da nossa estrutura proposta para estimativa de pose humana.

Publicação
IEICE TRANSACTIONS on Information Vol.E103-D No.6 pp.1257-1264
Data de publicação
2020/06/01
Publicitada
2020/03/30
ISSN online
1745-1361
DOI
10.1587/transinf.2019MVP0007
Tipo de Manuscrito
Special Section PAPER (Special Section on Machine Vision and its Applications)
Categoria

autores

Takuya MATSUMOTO
  Toyota Technological Institute
Kodai SHIMOSATO
  Toyota Technological Institute
Takahiro MAEDA
  Toyota Technological Institute
Tatsuya MURAKAMI
  Toyota Technological Institute
Koji MURAKOSO
  Toei Digital Center
Kazuhiko MINO
  Toei Digital Center
Norimichi UKITA
  Toyota Technological Institute

Palavra-chave