A funcionalidade de pesquisa está em construção.
A funcionalidade de pesquisa está em construção.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

A Two-Stage Approach for Fine-Grained Visual Recognition via Confidence Ranking and Fusion Uma abordagem em duas etapas para reconhecimento visual refinado por meio de classificação de confiança e fusão

Kangbo SUN, Jie ZHU

  • Exibições de texto completo

    0

  • Cite isto

Resumo:

A localização e a representação de recursos das partes do objeto desempenham papéis importantes no reconhecimento visual refinado. Para promover a precisão do reconhecimento final sem caixas delimitadoras/anotações de peças, muitos estudos adotam redes de localização de objetos para propor caixas delimitadoras/anotações de peças apenas com rótulos de categoria e, em seguida, cortam as imagens em imagens parciais para ajudar a rede de classificação a tomar a decisão final. Em nosso trabalho, para propor imagens parciais mais informativas e extrair efetivamente características discriminativas das imagens originais e parciais, propomos uma abordagem em duas etapas que pode fundir as características originais e parciais, avaliando e classificando as informações das imagens parciais. Os resultados experimentais mostram que a abordagem proposta atinge um excelente desempenho em dois conjuntos de dados de referência, o que demonstra a sua eficácia.

Publicação
IEICE TRANSACTIONS on Information Vol.E103-D No.12 pp.2693-2700
Data de publicação
2020/12/01
Publicitada
2020/09/11
ISSN online
1745-1361
DOI
10.1587/transinf.2020EDP7024
Tipo de Manuscrito
PAPER
Categoria
Reconhecimento de imagem, visão computacional

autores

Kangbo SUN
  Shanghai Jiao Tong University
Jie ZHU
  Shanghai Jiao Tong University

Palavra-chave