A funcionalidade de pesquisa está em construção.
A funcionalidade de pesquisa está em construção.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Video Saliency Detection Using Spatiotemporal Cues Detecção de saliência de vídeo usando dicas espaçotemporais

Yu CHEN, Jing XIAO, Liuyi HU, Dan CHEN, Zhongyuan WANG, Dengshi LI

  • Exibições de texto completo

    0

  • Cite isto

Resumo:

A detecção de saliência em vídeos tem recebido grande atenção e extensivamente estudada nos últimos anos. No entanto, várias cenas visuais com movimentos complicados levam a um ruído de fundo perceptível e ao destaque não uniforme dos objetos em primeiro plano. Neste artigo, propusemos um modelo de detecção de saliência de vídeo usando pistas espaço-temporais. No domínio espacial, a localização da região de primeiro plano é utilizada como dica espacial para restringir o acúmulo de contraste nas regiões de fundo. No domínio temporal, a distribuição espacial de regiões semelhantes ao movimento é adotada como sugestão temporal para suprimir ainda mais o ruído de fundo. Além disso, um método de previsão temporal baseado em correspondência retroativa é desenvolvido para ajustar a saliência temporal de acordo com sua previsão correspondente do quadro anterior, reforçando assim a consistência ao longo do eixo do tempo. A avaliação de desempenho em vários conjuntos de dados de benchmark populares valida que nossa abordagem supera o estado da arte existente.

Publicação
IEICE TRANSACTIONS on Information Vol.E101-D No.9 pp.2201-2208
Data de publicação
2018/09/01
Publicitada
2018/06/20
ISSN online
1745-1361
DOI
10.1587/transinf.2017PCP0011
Tipo de Manuscrito
Special Section PAPER (Special Section on Picture Coding and Image Media Processing)
Categoria

autores

Yu CHEN
  Wuhan University
Jing XIAO
  Wuhan University
Liuyi HU
  Wuhan University
Dan CHEN
  Wuhan University
Zhongyuan WANG
  Wuhan University
Dengshi LI
  Jianghan University

Palavra-chave