A funcionalidade de pesquisa está em construção.
A funcionalidade de pesquisa está em construção.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Mode Normalization Enhanced Recurrent Model for Multi-Modal Semantic Trajectory Prediction Modelo recorrente aprimorado de normalização de modo para previsão de trajetória semântica multimodal

Shaojie ZHU, Lei ZHANG, Bailong LIU, Shumin CUI, Changxing SHAO, Yun LI

  • Exibições de texto completo

    0

  • Cite isto

Resumo:

A previsão de trajetória semântica multimodal tornou-se um novo desafio devido ao rápido crescimento de trajetórias semânticas multimodais com mensagens de texto. Os métodos tradicionais de previsão de trajetória RNN têm os seguintes problemas para processar trajetória semântica multimodal. A distribuição de amostras de trajetórias multimodais muda gradualmente com o treinamento. Isso leva a uma convergência difícil e a um longo tempo de treinamento. Além disso, cada recurso modal muda em direções diferentes, o que produz múltiplas distribuições do conjunto de dados. Para resolver os problemas acima, é proposto o MNERM (Modelo Recorrente Aprimorado de Normalização de Modo) para trajetória semântica multimodal. MNERM incorpora vários recursos modais e combina a rede LSTM para capturar a dependência de trajetória de longo prazo. Além disso, ele projeta um mecanismo de normalização de modo para normalizar amostras com múltiplas médias e variâncias, e cada distribuição normalizada cai na área de ação da função de ativação, de modo a melhorar a eficiência da previsão e, ao mesmo tempo, melhorar significativamente a velocidade de treinamento. Experimentos em conjuntos de dados reais mostram que, comparado ao SERM, o MNERM reduz a sensibilidade da taxa de aprendizagem, melhora a velocidade de treinamento em 9.120 vezes, aumenta a FC@1 em 0.03 e reduz o ADE em 120 metros.

Publicação
IEICE TRANSACTIONS on Information Vol.E103-D No.1 pp.174-176
Data de publicação
2020/01/01
Publicitada
2019/10/04
ISSN online
1745-1361
DOI
10.1587/transinf.2019EDL8130
Tipo de Manuscrito
LETTER
Categoria
Inteligência Artificial, Mineração de Dados

autores

Shaojie ZHU
  China University of Mining and Technology,Ministry of Education
Lei ZHANG
  China University of Mining and Technology,Ministry of Education
Bailong LIU
  China University of Mining and Technology,Ministry of Education
Shumin CUI
  China University of Mining and Technology,Ministry of Education
Changxing SHAO
  China University of Mining and Technology,Ministry of Education
Yun LI
  China University of Mining and Technology,Ministry of Education

Palavra-chave