A funcionalidade de pesquisa está em construção.
A funcionalidade de pesquisa está em construção.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Using a Kind of Novel Phonotactic Information for SVM Based Speaker Recognition Usando um tipo de informação fonotática inovadora para reconhecimento de alto-falante baseado em SVM

Xiang ZHANG, Hongbin SUO, Qingwei ZHAO, Yonghong YAN

  • Exibições de texto completo

    0

  • Cite isto

Resumo:

Nesta carta, propomos uma nova abordagem para o reconhecimento de falantes baseado em SVM, que utiliza um tipo de nova informação fonotática como recurso para modelagem SVM. Os modelos de mistura gaussiana (GMMs) têm se mostrado extremamente bem-sucedidos no reconhecimento de falantes independentes de texto. O modelo de fundo universal GMM (UBM) é um modelo independente de locutor, cada componente do qual pode ser considerado como uma modelagem de algumas classes de sons fonéticos subjacentes. Assumimos que os enunciados de diferentes falantes devem obter probabilidades posteriores médias diferentes no mesmo componente gaussiano do UBM, e o supervetor composto pelas probabilidades posteriores médias em todos os componentes do UBM para cada enunciado deve ser discriminativo. Usamos esses supervetores como recursos para reconhecimento de alto-falante baseado em SVM. Os resultados da experiência em uma tarefa do NIST SRE 2006 mostram que a abordagem proposta demonstra desempenho comparável com os sistemas comumente usados. Os resultados da fusão também são apresentados.

Publicação
IEICE TRANSACTIONS on Information Vol.E92-D No.4 pp.746-749
Data de publicação
2009/04/01
Publicitada
ISSN online
1745-1361
DOI
10.1587/transinf.E92.D.746
Tipo de Manuscrito
LETTER
Categoria
Fala e Audição

autores

Palavra-chave