검색 기능은 준비 중입니다.
검색 기능은 준비 중입니다.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Speech Rhythm-Based Speaker Embeddings Extraction from Phonemes and Phoneme Duration for Multi-Speaker Speech Synthesis 다중 화자 음성 합성을 위한 음성 리듬 기반 화자 임베딩 추출 및 음소 지속 시간

Kenichi FUJITA, Atsushi ANDO, Yusuke IJIMA

  • 조회수

    0

  • 이것을 인용

요약 :

본 논문에서는 대상 화자의 몇 가지 발화를 사용하여 음소 지속 시간을 모델링하기 위한 화자 임베딩을 위한 음성 리듬 기반 방법을 제안합니다. 음성리듬은 F0와 같은 음향특성과 함께 음성합성에서 개별 발화를 재현하기 위한 화자의 특성 중 필수적인 요소 중 하나이다. 제안된 방법의 새로운 특징은 말하기 리듬과 관련이 있는 것으로 알려진 음소 및 지속 시간에서 추출된 리듬 기반 임베딩입니다. 이는 기존의 스펙트럼 특징 기반 모델과 유사한 화자 식별 모델을 사용하여 추출되었습니다. 성능을 평가하기 위해 스피커 임베딩 생성, 생성된 임베딩을 사용한 음성 합성, 임베딩 공간 분석의 세 가지 실험을 수행했습니다. 제안된 방법은 음소와 지속시간 정보만으로 적당한 화자 식별 성능(15.2% EER)을 보였다. 객관적, 주관적 평가 결과를 통해 제안한 방법이 기존 방법보다 대상 화자에 더 가까운 음성 리듬을 가진 음성을 합성할 수 있음을 입증하였다. 또한 임베딩 거리와 지각적 유사성 사이의 관계를 평가하기 위해 임베딩을 시각화했습니다. 임베딩 공간의 시각화와 친밀도 간의 관계 분석을 통해 임베딩 분포가 주관적 유사성과 객관적 유사성을 반영하는 것으로 나타났습니다.

발행
IEICE TRANSACTIONS on Information Vol.E107-D No.1 pp.93-104
발행일
2024/01/01
공개일
2023/10/06
온라인 ISSN
1745-1361
DOI
10.1587/transinf.2023EDP7039
원고의 종류
PAPER
범주
언어 및 청각

작성자

Kenichi FUJITA
  NTT Corporation
Atsushi ANDO
  NTT Corporation
Yusuke IJIMA
  NTT Corporation

키워드