2024/05/21 更新

写真a

ホワン ウェン チン
HUANG Wen Chin
HUANG Wen Chin
所属
大学院情報学研究科 知能システム学専攻 基盤知能情報学 助教
学部担当
情報学部 コンピュータ科学科
職名
助教
ホームページ
プロフィール
2018年台湾・国立台湾大学学士号,2021年名古屋大学修士号,2024年同大学博士号.2017年から2019年まで台湾・中央研究院情報科学研究所にて研究助手を務める.現在,名古屋大学大学院情報学研究科助教.Voice Conversion Challenge 2020およびVoiceMOS Challenge 2022の共同オーガナイザー.音声変換と音声品質評価を中心に,音声処理へのディープラーニングの応用を研究.ISCSLP2018最優秀学生論文賞,APSIPA ASC2021最優秀論文賞受賞

学位 3

  1. 博士(情報学) ( 2024年3月   名古屋大学 ) 

  2. 修士(情報学) ( 2021年3月   名古屋大学 ) 

  3. Bachelor of Science ( 2018年6月   National Taiwan University ) 

研究キーワード 3

  1. 音声変換

  2. 音声品質評価

  3. 音声情報処理

研究分野 1

  1. 情報通信 / 知覚情報処理

 

論文 1

  1. A review on subjective and objective evaluation of synthetic speech

    Cooper Erica, Huang Wen-Chin, Tsao Yu, Wang Hsin-Min, Toda Tomoki, Yamagishi Junichi

    Acoustical Science and Technology   advpub 巻 ( 0 )   2024年

     詳細を見る

    記述言語:英語   出版者・発行元:ACOUSTICAL SOCIETY OF JAPAN  

    <p>Evaluating synthetic speech generated by machines is a complicated process, as it involves judging along multiple dimensions including naturalness, intelligibility, and whether the intended purpose is fulfilled. While subjective listening tests conducted with human participants have been the gold standard for synthetic speech evaluation, its costly process design has also motivated the development of automated objective evaluation protocols. In this review, we first provide a historical view of listening test methodologies, from early in-lab comprehension tests to recent large-scale crowdsourcing mean opinion score (MOS) tests. We then recap the development of automatic measures, ranging from signal-based metrics to model-based approaches that utilize deep neural networks or even the latest self-supervised learning techniques. We also describe the VoiceMOS Challenge series, a scientific event we founded that aims to promote the development of data-driven synthetic speech evaluation. Finally, we provide insights into unsolved issues in this field as well as future prospective. This review is expected to serve as an entry point for early academic researchers to enrich their knowledge in this field, as well as speech synthesis practitioners to catch up on the latest developments.</p>

    DOI: 10.1250/ast.e24.12

    CiNii Research