http://it.nikkei.co.jp/digital/news/index.aspx?n=MMITew000019092008&cp=1
1年後にはオリコン入り!? 「初音ミク」超えた音声合成技術
標題超聳動,不過原來是上回已經提過的v.morish。
http://www.aiplus.idv.tw/blog/index.php?op=ViewArticle&articleId=2736&blogId=2
學術研究繼續有戲份的ミク
http://ist.ksc.kwansei.ac.jp/~katayose/v.morish/
歌声を混ぜるインタフェース 「v.morish」
http://www.crestmuse.jp/cmstraight/personal/e.morish/
歌声を混ぜるインタフェース 「e.morish」
CEDEC08用的sample因為是學生唱的歌聲來替換成原曲的,所以老實說威力比在8/22的時候CrestMuseシンポジウム上原始sample用ミク唱的還來得簡明易懂。
原來的sample可以讓ミク的音質套上原曲歌手的抑揚頓挫與唱法,不過對ミク沒興趣的人就沒感覺了,所以在CEDEC上請會場上的路人甲即時唱這點非常兇惡。反過來說CrestMuseシンポジウム當時滿地都是ミク廃(還有nico廚)….XD
不過總之關鍵是STRAIGHT + 事先準備的sample,所以讓還沒辦法realtime的STRAIGHT可以在限定的前提下做動態的調整,結果就是”讓自己的聲音整個套上pro的唱法”,瞬間就強者化XD
加上STRAIGHT本來就有的情緒模型,還有現有的歌唱能力調教系統,看來接下來兩三年還是有很多很可以玩的東西。
http://www.crestmuse.jp/cmstraight/
STRAIGHT Wiki
http://www.wakayama-u.ac.jp/~kawahara/crestpub/
「聴覚脳」プロジェクト
http://www.wakayama-u.ac.jp/~kawahara/crestpub/STRAIGHTstrictire.html
STRAIGHTの構造
http://www.wakayama-u.ac.jp/~kawahara/STRAIGHTadv/index_j.html
音声分析変換合成法STRAIGHT