2024-03-29T08:24:32Zhttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_oaipmhoai:ipsj.ixsq.nii.ac.jp:000573522023-04-27T10:00:04Z01164:05159:05198:05203
擬人化音声対話エージェントのための表情合成技術Facial Expression Synthesis for Life - like Spoken Communication Agentjpnhttp://id.nii.ac.jp/1001/00057352/Technical Reporthttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_action_common_download&item_id=57352&item_no=1&attribute_id=1&file_no=1Copyright (c) 2002 by the Information Processing Society of Japan成蹊大学工学部成蹊大学工学部四倉, 達夫森島, 繁生機械と人間とのコミュニケーション形態の1つとして擬人化エージェントが挙げられる。このエージェントがコンピュータディスプレイ上に表示し、言語情報やジェスチャ、表情等の非言語情報を理解・表出しあたかも人間同士が対面対話するようなリアルなコミュニケーション環境を構築可能なシステムが求められる。エージェントを構築するにあたり、最終的な目標として、いかにエージェント自体をリアルなものとし、コミュニケーションの際、現実世界との対話と遜色なくすることである。本稿ではこのシステムのエージェントの構築技術を紹介し、エージェントの顔モデル構築、表情合成、アニメーション手法について紹介する。The multi-modal communication between man and machine style is to have a virtual human or an avatar appearing on the computer terminal that should be able to understand and express not only linguistic information but also non-verbal information. This is similar to human-to-human communication with a face-to-face style. Very important factor to make an avatar look believable or alive depends on how well an avatar can duplicate a real human’s expression and impression on a face precisely. Especially in case of communication application using avatar, a real-time processing with low delay is inevitable. In this paper, we describe a current situation of our face image synthesis technology.AN10442647情報処理学会研究報告音声言語情報処理(SLP)200210(2001-SLP-040)79842002-02-012009-06-30