@techreport{oai:ipsj.ixsq.nii.ac.jp:00092735, author = {王, 夢 and 小川, 剛史 and Yume, Ou and Takefumi, Ogawa}, issue = {7}, month = {Jun}, note = {拡張現実感における現実世界に重畳表示した仮想オブジェクトのリアリティを向上させるためには,視覚的な提示だけでなく,触覚や聴覚など,より多くの感覚刺激を提示することが重要である.本研究では,聴覚刺激の提示のみで任意の場所に音像を定位することは困難なため,視覚と聴覚のクロスモーダル知覚を用いたシステムを提案する.本稿では,提案システムの実現に向け視覚刺激が音像知覚に与える影響を調査した初期実験について報告する.実験により,視覚と聴覚のクロスモーダル知覚を用いることで,聴覚刺激のみを与えたときと比較して,被験者が音像の位置をより強く認識できることが分かった., In augmented reality (AR) environment, not only visual stimuli but also tactile or auditory stimuli are important to realize virtual objects with high reality. In this study, we propose an AR system for localizing a sound image in arbitrary position, using auditory-visual cross-modal perception. In this paper, we conducted two initial experiments to investigate the influence of the presentation of visual and auditory stimuli on the auditory lateralization. Experimental results suggest that subjects can recognize more strongly the position of the sound image by using auditory-visual cross-modal perception than only auditory perception.}, title = {視覚と聴覚のクロスモーダル知覚を用いた音像定位システムに関する基礎検討}, year = {2013} }