2024-03-29T17:48:51Zhttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_oaipmhoai:ipsj.ixsq.nii.ac.jp:000573062024-03-29T05:26:34Z01164:05159:05198:05199
MMI記述言語の標準化動向とXISLの対応についてStandardization of Multi - modal Interaction Description Languages and Improvement of XISL to follow itjpnhttp://id.nii.ac.jp/1001/00057306/Technical Reporthttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_action_common_download&item_id=57306&item_no=1&attribute_id=1&file_no=1Copyright (c) 2002 by the Information Processing Society of Japan豊橋技術科学大学大学院工学研究科知識情報工学専攻豊橋技術科学大学大学院工学研究科知識情報工学専攻豊橋技術科学大学マルチメディアセンター豊橋技術科学大学大学院工学研究科知識情報工学専攻中村, 有作桂田, 浩一山田, 博文新田, 恒雄本報告では,W3Cにおけるマルチモーダル対話(MMI)記述言語標準化作業について紹介すると共に,筆者らが進めているXISLでの実現案を説明する.W3Cは,MMIによるWebユーザインタフェースの向上を目的として,W3C-MMI-WGを結成した.WGは,主にMMI記述言語の要求仕様やMMIフレームワークを提案・検討している。今後、XISLをこれらの標準化作業に対応させていく必要がある.そこで,MMI記述言語の要求仕様では,各モダニティ間の同期・統合に関する仕様をXISLは満足していなかった.新しいXISL仕様では,SMIL2.0の同期メカニズムを採用することにより対応を行った.またMMIフレームワークでは,対話管理部に送られる新しいEMMA(Extensible Multi-Model Annotation Markup Language)形式に合わせて,マルチモーダル入出力に関するXISLの記述を,これまでの個別モダリティに対する統合制御記述から,入出力を統合解釈した後の抽象的レベルの記述へと仕様変更した.これらの改良により,XISLの記述は端末毎のモダリティに依存せず,様々な端末で再利用できるようになる.反面,各モダリティの解釈方法と統合方法という実装に関する部分の検討が,今後必要になる.In this paper, we introduce actities of W3C-MMI-WG in which the standardization of multi-media interaction (MMI) description language is targeted, then describe on approach to specifications of the standardization. W3C-MMI-WG is mainly discussing the requirements and framework of MMI systems for designing MMI applications used across networks. In parallel with this activity, we have developed an MMI desciption language XISL, an execution system, and investigated them in an MMI system. This paper compares the difference of the specifications and the MMI framework of XISL from those W3C-MMI-WG to clarify the parts to be discussed for modifying XISL. As a result, XISL does not completely saticefy to the synchronization among modalities in the requirements and to the interpretation mechanism named EMMA (Extensible Multi-Model Annotation markup language) in the MMI framework discussed in the WG. To conform the requirement and the framework, we introduce a control mechanism of SMIL 2.0 that can synchronize modalities both in input and output media and we also investigate a method to interpret input modalitires as an EMMA format.AN10442647情報処理学会研究報告音声言語情報処理(SLP)2002121(2002-SLP-044)2372422002-12-162009-06-30