@techreport{oai:ipsj.ixsq.nii.ac.jp:00223349, author = {山口, 琢 and 新美, 礼彦 and 大場, みち子 and Taku, Yamaguchi and Ayahiko, Niimi and Michiko, Oba}, issue = {38}, month = {Jan}, note = {人の複雑な思考を支援する従来の図表やコンピューターシステムの多くは,視覚を前提に発明・開発されてきた.では,人が複雑な情報処理を音声インターフェース (Voice User Interface,VUI) で行う場合,視覚で処理する場合と同じ考え方をするだろうか.本研究の目的は,人とコンピュータとのインタラクションの測定・分析によって「考え方」の違いを明らかにすることである.研究の第一段階として,視覚 (Graphic User Interface,GUI) による操作とスクリーン・リーダーによる操作とを測定・分析し,テキストを理解するときの考え方の違いを明らかにする.このために,視覚および iPhone の VoiceOver で操作できるテキストのジグソー・パズル・アプリケーション「ジグソー・テキスト」を開発した.予備実験として,7 問のパズルを 2 人の被験者が VoiceOver で解き,並べ替え操作を記録して分析した.同じ問題を延べ 220 名が視覚で解いた場合と,今回 VoiceOver の読み上げで解いた場合とを比べると,視覚の場合の方が VoiceOver よりも最初のピースを動かすまでの時間が長い傾向があった.視覚では正解順序の見通しを立ててからピースを動かし始めたのに対して,VoiceOver ではピースを並べながら正解を探り,完成に近づくとピースを動かすたびに全文を読み上げさせて確認していた可能性がある.今後は被験者を増やして本実験を行う.また,スマートスピーカーを使って同様の実験を行う.最後に,インタラクティブな音声インターフェースによる図表の理解への展望を述べる.}, title = {スクリーン・リーダーによる複雑な情報処理における考え方の分析}, year = {2023} }