Item type |
Journal(1) |
公開日 |
2024-06-15 |
タイトル |
|
|
タイトル |
スマートフォンを用いた画像認識による嚥下機能の定量的評価手法 |
タイトル |
|
|
言語 |
en |
|
タイトル |
A Vision-based Oral and Swallowing Capability Quantification Approach with Smartphones |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
[一般論文(推薦論文)] モバイルヘルス,高齢化と健康,嚥下困難,嚥下障害,画像認識 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_6501 |
|
資源タイプ |
journal article |
ID登録 |
|
|
ID登録 |
10.20729/00234838 |
|
ID登録タイプ |
JaLC |
著者所属 |
|
|
|
東京大学 |
著者所属 |
|
|
|
東京大学 |
著者所属 |
|
|
|
東京大学 |
著者所属 |
|
|
|
東京医科歯科大学摂食嚥下リハビリテーション学分野 |
著者所属 |
|
|
|
東京医科歯科大学摂食嚥下リハビリテーション学分野 |
著者所属 |
|
|
|
東京大学 |
著者所属 |
|
|
|
東京医科歯科大学摂食嚥下リハビリテーション学分野 |
著者所属 |
|
|
|
東京大学 |
著者所属(英) |
|
|
|
en |
|
|
The University of Tokyo |
著者所属(英) |
|
|
|
en |
|
|
The University of Tokyo |
著者所属(英) |
|
|
|
en |
|
|
The University of Tokyo |
著者所属(英) |
|
|
|
en |
|
|
Tokyo Medical and Dental University |
著者所属(英) |
|
|
|
en |
|
|
Tokyo Medical and Dental University |
著者所属(英) |
|
|
|
en |
|
|
The University of Tokyo |
著者所属(英) |
|
|
|
en |
|
|
Tokyo Medical and Dental University |
著者所属(英) |
|
|
|
en |
|
|
The University of Tokyo |
著者名 |
耿, 世嫻
平井, 雄太
下島, 銀士
柳田, 陵介
山田, 大志
小野寺, 宏
戸原, 玄
矢谷, 浩司
|
著者名(英) |
Shixian, Geng
Yuta, Hirai
Ginshi, Shimojima
Ryosuke, Yanagida
Taishi, Yamada
Hiroshi, Onodera
Haruka, Tohara
Koji, Yatani
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
医師による嚥下障害の診断には,患者の定期的な通院が必要であり,診断結果は医師の経験に大きく影響されるという課題がある.そこで我々は,患者が在宅で簡単に嚥下障害の可能性の有無を評価できるように,スマートフォンで撮影した動画から嚥下機能を評価する手法を提案する.この提案手法の実現に向けて,必要なタスク群を決定し,147名の実験参加者から得られた動画を分析した.その結果,70.6%の精度(Balanced Accuracy)とWeighted F1 scoreは0.801でランダムの予測スコアより0.243ポイント高い識別性能を得ることができた. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
The diagnosis of dysphagia by clinicians poses challenges, as it requires patients to make regular clinic visits and the diagnosis requires training and empirical skills of the doctors. To address these issues and enable patients to assess potential symptoms of dysphagia easily at home, we propose a method to evaluate oral and swallowing function from videos captured by smartphones. To achieve this, we determined the required set of tasks for analyzing oral and swallowing function and analyzed videos of these tasks obtained from 147 participants. As a result, we obtained a discrimination performance with a balanced accuracy of 70.6% and a Weighted F1 score of 0.801. The Weighted F1 score of our model (0.801) is 0.243 points better than that of a random predictor. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN00116647 |
書誌情報 |
情報処理学会論文誌
巻 65,
号 6,
p. 1091-1101,
発行日 2024-06-15
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
1882-7764 |
公開者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |