WEKO3
アイテム
姿勢推定を用いた鶏の行動推定
https://ipsj.ixsq.nii.ac.jp/records/222314
https://ipsj.ixsq.nii.ac.jp/records/2223142cc3b8f2-4693-4bcc-85eb-f709988f8bc0
| 名前 / ファイル | ライセンス | アクション |
|---|---|---|
|
|
Copyright (c) 2022 by the Information Processing Society of Japan
|
|
| オープンアクセス | ||
| Item type | SIG Technical Reports(1) | |||||||||
|---|---|---|---|---|---|---|---|---|---|---|
| 公開日 | 2022-11-11 | |||||||||
| タイトル | ||||||||||
| タイトル | 姿勢推定を用いた鶏の行動推定 | |||||||||
| タイトル | ||||||||||
| 言語 | en | |||||||||
| タイトル | Action recognition of chickens using Pose estimation | |||||||||
| 言語 | ||||||||||
| 言語 | jpn | |||||||||
| 資源タイプ | ||||||||||
| 資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||||
| 資源タイプ | technical report | |||||||||
| 著者所属 | ||||||||||
| 東京農工大学大学院 | ||||||||||
| 著者所属 | ||||||||||
| 東京農工大学大学院 | ||||||||||
| 著者所属(英) | ||||||||||
| en | ||||||||||
| TUAT | ||||||||||
| 著者所属(英) | ||||||||||
| en | ||||||||||
| TUAT | ||||||||||
| 著者名 |
佐藤, 祐哉
× 佐藤, 祐哉
× 堀田, 政二
|
|||||||||
| 論文抄録 | ||||||||||
| 内容記述タイプ | Other | |||||||||
| 内容記述 | 欧州において,鶏のケージフリー飼養の導入が進んでいるが,ケージフリー飼養は動物の管理が難しいという短所がある.そのため,自動化された鶏のストレス値の算出や健康管理が求められており,その基盤技術として行動推定法を確立する必要がある.このため,本研究では鶏の行動推定手法を提案する.提案手法は姿勢推定データ,RGB 画像,オプティカルフロー画像を組み合わせることで,鶏の体の部位の接続関係,視覚的特徴,鶏の動きを考慮した行動推定を提案する.提案モデルは,30fps の動画の連続する 20 フレームの画像からグラフを生成して行動推定を行う.5600 個のグラフデータを用いてモデルの交差検証を行った.実験結果において,提案手法は 7 種類の行動を平均正答率 95.9% で分類可能であることを確認した. | |||||||||
| 論文抄録(英) | ||||||||||
| 内容記述タイプ | Other | |||||||||
| 内容記述 | Cage-free breeding of chickens is being introduced in Europe. However, cage-free breeding has disadvantage that it is difficult to manage the animals. Therefore, automated calculation of stress values and health management of chickens are required. It is necessary to establish a action recognition method as a basic technology. For this reason, we propose a chicken action recognition method. The proposed method combines pose estimation data, RGB images, and optical flow images to recognize the actions of chickens. Therefor this method takes into account the connections among chicken's body parts, visual characteristics, and movements. The proposed model generates graphs from 20 consecutive frames of 30 fps video and recognizes actions. We cross-validated the model using 5600 graph data. Experimental results show that the proposed method can classify 7 types of actions with average accuracy of 95.9%. | |||||||||
| 書誌レコードID | ||||||||||
| 収録物識別子タイプ | NCID | |||||||||
| 収録物識別子 | AA12628338 | |||||||||
| 書誌情報 |
研究報告デジタルコンテンツクリエーション(DCC) 巻 2022-DCC-32, 号 27, p. 1-6, 発行日 2022-11-11 |
|||||||||
| ISSN | ||||||||||
| 収録物識別子タイプ | ISSN | |||||||||
| 収録物識別子 | 2188-8868 | |||||||||
| Notice | ||||||||||
| SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||||
| 出版者 | ||||||||||
| 言語 | ja | |||||||||
| 出版者 | 情報処理学会 | |||||||||