@article{oai:ipsj.ixsq.nii.ac.jp:00141577,
 author = {宇佐見, 潤 and 繁田, 浩功 and 間下, 以大 and 黒田, 嘉宏 and 菊田, 順一 and 瀬尾, 茂人 and 石井, 優 and 松田, 秀雄 and 竹村, 治雄 and Jun, Usami and Hironori, Shigeta and Tomohiro, Mashita and Yoshihiro, Kuroda and Junichi, Kikuta and Shigeto, Seno and Masaru, Ishii and Hideo, Matsuda and Haruo, Takemura},
 issue = {1},
 journal = {情報処理学会論文誌数理モデル化と応用(TOM)},
 month = {Mar},
 note = {生体イメージング技術の向上により生体内の細胞の動態を動画像として観察が可能となり,疾病のメカニズム解明や創薬等への応用が期待されている.これらの応用のためには,細胞画像から特定領域を抽出したり,細胞の特定の動きを検出したりする必要がある.また,膨大な数の画像に対して一定の基準で領域分割や細胞の検出を行うためには計算機での処理が必要である.本論文では,二光子励起顕微鏡を用いた骨髄腔画像の骨髄腔の領域分割手法を提案する.本研究で対象とする生体細胞画像は生体の一部を時系列画像として撮影したものであり,骨髄腔領域と血流領域を分割するには,輝度値の高低や血流の有無等の情報を総合して判断される.提案手法ではこれらの情報をエネルギー関数に取り入れたうえでグラフカットによる最適化を行い,領域分割を実現する.提案手法と従来のグラフカットとの比較評価を行った結果,hard-constraintsというユーザの入力に依存した制約を用いていない提案手法がhard-constraintsを用いている従来手法と同等以上の性能が得られることを確認した., Emerging bio-imaging technologies are expected to contribute to the discovery of new drugs and the mechanisms by which diseases survive. In applications involving cell and bacterial imaging, extracting a particular region or detecting cell motion is essential. Moreover, automatic extraction and detection in image processing are also required because it is unrealistic to manually process a large number of images accurately, uniformly, and in a short period of time. To help automate this process, we introduce a bone-marrow space segmentation method for two-photon excitation microscopy images. Cellular dynamics specialists typically separate regions of bone-marrow and other spaces using several criteria such as blood flow characteristics and intensity. Taking these consideration, we designed data-term in graph-cuts method to process sequential images of the inside of a living mouse. Results of evaluations and comparison with normal graph-cuts show that our proposed method, which doesn't uses hard constraints, achieves better performance than normal hard-constraints based graph-cuts methods.},
 pages = {18--27},
 title = {グラフカットを用いた骨髄腔画像の領域分割},
 volume = {8},
 year = {2015}
}