@article{oai:ipsj.ixsq.nii.ac.jp:00163726, author = {宮崎, 玲奈 and 松崎, 公紀 and Reina, Miyazaki and Kiminori, Matsuzaki}, issue = {3}, journal = {情報処理学会論文誌プログラミング(PRO)}, month = {Jun}, note = {並列スケルトンは,並列分散処理において頻出する計算パターンを抽象化したものであり,スケルトン並列プログラミングではこのスケルトンを選択し組み合わせてプログラムを構築する.しかし,実際には最適なプログラムを作成するための並列スケルトンの選択は難しい.このような問題に対して,Huらはある形で書かれたリスト構造に対するプログラムをmap,reduce,scanと呼ばれる並列スケルトンを組み合わせたプログラムに変換する手法を示した.本発表では,先行研究によって得られた変換後のプログラムをHadoop MapReduce上で実装する手法について検討する.MapReduceは並列分散処理のためのプログラミングモデルであり,その構造はMPIなどと比べて制限されている.しかし,HadoopのようなMapReduceモデルを採用したフレームワークでは,多様なパラメータや機能を提供しているため,同じ処理を行うプログラムであってもフレームワーク上では動作の異なる複数種のプログラムが記述可能である.本発表ではリスト構造上のデータ処理,特にscanに対して,Hadoop MapReduce上の実装を複数種類示す.そして,それぞれの実装の性能評価や,Hadoopのパフォーマンスへ影響する要素について検証を行う., In skeletal parallel programming, programmers build parallel programs by choosing and combining parallel skeletons, which are abstract computation patterns frequently used in parallel programming. It is, however, difficult to choose appropriate parallel skeletons for efficient programs. To resolve this problem, Hu et al. proposed a set of rules with which we can transform programs manipulating a list in a certain form into combinations of parallel skeletons namely map, reduce, and scan. In this presentation, we discuss how we can implement the combination of parallel skeletons (the transformed programs) on Hadoop MapReduce. MapReduce is programming model for parallel processing. Though the MapReduce model is more restricted than MPI, we can develop many kind of programs for the same algorithm due to the many functions and parameters provided in Hadoop MapReduce. In this presentation, we focus on the accumulative computation for lists, and implement and evaluate some programs on Hadoop MapReduce. We discuss what may affect the performance on Hadoop.}, pages = {25--25}, title = {Hadoopにおけるリスト上の累積計算の実装手法が性能に与える影響についての考察}, volume = {9}, year = {2016} }