@techreport{oai:ipsj.ixsq.nii.ac.jp:00019262, author = {山名, 早人 and Hayato, Yamana}, issue = {45(2004-DBS-133)}, month = {May}, note = {インターネット上のWWWサーバから発信される情報量は膨大であり、2004年4月時点で、テキストデータだけでも92.5億ページと推測される。また、2002年?2003年の増加傾向をみると、Webページは今後も1年間におよそ10億ページずつ増加を続けると予想される。このような膨大なWebページには、人間が一生かかっても学ぶことのできない情報、知識、ノウハウが凝縮されていると言っても過言ではない。本稿では、このような膨大なWebデータをどのように収集し更新すべきか、そして、このような膨大なWebデータをどのように有効活用すべきかについて、いくつかの研究事例を紹介すると共に、新しい利用法について考える。, The amount of the information on the Web is huge and the number of Web page is estimated about 9.25 billion in April 2004. Moreover, one billion Web pages will be added to the Web repository every year, which is estimated by calculating its average increase in these two years. It is not too much to say that the huge Web repository has all kinds of information, knowledge, and know-how that can not be learned by a human even if he spent all the life time to learn them. In this paper, we introduce the major research projects that concern how to crawl the huge Web pages, how to keep them up-to-date, and how to make full use of them.}, title = {Webデータの新しい利用法の開拓を目指して}, year = {2004} }