WEKO3
アイテム
Kubernetesとサービスメッシュを用いたエッジ基盤における近接エッジ協調型負荷分散手法の一検討
https://ipsj.ixsq.nii.ac.jp/records/211042
https://ipsj.ixsq.nii.ac.jp/records/2110423f5444a4-8e2c-4898-8dc5-43a6d045ad1a
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2021 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|
公開日 | 2021-05-06 | |||||||||||
タイトル | ||||||||||||
タイトル | Kubernetesとサービスメッシュを用いたエッジ基盤における近接エッジ協調型負荷分散手法の一検討 | |||||||||||
タイトル | ||||||||||||
言語 | en | |||||||||||
タイトル | A Cooperative Load Balancing Method for Edge Computing Resources Using Kubernetes and Service Mesh | |||||||||||
言語 | ||||||||||||
言語 | jpn | |||||||||||
キーワード | ||||||||||||
主題Scheme | Other | |||||||||||
主題 | IOT | |||||||||||
資源タイプ | ||||||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||||||
資源タイプ | technical report | |||||||||||
著者所属 | ||||||||||||
トヨタ自動車株式会社 | ||||||||||||
著者所属 | ||||||||||||
トヨタ自動車株式会社 | ||||||||||||
著者所属 | ||||||||||||
株式会社アイ・アイ・エム | ||||||||||||
著者所属(英) | ||||||||||||
en | ||||||||||||
Toyota Motor Corporation | ||||||||||||
著者所属(英) | ||||||||||||
en | ||||||||||||
Toyota Motor Corporation | ||||||||||||
著者所属(英) | ||||||||||||
en | ||||||||||||
IIM Corporation | ||||||||||||
著者名 |
古澤, 徹
× 古澤, 徹
× 阿部, 博
× 小林, 野愛
|
|||||||||||
論文抄録 | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | エッジコンピューティングは,端末とクラウドの中間に位置するエッジで処理を行うことで低遅延応答や中継トラフィック削減が可能となる新しいパラダイムとして着目を集めている.近年コンテナ仮想化技術や Kubernetes,およびサービスメッシュを用いたマイクロサービスアーキテクチャ (MSA) が普及しているが,エッジにおいても同様に MSA を導入することで,エッジ基盤やエッジアプリケーションライフサイクルの効率的な管理,オートスケールの実行が可能になると期待される.しかし,エッジは利用可能なコンピューティングリソースが限られているため,個々のエッジ内でオートスケールを実行させても処理能力には限界がある.特定のエッジに処理限界を超える過負荷が発生した場合,エッジの処理能力が劣化し,大規模な遅延やサービス停止が発生しうる課題がある.本研究では,コンテナ仮想化技術や Kubernetes,およびサービスメッシュを用いたエッジ基盤における協調型負荷分散の実装手法を提案する.エッジのアプリケーションへの単位時間あたりリクエスト数をモニタリングし,エッジの処理限界を超えるリクエストをリソースに余力ある近接エッジまたはクラウドに転送するようにサービスメッシュ設定を動的に変更するコントローラを実装する.実験により,過負荷発生時のアプリケーションの平均処理時間が改善されることを示す. | |||||||||||
論文抄録(英) | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | Edge Computing is attracting attention as a new paradigm that enables low latency response and reduction of relay traffic by performing processing at the edge, which is located between the device and the cloud. In the cloud, microservice architecture (MSA) using container virtualization, Kubernetes, and service mesh is becoming popular. MSA is expected to enable efficient management and auto-scale of edge infrastructure and edge application lifecycle. However, since the edge has limited computing resources available, there is a limit to the processing capacity even if auto-scale is executed within an individual edge. When a heavy load that exceeds the processing limit occurs at a particular edge, the processing capacity of the edge is degraded, which can cause large-scale delays and service outages. In this article, we propose an implementation method of cooperative load balancing on edge infrastructure using container virtualization, Kubernetes, and service mesh. Specifically, we implement a controller that monitors the number of requests per unit time to applications at the edge, and dynamically changes the service mesh configuration to forward requests that exceed the processing limit of the edge to the neighboring edge or the cloud, which has more resources. Through the experiments, we show that the average processing time of the application is improved during heavy load occurrence. | |||||||||||
書誌レコードID | ||||||||||||
収録物識別子タイプ | NCID | |||||||||||
収録物識別子 | AA12326962 | |||||||||||
書誌情報 |
研究報告インターネットと運用技術(IOT) 巻 2021-IOT-53, 号 20, p. 1-8, 発行日 2021-05-06 |
|||||||||||
ISSN | ||||||||||||
収録物識別子タイプ | ISSN | |||||||||||
収録物識別子 | 2188-8787 | |||||||||||
Notice | ||||||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||||||
出版者 | ||||||||||||
言語 | ja | |||||||||||
出版者 | 情報処理学会 |