WEKO3
アイテム
自然言語処理における深層学習の省メモリ化と高速化
https://ipsj.ixsq.nii.ac.jp/records/169990
https://ipsj.ixsq.nii.ac.jp/records/16999045be1690-88b5-4cb3-bfdb-99f6707cdad2
| 名前 / ファイル | ライセンス | アクション |
|---|---|---|
|
|
Copyright (c) 2016 by the Information Processing Society of Japan
|
|
| オープンアクセス | ||
| Item type | SIG Technical Reports(1) | |||||||
|---|---|---|---|---|---|---|---|---|
| 公開日 | 2016-07-22 | |||||||
| タイトル | ||||||||
| タイトル | 自然言語処理における深層学習の省メモリ化と高速化 | |||||||
| 言語 | ||||||||
| 言語 | jpn | |||||||
| キーワード | ||||||||
| 主題Scheme | Other | |||||||
| 主題 | 招待講演 | |||||||
| 資源タイプ | ||||||||
| 資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
| 資源タイプ | technical report | |||||||
| 著者所属 | ||||||||
| 奈良先端科学技術大学院大学 | ||||||||
| 著者名 |
進藤, 裕之
× 進藤, 裕之
|
|||||||
| 論文抄録 | ||||||||
| 内容記述タイプ | Other | |||||||
| 内容記述 | 深層学習を用いて言語解析や生成を行う場合には,大規模な語彙に起因するメモリ消費や計算速度の問題がある.例えば,モデルの入力層では,単語埋め込みベクトルが GPU メモリに収まらないことや,出力層では,ソフトマックス関数の計算コストが非常に大きくなってしまうことがある.本講演では,これらの問題に対処し得る技術について紹介し,実際のテキスト解析による実験結果について報告する. | |||||||
| 書誌レコードID | ||||||||
| 収録物識別子タイプ | NCID | |||||||
| 収録物識別子 | AN10115061 | |||||||
| 書誌情報 |
研究報告自然言語処理(NL) 巻 2016-NL-227, 号 11, p. 1-1, 発行日 2016-07-22 |
|||||||
| ISSN | ||||||||
| 収録物識別子タイプ | ISSN | |||||||
| 収録物識別子 | 2188-8779 | |||||||
| Notice | ||||||||
| SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
| 出版者 | ||||||||
| 言語 | ja | |||||||
| 出版者 | 情報処理学会 | |||||||