@techreport{oai:ipsj.ixsq.nii.ac.jp:00029349,
 author = {王, 謙軼 and 渡邉, 隆由貴 and 青山, 智夫 and Qianyi, Wang and Takayuki, Watanabe and Tomoo, Aoyama},
 issue = {77(2001-HPC-087)},
 month = {Jul},
 note = {学習データに対称性が存在するとき、BP学習方程式の結果にその対称性が反映される必要がある。しかし現実のBP方程式の結果は一定区間の連続入力データに対し、前記必要性を満さない。これをBP方程式の「非対称性」という。データ処理によって被処理データ中に見いだされた本質が、そのデータから生成された近似関数であっても変化するのは望ましくない。この欠点を除去した対称BP学習方程式の導出は可能である。しかし過大な計算時間と解への収束性に問題が残る。その現実的解決策としてBP方程式の収束解に対し対称操作を施す。この解は対称BP学習方程式の解の一候補である。その解の内挿外挿精度を検討した。, We propose a criterion in the neural-computing that is; when symmetrical property is found in the leaning data, the results, they may be a neural network, from the computing should also satisfy the property for all input data except the learning data. However, BP-learning equation does not satisfy the property. We call the fault as "unsymmetrical character of BP-learning." It is inappropriate that the property in a subject is deformed by data processing. We eliminate the fault and can derive an equation; however, attainability towards one solution would not be assured because of many conditions that prevent the convergence-path in numerical calculation, and they bring excess CPU time. To avoid the trouble, we wish to adopt a correction method for the results from the BP-learning equation. The corrected result is a kind solution of the symmetrical BP-learning equation. We discussed the precision for inter/extrapolations of the corrected one.},
 title = {対称操作導入BP学習方程式の内挿外挿精度の改善手法},
 year = {2001}
}