人工知能に関する断創録

このブログでは人工知能のさまざまな分野について調査したことをまとめています(更新停止: 2019年12月31日)

記憶

『記憶と学習』を一通り読み終わった。

岩波講座 認知科学〈5〉記憶と学習

岩波講座 認知科学〈5〉記憶と学習

記憶に関する研究は、

  • 認知科学
  • 脳科学
  • 神経科学
  • 情報科学(人工知能とコネクショニズム)

で行われている。これらをひっくるめて「認知科学」とも言うらしい。認知科学は、人や猿、その他の動物を使って、短期記憶、エピソード記憶など記憶のモデル(脳の中身はブラックボックスとして扱う)を作っている。脳科学は、脳をマクロ的に見て、海馬は記憶に関係しているといったようなことをやっている。神経科学は、脳をミクロ的に見て、個々のニューロンの働きを調べたりしている。情報科学は、記号処理中心の人工知能とニューラルネットが中心のコネクショニズムに分かれていて(ニューラルネットは人工知能と違うとみなしている感じを受ける)、脳を構成的な方法で理解しようとしている.

人工知能では、決定木学習、意味ネットワークと意味記憶、スキーマ表現、スクリプト表現、プロダクションシステムといった方法がとられる。コネクショニズムでは、パーセプトロン、誤差逆伝播法、Hopfieldネットワーク、Boltzmannマシン、アソシアトロンなどがある。

一回読んだだけなので、確実に全部理解してないが、コネクショニズムの方法は難しい。パーセプトロンがどうして学習できるか理屈ではわかっていても、直感的には理解しにくい(GAも似たようなもんだが)。Hopfieldネットワークにいたっては、統計熱力学とかが出てきて理解できるかすら怪しい。