読者です 読者をやめる 読者になる 読者になる

人工知能に関する断創録

人工知能、認知科学、心理学、ロボティクス、生物学などに興味を持っています。このブログでは人工知能のさまざまな分野について調査したことをまとめています。最近は、機械学習、Deep Learning、Kerasに関する記事が多いです。



愛情と目標

強化学習 認知科学

Minsky氏の講演会が近々あるのでそれに備えて、『Emotion Machine』を読んでいる。

Part II の Attachments and Goals に面白いことが書いてあった。前に報酬の学習(2003/02/18)で

何を報酬とするか(つまりやりたいタスクの目標)を学習の間に獲得できるようにすればいいんじゃないだろうか。強化学習のメタ学習みたいな感じ。エージェントがいきなり自分から「これをしたい!」って言い出すのは無理だから、何に価値があるかを人間が教えられるように。さらに言えば、教えた中から推論によって新しい価値観を自動的に計算し、内発的動機付けができるようになってほしい。

と書いた。Minsky氏によると、この何を報酬とするか(何を目標とするか)を決定しているのが感情(Emotion)だという。

Those special feelings of Pride and Shame play unique and peculiar roles in how we develop new kinds of goals(誇りや恥といった特別な感情が新しい目標を生成する固有の役割を担っている)

そして、このような感情を生起し、目標を変更し得る力を持つ人をImprimerと呼んでいる。Imprimerはその愛情(Attachment)の力で対象の誇りや恥と言った感情を生起し、その目標を変更することができる。

人間はこういう仕組みで目標が生成されているという点では面白い。だけど、人工知能にとっては本質的に関係ない気がする。学習の途中で目標を変更できる能力は必要だけど愛情があるかないかとかは関係ないように思う。もちろん所有者がImprimerであるようにプログラムする必要はあるけど、そこに感情云々を持ち込む必要はないのではないか。