愛情と目標
Minsky氏の講演会が近々あるのでそれに備えて、『Emotion Machine』を読んでいる。
- Marvin Minsky氏来日!!!(2005/9/9)
Part II の Attachments and Goals に面白いことが書いてあった。前に報酬の学習(2003/02/18)で
何を報酬とするか(つまりやりたいタスクの目標)を学習の間に獲得できるようにすればいいんじゃないだろうか。強化学習のメタ学習みたいな感じ。エージェントがいきなり自分から「これをしたい!」って言い出すのは無理だから、何に価値があるかを人間が教えられるように。さらに言えば、教えた中から推論によって新しい価値観を自動的に計算し、内発的動機付けができるようになってほしい。
と書いた。Minsky氏によると、この何を報酬とするか(何を目標とするか)を決定しているのが感情(Emotion)だという。
Those special feelings of Pride and Shame play unique and peculiar roles in how we develop new kinds of goals(誇りや恥といった特別な感情が新しい目標を生成する固有の役割を担っている)
そして、このような感情を生起し、目標を変更し得る力を持つ人をImprimerと呼んでいる。Imprimerはその愛情(Attachment)の力で対象の誇りや恥と言った感情を生起し、その目標を変更することができる。
人間はこういう仕組みで目標が生成されているという点では面白い。だけど、人工知能にとっては本質的に関係ない気がする。学習の途中で目標を変更できる能力は必要だけど愛情があるかないかとかは関係ないように思う。もちろん所有者がImprimerであるようにプログラムする必要はあるけど、そこに感情云々を持ち込む必要はないのではないか。