価値学習

価値学習は、人間の価値をAGIに組み込むための提案された方法です。 それは、その行動が可能性によって秤量された多くの可能な価値観と好みのセットを考慮する人工学習者の創造を含む。 価値学習は、人間の価値観に有害な目標を持つAGIを防ぐことができ、それゆえ友好的なAIの創造を助けることができます。

人間の価値をAGIに組み込む方法はたくさんありますが(例えば: コヒーレント外挿された意志、コヒーレント集約された意志とコヒーレントブレンドされた意志)、この方法は、直接言及され、ダニエル*デューイの論文”価値を学ぶ” ほとんどの著者と同様に、彼は人間の目標は自然に人工的なエージェントでは発生せず、その中で強制されるべきであると仮定しています。 まず、デューイは、この問題を解決するための強化学習の単純な使用の使用に対して、これが価値の最大化から逸脱する可能性のある特定の報酬の最大化につながることに基づいて主張している。 例えば、人間の価値を最大化する報酬を最大化するようにエージェントを強制的に設計したとしても、エージェントは人間の価値を最大化する手間をかけずに同じ報酬をより簡単に生成するように環境を変えることができます(すなわち、報酬が人間の幸福であれば、人間の心を変えることができ、何でも幸せになることができます)。

これらすべての問題を解決するために、デューイは、すべての可能な効用関数をその確率で重み付けしたものと考える効用関数最大化器を提案する。”e proposes uncertainty over utility functions. エージェントに一つの効用関数を事前に提供する代わりに,エージェントに可能な効用関数のプールと確率分布Pを提供し,各効用関数に特定の相互作用履歴が与えられた確率P(Ujyxm)を割り当てることができる。 エージェントは、特定の相互作用履歴を与えられた可能性のある効用関数に対する期待値を計算することができます”と彼は述べて、それが言及された問題の多くを解決しますが、この方法はまだ多くの未解決の質問を残していると結論づけています。 しかし、それは将来の仕事のための方向性を提供する必要があります。…

(続きを読む)

コメントを残す

メールアドレスが公開されることはありません。