가치 학습

가치 학습은 인간의 가치를 아기에 통합하기 위해 제안 된 방법입니다. 그것은 누구의 행동 가치와 환경 설정의 많은 가능한 세트를 고려 인공 학습자의 생성을 포함,자신의 가능성에 의해 무게. 가치 학습은 인간의 가치에 해로운 목표를 갖는 것을 막을 수 있으므로 우호적 인 인공 지능을 만드는 데 도움이됩니다.

인간의 가치를 아기에 통합하는 방법에는 여러 가지가 있지만(예:: 코 히어 런트 외삽 의지,코 히어 런트 집계 의지 및 코 히어 런트 혼합 의지),이 방법은 다니엘 듀이의 논문’무엇을 가치있게 생각하는지 배우기’에서 직접 언급되고 개발되었습니다. 대부분의 저자와 마찬가지로,그는 인간의 목표가 인공 에이전트에서 자연적으로 발생하지 않으며 그 안에서 시행되어야한다고 가정합니다. 첫째,듀이는 가치 극대화에서 분기 할 수있는 특정 보상의 극대화에이 리드 것을 기준으로,이 문제를 해결하기 위해 학습 강화의 간단한 사용의 사용에 대해 주장한다. 예를 들어,우리가 인간의 가치를 극대화하는 보상을 극대화하도록 에이전트를 강제적으로 설계하더라도 에이전트는 인간의 가치를 극대화하는 문제없이 동일한 보상을 더 쉽게 생성 할 수 있도록 환경을 변경할 수 있습니다(예:보상이 인간의 행복이라면 인간의 마음을 바꿀 수 있으므로 무엇이든 행복하게되었습니다).

이러한 모든 문제를 해결하기 위해 듀이는 자신의 확률에 의해 가중치 가능한 모든 유틸리티 기능을 고려 유틸리티 함수 극대화를 제안한다:”전자 유틸리티 함수에 대한 불확실성을 제안한다. 에이전트 하나의 유틸리티 함수를 앞에 제공하는 대신 에이전트에 가능한 유틸리티 함수 풀과 확률 분포 피 각 유틸리티 함수에 확률을 할당 할 수 있습니다. 에이전트는 특정 상호 작용 이력이 주어지면 가능한 유틸리티 함수에 대한 기대 값을 계산할 수 있습니다.”라고 말하면서 언급 된 많은 문제를 해결하지만이 방법은 여전히 많은 열린 질문을 남깁니다. 그러나 그것은 미래의 작업에 대한 방향을 제공해야합니다….

(더 읽기)

답글 남기기

이메일 주소는 공개되지 않습니다.