waarde leren

waarde leren is een voorgestelde methode voor het opnemen van menselijke waarden in een AGI. Het gaat om de creatie van een kunstmatige leerling wiens acties rekening houden met vele mogelijke set van waarden en voorkeuren, gewogen door hun waarschijnlijkheid. Waarde het leren kon een AGI verhinderen van het hebben van doelstellingen schadelijk voor menselijke waarden, vandaar het helpen in de verwezenlijking van vriendschappelijke AI.

hoewel er vele manieren zijn om menselijke waarden in een AGI op te nemen (bijv.: Coherente geëxtrapoleerde wil, coherente geaggregeerde wil en coherente gemengde wil), wordt deze methode direct genoemd en ontwikkeld in Daniel Dewey ’s paper’Learning What to Value’. Zoals de meeste auteurs, gaat hij ervan uit dat de doelen van de mens niet van nature in een kunstmatig agens zouden voorkomen en daarin zouden moeten worden afgedwongen. Ten eerste, Dewey pleit tegen het gebruik van een eenvoudig gebruik van versterking leren om dit probleem op te lossen, op de basis dat dit leidt tot de maximalisatie van specifieke beloningen die kunnen afwijken van waarde maximalisatie. Bijvoorbeeld, zelfs als we de agent krachtig engineeren om die beloningen te maximaliseren die ook menselijke waarden maximaliseren, zou de agent zijn omgeving kunnen veranderen om gemakkelijker dezelfde beloningen te produceren zonder de moeite om ook menselijke waarden te maximaliseren (d.w.z.: als de beloning menselijk geluk was, kon het de menselijke geest veranderen zodat het gelukkig werd met alles).

om al deze problemen op te lossen, stelt Dewey een utility function maximizer voor, die alle mogelijke utility functies gewogen door hun waarschijnlijkheden beschouwt: “e Stel onzekerheid over utility functies voor. In plaats van een agent een utility functie vooraf, bieden we een agent met een pool van mogelijke utility functies en een kansverdeling P zodanig dat elke utility functie kan worden toegewezen waarschijnlijkheid P(Ujyxm) gegeven een bepaalde interactie geschiedenis . Een agent kan dan een verwachte waarde berekenen over mogelijke nutsfuncties gegeven een bepaalde interactiegeschiedenis ” hij concludeert dat hoewel het veel van de genoemde problemen oplost, deze methode nog steeds veel open vragen laat. Het moet echter een richting geven aan de toekomstige werkzaamheden….

(Lees Verder)

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.