Value Learning

Value learning è un metodo proposto per incorporare i valori umani in un AGI. Implica la creazione di uno studente artificiale le cui azioni considerano molti possibili set di valori e preferenze, pesati dalla loro probabilità. L’apprendimento del valore potrebbe impedire a un AGI di avere obiettivi dannosi per i valori umani, contribuendo quindi alla creazione di un’IA amichevole.

Sebbene ci siano molti modi per incorporare i valori umani in un AGI (ad es.: Coherent Estrapolata Volition, Coherent Aggregated Volition e Coherent Blended Volition), questo metodo è direttamente menzionato e sviluppato nel documento di Daniel Dewey ‘Learning What to Value’. Come la maggior parte degli autori, presuppone che gli obiettivi umani non si verifichino naturalmente in un agente artificiale e dovrebbero essere applicati in esso. In primo luogo, Dewey sostiene contro l’uso di un semplice uso dell’apprendimento di rinforzo per risolvere questo problema, sulla base del fatto che ciò porta alla massimizzazione di ricompense specifiche che possono divergere dalla massimizzazione del valore. Per esempio, anche se abbiamo con forza l’ingegnere di agente per massimizzare quelle ricompense che anche massimizzare i valori umani, l’agente potrebbe alterare il suo ambiente più facilmente produrre quelle stesse ricompense senza problemi anche di massimizzare i valori umani (cioè: se la ricompensa è stata la felicità umana potrebbe alterare la mente umana divenne così felice con niente).

Per risolvere tutti questi problemi, Dewey propone un maximizer di funzioni di utilità, che considera tutte le possibili funzioni di utilità ponderate per le loro probabilità: “e propone l’incertezza sulle funzioni di utilità. Invece di fornire un agente una funzione di utilità in anticipo, forniamo un agente con un pool di possibili funzioni di utilità e una distribuzione di probabilità P tale che ogni funzione di utilità può essere assegnata probabilità P(Ujyxm) data una particolare storia di interazione . Un agente può quindi calcolare un valore atteso su possibili funzioni di utilità data una particolare storia di interazione ” Conclude dicendo che sebbene risolva molti dei problemi menzionati, questo metodo lascia ancora molte domande aperte. Tuttavia dovrebbe fornire una direzione per il lavoro futuro….

(Per saperne di più)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.