Markov Decision Process (MDP)

Autore: Laura McKinney
Data Della Creazione: 5 Aprile 2021
Data Di Aggiornamento: 22 Giugno 2024
Anonim
Markov Decision Processes (MDPs) - Structuring a Reinforcement Learning Problem
Video: Markov Decision Processes (MDPs) - Structuring a Reinforcement Learning Problem

Contenuto

Definizione - Cosa significa Markov Decision Process (MDP)?

Un processo decisionale di Markov (MDP) è qualcosa che i professionisti definiscono un "processo di controllo stocastico a tempo discreto". Si basa sulla matematica pioniera dell'accademico russo Andrey Markov alla fine del XIX e all'inizio del XX secolo.


Un'introduzione a Microsoft Azure e Microsoft Cloud | In questa guida imparerai cos'è il cloud computing e in che modo Microsoft Azure può aiutarti a migrare e gestire la tua azienda dal cloud.

Techopedia spiega Markov Decision Process (MDP)

Un modo per spiegare un processo decisionale di Markov e le catene di Markov associate è che questi sono elementi della moderna teoria dei giochi basata su una più semplice ricerca matematica condotta dallo scienziato russo alcune centinaia di anni fa. La descrizione di un processo decisionale di Markov è che studia uno scenario in cui un sistema si trova in un determinato insieme di stati e si sposta in un altro stato in base alle decisioni di un decisore.

Una catena di Markov come modello mostra una sequenza di eventi in cui la probabilità di un determinato evento dipende da uno stato raggiunto in precedenza. I professionisti possono parlare di uno "spazio statale numerabile" nel descrivere il processo decisionale di Markov - alcuni associano l'idea del modello decisionale di Markov a un modello di "camminata casuale" o altro modello stocastico basato sulle probabilità (il modello di camminata casuale, spesso citato su Wall Street, modella il movimento di un'equità su o giù in un con di probabilità di mercato).


In generale, i processi decisionali di Markov sono spesso applicati ad alcune delle tecnologie più sofisticate su cui i professionisti stanno lavorando oggi, ad esempio nei modelli di robotica, automazione e ricerca.