proceso de Markov

Proceso estocástico en el que la distribución de la probabilidad condicionada para cualquier momento futuro, dado el estado presente del sistema, no está afectada por la historia anterior del sistema.

Inglés: Markov process

 

Fuente:

UNESCO/WMO Glosario Internacional de Hidrología (2nd revised ed., 1992)

Smiley face

Suscríbase a nuestro boletín gratuito para recibir noticias, datos interesantes y fechas de nuestros cursos en recursos hídricos.

Posted on November 22, 2013 .