Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/20.500.12984/6881
Registro completo de metadatos
Metadado Valor Lengua/Idioma
dc.contributor.authorLópez Borbón, Joaquín Humberto-
dc.creatorLópez Borbón, Joaquín Humberto; 61702-
dc.date.issued2015-03-21-
dc.identifier.isbn1736599-
dc.identifier.urihttp://hdl.handle.net/20.500.12984/6881-
dc.descriptionTesis de doctorado en ciencias matemáticas
dc.description.abstractUna amplia gama de problemas en economía, investigación de operaciones, explotación de recursos renovables y no renovables, etc., son modelados como problemas de optimización de sistemas estocásticos que evolucionan en el tiempo ([4], [6], [10], [11], [12], [19], [23], [25], [30]). Estos problemas consisten en la toma de decisiones secuenciales con el fin de conducir al sistema hacia un comportamiento ´optimo. La elección de la mejor decisión entre las distintas alternativas (denominadas acciones o controles) requiere pensar en los efectos que cada una de ellas puede generar. Los efectos inmediatos a menudo pueden verse, pero los efectos a largo plazo no siempre son trasparentes, de tal manera que algunos controles pueden tener respuestas inmediatas muy pobres, pero a la larga pueden ser los mejores. Así que el problema consiste en escoger aquellos controles que proporcionen un adecuado balance entre los costos (´o beneficios) inmediatos y los futuros. La dificultad del decisor radica en la incertidumbre sobre el futuro ya que los resultados de los controles son aleatorios. Sistemas dinámicos que involucran la toma de decisiones secuenciales en ambiente de incertidumbre, cuya evolución hacia estados futuros sólo depende del estado y control actual, pero no de la historia pasada, son modelados mediante modelos de control markoviano (MCM). Un MCM consta de un espacio de estados, un espacio de controles, una ley de transición y una función de costo. Al inicio de cada etapa (tiempo trascurrido entre toma de decisiones consecutivas), el controlador observa el estado en que se encuentra el sistema y escoge un control factible, provocando que el sistema se mueva a otro estado de acuerdo con la ley de transición, lo cual genera un costo. Cuando la observación de estados y la aplicación de controles se hace en tiempos discretos se dice que el MCM es a tiempo discreto. Es en el contexto de estos modelos donde desarrollaremos nuestro trabajo.
dc.description.sponsorshipUniversidad de Sonora. División de Ciencias Exactas y Naturales. Programa de Posgrado en Matemáticas, 2015
dc.formatpdfes_MX
dc.languageEspañol
dc.language.isospaes_MX
dc.publisherLópez Borbón, Joaquín Humberto
dc.rightsopenAccess
dc.rights.uriopenAccesses_MX
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.rights.uriopenAccesses_MX
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.subject.classificationPROCESOS ESTOCÁSTICOS
dc.subject.lccQA274.7 .L66
dc.subject.lcshProcesos de Markov
dc.subject.lcshSoluciones numéricas
dc.titleAproximación numérica para iteración de valores en procesos de control markoviano con espacion generales y costos acotadoses_MX
dc.typeTesis de doctoradoes_MX
dc.contributor.directorVega Amaya, Óscar; 14566-
dc.degree.departmentDepartamento de Matemáticas
dc.degree.disciplineCIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA
dc.degree.grantorUniversidad de Sonora. Campus Hermosillo.
dc.degree.levelDoctorado
dc.degree.nameDoctorado en Ciencias Matemáticas
dc.identificator120808
dc.type.ctidoctoralThesises_MX
Aparece en las colecciones: Doctorado
Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
lopezborbonjoaquinhumbertod.pdf1.16 MBAdobe PDFVista previa
Visualizar/Abrir
Mostrar el registro sencillo del ítem

Page view(s)

50
checked on 22-jun-2023

Download(s)

18
checked on 22-jun-2023

Google ScholarTM

Check

Altmetric


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons