Please use this identifier to cite or link to this item: http://hdl.handle.net/20.500.12984/6881
Full metadata record
DC FieldValueLanguage
dc.contributor.authorLópez Borbón, Joaquín Humberto-
dc.creatorLópez Borbón, Joaquín Humberto; 61702-
dc.date.issued2015-03-21-
dc.identifier.isbn1736599-
dc.identifier.urihttp://hdl.handle.net/20.500.12984/6881-
dc.descriptionTesis de doctorado en ciencias matemáticas
dc.description.abstractUna amplia gama de problemas en economía, investigación de operaciones, explotación de recursos renovables y no renovables, etc., son modelados como problemas de optimización de sistemas estocásticos que evolucionan en el tiempo ([4], [6], [10], [11], [12], [19], [23], [25], [30]). Estos problemas consisten en la toma de decisiones secuenciales con el fin de conducir al sistema hacia un comportamiento ´optimo. La elección de la mejor decisión entre las distintas alternativas (denominadas acciones o controles) requiere pensar en los efectos que cada una de ellas puede generar. Los efectos inmediatos a menudo pueden verse, pero los efectos a largo plazo no siempre son trasparentes, de tal manera que algunos controles pueden tener respuestas inmediatas muy pobres, pero a la larga pueden ser los mejores. Así que el problema consiste en escoger aquellos controles que proporcionen un adecuado balance entre los costos (´o beneficios) inmediatos y los futuros. La dificultad del decisor radica en la incertidumbre sobre el futuro ya que los resultados de los controles son aleatorios. Sistemas dinámicos que involucran la toma de decisiones secuenciales en ambiente de incertidumbre, cuya evolución hacia estados futuros sólo depende del estado y control actual, pero no de la historia pasada, son modelados mediante modelos de control markoviano (MCM). Un MCM consta de un espacio de estados, un espacio de controles, una ley de transición y una función de costo. Al inicio de cada etapa (tiempo trascurrido entre toma de decisiones consecutivas), el controlador observa el estado en que se encuentra el sistema y escoge un control factible, provocando que el sistema se mueva a otro estado de acuerdo con la ley de transición, lo cual genera un costo. Cuando la observación de estados y la aplicación de controles se hace en tiempos discretos se dice que el MCM es a tiempo discreto. Es en el contexto de estos modelos donde desarrollaremos nuestro trabajo.
dc.description.sponsorshipUniversidad de Sonora. División de Ciencias Exactas y Naturales. Programa de Posgrado en Matemáticas, 2015
dc.formatpdfes_MX
dc.languageEspañol
dc.language.isospaes_MX
dc.publisherLópez Borbón, Joaquín Humberto
dc.rightsopenAccess
dc.rights.uriopenAccesses_MX
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.rights.uriopenAccesses_MX
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.subject.classificationPROCESOS ESTOCÁSTICOS
dc.subject.lccQA274.7 .L66
dc.subject.lcshProcesos de Markov
dc.subject.lcshSoluciones numéricas
dc.titleAproximación numérica para iteración de valores en procesos de control markoviano con espacion generales y costos acotadoses_MX
dc.typeTesis de doctoradoes_MX
dc.contributor.directorVega Amaya, Óscar; 14566-
dc.degree.departmentDepartamento de Matemáticas
dc.degree.disciplineCIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA
dc.degree.grantorUniversidad de Sonora. Campus Hermosillo.
dc.degree.levelDoctorado
dc.degree.nameDoctorado en Ciencias Matemáticas
dc.identificator120808
dc.type.ctidoctoralThesises_MX
Appears in Collections:Doctorado
Files in This Item:
File Description SizeFormat 
lopezborbonjoaquinhumbertod.pdf1.16 MBAdobe PDFThumbnail
View/Open
Show simple item record

Page view(s)

50
checked on Jun 22, 2023

Download(s)

18
checked on Jun 22, 2023

Google ScholarTM

Check

Altmetric


This item is licensed under a Creative Commons License Creative Commons