Biblioteca
Normal view MARC view ISBD view

Simulation-based optimization: Parametric optimization techniques and reinforcement learning / Abhijit Gosavi.

By: Abhijit Gosavi.
Material type: materialTypeLabelBookSeries: Publisher: New York (USA): Springer, 2015Edition: 2a ed.Description: xxvi, 508 p.: il.; 24 cm.ISBN: 9781489974907.Subject(s): PROBABILIDAD | OPTIMIZACIÓN ESTADÍSTICADDC classification: 519.3 Summary: Optimización basada en simulación: las técnicas de optimización paramétrica y el aprendizaje de refuerzo presentan el área en evolución de la optimización estática y dinámica basada en la simulación. Se cubren en detalle las técnicas de optimización sin modelo, especialmente diseñadas para los sistemas estocásticos de eventos discretos que se pueden simular pero cuyos modelos analíticos son difíciles de encontrar en formas matemáticas cerradas. Las características clave de esta segunda edición revisada y mejorada incluyen: · Amplia cobertura, a través de recetas paso a paso, de nuevos y potentes algoritmos para optimización de simulación estática, incluyendo perturbación simultánea, búsqueda adaptativa de retroceso y particiones anidadas, además de métodos tradicionales, como superficies de respuesta, búsqueda de Nelder-Mead y metadatos. heurística (recocido simulado, búsqueda tabú y algoritmos genéticos) · Cobertura detallada del marco de ecuaciones de Bellman para los procesos de decisión de Markov (MDP), junto con la programación dinámica (valor e iteración de políticas) para las métricas de rendimiento de recompensa con descuento, promedio y total. · Una consideración en profundidad de la optimización de simulación dinámica a través de diferencias temporales y el Aprendizaje de refuerzo: algoritmos Q-Learning, SARSA y R-SMART, y búsqueda de políticas, a través de API, Q-P-Learning, actores críticos y autómatas de aprendizaje · Un examen especial de la aproximación de función basada en redes neuronales para el Aprendizaje por Refuerzo, procesos de decisión semi-Markov (PMDP), problemas de horizonte finito, dos escalas de tiempo, estudios de casos para tareas industriales, códigos de computadora (colocados en línea) y pruebas de convergencia. a través de la teoría de puntos fijos de Banach y las ecuaciones diferenciales ordinarias Temático en torno a tres áreas en conjuntos de capítulos separados - Optimización de simulación estática, Aprendizaje reforzado y Análisis de convergencia - este libro está dirigido a investigadores y estudiantes en los campos de ingeniería (industrial, sistemas, electricidad e informática), operaciones, informática y aplicada matemáticas.
List(s) this item appears in: PERT
Tags from this library: No tags from this library for this title. Log in to add tags.
    average rating: 0.0 (0 votes)
Item type Current location Collection Call number Vol info Copy number Status Date due Barcode Item holds
LIBRO - MATERIAL GENERAL LIBRO - MATERIAL GENERAL Biblioteca Jorge Álvarez Lleras
Fondo general
Colección General 519.3 G676s (Browse shelf) Ej.1 1 Available 028256
Total holds: 0

Incluye indice

Optimización basada en simulación: las técnicas de optimización paramétrica y el aprendizaje de refuerzo presentan el área en evolución de la optimización estática y dinámica basada en la simulación. Se cubren en detalle las técnicas de optimización sin modelo, especialmente diseñadas para los sistemas estocásticos de eventos discretos que se pueden simular pero cuyos modelos analíticos son difíciles de encontrar en formas matemáticas cerradas.

Las características clave de esta segunda edición revisada y mejorada incluyen:

· Amplia cobertura, a través de recetas paso a paso, de nuevos y potentes algoritmos para optimización de simulación estática, incluyendo perturbación simultánea, búsqueda adaptativa de retroceso y particiones anidadas, además de métodos tradicionales, como superficies de respuesta, búsqueda de Nelder-Mead y metadatos. heurística (recocido simulado, búsqueda tabú y algoritmos genéticos)

· Cobertura detallada del marco de ecuaciones de Bellman para los procesos de decisión de Markov (MDP), junto con la programación dinámica (valor e iteración de políticas) para las métricas de rendimiento de recompensa con descuento, promedio y total.

· Una consideración en profundidad de la optimización de simulación dinámica a través de diferencias temporales y el Aprendizaje de refuerzo: algoritmos Q-Learning, SARSA y R-SMART, y búsqueda de políticas, a través de API, Q-P-Learning, actores críticos y autómatas de aprendizaje

· Un examen especial de la aproximación de función basada en redes neuronales para el Aprendizaje por Refuerzo, procesos de decisión semi-Markov (PMDP), problemas de horizonte finito, dos escalas de tiempo, estudios de casos para tareas industriales, códigos de computadora (colocados en línea) y pruebas de convergencia. a través de la teoría de puntos fijos de Banach y las ecuaciones diferenciales ordinarias

Temático en torno a tres áreas en conjuntos de capítulos separados - Optimización de simulación estática, Aprendizaje reforzado y Análisis de convergencia - este libro está dirigido a investigadores y estudiantes en los campos de ingeniería (industrial, sistemas, electricidad e informática), operaciones, informática y aplicada matemáticas.

There are no comments for this item.

Log in to your account to post a comment.

Click on an image to view it in the image viewer