000 03058cam a22002417i 4500
999 _c21074
_d21074
001 18286605
005 20190712162718.0
007 ta
008 140902t20152015us a b 001 0 eng d
020 _a9781489974907
082 0 4 _a519.3
_bG676s
_223
100 _aAbhijit Gosavi
_940984
245 0 0 _aSimulation-based optimization:
_bParametric optimization techniques and reinforcement learning /
_cAbhijit Gosavi.
250 _a2a ed.
260 _aNew York (USA):
_bSpringer,
_c2015
300 _axxvi, 508 p.:
_bil.;
_c24 cm.
490 1 _aOperations research/computer science interfaces series,
_vvolumen 55.
504 _aIncluye indice
520 _aOptimización basada en simulación: las técnicas de optimización paramétrica y el aprendizaje de refuerzo presentan el área en evolución de la optimización estática y dinámica basada en la simulación. Se cubren en detalle las técnicas de optimización sin modelo, especialmente diseñadas para los sistemas estocásticos de eventos discretos que se pueden simular pero cuyos modelos analíticos son difíciles de encontrar en formas matemáticas cerradas. Las características clave de esta segunda edición revisada y mejorada incluyen: · Amplia cobertura, a través de recetas paso a paso, de nuevos y potentes algoritmos para optimización de simulación estática, incluyendo perturbación simultánea, búsqueda adaptativa de retroceso y particiones anidadas, además de métodos tradicionales, como superficies de respuesta, búsqueda de Nelder-Mead y metadatos. heurística (recocido simulado, búsqueda tabú y algoritmos genéticos) · Cobertura detallada del marco de ecuaciones de Bellman para los procesos de decisión de Markov (MDP), junto con la programación dinámica (valor e iteración de políticas) para las métricas de rendimiento de recompensa con descuento, promedio y total. · Una consideración en profundidad de la optimización de simulación dinámica a través de diferencias temporales y el Aprendizaje de refuerzo: algoritmos Q-Learning, SARSA y R-SMART, y búsqueda de políticas, a través de API, Q-P-Learning, actores críticos y autómatas de aprendizaje · Un examen especial de la aproximación de función basada en redes neuronales para el Aprendizaje por Refuerzo, procesos de decisión semi-Markov (PMDP), problemas de horizonte finito, dos escalas de tiempo, estudios de casos para tareas industriales, códigos de computadora (colocados en línea) y pruebas de convergencia. a través de la teoría de puntos fijos de Banach y las ecuaciones diferenciales ordinarias Temático en torno a tres áreas en conjuntos de capítulos separados - Optimización de simulación estática, Aprendizaje reforzado y Análisis de convergencia - este libro está dirigido a investigadores y estudiantes en los campos de ingeniería (industrial, sistemas, electricidad e informática), operaciones, informática y aplicada matemáticas.
650 0 _aPROBABILIDAD
_923937
650 0 _9248
_aOPTIMIZACIÓN ESTADÍSTICA
942 _2ddc
_cBK