Explorando el papel de la fidelidad del simulador en la validación de la seguridad de sistemas autónomos basados ​​en el aprendizaje

Ali Baheri

Publicado por primera vez:27 de noviembre de 2023

Abstracto

Este artículo presenta ideas clave de la charla New Faculty Highlights impartida en AAAI 2023, centrándose en el papel crucial de los simuladores de fidelidad en la evaluación de seguridad de componentes habilitados para el aprendizaje ( LEC ) dentro de sistemas críticos para la seguridad. Con la creciente integración de LEC en sistemas críticos para la seguridad, se ha intensificado la necesidad de una verificación rigurosa de la seguridad y la confiabilidad. La garantía de seguridad va más allá del mero cumplimiento y forma un elemento fundamental en el despliegue de LEC para reducir los riesgos y garantizar un funcionamiento sólido. En este campo en evolución, las simulaciones se han convertido en una herramienta indispensable y cada vez se reconoce más el papel de la fidelidad como parámetro crítico. Al emplear simulaciones de multifidelidad que equilibran las necesidades de precisión y eficiencia computacional, están surgiendo nuevos caminos hacia una validación integral de la seguridad. Este artículo profundiza en nuestra investigación reciente, enfatizando el papel de la fidelidad de la simulación en la validación de LEC en sistemas críticos para la seguridad.

INTRODUCCIÓN

El aumento de componentes habilitados para el aprendizaje ( LEC ) en sistemas críticos para la seguridad, como los que se encuentran en los sectores de transporte, atención médica, energía, aviación y manufactura, subraya la necesidad urgente de una verificación rigurosa de su seguridad y confiabilidad (Seshia, Sadigh y Sastry 2016 ; Dennis, Dixon y Fisher 2022 ; Yu et al. 2021 ; Razzaghi et al. 2022 ; Dogan y Birant 2021 ). Con el aumento continuo de la complejidad de los sistemas, garantizar su funcionamiento seguro se convierte en un desafío en constante evolución (Paoletti y Woodcock 2023 ). Las complejas interacciones entre varios componentes, la imprevisibilidad de las interfaces hombre-máquina y la diversidad de condiciones ambientales contribuyen a esta complejidad. Para mitigar estas dificultades, la validación basada en simulación ha surgido como una herramienta formidable, que proporciona un entorno libre de riesgos para la evaluación integral de LEC en un espectro de escenarios (Kapinski et al. 2016 ). Esta metodología permite un análisis en profundidad del comportamiento de los sistemas autónomos, facilitando la identificación de posibles violaciones de seguridad y ofreciendo una vía para desarrollar contramedidas proactivas.

Se han desarrollado y utilizado una variedad de herramientas de validación en diferentes comunidades. Estas herramientas a menudo emplean métodos que van desde pruebas de software tradicionales (Hynninen et al. 2018 ) hasta técnicas de validación basadas en simulación más avanzadas, cada una de las cuales atiende a diferentes aspectos de la verificación de seguridad y confiabilidad. Los métodos tradicionales de prueba de software, como las pruebas unitarias (Daka y Fraser 2014 ) y las pruebas de integración (Rehman et al. 2006 ), forman la columna vertebral de muchos procesos de validación de seguridad, proporcionando un enfoque estructurado para identificar y corregir errores dentro de componentes específicos. Sin embargo, la creciente complejidad de los sistemas basados ​​en el aprendizaje a menudo requiere técnicas más sofisticadas. Esto ha llevado al aumento de la validación basada en simulación, en la que sistemas completos se modelan y se someten a una multitud de escenarios para medir su respuesta y rendimiento. Estas simulaciones pueden recrear situaciones que podrían ser peligrosas o poco prácticas de probar en la vida real, lo que permite una evaluación integral sin poner en riesgo equipos reales o vidas humanas. Además, técnicas como la verificación formal (Woodcock et al. 2009 ; Deshmukh y Sankaranarayanan 2019 ; Mitra 2021 ), la verificación de modelos (Plaku, Kavraki y Vardi 2013 ; Baier y Katoen 2008 ) y el análisis de árboles de fallas (Ruijters y Stoelinga 2015 ) han encontrado prominencia en dominios críticos para la seguridad. La verificación formal utiliza lógica matemática para demostrar la exactitud de un sistema, mientras que la verificación de modelos explora sistemáticamente todos los estados posibles de un modelo para validar propiedades específicas. El análisis del árbol de fallas, por otro lado, ayuda a comprender las diversas rutas de falla dentro de un sistema, lo que permite tomar medidas proactivas para prevenir fallas catastróficas.

Las pruebas basadas en simulación representan un cambio hacia el aprovechamiento de la potencia computacional y los algoritmos inteligentes para validar sistemas complejos, particularmente aquellos que se encuentran en entornos críticos para la seguridad. A diferencia de las pruebas tradicionales, donde pueden ser necesarios prototipos físicos y experimentos del mundo real, las pruebas basadas en simulación se realizan en un entorno virtual controlado. Este enfoque permite probar escenarios que de otro modo serían peligrosos, costosos o poco prácticos de crear. Un subconjunto particularmente intrigante de pruebas basadas en simulación son los métodos de falsificación. En esencia, la falsificación busca descubrir las condiciones bajo las cuales un sistema podría fallar. En lugar de intentar demostrar que un sistema es siempre seguro (una tarea que puede ser excesivamente compleja o incluso imposible), la falsificación pretende encontrar escenarios en los que se violen las propiedades de seguridad.

Las herramientas de software, incluidas S-TaLiRo, Breach, C2E2 y DryVR, se han vuelto fundamentales en el campo de la falsificación de sistemas, y representan avances cruciales en las pruebas basadas en simulación (Fainekos et al. 2012 ; Annpureddy et al. 2011 ; Donzé 2010 ; Duggirala) . et al. 2015 ; Qi et al. 2018 ). Estas herramientas son parte de una evolución más amplia que abarca técnicas que van desde algoritmos basados ​​en búsqueda hasta aprendizaje automático y enfoques basados ​​en datos, todos destinados a mejorar la eficacia de los métodos de falsificación (Ramezani et al. 2021; Zhang et al. 2021 ; Zhang , Arcaini y Hasuo 2020 ; Deshmukh et al. 2015 ; Ernst et al. 2021 ; Mathesen, Pedrielli y Fainekos 2021 ; Akazaki et al. 2018 ; Qin et al. 2019 ; Zhang, Hasuo y Arcaini 2019 ). A pesar de estos avances, los desafíos de la falsificación basada en simulación siguen siendo multifacéticos. Un desafío crítico radica en la complejidad inherente al modelado y simulación de sistemas complejos. La capacidad de una simulación para reflejar con precisión los comportamientos del mundo real depende de una multitud de factores, incluida la fidelidad de la simulación misma. La fidelidad se refiere al grado de exactitud con el que una simulación representa el sistema real y juega un papel vital en la efectividad de los métodos de falsificación (Shahrooei, Kochenderfer y Baheri 2023 ; Beard y Baheri 2022 ; Baheri 2023 ). Las simulaciones de baja fidelidad, aunque computacionalmente menos exigentes, pueden carecer de la precisión necesaria para descubrir modos de falla sutiles o complejos. Por otro lado, las simulaciones de alta fidelidad ofrecen una representación más precisa y detallada, pero a menudo conllevan un costo computacional significativo, lo que limita su escalabilidad y aplicabilidad en escenarios de prueba extensos. Por lo tanto, la elección de la fidelidad presenta un desafío matizado, que requiere un equilibrio entre eficiencia computacional y precisión. Lograr este equilibrio requiere una comprensión profunda del sistema que se está probando, las propiedades de seguridad específicas en cuestión y el impacto potencial de las imprecisiones en el proceso de validación general.

En este artículo profundizamos en nuestras aportaciones sobre la validación de la seguridad por multifidelidad de los sistemas de control basados ​​en el aprendizaje. En nuestro contexto, los LEC se refieren a segmentos específicos del sistema de control que incorporan modelos de aprendizaje automático para mejorar la adaptabilidad y el rendimiento del sistema. Estos componentes están diseñados para aprender de los datos, ya sea mediante capacitación fuera de línea o adaptación en línea, lo que permite que el sistema responda mejor a entornos complejos y dinámicos que los métodos de control tradicionales podrían no abordar adecuadamente. Nuestra investigación se estructura en torno a dos temas que abordan directamente los desafíos mencionados anteriormente, con el objetivo de ampliar los límites de las metodologías existentes.

“Falsificación basada en simulación de multifidelidad “. Proponemos un enfoque que emplea optimización bayesiana de multifidelidad para la falsificación de LEC en sistemas críticos para la seguridad (Shahrooei, Kochenderfer y Baheri 2023 ). La falsificación se refiere al proceso de identificación de configuraciones o escenarios específicos en los que estos sistemas violan las propiedades de seguridad, un paso esencial para garantizar su robustez y confiabilidad. Nuestro método propuesto aplica la optimización bayesiana de multifidelidad para minimizar la cantidad de simulaciones de alta fidelidad necesarias para descubrir tales violaciones, reduciendo así significativamente los gastos computacionales. A través de una serie de estudios de casos integrales, hemos demostrado que nuestro enfoque proporciona una solución eficiente para acelerar la validación de la seguridad de las LEC en las políticas de control.

Falsificación conjunta y optimización de la configuración de fidelidad . Formalizamos un marco teórico para la validación de seguridad de LEC , integrando procesos de falsificación y optimización de la fidelidad del simulador (Baheri y Kochenderfer 2023 ). Nuestro método propuesto realiza sinérgicamente las tareas de falsificar los LEC y ajustar la configuración de fidelidad del simulador. Este enfoque conjunto nos permite identificar de manera eficiente configuraciones desafiantes para un sistema de control habilitado para el aprendizaje, manteniendo al mismo tiempo la eficiencia de los recursos computacionales. Este marco prioriza áreas de alto riesgo y ajusta dinámicamente la fidelidad del simulador en respuesta al escenario específico que se está evaluando. Este proceso de ajuste dinámico facilita un proceso de prueba más específico y eficiente. Un atributo clave de este enfoque es su potencial de generalización, donde el conocimiento adquirido en escenarios probados se aprovecha para acelerar y mejorar la precisión de la validación de seguridad para situaciones invisibles.

FALSIFICACIÓN IMPULSADA POR SIMULACIÓN DE MULTIFIDELIDAD

Garantizar la seguridad en los LEC es un requisito previo fundamental, especialmente en aplicaciones donde el más mínimo error puede provocar una falla catastrófica. La complejidad de los LEC , junto con la naturaleza dinámica e impredecible de los escenarios operativos del mundo real, amplifica el desafío de identificar posibles violaciones de las reglas de seguridad. Esta complejidad requiere metodologías que vayan más allá de las técnicas de verificación tradicionales. Al reconocer estos desafíos, nuestra investigación propone un enfoque de falsificación de multifidelidad. Este método está diseñado para aprovechar simulaciones en diferentes niveles de fidelidad, combinando la eficiencia de simulaciones de menor fidelidad con la precisión de las de mayor fidelidad. A diferencia de los métodos convencionales, nuestro enfoque no depende únicamente de simulaciones de alta fidelidad, sino de transiciones dinámicas entre diferentes niveles de fidelidad.

La tarea de descubrir modos de falla dentro de los LEC puede formularse como un problema de optimización. El objetivo es localizar sistemáticamente los casos en los que se incumplen las especificaciones de seguridad. En nuestro enfoque, utilizamos la optimización bayesiana para guiar estos contraejemplos de orientación de búsqueda. La optimización bayesiana es una técnica de optimización global conocida por su eficiencia en la optimización de funciones costosas y ruidosas (Frazier 2018 ). Se ha utilizado ampliamente en varios dominios, incluido el ajuste de hiperparámetros en modelos de aprendizaje automático (Victoria y Maragatham 2021 ), teoría de control (Baheri et al. 2017 ; Baheri, Deese y Vermillion 2017 ), planificación (Baheri y Vermillion 2020 ), robótica. (Calandra et al. 2014 ), y diseño de materiales (Zhang, Apley y Chen 2020 ), entre otros.

Un elemento central de nuestro método es la integración de simulaciones en diferentes niveles de fidelidad. Este enfoque de multifidelidad se basa en la correlación de los valores de robustez de las especificaciones en diferentes simuladores, cada uno de los cuales opera con un nivel de fidelidad distinto. El valor de robustez de la especificación proporciona una medida para medir en qué medida la trayectoria de un sistema cumple o viola las especificaciones de seguridad. La correlación se materializa en una formulación matemática que cuantifica la relación entre varios niveles de fidelidad (Le Gratiet y Garnier 2014 ). Evaluamos la efectividad de la optimización bayesiana de multifidelidad a través de tres políticas de control diferentes habilitadas para el aprendizaje, centrándonos en su potencial para mejorar el descubrimiento de contraejemplos en comparación con la optimización bayesiana estándar y la búsqueda aleatoria (Shahrooei, Kochenderfer y Baheri 2023 ). Los hallazgos empíricos extraídos de nuestros estudios de caso resaltan la efectividad de la optimización bayesiana de multifidelidad cuando se enfrenta a la tarea de falsificación. En particular, el marco de falsificación de multifidelidad permitió claramente una reducción en el número de experimentos computacionalmente costosos en simuladores de alta fidelidad. En cada uno de los estudios de caso examinados, el algoritmo demostró consistentemente su efectividad, logrando ahorros computacionales de hasta el 24% en escenarios específicos. Esto resalta la capacidad del método para aprovechar hábilmente el potencial de las simulaciones de baja fidelidad, optimizando así la asignación de recursos y minimizando la dependencia de evaluaciones de alta fidelidad más costosas.

Sobre la base de nuestro estudio original, exploramos la optimización adicional de nuestro proceso de falsificación basado en simulación incorporando un nivel intermedio de fidelidad de simulación. Nuestro marco inicial empleó simuladores de baja y alta fidelidad junto con la optimización bayesiana, logrando un equilibrio entre eficiencia computacional y precisión en la validación de seguridad. Al reconocer las compensaciones inherentes entre el costo computacional y la precisión dentro del marco de dos fidelidades, buscamos proponer un simulador de fidelidad media en nuestra configuración existente.

Nuestros análisis empíricos de varios estudios de casos resaltaron la eficacia del enfoque de triple fidelidad. En particular, el marco de triple fidelidad propuesto fue consistentemente más efectivo en la detección de contraejemplos en comparación con la optimización bayesiana tradicional de alta fidelidad, logrando esto a un costo computacional similar. Una de las principales contribuciones de nuestro estudio reciente es el análisis en profundidad de los costos asociados con varios niveles de fidelidad. El estudio enfatiza el papel crucial que juegan los costos del simulador en el proceso de falsificación de la multifidelidad. Estos costos, que efectivamente dictan los gastos computacionales de los simuladores en diferentes niveles de fidelidad, determinan cuándo pasar de un nivel de fidelidad a otro. Una diferencia significativa en los costos entre las simulaciones de baja y alta fidelidad puede llevar a una utilización más frecuente del simulador de baja fidelidad, lo que garantiza la eficiencia computacional. Sin embargo, este enfoque en el ahorro de costos podría comprometer la confiabilidad de los contraejemplos identificados. En consecuencia, comprender y contabilizar con precisión los costos del simulador es fundamental para refinar y optimizar el marco de falsificación de fidelidad múltiple. Además, analizamos la compensación entre costo y precisión. En particular, nuestros hallazgos empíricos indican que el proceso de falsificación de multifidelidad no solo mitiga la carga computacional relacionada con la identificación de contraejemplos, sino que también aísla eficientemente los más críticos entre ellos.

La introducción del nivel de fidelidad medio añadió complejidad al proceso de optimización. Demostramos empíricamente que, si bien esta adición puede ser beneficiosa, su efectividad depende de su similitud con los niveles de baja o alta fidelidad. Si la fidelidad media es demasiado similar a la fidelidad baja, es posible que no ofrezca ventajas significativas. Por el contrario, si se alinea más con la alta fidelidad, podría proporcionar resultados de alta calidad potencialmente a un costo reducido. La conclusión clave es la importancia de calibrar cuidadosamente esta fidelidad media para un rendimiento óptimo.

Las implicaciones de esta metodología son de gran alcance. Al capitalizar inteligentemente la eficiencia de los simuladores de baja fidelidad y combinarlos con la precisión de los de alta fidelidad, este enfoque reduce la dependencia de simulaciones más intensivas desde el punto de vista computacional. Quizás lo más convincente es que la combinación de niveles de baja y alta fidelidad en un marco único y coherente permite la extracción de más información crítica para la seguridad por simulación. Por lo tanto, esto contribuye a la mitigación de riesgos en la fase previa al despliegue de los LEC utilizados en aplicaciones críticas para la seguridad.

FALSIFICACIÓN CONJUNTA Y OPTIMIZACIÓN DE LOS AJUSTES DE FIDELIDAD

En nuestro trabajo anterior, la atención se centró en la falsificación de la multifidelidad, donde se ajustaron diferentes configuraciones de fidelidad en función de los requisitos del proceso de falsificación (Shahrooei, Kochenderfer y Baheri 2023 ; Beard y Baheri 2022 ). Este enfoque facilitó la falsificación de los LEC , descubriendo trayectorias de falla utilizando simulaciones de baja y alta fidelidad. Sin embargo, los ajustes se realizaron de manera reactiva, respondiendo a las necesidades del proceso de falsificación en lugar de elaborar estrategias proactivas para optimizar la configuración de fidelidad de la simulación. Aunque este enfoque arrojó resultados importantes, su adaptabilidad y eficiencia fueron restringidas. En particular, la falta de planificación proactiva limitó nuestra capacidad para navegar sistemáticamente en el equilibrio entre la fidelidad de la simulación y los costos computacionales. Además, dejó espacio para que los desafíos potenciales en la exploración de regiones de falla siguieran sin abordarse, debido a la falta de optimización estratégica y proactiva de los ajustes de fidelidad de la simulación. Por lo tanto, en nuestra investigación en curso, hemos pasado de un marco reactivo de falsificación de multifidelidad a una falsificación conjunta proactiva y optimización de la configuración de fidelidad. Este cambio de paradigma reúne los procesos de falsificación y la optimización de la fidelidad de la simulación de una manera más holística. El objetivo ahora no es simplemente adaptar los ajustes de fidelidad basados ​​en el proceso de falsificación, sino también optimizar estos ajustes junto con la falsificación. Este enfoque permite una asignación más eficiente de recursos computacionales, así como la capacidad de abordar de manera más efectiva los desafíos potenciales en la exploración de regiones de falla.

La integración de la optimización de la configuración de fidelidad en el proceso de falsificación representa un avance profundo en la validación de la seguridad de las LEC . Al perfeccionar la forma en que abordamos el descubrimiento de fallas potenciales, esta metodología mejora la eficiencia de explorar una amplia gama de escenarios de fallas. El marco no sólo acelera la identificación de modos de falla sino que también amplifica la adaptabilidad del sistema para responder a diversas condiciones. Esta estrategia de fusionar la falsificación y la optimización del ajuste de fidelidad tiene el potencial de reinventar el proceso de validación basado en simulación. Lo hace introduciendo un espectro más amplio de modos de falla, ofreciendo así un medio más exhaustivo para validar los sistemas habilitados para el aprendizaje.

Nuestra principal contribución radica en formalizar un enfoque conjunto para la optimización de la configuración de falsificación y fidelidad, dentro de un marco de optimización de dos niveles (Sinha, Malo y Deb 2017 ). Esta formulación combina las pruebas de LEC en políticas de control con el refinamiento iterativo de la configuración del simulador para minimizar las discrepancias entre las trayectorias (de falla) obtenidas de dos simuladores diferentes con diferentes niveles de fidelidad. En el centro de esta formulación hay dos bucles: el bucle interno, responsable de la falsificación, y el bucle externo, responsable de la optimización de la configuración de fidelidad. El bucle interno aplica la optimización bayesiana y actúa como mecanismo de falsificación. Este algoritmo de optimización busca sistemáticamente trayectorias de fallas potenciales en simuladores de baja y alta fidelidad, representando las condiciones específicas bajo las cuales el sistema se desvía de las especificaciones de seguridad.

Mientras que el bucle interno se centra en identificar las trayectorias de falla, el bucle externo simultáneamente ajusta la configuración de fidelidad del simulador de baja fidelidad. Específicamente, el objetivo principal aquí es minimizar la discrepancia entre las trayectorias de falla producidas por los simuladores de baja y alta fidelidad. Esto se logra ajustando los parámetros dentro del simulador de baja fidelidad para que sus salidas se alineen más estrechamente con las del simulador de alta fidelidad. El alcance de esta discrepancia se cuantifica utilizando una medida como el error cuadrático medio, que proporciona una medida matemática de la diferencia entre las trayectorias de falla de los dos simuladores.

En el proceso de falsificación conjunta y optimización de la configuración de fidelidad, los principios de metaaprendizaje desempeñan un papel fundamental para lograr la generalización a eventos invisibles (Finn, Abbeel y Levine 2017 ). Al entrenar el modelo en un espectro diverso de tareas, aprende patrones compartidos que permiten una adaptación efectiva a situaciones invisibles. En nuestro enfoque, el ajuste de fidelidad refina la alineación entre los simuladores de baja y alta fidelidad, fundamentando el aprendizaje en una representación más realista del mundo. Este enfoque, donde la falsificación, el ajuste de la fidelidad y el aprendizaje entre tareas interactúan dinámicamente, crea un proceso de aprendizaje que permite al modelo extraer y reforzar patrones compartidos que no solo son específicos de la tarea sino también ampliamente aplicables, fomentando así la capacidad de generalización a eventos invisibles.

Para proporcionar una base teórica para este enfoque, propusimos un conjunto de teoremas que iluminan aspectos importantes de la falsificación conjunta y la optimización de la configuración de fidelidad (Baheri y Kochenderfer 2023 ). Estos abarcan un análisis de sensibilidad, que determina en qué medida las alteraciones en la configuración del simulador influyen en las trayectorias de falla identificadas; una investigación de la complejidad de la muestra; una revisión de las propiedades de convergencia, asegurando que nuestro enfoque se alinee con las condiciones necesarias para una convergencia óptima de la solución; y una exploración de la interacción entre los bucles de optimización internos y externos. Estos resultados teóricos sientan las bases para la falsificación conjunta y la optimización de la configuración de fidelidad.

PERSPECTIVAS Y DIRECCIONES FUTURAS

A medida que continuamos profundizando en la era de los LEC dentro de aplicaciones críticas para la seguridad, se vuelve crucial diseñar metodologías de validación eficientes. Si bien la falsificación basada en simulaciones ha demostrado su eficacia, existe un amplio margen para explorar territorios inexplorados que podrían revolucionar este campo. Esta sección intenta arrojar luz sobre posibles direcciones futuras de investigación en falsificación impulsada por simulación (multifidelidad), centrándose específicamente en cómo estas técnicas pueden aumentar la evaluación de LEC en aplicaciones críticas para la seguridad.

Selección de fidelidad adaptativa . Las técnicas de optimización de multifidelidad han ganado importancia por su capacidad para aumentar la eficiencia del proceso de falsificación. Estas técnicas aprovechan varios niveles de fidelidad de la simulación, lo que da como resultado un equilibrio entre eficiencia computacional, diversidad de escenarios y precisión. Los enfoques actuales suelen recurrir a la asignación de recursos predefinida entre diferentes niveles de fidelidad. Sin embargo, investigaciones futuras podrían canalizar esfuerzos hacia el diseño de técnicas adaptativas que asigne recursos dinámicamente en función de los resultados de la simulación en curso. Este enfoque podría conducir al desarrollo de sistemas inteligentes que pasen de simulaciones de baja fidelidad a simulaciones de alta fidelidad cuando se identifica una región potencial de modo de falla.

Aprovechando la computación paralela y distribuida . La llegada de infraestructuras informáticas paralelas y distribuidas presenta un camino apasionante por explorar. La integración de estas tecnologías con técnicas de optimización de multifidelidad podría permitir la ejecución simultánea de numerosas simulaciones. Esto aceleraría drásticamente el proceso de falsificación y facilitaría una exploración más amplia del espacio de parámetros en un marco de tiempo reducido.

Enfoques de validación híbridos . Los métodos híbridos que combinan la falsificación basada en simulación con otras técnicas de validación, como la verificación formal y las pruebas del mundo real, podrían ofrecer un enfoque integral de evaluación de la seguridad. Estas metodologías híbridas podrían maximizar las fortalezas de cada técnica y mitigar sus debilidades. Por ejemplo, la falsificación basada en simulación podría usarse para identificar posibles modos de falla, que luego podrían examinarse con mayor detalle mediante una verificación formal. Los escenarios más críticos podrían someterse posteriormente a pruebas en el mundo real para validar los resultados de la simulación y la verificación formal.

Técnicas de simulación híbrida y gemelos digitales . El desarrollo de técnicas de simulación híbridas puede lograr un equilibrio óptimo entre el coste computacional y la complejidad ambiental. Estas técnicas pueden emplear simulaciones de menor fidelidad durante las etapas iniciales de validación, seguidas de simulaciones de mayor fidelidad que replican escenarios complejos del mundo real. El concepto de Digital Twins Batty ( 2018 ), réplicas virtuales de alta fidelidad de sistemas físicos, cuando se combina con datos en tiempo real y algoritmos de aprendizaje, podría ofrecer una combinación única de los dominios físico y simulado. Esta integración puede allanar el camino para el desarrollo y validación de LEC más seguros .

“Integración de realidad mixta para una falsificación mejorada “. La incorporación de realidad mixta (combinando datos del mundo real en entornos de simulación) puede proporcionar una representación enriquecida de escenarios y entornos del mundo real. Podría mejorar el descubrimiento de modos de falla al tener en cuenta los datos complejos y no estructurados que normalmente se encuentran en situaciones del mundo real. Sin embargo, integrar datos a tan gran escala en el simulador presenta importantes desafíos técnicos. Esta área requiere una investigación exhaustiva para diseñar algoritmos capaces de procesar estos datos y facilitar un proceso de falsificación más eficaz.

Interpretabilidad y transparencia en la falsificación basada en simulación . Con la creciente complejidad de los modelos de aprendizaje automático, garantizar la transparencia y la interpretabilidad de las decisiones es cada vez más importante en aplicaciones críticas para la seguridad (Carvalho, Pereira y Cardoso 2019 ). Para abordar esto en el contexto de la falsificación impulsada por simulación, el trabajo futuro podría centrarse en desarrollar técnicas de visualización avanzadas para estas simulaciones. Estas herramientas no sólo ilustrarían cómo diferentes escenarios conducen a diferentes resultados, sino que también mostrarían cómo las alteraciones en el comportamiento del sistema basado en el aprendizaje pueden mitigar los modos de falla. Por lo tanto, una mayor transparencia puede guiar a los desarrolladores y a las partes interesadas a tomar decisiones más informadas durante el proceso de validación de la seguridad. Este nivel de interpretabilidad también puede reforzar la confianza en el uso de LEC en aplicaciones críticas para la seguridad, ya que una comprensión clara de por qué un sistema falla o pasa una prueba de falsificación puede ser fundamental para evaluar su preparación para el despliegue.

RESUMEN

En este artículo, hemos explorado el papel importante que desempeña la fidelidad en los simuladores en la validación de seguridad de los LEC utilizados en aplicaciones críticas para la seguridad. Describimos dos direcciones de investigación centradas en profundizar nuestra comprensión del papel de la fidelidad, cada una de las cuales contribuye a una perspectiva novedosa sobre cómo abordar este problema. La primera dirección propuso un enfoque para la falsificación basada en simulación de multifidelidad, donde el objetivo es utilizar estratégicamente diferentes niveles de fidelidad. Al hacerlo, podemos reducir significativamente la cantidad de simulaciones computacionalmente costosas necesarias para la evaluación de seguridad de los LEC . En la segunda dirección, profundizamos en un enfoque para la falsificación conjunta y la optimización de la configuración de fidelidad. Este enfoque sintetiza el proceso de falsificación de propiedades de seguridad con la optimización de los niveles de fidelidad dentro del entorno de simulación. Permite una exploración más sutil del espacio de diseño, donde el ajuste de la configuración de fidelidad está alineado con el objetivo de minimizar las discrepancias entre simuladores de baja y alta fidelidad. Más allá de nuestras contribuciones principales, también brindamos una perspectiva sobre el futuro de esta área de investigación, identificando posibles avances y desafíos que pueden surgir a medida que el campo continúa evolucionando.

EXPRESIONES DE GRATITUD

Esta investigación fue apoyada en parte por la Fundación Nacional de Ciencias (NSF) bajo el Premio No. 2132060 y la Administración Federal de Aviación (FAA) bajo el Contrato No. 692M15-21-T-00022.

DECLARACION DE CONFLICTO DE INTERES

El autor declara que no hay ningún conflicto.

Biografía

  • Ali Baheri es profesor asistente de Ingeniería Mecánica en el Instituto de Tecnología de Rochester. Antes de unirse al RIT, fue profesor visitante en la Universidad de Stanford. Antes de eso, se desempeñó como profesor asistente (en el área de investigación) en la Universidad de West Virginia. Recibió su doctorado. de la Universidad de Carolina del Norte en Charlotte en 2018. Su laboratorio se centra en la investigación en la intersección de la autonomía, los controles y el aprendizaje automático, con el objetivo final de promover sistemas autónomos seguros, certificados y eficientes.

Leave a Reply

Your email address will not be published. Required fields are marked *