Browsing by Subject "PROBABILIDAD"
Now showing 1 - 12 of 12
Results Per Page
Sort Options
tesis de doctorado.listelement.badge Automated attack planning(c2012) Sarraute, Carlos; Richarte, Gerardo; Bonelli, Eduardo"Penetration Testing (short pentesting) is a methodology for assessing network security, by generating and executing possible attacks exploiting known vulnerabilities of operating systems and applications. Doing so automatically allows for regular and systematic testing without a prohibitive amount of human labor, and makes pentesting more accessible to non-experts. A key question then is how to automatically generate the attacks. A natural way to address this issue is as an attack planning problem. In this thesis, we are concerned with the specific context of regular automated pentesting, and use the term \attack planning" in that sense. The following three research directions are investigated. First, we introduce a conceptual model of computer network attacks, based on an analysis of the penetration testing practices. We study how this attack model can be represented in the PDDL language. Then we describe an implementation that integrates a classical planner with a penetration testing tool. This allows us to automatically generate attack paths for pentesting scenarios, and to validate these attacks by executing the corresponding actions -including exploits- against the real target network. We also present another tool that we developed in order to effectively test the output of the planner: a simulation platform created to design and simulate cyber-attacks against large arbitrary target scenarios. Secondly, we present a custom probabilistic planner. In this part, we contribute a planning model that captures the uncertainty about the results of the actions, which is modeled as a probability of success of each action. We present efficient planning algorithms, specifically designed for this problem, that achieve industrialscale runtime performance (able to solve scenarios with several hundred hosts and exploits). Proofs are given that the solutions obtained are optimal under certain assumptions. These algorithms take into account the probability of success of the actions and their expected cost (for example in terms of execution time, or network track generated). Finally, we take a different direction: instead of trying to improve the efficiency of the solutions developed, we focus on improving the model of the attacker. We model the attack planning problem in terms of partially observable Markov decision processes (POMDP). This grounds penetration testing in a well-researched formalism, highlighting important aspects of this problem's nature. POMDPs allow the modelling of information gathering as an integral part of the problem, thus providing for the first time a means to intelligently mix scanning actions with actual exploits."artículo de publicación periódica.listelement.badge Characterization of autoregressive processes using entropic quantifiers(2018-01) Traversaro Varela, Francisco; Redelico, Francisco"The aim of the contribution is to introduce a novel information plane, the causal-amplitude informational plane. As previous works seems to indicate, Bandt and Pompe methodology for estimating entropy does not allow to distinguish between probability distributions which could be fundamental for simulation or for probability analysis purposes. Once a time series is identified as stochastic by the causal complexity-entropy informational plane, the novel causal-amplitude gives a deeper understanding of the time series, quantifying both, the autocorrelation strength and the probability distribution of the data extracted from the generating processes. Two examples are presented, one from climate change model and the other from financial markets"trabajo final de especialización.listelement.badge Estimación de la probabilidad de default metodologías alternativas(2020-07-03) Sangiácomo, Máximo; Gambini, Juliana; Mon, Alicia"Mejorar la capacidad de evaluación de deudores para las entidades financieras es importante por varias razones. Primero, permite reducir el riesgo de crédito y con ello mejorar la solvencia de los bancos que a su vez impacta la estabilidad financiera del sistema. Segundo, en la medida que puedan incorporarse nuevas dimensiones de análisis permitirá la evaluación de sectores no atendidos aumentando la inclusión financiera. Tercero, permite emparejar oportunidades para los bancos."ponencia en congreso.listelement.badge An extension of chaotic probability models to real-valued variables(2008-07) Fierens, Pablo Ignacio"Previous works have presented a frequentist interpretation of sets of measures as probabilistic models which have denominated chaotic models. Those models, however, dealt only with sets of probability measures on finite algebras, that is, probability measures which can be related to variables with a finite number of possible values. In this paper, an extension of chaotic models is proposed in order to deal with the more general case of real-valued variables."trabajo final de especialización.listelement.badge Modelos de regresión para la predicción de la probabilidad de colisión entre dos cuerpos orbitando alrededor de la Tierra en una trayectoria de encuentro(2022) Wenger, Esteban Federico; Riccillo, Marcela"El número de satélites y chatarra espacial orbitando alrededor de la Tierra ha crecido en las últimas décadas. La chatarra espacial además de ser un tipo de contaminación ambiental, es también un inconveniente para las empresas operadoras de satélites. La industria conocida como New Space también ha crecido en los últimos años. Los satélites de estas empresas realizan órbitas que eventualmente tienen eventos de conjunción o de encuentro con otros cuerpos, ya sean otros satélites o chatarra espacial. Por este motivo, existe un Ente de Monitoreo que se encarga de emitir reportes conocidos como Conjunction Data Messages (CDM) que le avisa a las empresas operadoras de satélites cuando uno de sus satélites se encuentra dentro de una trayectoria de colisión con otro objecto. Para evaluar un evento de conjunción es fundamental la probabilidad de colisión y la mínima distancia a la que se encontrarán los cuerpos en el momento conocido como TCA (time of closest approach). En este Trabajo de Investigación se propone aplicar Técnicas de Machine Learning para predecir una de estas variables, la cual es fundamental a la hora de tomar la decisión de si el riesgo de un evento de encuentro amerita realizar una maniobra o no. Este Trabajo encara el problema planteando un Modelo Lineal y luego se avanza con Modelos No Lineales de Árboles de Decisión. Se aplican técnicas de Modelos de Ensemble de Boosting con dos algoritmos AdaBoost y Light Gradient Boosting Machines. Para entrenar estos Modelos se aplica un ETL que resulta interesante para los reportes CDM en formato estándar y es extensible a otros Modelos que se deseen aplicar. Los resultados obtenidos permiten obtener conclusiones que son contundentes en cuanto a la utilización de Técnicas de Machine Learning para aportar valor a los datos, en este caso CDM, y para la evaluación de este tipo eventos de conjunción."trabajo final de especialización.listelement.badge Nivel de significación estadística para el aprendizaje de una red bayesiana(2006) Césari, Matilde Inés; García Martínez, Ramón; Britos, Paola Verónica"(...) en este trabajo, se propone una métrica estadística que permita por un lado validar los datos con que se arma la estructura del grafo independientemente del tipo de Red Bayesiana. Por otro lado, validar las hipótesis que se infieren sobre una red bayesiana (relaciones de dependencia e independencia)."proyecto final de grado.listelement.badge Optimización del retorno en un sistema con incertidumbre: aplicación en un juego de casino(2007) Roccatagliata, Ignacio; García, Roberto Mariano"El objeto de este trabajo es poder demostrar la posibilidad de lograr que el retorno esperado en un jugador jugando a un juego de cartas llamado "siete y medio" resulte positivo. Para ello se utilizan técnicas como las cadenas de Markov, opciones reales, programación dinámica, y un método de manejo de dinero conocido como método Kelly. En el trabajo se muestra como ejemplo cómo una técnica muy aplicada conocida como la martingala resulta equivocada en su hipótesis, justificando aún más el desarrollo de este trabajo".artículo de publicación periódica.listelement.badge Pedestrian tracking using probability fields and a movement feature space(2017-12) Negri, Pablo; Garayalde, Damián"Retrieving useful information from video sequences, such as the dynamics of pedestrians, and other moving objects on a video sequence, leads to further knowledge of what is happening on a scene. In this paper, a Target Framework associates each person with an autonomous entity, modeling its trajectory and speed by using a state machine. The particularity of our methodology is the use of a Movement Feature Space (MFS) to generate descriptors for classifiers and trackers. This approach is applied to two public sequences (PETS2009 and TownCentre). The results of this tracking outperform other algorithms reported in the literature, which have, however, a higher computational complexity."tesis de maestría.listelement.badge El peligro de valorizar una petrolera sólo en función de sus reservas(2018-12) Bugari, Álvaro; Rosbaco, Juan"Los volúmenes de reservas presentados por las empresas petroleras se utilizan cotidianamente para un gran número de análisis. Entre ellos pueden mencionarse algunos de los más importantes como ser la compra y venta de activos, la cotización de las acciones de la empresa en las bolsas de valores del mundo, renovaciones de contrato entre partes privadas y públicas, etc. Pero la normativa vigente para la certificación de estos volúmenes de Reservas incluye un grado de arbitrariedad y subjetividad no despreciable. Esto ocasiona que empresas con mismos volúmenes de Reservas puedan tener diferente valor “real”, considerando real a la estimación con métodos teóricamente más robustos, pero que no siempre pueden llevarse a cabo por falta de disponibilidad de información o tiempo. O, viceversa, diferentes Reservas para empresas que parecerían tener el mismo valor. Este trabajo tratará de localizar los mayores puntos de conflicto, es decir, los que ocasionarán mayores diferencias entre las diferentes estimaciones. Explicará, cuando apliquen, la causa de esas diferencias por la forma en que está normada la certificación de Reservas y, en otros casos, las causas matemáticas que ocasionan diferencias."trabajo final de especialización.listelement.badge Predicción de probabilidad de robos de bicicletas del sistema público de la Ciudad de Buenos Aires(2022-02) Montero, Jazmín; Gómez, Leticia Irene"El presente estudio busca entrenar un modelo que permita predecir el grado de probabilidad de que una bicicleta termine siendo robada, dadas las condiciones iniciales del viaje."tesis de doctorado.listelement.badge Propiedades del estimador de la entropía de permutación y su aplicación en problemas de ingeniería(2018) Traversaro Varela, Francisco; Redelico, Francisco; Risk, Marcelo"Las medidas provenientes de la Teoría de la Información evaluadas en una distribución de probabilidades adecuada son una herramienta muy potente para caracterizar la complejidad de un sistema dinámico. En particular se estudia la Entropía Informacional de Shannon evaluada en la Función de Distribución de Bandt y Pompe: la Entropía de Permutación. Esta medida es de cómputo rápido, no requiere pre-procesamiento de la señal, contiene información de la estructura de autocorrelaciones de la serie de tiempo y se basa sobre un supuesto de estacionariedad muy débil. La Entropía de Permutación ha sido ampliamente utilizada en aplicaciones de Ingeniería. Sin embrago, hasta el momento el estudio de las propiedades estadísticas de su estimación ha sido poco desarrollado, relegando su utilización a estudios descriptivos de los sistemas dinámicos bajo estudio. En esta Tesis, en una primera instancia se hace un estudio exhaustivo de la Función de Distribución de Bandt Pompe y las distintas metodologías utilizadas para calcularla. Luego se estudian las medidas de complejidad evaluadas en esta distribución y su comportamiento, y se resuelven problemáticas particulares: la aplicación de la Entropía de Permutación a series de tiempo con valores repetidos y la influencia de la distribución marginal de los datos en la estimación de la misma. Finalmente esta Tesis propone una metodología estadística computacional, el bootstrap paramétrico, para obtener una aproximación de la distribución del estimador de la Entropía de Permutación y de esta manera poder hacer inferencia con esta medida de complejidad. Esto permite la construcción de un test estadístico que puede detectar cambios en la dinámica de un proceso mediante la Entropía de Permutación. Se hace un estudio final acerca de la influencia del ruido observacional en la estimación de la Entropía de Permutación mediante el uso de los tests estadísticos propuestos."proyecto final de grado.listelement.badge Test de relación de probabilidad secuencial (TRPS) y un mecanismo de truncamiento con el modelo binomial como distribución subyacente(2005) Argüelles, Álvaro Ricardo; Villaverde, Francisco"En el presente trabajo se estudia un tipo de análisis para realizar pruebas de hipótesis denominado Test de Relación de Probabilidad Secuencial (TRPS) desarrollado por Abraham Wald. Este método es analizado utilizando el modelo Binomial como distribución subyacente. Se estudian las consecuencias de la aplicación de un mecanismo de truncamiento propuesto por Daniel De Souza y se realiza además, un estudio preliminar sobre un mecanismo de truncamiento desarrollado por el autor. Se desarrolla una función especial para comparar ambos procedimientos y establecer un criterio práctico para decidir que mecanismo es menos costoso."