Διδακτορικές διατριβές
Μόνιμο URI για αυτήν τη συλλογήhttps://pyxida.aueb.gr/handle/123456789/14
Περιήγηση
Πλοήγηση Διδακτορικές διατριβές ανά Ημερομηνία έκδοσης
Τώρα δείχνει 1 - 20 από 42
- Αποτελέσματα ανά σελίδα
- Επιλογές ταξινόμησης
Τεκμήριο On variance reduction for Markov chain Monte Carlo(02-2012) Tsourti, Zoi; Τσούρτη, Ζωή; Athens University of Economics and Business, Department of Statistics; Dellaportas, Petros; Kontoyannis, IoannisIn the present thesis we are concerned with appropriate variance reduction methods for specific classes of Markov Chain Monte Carlo (MCMC) algorithms. The variance reduction method of main interest here is that of control variates. More particularly, we focus on control variates of the form U = G−PG, for arbitrary function G, where PG stands for the one-step ahead conditional expectation, that have been proposed by Henderson (1997). A key issue for the efficient implementation of control variates is the appropriate estimation of corresponding coefficients. In the case of Markov chains, this involves the solution of Poisson equation for the function of initial interest, which in most cases is intractable. Dellaportas & Kontoyiannis (2012) have further elaborated on this issue and they have proven optimal results for the case of reversible Markov chains, avoiding that function. In this context, we concentrate on the implementation of those results for Metropolis-Hastings (MH) algorithm, a popular MCMC technique. In the case of MH, the main issue of concern is the assessment of one-step ahead conditional expectations, since these are not usually available in closed form expressions. The main contribution of this thesis is the development and evaluation of appropriate techniques for dealing with the use of the above type of control variates in the MH setting. The basic approach suggested is the use of Monte Carlo method for estimating one-step ahead conditional expectations as empirical means. In the case of MH this is a straightforward task requiring minimum additional analytical effort. However, it is rather computationally demanding and, hence, alternative methods are also suggested. These include importance sampling of the available data resulting from the algorithm (that is, the initially proposed or finally accepted values), additional application of the notion of control variates for the estimation of PG’s, or parallel exploitation of the values that are produced in the frame of an MH algorithm but not included in the resulting Markov chain (hybrid strategy). The ultimate purpose is the establishment of a purely efficient strategy, that is, a strategy where the variance reduction attained overcomes the additional computational cost imposed. The applicability and efficiency of the methods is illustrated through a series of diverse applications.Τεκμήριο Modelling multivariate time series for count data(06-2011) Pedeli, Xanthi; Athens University of Economics and Business, Department of Statistics; Karlis, D.The study of time series models for count data has become a topic of special interest during the last years. However, while research on univariate time series for counts now flourishes, the literature on multivariate time series models for count data is notably more limited. The main reason for this is that the analysis of multivariate counting processes presents many more difficulties. Specifically, the need to account for both serial and cross–correlation complicates model specification, estimation and inference. This thesis deals with the class of INteger–valued AutoRegressive (INAR) processes, a recently popular class of models for time series of counts. The simple, univariate INAR(1) process is initially extended to the 2–dimensional space. In this way, a bivariate (BINAR(1)) process is introduced. Subsequently, the time invariant BINAR(1) model is generalized to a BINAR(1) regression model. Emphasis is given on models with bivariate Poisson and bivariate negative binomial innovations. The properties of the BINAR(1) model are studied in detail and the methods of moments, Yule-Walker and conditional maximum likelihood are proposed for the estimation of its unknown parameters. The small sample properties of the alternative estimators are examined and compared through a simulation experiment. Issues of diagnostics and forecasting are considered and predictions are produced by means of the conditional forecast distribution. Estimation uncertainty is accommodated by taking advantage of the asymptotic normality of maximum likelihood estimators and constructing appropriate confidence intervals for the h–step–ahead conditional probability mass function. A generalized specification of the BINAR(1) process, where cross–correlation between the two series receives contribution from two different sources, is also discussed. In this case, we mainly focus on a specific parametric case that arises under the assumption that the innovations follow jointly a bivariate Poisson distribution. The resulting joint distribution of the bivariate series is identified as an 8–parameters bivariate Hermite. At a second stage, the BINAR(1) process is extended to the multi–dimensional space. Thus, we define a multivariate integer–valued autoregressive process of order 1 (MINAR(1)) and examine its basic statistical properties. Such an extension is not simple and we emphasize on problems that occur, relating to selecting a reasonable innovation distribution as well as on problems related to inference. Apart from the general specification of the MINAR(1) process, we also study two specific parametric cases that arise under the assumptions of a multivariate Poisson and a multivariate negative binomial distribution for the innovations of the process. To overcome the computational difficulties of the maximum likelihood approach we suggest the method of composite likelihood. The performance of the two methods of estimation (i.e. maximum likelihood and composite likelihood) is compared through a small simulation experiment. Extensions to incorporate covariance information are also discussed. The proposed models are illustrated on multivariate count series from the fields of accident analysis, syndromic surveillance and finance.Τεκμήριο Actuarial modelling of claim counts and losses in motor third party liability insurance(07-2013) Tzougas, George J.; Τζουγάς, Γεώργιος Ι.; Athens University of Economics and Business, Department of Statistics; Frangos, NikolaosActuarial science is the discipline that deals with uncertain events where clearly theconcepts of probability and statistics provide for an indispensable instrument in themeasurement and management of risks in insurance and finance. An important aspectof the business of insurance is the determination of the price, typically calledpremium, to pay in exchange for the transfer of risks. It is the duty of the actuary toevaluate a fair price given the nature of the risk. Actuarial literature research covers awide range of actuarial subjects among which is risk classification and experiencerating in motor third-party liability insurance, which are the driving forces of theresearch presented in this thesis. This is an area of applied statistics that has beenborrowing tools from various kits of theoretical statistics, notably empirical Bayes,regression, and generalized linear models, GLM, (Nelder and Wedderburn, 1972).However, the complexity of the typical application, featuring unobservable riskheterogeneity, imbalanced design, and nonparametric distributions, inspiredindependent fundamental research under the label `credibility theory', now acornerstone in contemporary insurance mathematics. Our purpose in this thesis is tomake a contribution to the connection between risk classification and experiencerating with generalized additive models for location scale and shape, GAMLSS,(Rigby and Stasinopoulos, 2005) and finite mixture models (Mclachlan and Peel,2000). In Chapter 1, we present a literature review of statistical techniques that can bepractically implemented for pricing risks through ratemaking based on a priori riskclassification and experience rated or Bonus-Malus Systems. The idea behind a prioririsk classification is to divide an insurance portfolio into different classes that consistof risks with a similar profile and to design a fair tariff for each of them. Recentactuarial literature research assumes that the risks can be rated a priori usinggeneralized linear models GLM, (see, for example, Denuit et al., 2007 & Boucher etal., 2007, 2008). Typical response variables involved in this process are the number ofclaims (or the claim frequency) and its corresponding severity (i.e. the amount theinsurer paid out, given that a claim occurred). In Chapter 2, we extend this setupfollowing the GAMLSS approach of Rigby and Stasinopoulos (2005). The GAMLSSmodels extend GLM framework allowing joint modeling of location and shapeparameters. Therefore both mean and variance may be assessed by choosing a marginal distribution and building a predictive model using ratemaking factors asindependent variables. In the setup we consider, risk heterogeneity is modeled as thedistribution of frequency and cost of claims changes between clusters by a function ofthe level of ratemaking factors underlying the analyzed clusters. GAMLSS modelingis performed on all frequency and severity models. Specifically, we model the claimfrequency using the Poisson, Negative Binomial Type II, Delaporte, Sichel and Zero-Inflated Poisson GAMLSS and the claim severity using the Gamma, Weibull, WeibullType III, Generalized Gamma and Generalized Pareto GAMLSS as these models havenot been studied in risk classification literature. The difference between these modelsis analyzed through the mean and the variance of the annual number of claims and thecosts of claims of the insureds, who belong to different risk classes. The resulting apriori premiums rates are calculated via the expected value and standard deviationprinciples with independence between the claim frequency and severity componentsassumed. However, in risk classification many important factors cannot be taken intoaccount a priori. Thus, despite the a priori rating system, tariff cells will not becompletely homogeneous and may generate a ratemaking structure that is unfair to thepolicyholders. In order to reduce the gap between the individual's premium and riskand to increase incentives for road safety, the individual's past record must taken intoconsideration under an a posteriori model. Bonus-Malus Systems (BMSs) are aposteriori rating systems that penalize insureds responsible for one or more accidentsby premium surcharges or maluses and reward claim-free policyholders by awardingthem discounts or bonuses. A basic interest of the actuarial literature is theconstruction of an optimal or `ideal' BMS defined as a system obtained throughBayesian analysis. A BMS is called optimal if it is financially balanced for theinsurer: the total amount of bonuses must be equal to the total amount of maluses andif it is fair for the policyholder: the premium paid by each policyholder is proportionalto the risk that they impose on the pool. The study of such systems based on differentstatistical models will be the main objective of this thesis. In Chapter 3, we extend thecurrent BMS literature using the Sichel distribution to model the claim frequencydistribution. This system is proposed as an alternative to the optimal BMS obtained bythe Negative Binomial model (see, Lemaire, 1995). We also consider the optimalBMS provided by the Poisson-Inverse Gaussian distribution, which is a special caseof the Sichel distribution. Furthermore, we introduce a generalized BMS that takesinto account both the a priori and a posteriori characteristics of each policyholder, extending the framework developed by Dionne and Vanasse (1989, 1992). This isachieved by employing GAMLSS modeling on all the frequency models consideredin this chapter, i.e. the Negative Binomial, Sichel and Poisson-Inverse Gaussianmodels. In the above setup optimality is achieved by minimizing the insurer's risk.The majority of optimal BMSs in force assign to each policyholder a premium basedon their number of claims disregarding their aggregate amount. In this way, apolicyholder who underwent an accident with a small size of loss will be unfairlypenalized in comparison to a policyholder who had an accident with a big size of loss.Motivated by this, the first objective of Chapter 4 is the integration of claim severityinto the optimal BMSs based on the a posteriori criteria of Chapter 3. For this purposewe consider that the losses are distributed according to a Pareto distribution,following the setup used by Frangos and Vrontos (2001). The second objective ofChapter 4 is the development of a generalized BMS with a frequency and a severitycomponent when both the a priori and the a posteriori rating variables are used. Forthe frequency component we assume that the number of claims is distributedaccording to the Negative Binomial Type I, Poisson Inverse Gaussian and SichelGAMLSS. For the severity component we consider that the losses are distributedaccording to a Pareto GAMLSS. This system is derived as a function of the years thatthe policyholder is in the portfolio, their number of accidents, the size of loss of eachof these accidents and of the statistically significant a priori rating variables for thenumber of accidents and for the size of loss that each of these claims incurred.Furthermore, we present a generalized form of the one obtained in Frangos andVrontos (2001). Finally, in Chapter 5 we give emphasis on both the analysis of theclaim frequency and severity components of an optimal BMS using finite mixtures ofdistributions and regression models (see Mclachlan and Peel, 2000 & Rigby andStasinopoulos, 2009) as these methods, with the exception of Lemaire(1995), have notbeen studied in the BMS literature. Specifically, for the frequency component weemploy a finite Poisson, Delaporte and Negative Binomial mixture, while for theseverity component we employ a finite Exponential, Gamma, Weibull andGeneralized Beta Type II (GB2) mixture, updating the posterior probability. We alsoconsider the case of a finite Negative Binomial mixture and a finite Pareto mixtureupdating the posterior mean. The generalized BMSs we propose adequately integraterisk classification and experience rating by taking into account both the a priori and aposteriori characteristics of each policyholder.Τεκμήριο Financial analysis of demographic ageing effect on pharmaceutical expenditure of Greece(07-2014) Politi, Anastasia S.; Πολίτη, Αναστασία, Σ.; Athens University of Economics and Business, Department of Statistics; Φράγκος, ΝικόλαοςThe study aims to take a thorough look at the generating process of Greece’s pharmaceutical expenditure volatility taking into consideration latent cost synthesis differentiations among distinct morbidity areas. It uses frequency-severity models that decompose pharmaceutical demand of prescription drugs (Rxs) into a frequency component (claim frequency counts) and a severity component (claim size). It encompasses linear stochastic forms that treat health expenditure as an age-dependent branching process. The models also comprise the therapeutic category of Rxs as a controllable factor of population morbidity.Motivated by official population statistics which signal the impending serious growth of seniors’ portion within the following decades, globally and particularly in Greece, this dissertation presents estimating results of demographic senescence effects on pharmaceutical expenditure in the long run, through the implementation of projections for distinct therapeutic areas.Up to date literature review does not show any frequency – severity analysis conducted for pharmaceutical care data, neither at an international level, nor at the national level where the integrated information systems were developed with delay in relation to European systems. This study focused on this specific methodology and attempted to fill this knowledge gap in theVIdomain of healthcare by producing not only general estimates for the entire study population but also analytical results for sub-populations with distinct morbidity characteristics. As regards the principal aim of this study, namely, the estimation of the impact of aging on pharmaceutical expenditure, it is suggested that this study can bring substantial contribution to this cognitive field, as it includes the assessment of relevant results for sub-populations with distinct morbidity characteristics, which to the knowledge of the author, is a novel approach according to up to date literature data regarding Greece.According to the results, frequency effects play the key role towards severity ones in the generating process of pharmaceutical claim and loss intensity, this norm does not however apply within each therapeutic category. Pharmaceutical spending associated especially with the reimbursement of drugs for the genito-urinary system, the ophthalmological diseases, the antineoplastic and immunomodulating agents and the respiratory system, is more susceptible to the advent of the demographic aging risk.Τεκμήριο Fault-specific insurance pricing, reserving and CAT bond design for seismic risk assessment; the case of Greece(08-05-2023) Λουλούδης, Εμμανουήλ; Louloudis, Emmanouil; Athens University of Economics and Business, Department of Statistics; Yannacopoulos, Athanasios; Tsekrekos, Andrianos; Psarakis, Stelios; Kyriakidis, Epaminondas; Pinto, Alberto-Adrego; Pinheiro, Diogo; Zimbidis, AlexandrosΚύριος σκοπός της διατριβής είναι η στοχαστική μοντελοποίηση και ποσοτικοποίηση του σεισμικού κινδύνου στο πλαίσιο της ασφάλισης του συγκεκριμένου κινδύνου. Θέτει τη βάση για τις πιο ορθές αναλογιστικές αποφάσεις των εμπλεκόμενων μερών, όπως η τιμολόγηση ασφαλίστρων, ο υπολογισμός του απαιτούμενου κεφαλαίου φερεγγυότητας και ο σχεδιασμός του αντίστοιχου ομολόγου καταστροφής. Τα σεισμικά μοντέλα που χρησιμοποιούνται ευρέως στην ασφαλιστική αγορά (κατά κύριο λόγο διαδικασίες Poisson) είναι βασισμένα σε ιστορικούς καταλόγους, οι οποίοι παρέχουν σχετική πληροφορία κάποιον εκατοντάδων ετών. Αντίθετα, ο μηχανισμός προσομοίωσης που παρουσιάζεται στη διατριβή βασίζεται στη γεωμετρία των ρηγμάτων, η οποία καλύπτει πληροφορία έως και 15 χιλιάδων ετών στο παρελθόν ώστε να εξαχθούν αξιόπιστα αναλογιστικά μεγέθη. Επιπρόσθετα, πολύγωνα Voronoi ή το επιδημικό μοντέλο ETAS χρησιμοποιούνται για την μοντελοποίηση των ιστορικών καταλόγων αντί τυπικών διαδικασιών Poisson και συνεχείς καμπύλες τρωτότητας αντί διακριτών και πιο αβέβαιων πινάκων πιθανοτήτων ζημίας. Καθώς παρόμοια μοντέλα της αγοράς είναι κατασκευασμένα ώστε να παράγουν τιμολόγηση ανά περιοχές, στην εργασία αυτή έχει επιτευχθεί ακρίβεια ανά συντεταγμένη χρήσιμη για μια ασφαλιστική εταιρεία για πλήρη γνώση του χαρτοφυλακίου κτιρίων της ώστε να μπορεί η ασφαλιστική εταιρεία να αποφύγει ή να διαχειριστεί καταστάσεις αντιεπιλογής. Επιπρόσθετα, οι μεγάλης κλίμακας καταστροφικές αποζημιώσεις του σεισμού καθιστούν τις αντασφαλιστικές εταιρείες ανίκανες να διαχειριστούν μόνες τους τα έξοδα αυτά. Για τον λόγο αυτό, η ασφαλιστική αγορά δημιούργησε τα ομόλογα καταστροφής ώστε να μεταφέρεται ο εν λόγω κίνδυνος στους επενδυτές της αγοράς κεφαλαίων. Στην παρούσα διατριβή, διεξάγεται ο σχεδιασμός και η τιμολόγηση του σχετικού ομολόγου καταστροφής συναρτήσει του προτεινόμενου σεισμικού μοντέλου χρησιμοποιώντας είτε αμιγώς στατιστικές προεξοφλητικές μεθόδους είτε σε συνδυασμό με μηχανικής μάθησης λαμβάνοντας υπόψη και τον πιστωτικό κίνδυνο κάθε εκδότη. Τα ομόλογα αυτά μπορούν να εκδοθούν για την αποτελεσματική αντιμετώπιση των οικονομικών συνεπειών ισχυρών σεισμών.Τεκμήριο Application of Copula functions in statistics(09-2007) Nikoloulopoulos, Aristidis; Νικολουλόπουλος, Αριστείδης; Athens University of Economics and Business, Department of Statistics; Karlis, DimitriosStudying associations among multivariate outcomes is an interesting problem in statistical science. The dependence between random variables is completely described by their multivariate distribution. When the multivariate distribution has a simple form, standard methods can be used to make inference. On the other hand one may create multivariate distributions based on particular assumptions, limiting thus their use. Unfortunately, these limitations occur very often when working with multivariate discrete distributions. Some multivariate discrete distributions used in practice can have only certain properties, as for example they allow only for positive dependence or they can have marginal distributions of a given form. To solve this problem copulas seem to be a promising solution. Copulas are a currently fashionable way to model multivariate data as they account for the dependence structure and provide a flexible representation of the multivariate distribution. Furthermore, for copulas the dependence properties can be separated from their marginal properties and multivariate models with marginal densities of arbitrary form can be constructed, allowing a wide range of possible association structures. In fact they allow for flexible dependence modelling, different from assuming simple linear correlation structures. However, in the application of copulas to discrete data marginal parameters affect dependence structure, too, and, hence the dependence properties are not fully separated from the marginal properties. Introducing covariates to describe the dependence by modelling the copula parameters is of special interest in this thesis. Thus, covariate information can describe the dependence either indirectly through the marginal parameters or directly through the parameters of the copula . We examine the case when the covariates are used both in marginal and/or copula parameters aiming at creating a highly flexible model producing very elegant dependence structures. Furthermore, the literature contains many theoretical results and families of copulas with several properties but there are few papers that compare the copula families and discuss model selection issues among candidate copula models rendering the question of which copulas are appropriate and whether we are able, from real data, to select the true copula that generated the data, among a series of candidates with, perhaps, very similar dependence properties. We examined a large set of candidate copula families taking intoaccount properties like concordance and tail dependence. The comparison is made theoretically using Kullback-Leibler distances between them. We have selected this distance because it has a nice relationship with log-likelihood and thus it can provide interesting insight on the likelihood based procedures used in practice. Furthermore a goodness of fit test based on Mahalanobis distance, which is computed through parametric bootstrap, will be provided. Moreover we adopt a model averaging approach on copula modelling, based on the non-parametric bootstrap. Our intention is not to underestimate variability but add some additional variability induced by model selection making the precision of the estimate unconditional on the selected model. Moreover our estimates are synthesize from several different candidate copula models and thus they can have a flexible dependence structure. Taking under consideration the extended literature of copula for multivariate continuous data we concentrated our interest on fitting copulas on multivariate discrete data. The applications of multivariate copula models for discrete data are limited. Usually we have to trade off between models with limited dependence (e.g. only positive association) and models with flexible dependence but computational intractabilities. For example, the elliptical copulas provide a wide range of flexible dependence, but do not have closed form cumulative distribution functions. Thus one needs to evaluate the multivariate copula and, hence, a multivariate integral repeatedly for a large number of times. This can be time consuming but also, because of the numerical approach used to evaluate a multivariate integral, it may produce roundoff errors. On the other hand, multivariate Archimedean copulas, partially-symmetric m-variate copulas with m-1 dependence parameters and copulas that are mixtures of max-infinitely divisible bivariate copulas have closed form cumulative distribution functions and thus computations are easy, but allow only positive dependence among the random variables.The bridge of the two above-mentioned problems might be the definition of a copula family which has simple form for its distribution functionwhile allowing for negative dependence among the variables. We define sucha multivariate copula family exploiting the use of finite mixture of simple uncorrelated normal distributions. Since the correlation vanishes, the cumulative distribution is simply the product of univariate normal cumulative distribution functions. The mixing operation introduces dependence. Hence we obtain a kind of flexible dependence, and allow for negative dependence.Τεκμήριο High dimensional time-varying covariance matrices with applications in finance(10-07-2011) Plataniotis, Anastasios; Πλατανιώτης, Αναστάσιος; Athens University of Economics and Business, Department of Statistics; Dellaportas, PetrosThe scope of this Thesis is to provide an original contribution in the area of Multivariate Volatility modeling. Multivariate Volatility modeling in the present context, involves developing models that can adequately describe the Covariance matrix process of Multivariate financial time series. Developmentof efficient algorithms for Bayesian model estimation using Markov Chain Monte Carlo (MCMC) and Nested Laplace approximations is our main objective in order to provide parsimonious and flexible volatility models. A detailed review of Univariate Volatility models for financial time series is first introduced in this Thesis. We illustrate the historical background of each model proposed and discuss its properties and advantages as well as comment on the several estimation methods that have emerged. We also provide a comparative analysis via a small simulation example for the dominant models in the literature. Continuing the review from the univariate models we move on to the multivariate case and extensively present competing models for Covariance matrices. The main argument presented is that currently no model is able to capture the dynamics of higher dimensional Covariance matrices fully, but their relative performance and applicability depends on the dataset and problem of interest. Problems are mainly due to the positive definiteness constraints required by most models as well as lack of interpretability of the model parameters in terms of the characteristics of the financial series. In addition, model development so far focus mostly in parameter estimation and in sample fit; it is our goal to examine the out-of-sample fit perspective of these models. We conclude the review section by proposing some small improvements for existing models that will lead towards more efficient parameter estimates, faster estimation methods and accurate forecasts. Subsequently, a new class of multivariate models for volatility is introduced. The new model is based on the Spectral decomposition of the time changing covariance matrix and the incorporation of autocorrelation modeling or the time changing elements. In these models we allow a priori for all the elements of the covariance matrix to be time changing as independent autoregressive processes and then for any given dataset we update our prior information and decide on the number of time changing elements. Theoretical properties of the new model are presented along with a series of estimation methods, bayesian and classical. We conclude that in order to estimate these models one may use an MCMC method for small dimension portfolios in terms of the size of the covariance matrix. For higher dimensions, due to the curse of dimensionality we propose to use a Nested Laplace approximation approach that provides results much faster with small loss in accuracy. Once the new model is proposed along with the estimation methods, we compare its performance against competing models in simulated and real datasets; we also examine its performance in small portfolios of less than 5 assets as well in the high dimensional case of up to 100 assets. Results indicate that the new model provides significantly better estimates and projections than current models in the majority of example datasets. We believe that small improvements in terms of forecasting is of significant importance in the finance industry. In addition, the new model allows for parameter interpretability and parsimony which is of huge importance due to the dimensionality curse. Simplifying inference and prediction of multivariate volatility models was our initial goal and inspiration. It is our hope that we have made a small step towards that direction, and a new path for studying multivariate financial data series has been revealed. We conclude by providing some proposals for future research that we hope may influence some people into furthering this class of models.Τεκμήριο Μοντελοποίηση των χρόνων προετοιμασίας παραγγελιών σε διαδικασία Detail Picking(11-2007) Οικονόμου, Ιωάννης; Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Στατιστικής; Ζαζάνης, ΜιχαήλΔιπλωματική εργασία - Οικονομικό Πανεπιστήμιο Αθηνών. ΜΠΣ, Τμήμα Στατιστικής με κατεύθυνση "Ποσοτικές Μέθοδοι στη Λήψη Αποφάσεων"Τεκμήριο Natural catastrophe models for weather related events and insurance applications(12-12-2023) Κρουστάλλης, Ευστάθιος; Kroustallis, Efstathios; Athens University of Economics and Business, Department of Statistics; Karlis, Dimitrios; Zazanis, Michael; Ntzoufras, Ioannis; Chadjikonstantinidis, Efstathios; Vrontos, Spyridon; Tzougas, George; Frangos, NikolaosΗ συχνότητα και η σφοδρότητα των φυσικών καταστροφών σχετικά με τον μετεωρολογικό κίνδυνο αναμένεται να αυξηθούν λόγω της κλιματικής αλλαγής. Οι νέες κλιματικές προβλέψεις αναδεικνύουν ότι στο μέλλον οι ακραίες συνθήκες που σχετίζονται με το κλίμα θα αυξηθούν σε πολλές ευρωπαϊκές περιοχές με σημαντικό κοινωνικό και οικονομικό αντίκτυπο, επηρεάζοντας επίσης τον ασφαλιστικό κλάδο. Επιπλέον, τα συμβάντα που σχετίζονται με τις καιρικές συνθήκες συχνά δεν καταγράφονται πλήρως, επομένως είναι δύσκολο να μοντελοποιήσουμε τη σχέση μεταξύ κλιματικών γεγονότων και της συχνότητας των ασφαλιστικών απαιτήσεων. Παράλληλα, πολλές φορές, υπάρχει δυσκολία στην αναγνώριση της πρωτογενούς αιτίας των σχετικών ασφαλιστικών ζημιών. Με κίνητρο τα παραπάνω ζητήματα, εφαρμόσαμε μια από τις πιο αντιπροσωπευτικές προσεγγίσεις μοντέλου «εποπτευόμενης εκμάθησης», μέθοδο βασισμένη σε δενδροδιαγράμματα αποφάσεων, την «Gradient Boosting», για την ταξινόμηση του πλήθους των ασφαλιστικών απαιτήσεων που προκαλούνται από καταιγίδες στην Ελλάδα και μια νέα κατηγορία μοντέλων σύνθετων κατανομών συχνότητας για την από κοινού μοντελοποίηση της συχνότητας των ασφαλιστικών αποζημιώσεων και του πλήθους των ακραίων μετεωρολογικών φαινομένων. Τα προτεινόμενα μοντέλα καταδεικνύουν την από κοινού κατανομή του πλήθους των μετεωρολογικών συμβάντων και των ασφαλιστικών αποζημιώσεων περιλαμβάνοντας γεωχωρικές μεταβλητές για την αξιολόγηση των επιπτώσεών τους στη συχνότητα εμφάνισης των συμβάντων και των σχετικών ασφαλιστικών απαιτήσεων. Τέλος, προτείνεται μια μεθοδολογική προσέγγιση στον υπολογισμό Κεφαλαιακών Απαιτήσεων Φερεγγυότητας στα πλαίσια των ιδιαιτεροτήτων σχετικά με τα χαρτοφυλάκια ασφαλιστικών εταιρειών, των κινδύνων και των μετεωρολογικών χαρακτηριστικών στην Ελλάδα.Τεκμήριο Discrete, continuous and machine learning models with applications in credit risk(13-09-2023) Γεωργίου, Κυριάκος; Georgiou, Kyriakos; Athens University of Economics and Business, Department of Statistics; Xanthopoulos, Stylianos; Tsekrekos, Andrianos; Zazanis, Michael; Psarakis, Stelios; Siettos, Konstantinos; Weber, Gerhard-Wilhelm; Yannacopoulos, AthanasiosΗ μοντελοποίηση πιστωτικού κινδύνου είναι ένας ταχέως αναπτυσσόμενος και δυναμικός κλάδος των μαθηματικών της χρηματοοικονομικής, με σημαντικές εφαρμογές, όπως έχει αποδειχθεί και ιστορικά. Συγκεκριμένα, η τελευταία οικονομική κρίση κατέστη σαφές ότι τα μοντέλα εκτίμησης πιστωτικού κινδύνου θα πρέπει να χαρακτηρίζονται από μαθηματική ακρίβεια και σαφήνεια. Για τον λόγο αυτόν, τα πρόσφατα Διεθνή Πρότυπα Χρηματοοικονομικής Αναφοράς (ΔΠΧΑ) 9 έχουν εισάγει το πλαίσιο της πρόβλεψης στην εκτίμηση του πιστωτικού κινδύνου, αυξάνοντας μ’ αυτόν τον τρόπο και την ανάγκη για αυστηρή μαθηματική μοντελοποίηση. Σκοπός της παρούσας διδακτορικής διατριβής είναι να αναπτύξει και να εξερευνήσει τα μαθηματικά εργαλεία και μοντέλα που προκύπτουν απ’ αυτήν την ανάγκη, με γνώμονα συγκεκριμένα ανοιχτά προβλήματα που δημιουργούνται με τα νέα πρότυπα, καθώς και να εισάγει ένα πλαίσιο μαθηματικής μοντελοποιήσης που μπορεί να εκμεταλλευτούν οι επαγγελματίες του κλάδου.Η έρευνα ξεκινά με διακριτά μοντέλα, και συγκεκριμένα αλυσίδες Markov, που είναι βαθιά καθιερωμένα εργαλεία στον χώρο του πιστωτικού κινδύνου, αναπτύσσοντας ένα αναγκαίο μαθηματικό πλαίσιο για την αναφορά των πιστωτικών αξιολογήσεων που εξασφαλίζει τη συμμόρφωση με το ΔΠΧΑ. Στην συνέχεια, χρησιμοποιούμε στοχαστικά μοντέλα σε συνεχή χρόνο για την εκτίμηση πιθανοτήτων αθέτησης, αλλά και μελλοντικών πιστωτικών ζημιών. Πιο ειδικά, εξετάζουμε μια οικογένεια μοντέλων που εισάγουν και κρυφές μεταβλητές οι οποίες επηρεάζουν την εξέλιξη ενός πιστωτικού προϊόντος (π.χ., μακροοικονομικές μεταβλητές), και χρησιμοποιούμε τεχνικές βασισμένες σε ολοκληρωτικές και μερικές ολοκληρο-διαφορικές εξισώσεις για να περιγράψουμε και να αποδείξουμε σημαντικές μαθηματικές ιδιότητες των συσχετιζομένων πιθανοτήτων αθέτησης. Για να συνεισφέρουμε στην εφαρμοσιμότητα των προαναφερθέντων μεθοδολογιών, αναπτύσσουμε και εξετάσουμε αριθμητικές μεθόδους για την εκτίμηση των πιθανοτήτων αθέτησης. Χρησιμοποιούμε τις γνωστές τεχνικές διακριτοποίησης στις μερικές ολοκληρο-διαφορικές εξισώσεις που προκύπτουν κάτω από ένα εύρος μοντέλων, δείχοντας την ποικιλία των προβλημάτων που μπορούν να επιλυθούν με αυτές τις τεχνικές. Τέλος, εμπνευσμένοι από σύγχρονη έρευνα στον τομέα της μηχανικής εκμάθησης, θεωρούμε τρόπους με τους οποίους αυτή, και συγκεκριμένα τα μοντέλα νευρωνικών δικτύων (deep neural networks – DNN), μπορούν να χρησιμοποιηθούν για την εκτίμηση των πιθανοτήτων αθέτησης, λύνοντας τις αντίστοιχες εξισώσεις. Ολοκληρώνοντας, εξετάζουμε θεωρητικές και πρακτικές πτυχές αυτών των μοντέλων που πρέπει να λαμβάνονται υπόψιν στην εφαρμογή των μοντέλων αυτών και τη σύγκρισή τους καθιερωμένες αριθμητικές μεθόδους.Τεκμήριο Applications of stochastic analysis in sensitivity analysis and insurance mathematics(13-10-2016) Roumelioti, Eleni E.; Ρουμελιώτη, Ελένη Ε.; Athens University of Economics and Business, Department of Statistics; Zazanis, M.This thesis deals primarily with the use of Malliavin calculus techniques in estimatingthe sensitivity of functionals of diffusion processes.Τεκμήριο Control charts for some discrete and continuous distributions(17-12-2024) Δεμερτζή, Ελισάβετ; Demertzi, Elisavet; Athens University of Economics and Business, Department of Statistics; Castagliola, Philippe; Koutras, Markos; Moguerza, Javier; Vrontos, Ioannis; Yannacopoulos, Athanasios; Tsiamyrtzis, Panagiotis; Psarakis, SteliosΗ παρούσα διδακτορική διατριβή ασχολείται με διαγράμματα ελέγχου για μεμονωμένες παρατηρήσεις από μη συμμετρικές κατανομές για τις οποίες τα διαγράμματα ελέγχου δεν έχουν κατασκευαστεί ή ερευνηθεί αρκετά στη σχετική βιβλιογραφία του Στατιστικού Ελέγχου Ποιότητας, παρόλο που έχουν πολλές εφαρμογές σε διάφορα πεδία στην καθημερινή μας ζωή. Παραδείγματα της πρώτης περίπτωσης είναι η Λογαριθμική κατανομή, η κατανομή Lindley και οι σχετικές με αυτήν κατανομές, ενώ μια περίπτωση που ανήκει στη δεύτερη κατηγορία είναι η κατανομή Pareto. Αυτή η διδακτορική διατριβή είναι μια προσπάθεια να συμπληρωθεί αυτό το κενό στη βιβλιογραφία.Το πρώτο μέρος της διατριβής παρουσιάζει εισαγωγές στα διαγράμματα ελέγχου αλλά και στις προαναφερθείσες κατανομές καθώς και τη χρησιμότητα των διαγραμμάτων για μεμονωμένες παρατηρήσεις. Στο δεύτερο μέρος κατασκευάζονται διαγράμματα ελέγχου για μεμονωμένες παρατηρήσεις από την αρχική μονοπαραμετρική κατανομή Lindley και μια διπαραμετρική μορφή της, καθώς και για τη Λογαριθμική κατανομή και την κατανομή Pareto I. Η κατασκευή του καθενός από αυτά τα διαγράμματα γίνεται αρχικά με όρια ελέγχου που βασίζονται στην πιθανότητα σφάλματος τύπου Ι. Στη συνέχεια, κατασκευάζονται διαγράμματα ελέγχου τύπου Shewhart καθώς και EWMA διαγράμματα για μεμονωμένες παρατηρήσεις χρησιμοποιώντας δύο διαφορετικές μεθόδους διόρθωσης ασυμμετρίας (μιας και όλες οι κατανομές που μας απασχολούν είναι μη συμμετρικές) έτσι ώστε να βελτιωθεί η συμπεριφορά των προτεινόμενων διαγραμμάτων.Οι συμπεριφορές όλων των διαγραμμάτων ερευνούνται και συγκρίνονται μεταξύ τους σε σχέση με το μέσο μήκος ροής (ARL) και γίνεται επίδειξη αυτής της συμπεριφοράς μέσω προσομoιωμένων αλλά και πραγματικών δεδομένων. Συμπεράσματα και προτάσεις για περαιτέρω έρευνα παρέχονται επίσης στο τελευταίο κεφάλαιο αυτής της διατριβής.Τεκμήριο A Bayesian approach to the analysis of infectious disease data using continuous-time stochastic models(19-09-2023) Μπαρμπουνάκης, Πέτρος; Barmpounakis, Petros; Athens University of Economics and Business, Department of Statistics; Dellaportas, Petros; Karlis, Dimitrios; Sypsa, Vana; Kontoyannis, Ioannis; Kalogeropoulos, Kostas; Ntzoufras, Ioannis; Demiris, NikolaosΣτόχος της παρούσας διδακτορικής διατριβής είναι η ανάπτυξη στοχαστικών επιδημικών μοντέλων με έμφαση στις μολυσματικές ασθένειες σε ανθρώπους και ζώα. Αναπτύσσεται συγκεκριμένη στατιστική μεθοδολογία για να ενημερώνεικαλύτερα τις δημόσιες πολιτικές υγείας και τις επικοινωνίες που υλοποιούνται από τις κυβερνητικές οργανώσεις, ειδικά κατά τη διάρκεια κρίσεων, όπως η πανδημία του Covid-19.Τεκμήριο Bayesian analysis and model selection for contingency tables using power priors(21-03-2022) Μαντζούνη, Αικατερίνη; Mantzouni, Katerina; Athens University of Economics and Business, Department of Statistics; Karlis, Dimitrios; Kateri, Maria; Tarantola, Claudia; Demiris, Nikolaos; Papastamoulis, Panagiotis; Vasdekis, Vassilis; Ntzoufras, IoannisΚεντρικός πυλώνας της παρούσας διδακτορικής διατριβής είναι η ανάπτυξη προτεινόμενης μεθοδολογίας για τη Μπεϋζιανή ανάλυση κατηγορικών μεταβλητών σε πίνακες συνάφειας με σκοπό την επιλογή του καταλληλότερου μοντέλου. Η προτεινόμενη μεθοδολογία περιλαμβάνει τον καθορισμό κατάλληλων εκ-των-προτέρων κατανομών, καθώς επίσης και υπολογιστικές τεχνικές για την εκτίμηση Μπεϋζιανών περιθώριων πιθανοφανειών, οι οποίες είναι απαραίτητες για τον υπολογισμό των εκ-των-υστέρων κατανομών στην Μπεϋζιανή σύγκριση και επιλογή του καταλληλότερου μοντέλου. Πιο συγκεκριμένα, η επιλογή κατάλληλης εκ-των-προτέρων κατανομής στη Μπεϋζιανή σύγκριση μοντέλων και των σχετικών ελέγχων είναι πολλές φορές προβληματική λόγω του γνωστού προβλήματος ευαισθησίας των εκ των υστέρων πιθανοτήτων και του παραδόξου των Barlett-Lindley. Το γεγονός αυτό οδήγησε στην ανάπτυξη αντικειμενικών Μπεϋζιανών τεχνικών, οι οποίες προτείνουν τη χρήση μη πληροφοριακών εκ-των-προτέρων κατανομών, όταν δεν υπάρχει καμιά εκ-των-προτέρων πληροφορία για τα δεδομένα. Σε αυτο το πλαίσιο προτείνονται οι εκ-των-προτέρων κατανομές δύναμης. Για την εφαρμογή της προτεινόμενης μεθοδολογίας σε πίνακες συνάφειας, που στόχο έχει την επιλογή του καταλληλότερου μοντέλου συνάφειας, κατασκευάστηκαν δύο σενάρια εκ-των-προτέρων κατανομών με τη χρήση πλασματικών δεδομένων, τα οποία βασίστηκαν στις εκ-των-προτέρων κατανομές δύναμης. Εισάγουμε και εξετάζουμε δύο προτεινόμενους Μόντε Κάρλο εκτιμητές. Όλες οι τεχνικές εφαρμόστηκαν και ελέγχθηκαν σε πραγματικά δεδομένα αλλά και σε αναλυτικές μελέτες προσομοίωσης. Για να ελεγχθεί η εγκυρότητα της προτεινόμενης μεθοδολογίας χρησιμοποιήθηκαν κριτήρια αντικειμενικών μεθόδων Bayes, όπως συνέπεια επιλογής μοντέλων, συνέπεια πληροφορίας και το κριτήριο της αντιστοίχισης προβλεπτικών κατανομών. Τέλος, παρουσιάζεται η επέκταση της μεθοδολογίας στη χρήση μεθόδων Μπεϋζιανής ανάλυσης γραφικών μοντέλων σε πίνακες συνάφειας τριπλής εισόδου χρησιμοποιώντας εκ-των-προτέρων κατανομές δύναμης. Σε κάθε μοντέλο υπό συνθήκη ανεξαρτησίας αντιστοιχείται μια συγκεκριμένη παραγοντοποίηση των πιθανοτήτων των κελιών και εφαρμόζεται συζυγής ανάλυση, βασιζόμενη σε Dirichlet εκ-των-προτέρων κατανομές. Εκ-των-προτέρων κατανομές μοναδιαίας ερμηνευτικής πληροφορίας χρησιμοποιούνται σαν μέτρο σύγκρισης με στόχο να ελεγχθεί και να ερμηνευθεί η επίδραση οποιονδήποτε εκ-των-προτέρων κατανομών στον παράγοντα Bayes και κατ’ επέκταση στην διαδικασία επιλογής γραφικών μοντέλων.Τεκμήριο Stochastic modeling of time series with intermittency, persistence and extreme variability, with application to spatio-temporal averages of rainfall fields(21-06-2018) Chronis, George A.; Χρόνης, Γεώργιος Α.; Athens University of Economics and Business, Department of Statistics; De Michele, Carlo; Picek, Jan; Dellaportas, Petros; Karlis, Dimitrios; Zazanis, Michael; Ioannidis, Evaggelos; Pavlopoulos, CharalamposMotivated by rainfall research, this thesis contributes new insights on mechanisms of precipitation. This is accomplished through a stochastic modelling approach of time series representing intermittency and variability of precipitation cumulatively at large spatial scales. Our objective is to obtain a parsimonious but flexible stochastic model that can capture adequately the spectral power distribution and the marginal probability distribution of time series of spatio-temporal averages of rain rate (STARR) at such large spatial scales, presumably under stationarity conditions. The model conceived and presented in this thesis treats intermittency and variability as two stochastically independent multiplicative components, each contributing partially to the overall persistence of memory or dependence of the model. Specifically, we model intermittency by a stationary renewal process in discrete time, where instants of renewals are marked with the value {1} and otherwise the process attains the value {0}. In particular, we model the probability distribution of waiting (discrete) time between successive renewals by the family of Riemann's zeta-distributions, whose parameter allows for the possibility of heavy tails (i.e. infinite variance), which in turn is an event associated with persistence (i.e. long memory) of the renewal process. Subsequently, conditionally on raining, the overall amount of rain is modelled as a log-infinitely divisible noise process, independent of the zeta-renewal process. Specifically, positive values of STARR during spells of successive renewals are modelled as exponential values of (unitary-lag) stationary increments of a self-similar process known as Linear Fractional Stable Motion, which is obtained by stochastic integration of a certain deterministic kernel with respect to a suitable alpha-stable random measure. That is, conditionally on raining, log-STARR is modelled as Linear Fractional Stable Noise. The contemporaneous product of the stationary zeta-renewal process with the stationary log-LFSN process, provides the stationary model proposed in this dissertation.Τεκμήριο Modeling multivariate time series(21-11-2023) Tsamtsakiri, Panagiota; Τσαμτσακίρη, Παναγιώτα; Athens University of Economics and Business, Department of Statistics; Ntzoufras, Ioannis; Vrontos, Ioannis; Pedeli, Xanthi; Fokianos, Konstantinos; Ombao, Hernando; Barretto-Souza, Wanger; Karlis, DimitriosThis thesis deals with the construction of multivariate Integer Generalized Au toregressive Conditional Heteroskedastic(INGARCH) and Conditional Autoregres sive Range(CARR) time series processes. The INGARCH(1,1) model has been alsostudied in multivariate case and implementations in 2 dimensions have been also pre sented recent years. The drawback was found at the restricted values of correlationcoefficient boundaries depending on the way of model’s construction. Based on afamily of copulas a multivariate INGARCH(1,1) model and a CARR(1,1) model arestudied considering interdependencies and self-dependencies respectively. Accordingto model’s complexity, its appropriateness and capability to study data with smallsample sizes are examined and provided with simulations. H-steps ahead forecast ing is considered by taking conditional expectation on volatilities and calculatingmarginal probability mass function.Firstly, considering univariate INGARCH models where volatilities are linearly orlog-linearly expressed offering more flexibility on conditions of stationarity respec tively, a Bayesian Trans-dimensional Markov Chain Monte Carlo is provided. At asecond stage a new alternative family of Sarmanov distribution is also presented inorder to ameliorate boundaries of correlation coefficient and comparison with theknown Sarmanov families are graphically discussed. A multivariate INGARCH(1,1)process is studied based on this alternative Sarmanov distribution and an imple mentation with daily crash counts on three towns in Netherlands is presented. Amultivariate Conditional Aytoregressive Range(CARR(1,1)) model assuming an ex ponential distribution and reconstructing correlation coefficients boundaries is dis cussed. The proposed model is illustrated on bivariate series from the fields ofrenewable sources.Τεκμήριο Adaptive designs in phase II clinical trials(23-09-2013) Poulopoulou, Stavroula; Πουλοπούλου, Σταυρούλα; Athens University of Economics and Business. Department of Statistics; Karlis, Dimitrios; Dafni, UraniaClinical trials play a very important role in the development process of new therapies. Recently there has been a rapid increase in theresearch and creation of new modern molecular agents, which makes necessary the development of more flexible and adaptive designs forthe implementation of clinical trials. The objective of adaptive designs is to ensure direct and dynamic control of the effectiveness and thesafety of a new treatment by allowing the adjustment of the elements of the study (i.e sample size), during the study, in such a way that wewill not sacrifice elements which are associated with the credibility of the study (i.e statistical power) and also issues which concern ethicalcharacteristics of the clinical trials.Τεκμήριο Model based clustering for count and mixed mode data(28-09-2022) Πανάγου, Φωτεινή; Panagou, Fotini; Athens University of Economics and Business, Department of Statistics; Papageorgiou, Ioulia; Gormley, Claire; Kosmidis, Ioannis; Rau, Andrea; Ntzoufras, Ioannis; Papastamoulis, Panagiotis; Karlis, DimitriosΟι μέθοδοι ομαδοποίησης που βασίζονται σε μοντέλα κατανομής για τον πληθυσμό, είναι μια κοινή προσέγγιση για τη μοντελοποίηση δεδομένων με τη χρήση πεπερασμένων μίξεων παραμετρικών κατανομών. Για μετρήσιμα δεδομένα, η επιλογή της πολυμεταβλητής κατανομής Poisson μπορεί να οδηγήσει σε αυξημένο υπολογιστικό κόστος. Η έννοια της μεθόδου της σύνθετης πιθανοφάνειας με τη χρήση διμεταβλητών περιθώριων κατανομών μπορεί να προσφέρει ευελιξία στις εκτιμήσεις. Προκειμένου να μειωθεί περαιτέρω ο χρόνος εκτίμησης των παραμέτρων που σχετίζονται με τη σύνθετη μέθοδο πιθανοφάνειας, εισάγουμε μεθόδους δειγματοληψίας που μπορούν να προσφέρουν επαρκή αποτελέσματα, ειδικά σε μεγάλων διαστάσεων δεδομένα. Όσον αφορά τα δεδομένα μεικτού τύπου, η από κοινού κατανομή δεν είναι πάντα εύκολο να βρεθεί. Τα copulas είναι ευρέως γνωστά ως ευέλικτα μοντέλα που επιτρέπουν τη δημιουργία πολυμεταβλητών κατανομών όταν δίνονται οι περιθώριες κατανομές. Ως εκ τούτου, μπορούν να δημιουργήσουν μια πληθώρα πολυμεταβλητών μοντέλων συμπεριλαμβανομένων μοντέλων με διαφορετικές περιθώριες. Σκοπός της παρούσας διπλωματικής εργασίας είναι κυρίως να επεκτείνει τα μέχρι τώρα αποτελέσματα της χρήσης μοντέλων που βασίζονται σε copula για εφαρμογές ομαδοποίησης. Το Gaussian Copula προσφέρει ευελιξία για την περιγραφή των συσχετίσεων μεταξύ διαφορετικών τύπων μεταβλητών. Στόχος μας είναι να μειώσουμε περαιτέρω το υπολογιστικό κόστος που προκύπτει από τη χρήση του Gaussian copula και του πλήρως παραμετροποιημένου μοντέλου που μελετήσαμε εκτενώς, καθώς αυτή η προσέγγιση είναι χρονοβόρα, γεγονός που προκύπτει από την προσθήκη διαφορετικών πινάκων συσχέτισης για κάθε ομάδα που πρέπει να εκτιμηθεί. Έτσι, ο κύριος στόχος είναι να επιτευχθεί ευελιξία στην εκτίμηση με τη χρήση κατάλληλων τεχνικών. Στην παρούσα διατριβή έχουμε προτείνει ευέλικτες εναλλακτικές που βασίζονται σε προσεγγίσεις μείωσης των διαστάσεων, όπως η ανάλυση παραγόντων ή έξυπνες αναπαραστάσεις των πινάκων συσχέτισης (δομημένοι πίνακες συσχέτισης).Τεκμήριο Measuring and modeling income inequality in Greece(30-04-2014) Chrissis, Kostas; Χρύσης, Κώστας; Athens University of Economics and Business, Department of Statistics; Λειβαδά, ΑλεξάνδραIncome inequality gains significance from its close relationship with social injustice, and it has, therefore, been the subject of voluminous research by philosophers, political scientists, sociologists and economists. This thesis concentrates on the empirical study of personal income distribution in Greece utilizing alternative data sources and employing several statistic and econometric approaches for the modeling of income inequality. The structure of this thesis is the following: Chapter 1 is the introduction, Chapter 2 presents a detailed literature review of income inequality in Greece. Data and methodology are illustrated in Chapter 3. Two are the main datasources: Income tax data (declared income of physical persons) and EU-SILC micro data. The statistical specification for grouped income tax data includes the utilization of interpolation methods according to Cowell and Mehta (1982). An alternative methodology for the estimation of top income shares from grouped tax data according to the Piketty (2001) approach is also employed. Moreover this Chapter includes the statistical specification for EUSILC micro data for the estimation of the inequality indices. The empirical findings are presented in Chapter 4. A section is dedicated to the impact ofeconomic crisis on income distribution. The econometric approach employed for studying the relationship of income inequality and macroeconomic activity is discussed in Chapter 5. Autoregressive Distributed Lag (ARDL) (or boundstesting) cointegration procedure is employed for the empirical analysis of thelong-run relationships and dynamic interaction among the variables of interest. Chapter 6 illustrates the empirical results of the composition of income inequality (decomposition of inequality indices by population subgroups and income sources) as well as the distributional effects of policy tools (such as taxes and social transfers). Finally, conclusions, policy implications and potential future research are presented in Chapter 7.Τεκμήριο Synchronized and gated queueing models(30-11-2022) Πινότση, Δήμητρα; Pinotsi, Dimitra; Athens University of Economics and Business, Department of Statistics; Pavlopoulos, Charalampos; Kyriakidis, Epaminondas; Besbeas, Panagiotis; Livada, Alexandra; Zhao, Yiqiang Q.; He, Qi-Ming; Zazanis, MichaelΗ διατριβή πραγματεύεται ζητήματα σχετιζόμενα με θεωρία ουρών που αφορούν σε συστήματα με θύρες με άπειρο πλήθος εξυπηρετούντων καθώς και συστήματα με συγχρονισμένες αφίξεις. Τα συστήματα με θύρες με άπειρο πλήθος εξυπηρετητών έχουν εφαρμογές σε βιομηχανικές διαδικασίες καθώς και σε τηλεπικοινωνιακά συστήματα. Λόγω του μηχανισμού της θύρας δεν είναι θεμιτό να γίνει μια ακριβής ανάλυση και γι’ αυτό εφαρμόζονται αναλυτικές μέθοδοι (ή προσομοίωση). Το γεγονός του άπειρου πλήθους των εξυπηρετούντων και η παρουσία του μηχανισμού θύρας κάνει το ερώτημα της ευστάθειας του συστήματος ενδιαφέρον ζήτημα.Η ευστάθεια της ουράς M/G/∞ με πύλη, διερευνάται με τη χρήση ενός κριτηρίου ολίσθησης των Foster–Lyapunov βάσει του οποίου αποδεικνύεται ότι το να είναι πεπερασμένη η πρώτη ροπή της κατανομής των χρόνων εξυπηρέτησης είναι ικανή και αναγκαία συνθήκη για τη θετική επανάληψη του συστήματος.Ένα σύστημα που αποτελείται από m ανεξάρτητους, παράλληλους και εκθετικούς εξυπηρετούντες, με ανάλογη ντετερμινιστική εισροή διερευνήθηκε ως μια τροποποίηση του Flatto-Hahn-Wright μοντέλου της θεωρίας ουρών, το οποίο αντίθετα με το αρχικό εξελίσσεται σε πιο εύκολα διαχειρίσιμο αναφορικά με την ανάλυσή του. Εστιάζουμε στην ευσταθή κατανομή του χρόνου που χρειάζονται οι πελάτες, η οποία επιτυγχάνεται με τη χρήση μιας Μαρκοβιανής προσέγγισης εισαγωγής σε συνδυασμό τον τύπο αντιστροφής.Τέλος, πραγματοποιήθηκε μια λεπτομερής ανάλυση της περιόδου αιχμής ενός συστήματος M/G/∞. Αναλύθηκε η διάρκεια του σταδίου μιας Μαρκοβιανής αλυσίδας παρέχοντας πλήθος λύσεων για την περίπτωση που έχουμε μικρή κίνηση. Και στις δύο περιπτώσεις τα τελικά αποτελέσματα εξαρτώνται από τη λύση άπειρων γραμμικών συστημάτων
- «
- 1 (current)
- 2
- 3
- »