Freakonometrics

To content | To menu | To search

Teaching › cours divers

 

Entries feed - Comments feed

Wednesday, November 17 2010

Course on risk, insurance, and uncertainty

The course on risk and insurance in Luminy, starts at 10.30 on Friday (here) instead of Thursday (I switched with Patrice Bertail). The slides can be found here,

Tuesday, November 16 2010

Course on copulas and correlated risks (in French, still)

The course on copulas, in Luminy, starts at 8.30 on Wednesday (here). The slides can be found here.

Sunday, November 14 2010

Course on risk measures (in French)

The course on risk measure, in Luminy, starts at 16.00 on Monday (here).
The slides can be found here,

Note that additional references can be downloaded on the internet, e.g. the short course on risk measures by Freddy Delbaen (here) or the article from the Encyclopedia of quantitative finance, by Hans Föllmer and Alexander Schied (there). See also here for the paper by Jean Marc Tallon, Johanna Etner and Meglena Jeleva, on decision theory under uncertainty.

Friday, March 5 2010

Effets nonlinéaires en tarification

Avant la formation SéPIA sur la tarification (ici), un petit mot pour répondre aux questions des étudiants sur la prise en compte d'effets nonlinéaires en tarification. Pour information complémentaire, la formation commencera par une introduction de Jean Pierre Verlé sur la tarification puis par un exposé de Michel Grun-Rehomme sur les méthodes zero-inflated, et sur l'écrètement. J'interviendrai par la suite précisément sur les méthodes pour prendre en compte les effets nonlinéaires.
Avant de revenir sur la prise en compte de variables continues discriminantes, un extrait de Popular Sciences, datant de 1968 (ici),

Attaquons la formalisation. Je ne mettrais pas le lien vers la base, mais je peux mettre le code utilisé par la suite. Considérons comme variable d'intérêt le fait d'avoir eu, ou pas d'accident dans l'année. La variable explicative est ici l'âge du conducteur.

Sur le graphique ci-dessus, on visualise en points noirs la moyenne empirique pour chaque âge. On fait également une régression logistique, qui nous dit que l'âge n'est pas une variable significative
> RGLM=glm(Y~age,data=B,family="binomial")
> summary(RGLM)
Call:
glm(formula = Y ~ age, family = "binomial", data = B)
Deviance Residuals:
    Min       1Q   Median       3Q      Max 
-0.4799  -0.4686  -0.4599  -0.4513   2.1917 
Coefficients:
             Estimate Std. Error z value Pr(>|z|)   
(Intercept) -2.058649   0.092296 -22.305   <2e-16 ***
age         -0.002640   0.001812  -1.457    0.145   
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
    Null deviance: 6809.7  on 10398  degrees of freedom
Residual deviance: 6807.6  on 10397  degrees of freedom
AIC: 6811.6
Number of Fisher Scoring iterations: 4
En fait, l'âge n'est pas significatif pris tel quel, i.e. en tant que variable continu, et de manière linéaire. Visiblement, on peut faire mieux. Tentons alors un modèle GAM,

ou en changeant les paramètres de lissage,

On repère ici un effet non linéaire ! Pour constituer des classes, on peut alors tenter d'utiliser les arbres de régression (plutôt que de tenter un découpage manuel)
> library(tree)
> TREEg=tree(Y~age,data=B)
>  plot(TREEg)
>  text(TREEg,col="red")
> TREEg=tree(Y~age,data=B,split="gini")
>  plot(TREEg)
>  text(TREEg,col="blue")

Je ferais bientôt un billet sur les arbres, mais en attendant, je peux renvoyer ici ou . On peut aussi utiliser une autre librairie de fonctions, qui donne sensiblement les mêmes choses
> library(rpart)
> fit = rpart(Y ~ age, method="anova", data=B)
> summary(fit) 
Call:
rpart(formula = Y ~ age, data = B, method = "anova")
  n= 10399
          CP nsplit rel error    xerror       xstd
1 0.01748133      0 1.0000000 1.0001955 0.02596249
2 0.01000000      2 0.9650373 0.9687768 0.02468425
Node number 1: 10399 observations,    complexity param=0.01748133
  mean=0.1010674, MSE=0.09085279
  left son=2 (8873 obs) right son=3 (1526 obs)
  Primary splits:
      age < 27.5 to the right, improve=0.01588077, (0 missing)
Node number 2: 8873 observations,    complexity param=0.01748133
  mean=0.085315, MSE=0.07803635
  left son=4 (7935 obs) right son=5 (938 obs)
  Primary splits:
      age < 74.5 to the left,  improve=0.02603656, (0 missing)
Node number 3: 1526 observations
  mean=0.1926606, MSE=0.1555425
Node number 4: 7935 observations
  mean=0.06981727, MSE=0.06494281
Node number 5: 938 observations
  mean=0.2164179, MSE=0.1695812
On peut alors utiliser les classes proposées ici pour créer les classes tarifaires, à savoir
[18-27] - [28-74] - [74-100]
La fonction sous R est ici
> brk=c(0,27.5,74.5,120)
> cut(X[1:20],brk)
 [1] (27.5,74.5] (27.5,74.5] (0,27.5]    (27.5,74.5] (27.5,74.5] (27.5,74.5]
 [7] (27.5,74.5] (74.5,120]  (27.5,74.5] (74.5,120]  (27.5,74.5] (27.5,74.5]
[13] (27.5,74.5] (27.5,74.5] (27.5,74.5] (27.5,74.5] (27.5,74.5] (27.5,74.5]
[19] (27.5,74.5] (27.5,74.5]
Levels: (0,27.5] (27.5,74.5] (74.5,120]
On peut utiliser cette fonction directement dans la régression logistique, et faire ensuite une prédiction
> RGLMb=glm(Y~cut(age,brk),data=B,family="binomial")
> summary(RGLMb)
Call:
glm(formula = Y ~ cut(age, brk), family = "binomial", data = B)
Coefficients:
                         Estimate Std. Error z value Pr(>|z|)   
(Intercept)              -1.43281    0.06491 -22.075   <2e-16 ***
cut(age, brk)(27.5,74.5] -1.15669    0.07844 -14.745   <2e-16 ***
cut(age, brk)(74.5,120]   0.14615    0.10247   1.426    0.154   
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
    Null deviance: 6809.7  on 10398  degrees of freedom
Residual deviance: 6493.3  on 10396  degrees of freedom
AIC: 6499.3
Number of Fisher Scoring iterations: 5
On notera qu'ici, on nous suggère de regrouper la première classe (ici considérée comme classe de référence) et la dernière (qui n'est pas significativement différente de la classe de référence). La prédicition donne

ce qui n'est pas complètement absurde... On peut essayer d'aller un peu plus loin, en creusant davantage dans les classes construites dans la construction des artbres. Par exemple,
> brk=c(15,20.5,24.5,32.5,47.5,52.5,74.5,120)
> RGLMb=glm(Y~cut(age,brk),data=B,family="binomial")
> summary(RGLMb)
Call:
glm(formula = Y ~ cut(age, brk), family = "binomial", data = B)
Coefficients:
                         Estimate Std. Error z value Pr(>|z|)   
(Intercept)               -1.0515     0.1079  -9.750  < 2e-16 ***
cut(age, brk)(20.5,24.5]  -0.5071     0.1537  -3.300 0.000967 ***
cut(age, brk)(24.5,32.5]  -0.9681     0.1353  -7.157 8.25e-13 ***
cut(age, brk)(32.5,47.5]  -1.7104     0.1353 -12.637  < 2e-16 ***
cut(age, brk)(47.5,52.5]  -1.1391     0.1505  -7.570 3.73e-14 ***
cut(age, brk)(52.5,74.5]  -1.6843     0.1301 -12.945  < 2e-16 ***
cut(age, brk)(74.5,120]   -0.2351     0.1339  -1.756 0.079017 . 
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
    Null deviance: 6809.7  on 10398  degrees of freedom
Residual deviance: 6453.5  on 10392  degrees of freedom
AIC: 6467.5
Number of Fisher Scoring iterations: 5

Après, il convient bien entendu de faire éventuellement des regroupements de classes, via plusieurs tests de Fisher...
En revanche, sur des bases plus volumineuse, il est délicat de trouver la partition à retenir, car il faut arbitrairement couper dans l'arbre (surtout que la base précédante était simulée). Sur des vraies données (plus de 100000 contrats), on obtient

La classification est plus complexe à lire


et ça sera l'objet d'un autre billet....

Monday, September 21 2009

Formation ERM de l'Institut des Actuaires

Intervention jeudi après midi dans le cadre de la formation ERM (Enterprise Risk Management) de l'Institut des Actuaires, sur le thème.
Comme Anne-Laure Fougères est déjà intervenue sur les extrêmes, et que Stéphane Loisel ont présenté les copules, le cours sera une discussion autour des diverses recommendations du Groupe Consultatif, des documents du CEIOPS, et de divers documents qui circulent sur le calcul du SCR (Solvency Capital Requierment) de l'agrégation des risques. Ou "everything you wanted to ask about tail dependence in risk management and you're afraid to ask"... Les slides sont en ligne ici, et ne contienent que les éléments illustratifs du cours.

Thursday, February 12 2009

Short course, Fourth Brazilian Conference on Statistical Modelling in Insurance and Finance

Short course on Measuring and Covering Catastrophic Risks at the Maresias Conference in Sao Paulo, April 2009. Slides are now online.

There has been recently a large interest in catastrophic risks, especially following Hurricane years in 2004 and 2005. But measuring those risks and providing an appropriate cover might be difficult. In this course, we will first describe those risks, especially climate risks (or climate related), man based risks (large fires or business interuption), and mortality risks. For those risks, we will also discuss possible covers, from classical (re)insurance to securitization (cat or mortality bonds) or insurance-linked securities (cat options). As we will see, the pricing of those products can simply be related to the choice of a risk measure. We will then discuss risk measures for large risks, and conclude with the aggregation issue.

Cat bond securitization will be studied in this course, explaining why they can be an additional tool (instead of an alternative technique) to insure against natural catastrophes.
while a Cat Bond mechanism is the following
For a more fancy description, it can be described as follows,
Two examples of natural catastrophes securitization will be studied carefully
  • WinCat : Winterthur securitization in 1997
  • The Mexican Earthquake 2007 Cat Cond.
The dataset used in this example was kindly provided by Dr. Miguel A. Santoyo (here)
  • Longevity and Mortality Risk

Satellite Meeting: New Trends in Actuarial Practice, Rio de Janeiro

Lecture on "Claims Reserving with R" at the Satellite Meetings in April 2009. For motivations on claims reservings in non-life insurance, see the Swiss Re technical document (here).

Tuesday, February 10 2009

Ecole Doctorale, cours sur irrégularités et régularités des séries temporelles

La présentation portera sur plusieurs papiers, abordant la présence de cycle dans les séries temporelles... la date sera bientôt fixée.

  1. modélisation des naissances
  2. modélisation des séries climatiques (et financières)

La première étude porte sur la détermination d'un cycle (lié à la pleine lune) dans les séries de naissance de l'insee (30 millions d'observations). La difficulté technique est de débruiter la série, avec des cycles hebdomadaire et annuels très irrégulier. L'idée est d'utiliser des méthodes de régression nonparamétriques pour modéliser des cycles.

La seconde étude portera sur des papiers sur la vitesse du vent, sur la température et sur des niveaux de fleuves.. ces séries sont très bruités et très cycliques... là aussi, la détection du cycle est délicate, et peut s'apparenter à de la mémoire longue.

Monday, January 5 2009

Cours de préparation à l'Agregation d'économie, information et incertain

Petite séance d'économie de l'information et de l'incertain dans le cadre de la préparation à l'agrégation. Les slides qui ont été utilisés sont en ligne.

Le cours présente les principes de base en économie de l'incertain (en particulier l'espérance d'utilité, telle que foramlisée par par von Neumann et Morgenstern) a partir des lotteries, puis présentera rapidement quelques applications en finance et en assurance.

La seconde partie aborde les deux points clés d'aléa-moral et d'antisélection, et plus générallement d'asymétrie d'information.

Quelques compléments peuvent se trouver sur internet en particulier http://cepa.newschool.edu/ (en anglais), sur la page d'Olivier Gossner ou de Denis Bouyssou, à l'Université de la Réunion, des slides de François Pigalle, ou sinon l'article de Jean Benoit Dujol dans le Tigre. Pour une approche plus "formalisée", on retiendra les slides de Pierre Cahuc à l'X. Sinon pour une vision plus générale du problème, il y a l'article de Xavier de la Vega paru dans le mensuel Sciences Humaines.

Sinon, une petite précision par rapport à la réponse que j'avais apporté oralement à une question (qui était posée lors du clavardage, "lien Arrow-Debreu ?"). J'avais évoqué l'approche de Gérard Debreu sur l'existence de fonctions d'utilité, mais ce n'était peut-être pas ce qui était posé par l'internaute... Pour reprendre, dans le contexte de l'intervention
  • von Neumann et Morgenstern ont montré qu'introduire une relation d'ordre sur les lotteries (c'est à dire supposer que les agents savaient comparer des risques, et des biens aléatoires) était équivalent - moyennant quelques hypothèses sur la relation d'ordre - à supposer que les agents comparent l'espérance (sous la probabilité de survenance des évènements) de l'utilité des revenus (aléatoire).
  • lors de la question posée par clavardage, j'ai essayé de faire un parallèle avec les résultats obtenus par Debreu - un peu après von Neumann et Morgenstern d'ailleurs, en 1959 dans Théorie de la Valeur, et  en 1944 dans Theory of Games and Economic Behavior - qui avait montrer que supposer que les agents pouvaient comparer des biens, ou des paniers de biens, i.e. construire une relation d'ordre sur les ensembles de paniers était équivalent à comparer des utilités (cf. cours de Jean-Yves Jaffray, ou l'article de wikipedia sur l'utilité).
  • mais parrallèlement, Arrow et Debreu ont travaillé ensemble sur d'autres sujets connexes, en particulier introduit un concept fondamental en économie de l'incertain, en particulier dans une optique financière, que sont les "biens d'Arrow-Debreu" ou "Arrow-Debreu asset". . Ces biens sont fondamentaux en finance car ils permettent de justifier la construction de la probabilité risque neutre, permettant de valoriser des produits sur des marchés en supposant qu'il existe une absence d'opportunité d'arbitrage. Dans un univers incertain, avec E états de la nature, on peut construire E biens d'Arrow-Debreu, chaque bien payant 1 dans un état de la nature, et 0 sinon. Le prix de tels bien est appelé "prix d'état". Ils sont essentiels pour valoriser ces les actifs financiers. Des compléments théoriques dans les slides du cours de l'X, mais aussi dans les slides que je présenterais en fin de semaine à Montpellier (ici).
Je ne sais pas si ces éléments permettent de mieux répondre à la question qui était posée, mais la réponse me paraît plus exacte que celle que j'avais faite, omettant de parler des biens d'Arrow-Debreu. Sinon j'ai transmis la demande qui avait été faite de faire une intervention en statistique (rappeler la base de la statistique descriptive) et en théorie de jeux.

Monday, November 24 2008

Présentation des applications de la statistique, IUT de Vannes

Présentation de l'activité d'assurance aux étudiants de Licence à l'IUT de Vannes. La présentation portetera plus généralement sur la modélisation des risques, des risques d'assurance non-vie, d'assurance-vie, les risques climatiques, ainsi que les risques financiers (cf slides)

Wednesday, April 9 2008

Introduction à R, faculté des Sciences Economiques, Univ. Rennes 1

Présentation du logiciel R, organisées par l'association des doctorants, Project. Le graphique vient du site http://addictedtor.free.fr/.

Wednesday, December 5 2007

Quelques vieilles notes de cours

Pour tenir compte des demandes de certains élèves, j'ai décidé de remettre en ligne quelques vieilles notes de cours que j'avais commencé à taper lorsque j'enseignais à l'ENSAI. Il y a sûrement beaucoup de coquilles (voire de fautes), donc merci de votre indulgence. J'ai remis en ligne le cours de Chaînes de Markov, en 2ème année, et le cours de Méthodes Numériques en Finance, en 3ème année. Les cours ont été arrêté brutalement, et je n'ai pas eu l'occasion de reprendre ces notes de cours... un jour peut être...

[13/05/2009] L'animation ci-dessous montre la convergence de la puissance d'une matrice de transition (matrice stochastique) vers une matrice dont toutes les lignes sont identiques, et correspondent à la distribution limite de la chaîne de Markov,J'essayerais de mettre en ligne la plupart des animations que j'avais pu faire pour illustrer le cours... à suivre.

Monday, December 3 2007

Sales forecasting

Quelques heures de cours à l'ESC Rennes sur sur le thème Sales Forecasting. Les slides sont en ligne, avec la partie 1 et la partie 2 (j'ai aussi mis en ligne la base de données sur le trafic autoroutier). Parmi les contraintes techniques, il fallait utiliser Excel (exclusivement). Je mets donc des liens vers macro1 et macro2 qui sont des add-ins permettant de faire un peu de séries temporelles. Sinon un petit exemple est aussi disponible...


Monday, September 18 2006

Short course, copulas and dependence

Cours sur les copules et l'agrégation des risques, 17th Actuarial Summer School à l'Université de Varsovie. Les slides sont disponibles sur demande [mail]. Le cours abordait l'agrégation des risques, les mesures de risques, la comparaison entre risques, et l'utilisation des copules pour la modélisation des risques multiples.