# Freakonometrics

## Miscellaneous › actuarial stuff

Saturday, October 13 2012

## Compound Poisson and vectorized computations

Yesterday, I was asked how to write a code to generate a compound Poisson variables, i.e. a series of random variables $S=X_1+\cdots+X_N$ where $N$ is a counting random variable (here Poisson disributed) and where the $X_i$'s are i.i.d (and independent of $N$), with the convention $S=0$ when $N=0$. I came up with the following algorithm, but I was wondering if it was possible to get a better one...

>  rcpd=function(n,rN,rX){
+  N=rN(n)
+  X=rX(sum(N))
+  I=as.factor(rep(1:n,N))
+  S=tapply(X,I,sum)
+  V=as.numeric(S[as.character(1:n)])
+  V[is.na(V)]=0
+  return(V)}

Here, consider - to illustrate - the case where $N\sim\mathcal{P}(5)$ and $X_i\sim\mathcal{E}(2)$,

>  rN.P=function(n) rpois(n,5)
>  rX.E=function(n) rexp(n,2)

We can generate a sample

>  S=rcpd(1000,rN=rN.P,rX=rX.E)

and check (using simulation) than $\mathbb{E}(S)=\mathbb{E}(N)\mathbb{E}(X_i)$

> mean(S)
[1] 2.547033
> mean(rN.P(1000))*mean(rX.E(1000))
[1] 2.548309

and that $\text{Var}(S)=\mathbb{E}(N)\text{Var}(X_i)+\mathbb{E}(X_i)^2\text{Var}(N)$

> var(S)
[1] 2.60393
> mean(rN.P(1000))*var(rX.E(1000))+
+ mean(rX.E(1000))^2*var(rN.P(1000))
[1] 2.621376

If anyone might think of a faster algorithm, I'd be glad to hear about it...

Thursday, February 16 2012

## What is working as an actuary really like?

Just a short post to mention the page entitled "What is working as an actuary really like ?" on http://beanactuary.com/. I wanted to share that page with some students (even if it is quite incomplete) because I am always surprised when I hear that what we teach during lectures is too mathematical (or even to much based on computing skills). Practice can be much more complex than what we do in our courses (e.g. variable selection in ratemaking, integrating expert opinion in claims reserving, or hedging life insurance contracts with several complex financial options). If practitioners want to share their experience, comments are welcome... I just hope that some students will stop thinking that Barney Stinson is doing the job of an actuary... and that what we teach might - somehow - be useful someday...

Sunday, August 14 2011

## Pauvres américains

Pendant nos vacances dans l'Aubrac avec des amis, Christian avait acheté Libé, et machinalement, j'ai entrepris de le survoler le lendemain matin (en sirotant mon café). Je suis tombé sur le paragraphe suivant qui a retenu mon attention pendant plusieurs jours...

L'auteur n'est pas n'importe qui, puisqu'il s'agit de Kenneth Rogoff (ici), grand spécialiste de l'économie américaine. Relisons la phrase afin de mieux comprendre ce qu'il dit: pour "25% des propriétaires immobiliers aux États-Unis" [...] "la valeur de leur maison serait inférieure à leur crédit immobilier" 1. Je me permettrais de réécrire la phrase sous la forme suivante "pour un quart des propriétaires immobiliers américains n'ayant pas fini de rembourser leur crédit, la vente de leur maison ne leur permettrait pas de rembourser leur crédit" (c'est en tous les cas comme ça que je la comprends).
Cette petite phrase pourrait être intéressante, En tous les cas, elle semble importante dans l'argumentation visant à expliquer que les américains sont beaucoup trop endettés2. Mais 25%, en quoi est-ce vraiment exceptionnel ou incroyable voire inquiétant ? C'est quoi le pourcentage acceptable ou normal que l'on s'attendrait à avoir ?
N'ayant pas de statistiques sur le sujet, faisons des calculs.
• un peu de calcul d'actualisation de crédits
Car intuitivement, si un acheteur emprunte avec un faible apport, et sur une longue durée, son crédit va lui coûter cher, éventuellement plus cher que la maison. Au moins au début. Car avec le temps, la valeur du crédit diminue, alors que le prix de la maison, habituellement, augmente.
Considérons une maison de valeur 1 (a l'achat, histoire de simplifier, et de raisonner en pourcentage pour l'apport initial, par exemple). On dispose d'un capital initial (correspondant à l'apport), on contracte un crédit pour une durée , et on suppose que le taux pour le crédit est , et que le taux d'inflation est (la valeur de la maison peut augmenter dans le temps, mais aussi éventuellement baisser si la valeur de est négative). A la date , à son actif, le propriétaire possède la maison, d'une valeur (ce qu'il touche s'il revend la maison, si l'on oublie les frais associés); et au passif, il doit rembourser à la banque un montant , où est le montant des remboursement effectues tous les ans, i.e. solution de
Si on veut faire les choses proprement, il faudrait intégrer les frais de notaire (disons 7% de la valeur de la maison), ici notés ,
La valeur de la maison est inférieure à la valeur du crédit si
(les frais de notaires étant payés à l'achat comme on l'évoquait auparavant, mais aussi en cas de revente3). On peut faire le calcul facilement, sous R,
valeur = function(t,T,a,r=.05,i=0,delta=.07){k=(1-a+delta)/sum(1/(1+r)^(0:(T-1)))s=(1+i)^tv=(T-t)*kreturn(c(s*(1-delta),v))}
Par exemple, si est nul, on compare la valeur du crédit à la valeur de la maison au moment de l'achat. Pour quelqu'un ayant un apport de 25%, prenant un crédit avec 20 échéances (sur 20 ans) que l'on commence à rembourser le jour de la signature, la valeur de son crédit (sur une somme empruntée de 0.75) est de 1.2533, environ, si le taux de crédit est de l'ordre de 5%. C'est plus que la valeur (brute) de la maison (ici 1), voire beaucoup plus que ce que rapporterait la revente la maison, qui rapporterait 0.93, ce qui ne lui permet pas de rembourser le crédit....
> valeur(0,20,.25,.05,0)[1] 0.9300 1.2533
Sur la même durée, vu après la 5ieme échéance (i.e. au bout de 25% des échéances) avec toujours un apport initial de 25%, la valeur du crédit restant à payer à la banque est de l'ordre de 0.94, c'est à dire à peu de choses près, la valeur de revente de la maison s'il n'y a pas d'inflation (ou de perte de valeur du bien immobilier).
> valeur(5,20,.25,.05,0)[1] 0.9300000 0.9399846
Autrement dit, dans un monde avec une inflation nulle, avec des cohortes d'acheteurs constantes dans le temps, qui prendraient des crédits de 20 ans avec un apport de 25% de la valeur de la maison, 25% des emprunteurs ont, en moyenne, un crédit à rembourser supérieur à la valeur de revente de leur maison, comme le dit l'article. Cette proportion augment
• quand les taux d'emprunt augmentent
• quand la durée des emprunts augmente
• quand l'apport initial diminue
Mais on peut essayer de visualiser tout ça,
• visualisation des valeurs du crédit, et de la maison
dessin=fonction(T=20,a=.333,r=.05,i=.02,delta=.07){S=V=rep(NA,T)for(j in 1:T){S[j]=valeur(j-1,T,a,r,i)[1]V[j]=valeur(j-1,T,a,r,i)[2]}YL=range(S,V)plot(1:T-.5,V,type="b",col="red",ylim=YL)lines(1:T-.5,S,col="blue",type="b")}
Comme on le voit sur le dessin ci-dessous, la proportion des acheteurs dont la valeur du crédit excède la valeur de la maison est d'environ 20% (même avec un apport non négligeable, ici un tiers, et une inflation non nulle, ici 2%). On le voit sur le graphique ci-dessous, avec en bleu la valeur de la maison, et en rouge, la valeur du crédit,

On peut d'ailleurs faire varier les différents paramètres, comme le taux d'emprunt, avec une baisse (passant de 5% à 3%),

ou avec une hausse (passant de 5% à 7%),

On peut aussi faire varier l'apport initial (passant à 50%),

On peut enfin supprimer l'inflation, et supposer que le prix de la maison n'augmente pas vraiment...

Moralité? 25% semble effectivement important, trop important (pour une économie en bonne santé). Mais il ne faut pas se leurrer, car un pourcentage raisonnable (ou viable) semblerait être davantage aux alentours de 15% que de 0%.
• du crédit immobilier au crédit automobile
Et cela dit, 25% serait un pourcentage relativement faible si on regardait non pas les crédit immobiliers, mais les crédit automobiles. Car par rapport à la situation précédente, on est dans un cas où les taux sont élevés, et où la valeur du bien ne cesse de se dégrader. Par contre la durée est souvent plus courte. Une déflation de 10% n'est peut-être pas la meilleure modélisation qui soit de la perte de valeur du véhicule, mais en première approximation, ça devrait convenir,,,
Graphiquement, on a

Bref, dans le cas du crédit auto (où l'acheteur achèterait intégralement à crédit), dans une situation normale entre 70% et 80% des acheteurs de voiture à crédit sont dans une situation où la revente de leur voiture ne permettrait pas de rembourser leur crédit... Ne faudrait-il pas s'en inquiéter également ? Acheter à crédit un bien dont la valeur ne cesse de baisser, n'est-ce pas dangereux ?

1 au début de l’été, en discutant avec des couples d'amis, dont deux venaient d'avoir des postes de profs à l'autre bout de la France (et qui devaient revendre leur maison), j'ai été surpris de voir que quand ils parlaient de "ne pas perdre d'argent lors de la revente", ils valorisaient la maison à partir du prix initial, auquel ils ajoutaient les frais de notaires, mais oubliaient le coût du crédit.
2 je me contenterais ici de discuter ce chiffre de 25%, et non pas de savoir si c'est grave que la revente de la maison ne permette pas de rembourser le crédit.
3 je préfère prendre en compte ces frais, car sinon, comme je l'avais déjà évoqué ici, l'achat d'une maison semble toujours une opération gagnante.

Sunday, December 6 2009

## Crédibilité ou régression ?

On présente généralement la crédibilité dans sa version dynamique, inspirée par une lecture bayésienne de mise à jour d'information (comme je le faisais ici par exemple). Mais cette méthode est vraiment beaucoup plus générale. Historiquement, elle a été introduite pour tarifer des grandes groupes (d'où l'utilisation classique sur les flottes), mais elle peut aussi de voir comme outils de lissage à la place des méthodes glm (si on les applique sur des variables par classes).

• La crédibilité: pondérer une classe par rapport à un groupe
Pour rappels, dans une approche telle qu'elle a été présenté par Hans Bühlmann, on s'intéresse à
avec pour le premier terme la moyenne d'un groupe,

est le facteur de crédibilité, avec , et où respectivement,

où  est la variable caractérisant les groupes. Bref, pour faire des calculs, il suffit de savoir calculer des variances intra et des variances inter. De manière formelle, sous R, on pourra utiliser un code de la forme suivante
> XBAR = tapply(X, as.factor(THETA), mean)
> n = tapply(X, as.factor(THETA), length)
> MU =     weighted.mean(XBAR,n)
> VXintra = tapply(X, as.factor(THETA), sd)^2
> VXinter = weighted.mean(XBAR^2,n)-MU^2
> Z = n/(n+(VXintra/VXinter)
> pred = Z*XBAR + (1-Z)*MU
Pour l'instant, seule l'utilisation des glm avait été évoquée en tarification, mais cette méthode devrait permettre de lisser un peu les calculs de primes, en particulier sur les petites classes.
• Discriminer par une variable de zonage
Prenons comme variable de classe (c'est à dire ) la variable de zonage.
> I=is.na(BASE$NBSIN_08) > I=is.na(BASE$NBSIN_DV_08)
> THETA=BASE$ZONIER[I==FALSE] > X=BASE$NBSIN_08[I==FALSE]
> XBAR = tapply(X, as.factor(THETA), mean)
> n = tapply(X, as.factor(THETA), length)
> MU =     weighted.mean(XBAR,n)
> VXintra = tapply(X, as.factor(THETA), sd)^2
> VXinter = weighted.mean(XBAR^2,n)-MU^2
> Z = n/(n+(VXintra/VXinter)
> pred = Z*XBAR + (1-Z)*MU
Essayons de comparer les fréquences obtenues par crédibilité avec des modèles glm,
> Y=X; X1=THETA
> Base=data.frame(Y,X1)
> reglm=lm(Y~as.factor(X1)+0,Base)
> regglm=glm(Y~as.factor(X1)+0,data=Base,family=poisson)
> cbind(n,XBAR,coefficients(reglm),exp(coefficients(regglm)),pred)
n  XBAR               pred
1     85 0.023 0.023 0.023 0.027
2     67 0.029 0.029 0.029 0.030
3    388 0.028 0.028 0.028 0.028
7    268 0.011 0.011 0.011 0.015
8    243 0.020 0.020 0.020 0.023
9    451 0.019 0.019 0.019 0.022
11  4104 0.026 0.026 0.026 0.026
12   540 0.018 0.018 0.018 0.020
13   244 0.024 0.024 0.024 0.026
14  4236 0.025 0.025 0.025 0.026
16    64 0.015 0.015 0.015 0.024
22  8048 0.033 0.033 0.033 0.033
26 10227 0.032 0.032 0.032 0.032
27 26542 0.032 0.032 0.032 0.032
28  9982 0.025 0.025 0.025 0.025

On note que sur les gros effectifs, on obtient la même chose (ou presque) qu'un modèle glm, mais que sur les petites classes, on s'adapte en essayant de prendre une valeur plus proche que l'ensemble de la population. Bref, la crédibilité est une manière élégante pour lisser les valeurs prédites...
• Discriminer par l'ancienneté du permis et le sexe
Mais plus généralement, on peut essayer de prendre davantage de classes. Regardons par exemple l'ancienneté du permis.
> Y=BASE$NBSIN_08[I==FALSE] > X2=BASE$ANC_PERMIS_08[I==FALSE]
> X3 = paste(as.character(X2),as.character(BASE\$SEXE_08[I==FALSE]),sep="-")
Avant d'aller plus loin, regardons (rapidement) comment la fréquence évolue avec l'ancienneté du permis.
> library(gam)
> reggam=gam(Y~s(X2),poisson)
>  plot(reggam,se=TRUE,col="red")
Étrangement, sur cette base, les "jeunes" conducteurs (ou disons plutôt les novices) sont incroyablement bons, et plus le temps passe, plus ils ont de chances d'avoir un accident.... Mais cette irrégularité (explicable par des raisons que je ne peux dévoiler pour des raisons de confidentialité) n'enlève rien à la généralité du raisonnement,
> THETA=X3
> X=Y
> XBAR = tapply(X, as.factor(THETA), mean)
> n = tapply(X, as.factor(THETA), length)
> MU =     weighted.mean(XBAR,n)
> VXintra = tapply(X, as.factor(THETA), sd)^2
> VXinter = weighted.mean(XBAR^2,n)-MU^2
> Z = n/(n+(VXintra/VXinter)
> pred = Z*XBAR + (1-Z)*MU
Comparons comme toute à l'heure avec des modèles de régression,.
> reglm=lm(Y~as.factor(X3)+0,Base)
> regglm=glm(Y~as.factor(X3)+0,data=Base,family=poisson)
> cbind(n,coefficients(reglm),exp(coefficients(regglm)),pred)
n              pred
10-F  500 0.018 0.018 0.018
10-M  565 0.008 0.008 0.009
11-F  492 0.018 0.018 0.018
11-M  576 0.012 0.012 0.012
12-F  483 0.026 0.026 0.027
12-M  580 0.022 0.022 0.022
13-F  477 0.025 0.025 0.025
13-M  552 0.019 0.019 0.020
[...]
33-F  603 0.028 0.028 0.028
33-M  981 0.032 0.032 0.032
34-F  662 0.049 0.049 0.048
34-M 1071 0.027 0.027 0.027
35-F  619 0.053 0.053 0.051
35-M  993 0.029 0.029 0.029
36-F  529 0.034 0.034 0.033
[...]
54-M  276 0.057 0.057 0.052
55-F   60 0.083 0.083 0.054
55-M  258 0.062 0.062 0.056
56-F   56 0.089 0.089 0.055
56-M  240 0.020 0.020 0.021
57-F   42 0.095 0.095 0.052
57-M  208 0.067 0.067 0.058
Bref, on retrouve que pour les grandes classes (à partir de 500 personnes) les ordres de grandeurs sont très proches. En dessous, l'estimateur par crédibilité corrige afin de prendre en compte l'effet taille (et permet de lisser les prédictions).

Thursday, October 1 2009

## Crédibilité et calcul bayésien

On a commencé en cours la tarification a posteriori, en commençant par la tarification bayésienne, et en présentant ensuite l'approche d'Hans Bühlmann comme un cas particulier en projetant dans un sous espace de combinaisons linéaires (un peu comme l'économétrie linéaire était présenté en cours comme un cas particulier de calcul d'espérance conditionnelle).La classification a priori sera poursuivie un TD, sur des bases de données, afin d'orienter davantage le cours sur la pratique des GLM.
L'utilisation des techniques bayésiennes en actuariat ne s'est pas faite sans peine. Pour ceux qui souhaitent s'en convaincre, il suffit de relire les comptes rendus de la conférence à Trieste en 1962. Dans le discours de Bruno de Finetti (publié dans l'ASTIN Bulletin), on retrouve un point historique, présentant les nouveaux travaux d'Hans Bühlmann,
Et Bruno de Finetti de conclure en rappelant les apports d'Arthur Bailey en 1950,
• La formule de Bayes, ou apprendre par l'expérience
La formule de Bayes ne dit pas grand chose quand on le regarde sous la forme suivante
A la rigueur on peut aussi la réécrire en utilisant deux fois cette formule
Bon, là encore, on ne voit peut être toujours pas ce qu'on peut en faire.... L'idée géniale est de faire la lecture suivante
Autrement dit la loi a posteriori du paramètre, conditionnellement aux observations (en bleu) est proportionnelle au produit de  la loi a priori du paramètre (en vert) et de la vraisemblance des observations (en rouge, qui sera un simple produit de lois si on suppose l'indépendance conditionnelle au paramètre). Le paramètre en noir est juste un facteur de normalisation, histoire que la loi soit effectivement une mesure de probabilité. D'où parfois l'écriture
Bref, on a réussit à inverser les deux termes dans la probability (on retrouve le terme "inverse probability" dans la littérature anglo-saxonne).
En cours, on avait vu que si on supposait le nombre annuel de sinistres Poisson, conditionnellement au paramètre, avec une indépendance (toujours conditionnellement à ce paramètre), et que l'on suppose que la loi a priori du paramètre est une loi Gamma, alors la loi a posteriori se calcule facilement et c'est une loi Gamma.
Considérons la petite simulation suivante: on suppose que le nombre de sinistres suit une loi de Poisson, et on cherche à estimer le paramètre de cette loi. On commence par une loi a priori Gamma, centrée sur 5, et on regarde évoluer la loi a posteriori au fur et à mesure que l'on observe les sinistres arriver (ou les années passer en l'occurence).
On peut également considerer l'évolution de l'espérance a posteriori du paramètre, ainsi qu'un intervalle de confiance (puisqu'on connaît la loi)
La "magie" des méthodes bayésiennes est que peu importe la loi a priori, on va converger vers la vraie valeur. Par exemple sur l'animation ci-dessous, on part d'une loi a priori de moyenne 2,
avec là aussi l'évolution de la moyenne a posteriori avec un intervalle de confiance,
La morale de l'histoire est que comme la loi a priori n'influence pas (j'exagère un peu car elle va influencer la vitesse de la convergence, ce qui n'est pas rien en pratique), autant prendre quelque chose de simple pour les calculs: la loi conjuguée de la loi exponentielle. La loi conjuguée d'une loi de la famille exponentielle de la forme
s'écrit
où et sont des constantes, et où  est une constante de normalisation (afin que cette fonction soit effectivement une mesure de probabilité).

• L'hérésie de la statistique bayésienne
La principale hérésie des statisticiens bayésien a été de proposer une lecture des probabilités d'un point de vue subjectif. En particulier Jimmie Savage et Bruno de Finetti partait de l'hypothèse que chacun avait à sa disposition son propre espace de probabilité.C'est ce qui lui permet de se construire un a priori. Et au fur et à mesure que le temps passe, on apprend, et on peut dériver une loi a posteriori. Par exemple  je pars d'un a priori comme quoi un enfant sur deux qui nait est un garçon, en France. Je peux ensuite récupérer des données, et affiner ma connaissance. C'est ce qu'avait fait Laplace il y a fort fort longtemps....
L'hérésie est ici un  problème philosophique lié au concept même de probabilité. Mais on peut noter qu'à l'époque dans les années 60, les débats étaient assez virulants. Et pour Jimmie Savage et Bruno de Finetti, il n'est pas nécessaire d'avoir le formalisme mathématique d'Andreï Kolmogorov pour appréhender la notion de probabilité (c'est à dire la mesure d'ensembles dans un espace abstrait d'évènements, voir ici ou ). On notera que pour John Keynes (qui avait écrit un "traité de probabilités") il existait une probabilité subjective, mais davantage liée à une information donnée par l'éducation. C'est un problème culturel plus que personnel. Mais finalement, il a surtout fallu attendre les travaux de Daniel Kahneman et Amos Tversky dans les années 70 pour que des psychologues se penchent sur la construction individuelle des probabilités.
• La crédibilité au sens de Bühlmann
L'idée d'Hans Bühlmann est de proposer une formule fermée qui approche l'espérance conditionnelle, tout simplement en utilisant celle qui avait été obtenue dans le cas bayésien. En tarification, on s'intéresse à des primes pures, et il est finalement assez naturel de chercher à calculer
Hans Bühlmann a suggéré d'approcher cette grandeur par
avec classiquement

est appelé facteur de crédibilité, avec , et où respectivement,

Bref, on a un facteur de crédibilité qui dépend de la variance intra et de la variance inter, pour reprendre des termes connus en statistique. L'énorme avantage est que cette formule peut très facilement s'utiliser sur des données. En particulier, considérons un tableau de la forme suivante

où on regarde si un contrat a - ou n'a pas - eu de sinistre chacune des années. Formellement, on dispose d'un tableau d'observations,
(on notera que le nombre d'années d'observations pour chacun des contrats peut être différent). On peut alors obtenir les estimateurs empiriques des moments nécéssaires, i.e. on pose
correspondant à la moyenne empirique pour un contrat,

et
Le facteur de crédibilité pour le contrat i est alors

où tout naturellement

Friday, July 17 2009

## Quantile de sommes, ou somme de quantiles ?

Je reprends ici un commentaire que j'ai longtemps entendu dans mon expérience d'actuaire dans une vie antérieure (et qu'on peut lire - entre les lignes le plus souvent - dans certaines réactions de risk managers). Les quantiles sont la base des mesures de risques, en particulier via la VaR en finance, mais quand j'étais actuaire, on calculait des 90/10 pour désigner des quantiles à 90% des pertes. Donc tout ça n'est pas spécialement nouveau. Je rappelle que la fonction quantile est simplement  où
Les quantiles sont calculés par type de risque (en gestion des risques), et forcément à la fin, on souhaite un quantile de la somme des risques, et il a longtemps été coutume de prendre la somme des quantiles. Je vais donc discuter un peu le résultat suivant,
• L'égalité n'est pas vraie dans le cas indépendant
Suite à une espère de déformation professionnelle (à cause de la variance), beaucoup de monde pense que
mais ce résultat est faux.... Un exemple est d'ailleurs donné ci-dessous dans le cas de variables exponentielles.
• L'égalité est vraie dans le cas comonotone...
En fait, le résultat précédant est vrai dans le cas comonotone. La comonotonie correspond au cas de dépendance parfaite positive, de corrélation maximale (si la corrélation existe), i.e.  avec  une fonction strictement croissante. Alors
• ... mais ce n'est pas un "worst case"
Seconde bizarrerie, la comonotonie n'est pas le pire des cas. La comonotonie est souvent envisagée comme un worst case scenario mais il n'en est rien (cette idée se retrouve dans les QIS 3 par exemple, ici).
Formellement, si  (la classe de Fréchet), alors
et
En passant en dimension 2 (cas où la borne inférieure est effectivement une vraie fonction de répartition), si et  désignent respectivement des version anticomonotone et comonotone de , alors on peut se demander, en considérant une mesure de risque quelconque  si
En fait, Andre Tchen a montré en 1980 un résultat qui montre que la comonotonie est effectivement un worst case, mais seulement dans certains cas très limités.
Si est une fonction supermodulaire, i.e.

pour tout  et . Alors dans ce cas, pour tout ,
(la preuve se trouve ici). Je renvoie aux papiers de Michel Denuit, de Jan Dhaene ou de Marc Goovarts (ici ou ) pour des applications en tarification sur deux têtes, par exemple, ou sur les primes stop-loss en réassurance
• Borner (numériquement) le quantile d'une somme
Commençons par un exemple, avec deux lois exponentielles, car c'est le plus simple, et surtout on peut calculer explicitement les bornes (dans le cas général, on se contentera de méthode numérique comme l'avait fait Khalil ici).
Si  et , où, pour être plus précis,
est valide pour tout  quelle que soit la structure de dépendance entre et , où
Aussi, en prenant les inverses (car ces fonctions sont strictement croissante), on obtient une inégalité en terme de quantile, ou de Value-at-Risk,
pour tout .
Rappelons que dans le cas de variables indépendantes  alors que dans le cas comonotone . La figure ci-dessous montre les valeurs possible pour  la fonction de répartition de la somme, avec le cas indépendant en bleu, et le cas comotonone en rouge.On peut aussi visualiser les valeurs possibles pour les quantiles de la somme,Dans un cas général, Ce problème a été traité par Makarov en 1981, et par Frank, Nelsen et Schweizer en 1997 (ici), tout en restant en dimension 2. En fait, ils ont travaillé sur les bornes de la fonction de répartition d'une somme mais c'est pareil, comme on l'a vu juste auparavant. Ils ont montré le résultat suivant: si  alors pour tout
désigne la copule anticomonotone (qui est une copule en dimension 2),
en posant , et
On peut retrouver des résultats plus fin en creusant dans la direction de l'arithmetic probability, par exemple avec la thèse de Williamson (ici, cette thèse est remarquable, et trop peu citée, malheureusement). Je ne parle que de la dimension 2, l'extension en dimension supérieure est délicate (je renvoie aux travaux de Paul Embrechts sur le sujet, ici ou , par exemple).

Tuesday, March 17 2009

## Calculs de SCR, Solvency Capital Requirements

Pour reprendre le contexte général, Solvency II (l'analogue de la directive CRD pour les banques*) repose sur 3 piliers,

1. définir des seuils quantitatifs de calcul des provisions techniques des fonds propres, seuils qui seront à terme réglementaires, à savoir le MCR (Minimum Capital Requirement, niveau minimum de fonds propres en-dessous duquel l'intervention de l'autorité de contrôle sera automatique) et le SCR (Solvency Capital Requirement, capital cible nécessaire pour absorber le choc provoqué par une sinistralité exceptionnelle),
2. fixer des normes qualitatives de suivi des risques en interne aux sociétés, et définir comment l'autorité de contrôle doit exercer ses pouvoirs de surveillance dans ce contexte. Notons qu'en principe, les autorités de contrôle auront la possibilité de réclamer à des sociétés "trop risquées" de détenir un capital plus élevé que le montant suggéré par le calcul du SCR, et pourra les forcer àréduire leur exposition aux risques,
3. définir un ensemble d'information que les autorités de contrôle jugeront nécessaires pour exercer leur pouvoir de surveillance.

Cette histoire de pilliers peut s'illustrer de la manière suivante

Sur le premier pilier, assureurs et réassureurs devront mesurer les risques, et devront s'assurer qu'ils détiennent suffisement de capital pour les couvrir. En pratique, le CEIOPS et la Commission Européenne ont retenu une probabilité de ruine de 0,5%. Les calculs de capital se font alors de deux manières, au choix,
1. utiliser une formule standard. La formule ainsi que la calibration des paramètres ont été abordé à l'aide des QIS.
2. utiliser un modèle interne. Là dessus, le CEIOPS étudie les modalités d'évaluation.
En avril 2007, QIS3 a été lancé, afin de proposer une formule standard pour le calcul des MCR et SCR, en étudiant la problématique spécifique des groupes. En particulier, on trouve dans les documents la formule suivante (pour un calcul de basic SCR)
Cette formule sort du QIS3, mais on trouve des choses analogues dans Sandström (2004), par exemple,
Avec une contrainte forte sur la forme du SCR, il obtient alors
D'où sort cette formule ? Certains ont tenté des éléments de réponse, par exemple
Ce résultat n'est malheureusement pas très probant car il n'est jamais rien évoqué sur la dépendance entre les composantes, ce qui est troublant. Sandstôrm écrit quelque chose de similaire, même si pour lui "normalité" est ici entendu dans un cadre multivarié.
Une explication peut être trouvée dans un papier de Dietmar Pfeiffer et Doreen Straßburger (ici) paru dans le Scandinavian Actuarial Journal (téléchargeable ici). Il cherche à expliquer comment calculer le SCR,
Il note, et c'est effectivement l'intuition que l'on avait, que dans un monde Gaussien (multivarié), cette formule marche, aussi bien pour un SCR basé sur la VaR que la TVaR. En particulier, ils citent un livre de Sven Koryciorz, correspondant à sa thèse de doctorat, intitulée "Sicherheitskapitalbestimmung und –allokation in der Schadenversicherung. Eine risikotheoretische Analyse auf der Basis des Value-at-Risk und des Conditional Value-at-Risk", publiée en 2004.
Sinon, pour aller un peu plus loin, on peut aussi noter, dans les rapports du CEIOPS des déclarations un peu troublantes, par exemple
Il est pourtant facile de montrer que ce n'est pas le cas (même si c'est effectivement ce que préconise la "formule standard"). Le graphique ci-dessous montre l'évolution de la VaR d'une somme de risques corrélés (échangeables) en fonction de la corrélation sous-jacente: sur cet exemple, les risques très très corrélés sont moins risqués que des risques moyennement corrélés.
(la loi sous-jacente est une copule de Student). En revanche pour la TVaR, sur le même exemple, la TVaR de la somme est effectivement une fonction croissante avec la corrélation,

(plus de compléments dans les slides de l'école d'été à Lyon l'été dernier, ici).

* Pour reprendre des éléments de la page de wikipedia (ici), la directive européenne CRD (Capital Requirements Directive, i.e. Fonds Propres Réglementaires) transpose dans le droit européen les recommandations des accords de Bâle II, visant à calculer les fonds propres exigés pour les établissements financiers (i.e. directives 2006/48/CEet 2006/49/CE) .