Freakonometrics

To content | To menu | To search

Teaching › actuariat - M1-08/09

Entries feed - Comments feed

Wednesday, April 22 2009

Expliquer l'assurance vie et la retraite

En fouillant un peu dans mes cartons, j'ai enfin remis la main sur un article qui avait trôné dans mon bureau à l'ENSAE pendant plusieurs mois. De mémoire, je croyais qu'il s'agissait d'un article du Monde, mais après quelques recherches, je me suis rendu compte qu'il s'agissait d'un article paru fin 2003 dans le Canard Enchaîné, hebdomadaire pour lequel j'ai une immense admiration pour les informations (et surtout les jeux de mots), mais pour une fois, je serai assez critique.

En particulier, le petit encadré en bas à gauche m'avait interpellé,

Cet article parle du calcul des retraites - sujet ô combien important - et s'étonne, ou s'insurge, que le calcul d'une retraite soit "insensé" (c'est à dire selon mon dictionnaire "qui a perdu le sens"). Or précisément cette formule a du sens (tout du moins si l'on remplace x - qui est l'inconnue révélatrice de l'incompréhension face aux formules mathématiques dans l'imaginaire collectif - par un signe de multiplication). Les rapports des L sont les probabilités d'être en vie - et donc de pouvoir toucher effectivement une retraire, et on retrouve les facteurs d'actualisation devant. Bref, on retrouve une formule qui s'interprète "simplement" comme valeur actuelle probable des flux futurs. Le document initial peut se trouver ici (merci à Benoit Bellone pour la référence), il s'agit de la section 8.3 ("Garantir le niveau des retraites: Les conséquences financières pour les futurs retraités") du Rapport économique, social et financier, Tome I  Perspectives économiques 2003-2004 et évolution des finances publiques. Une partie explique en détail la "neutralité financière d'un régime de retraite", et ce sont ces formules qui semblent avoir inspiré l'article du Canard,

Je pense que cet article (pourtant paru dans un journal dont le lectorat est majoritairement de la classe supérieure élevée) est assez symptomatique du manque de culture scientifique des journalistes. Sans vouloir faire offense à l'esprit anticlérical du Canard, cet article m'a rappelé une réflexion du philosophe Calvin (ami de Hobbes, le tigre)

Thursday, March 19 2009

DM1, calcul de la PM et tables de mortalité

Pour le DM1 (calcul de la PM pour différents contrats d'assurance) j'avais imposé le choix de la table sans vraiment revenir dessus, en précisant que le but de l'exercice était davantage de comprendre le calcul de la PM que le choix de la table (qui s'impose souvent à l'actuaire, soit par la réglementation, soit par les tables d'expériences utilisées par la compagnie).

J'aurais toutefois voulu mentionner quelques points. Tout d'abord, renvoyer vers le blog de Cimon (ici) qui reprend (en détaillant longuement) ce que j'avais raconté au 1er cours, à savoir qu'en assurance-vie, deux éléments importants étaient à prendre en compte (et les deux étaient - plus ou moins - imposés par la réglementation), à savoir

  • la table de mortalité,
  • le taux d'actualisation.
Pour revenir sur la table de mortalité, la table par génération TPG93 a été abandonnée en 2006 au profit des nouvelles tables TGH05 et TGF05 (arrêté publié au JO du 26 août 2006) qui sont désormais différentes pour les hommes et pour les femmes. Les tables se trouvent ici. Je reviendrais dans le cours d'actuariat 2 sur la construction des tables prospectives, mais des éléments peuvent se trouver soit sur le site de Cimon (encore et toujours, ici), sur ce blog (ici), ou encore par . Je mettrais sûrement un billet plus détaillé lorsque j'aurais introduit les principaux modèles de construction de tables prospectives, en septembre prochain...

Saturday, February 28 2009

Convolution(s) et lois composées, aspects numériques

Nous avons vu en cours que l'outil de base pour travailler sur les sommes de variables aléatoires était la convolution,

(f * g )(t)\ \ \,   \stackrel{\mathrm{def}}{=}\ \int_{-\infty}^{\infty} f(\tau)\cdot g(t - \tau)\, d\tau

= \int_{-\infty}^{\infty} f(t-\tau)\cdot g(\tau)\, d\tau.

permettant d'obtenir la densité ou la fonction de répartition de la somme de deux variables indépendantes.

Cet outils permet en théorie d'obtenir la forme d'une loi composée, i.e. d'une somme dont le nombre de termes est aléatoire.

Pour les calculs numériques de la convolée, Vincent Goulet a programmé pas  mal de choses dans library(actuar). Numériquement, il faut discrétiser la  loi des coûts de sinistres. Si on suppose par exemple que les coûts individuels sont discrets, on peut obtenir la distribution simplement,

> fx <- c(0, 0.15, 0.2, 0.25, 0.125, 0.075,
+         0.05, 0.05, 0.05, 0.025, 0.025)
> pn <- c(0.05, 0.1, 0.15, 0.2, 0.25, 0.15, 0.06, 0.03, 0.01)
> Fs <- aggregateDist("convolution", model.freq = pn,
+                     model.sev = fx, x.scale = 25)
> summary(Fs)
Aggregate Claim Amount Empirical CDF:
   Min. 1st Qu.  Median    Mean 3rd Qu.    Max.
    0.0   150.0   275.0   314.5   400.0  2000.0
> c(Fs(0), diff(Fs(25 * 0:21))) # probability mass function
 [1] 0.05000000 0.01500000 0.02337500 0.03467500 0.03257656 0.03578639
 [7] 0.03980787 0.04356232 0.04751800 0.04903380 0.05189806 0.05137886
[13] 0.05118691 0.05030486 0.04818189 0.04575882 0.04280890 0.03937836
[19] 0.03574568 0.03196808 0.02832446 0.02478833
> plot(Fs)

On peut aussi utiliser des méthodes d'approximation récursives,
> Fs <- aggregateDist("recursive", model.freq = "poisson",
+                     model.sev = fx, lambda = 3, x.scale = 25)
> plot(Fs)

Ce qui donne le graphique suivant


Des méthodes d'approximation de type normal power sont aussi programmées, ainsi que les techniques de simulations. Par exemple ici pour une survenance Poissonienne avec des coûts Gamma, on écrit
> model.freq <- expression(data = rpois(3))
> model.sev <- expression(data = rgamma(100, 2))
> Fs <- aggregateDist("simulation", nb.simul = 1000,
+                     model.freq, model.sev)

Enfin, pour lier avec le DM que je donnerais mercredi, Vincent Goulet a aussi programmé une méthode d'estimation de quantile,
> model.freq <- expression(data = rpois(3))
> model.sev <- expression(data = rlnorm(10, 1.5))
> Fs <- aggregateDist("simulation", model.freq, model.sev, nb.simul = 1000)
> quantile(Fs, probs = c(0.25, 0.5, 0.75))
      25%       50%       75%
 34394.82 103846.48 242771.54
> VaR(Fs)
      90%       95%       99%
 446391.8  639271.0 1475331.9

Simulation d'un processus de Poisson

Le prochain cours reviendra sur la solvabilité des compagnies d'assurance, et en particulier sur la modélisation et le calcul de la probabilité de ruine. En particulier, nous passerons pas mal de temps sur le "processus de Poisson".

Nous verrons en cours les notions de base sur les processus de Poisson$ \{N_t\}$. En particulier, nous verrons qu'ils se caractérisent soit par le processus d'arrivées $ \{T_i\}$, correspondant aux dates d'arrivée des sinistres, ou bien par$ W_i=, correspondants aux durées intersinistres. En effet, on peut obtenir des expressions de la forme  $ N_t=.
Dans sa forme la plus simple, on s'intéresse aux processus homogènes.   $ \{N_t: t \ge 0 \}$ sera un processus de Poisson homogène d'intensité $ \lambda > 0$ si les durées entre arrivées, $ W_i$ i.i.d. de loi exponentielle de paramètre $ \lambda $. L'algorithme naturel pour simuler les dates d'arrivées de sinistre $ T_1,T_2,\ldots,T_n$ est alors

  1. poser $ T_0 =
  2. pour $ i = on génère$ E$ suivant une loi exponentielle de paramètre $ \lambda $, puis on pose $ T_i =

Les choses vont se compliquer si on suppose que le processus de Poisson n'est plus homogène. Cette hypothèse est peut être davantage réaliste pour l'assurance. Par exemple, les assureurs savent qu'il y a plus d'accidents automobiles les jours de brouillard, ou de pluie, ou de verglas. On peut donc supposer qu'il existe un cycle lié au climat.

On suppose ici que le processus de Poisson est d'intensité $ \lambda(t)$. La première idée pour simuler un tel processus est de supposer qu'il existe 

$ \overline{\lambda}$  tel que $ \lambda(t)\leq\overline{\lambda}$ pour tout $ t$. On note  $ T_1^* ,T_2^* , T_3^* ,\ldots$ des arrivées successives d'un processus de Poisson de paramètre $ \overline{\lambda}$. On met alors en place une stratégie acceptation/rejet, telle que l'on garde le $ i$ème sinistre $ T_i^*$ avec probabilité $ \lambda(T_i^*
)/\overline{\lambda}$. La suite $ T_1, T_2, \ldots$ ainsi construite suit un processus de Poisson nonhomogène d'intensité $ \lambda(t)$. D'où l'algorithme

  1. On pose $ T_0 = et $ T^* = 0$
  2. on génère une variable exponentielle$ E$ d'intensité  $ \overline{\lambda}$
  3. On pose alors$ T^* = T^* + E$
  4. On génère une variable $ U$ uniforme sur $ (0,1)$: si $ U>\lambda(T^*)/\overline{\lambda}$ on rejette (et on retourne en 2.), et sinon on pose $ T_i = .
Une autre méthode consiste à noter que l'incrément 

$ N_t-N_s$, $ 0 < s < t$, suit une loi de Poisson d'intensité$ \widetilde{\lambda} = \int_s^t \lambda(u)du$. Aussi, la fonction de répartition $ F_s$ du temps d'attente $ W_s$ est

$\displaystyle F_s (t)$ $\displaystyle =$ $\displaystyle \textrm{P} (W_s \leq t) = 1- \textrm{P}(W_s > t) = 1- \textrm{P}(N_{s+t} - N_s =  
  $\displaystyle =$ $\displaystyle 1-\exp\left\{-\int_s^{s+t} \lambda(u)du
ight\} =
1-\exp\left\{-\int_0^t \lambda(s + v)dv
ight\}.$  

On peut utiliser la méthode suivante pour simuler le processus de Poisson
  1. Poser $ T_0 =
  2. Générer $ U$ suivant une loi uniforme sur $ (0,1)$
  3. Poser $ T_i =
Pour aller plus loin, je renvoie à des bouquins sur la simulation de processus, ou pour les applications assurantielles au Statistical Tools for Finance and Insurance, chez Springer.

Thursday, February 26 2009

Mélange Poissonien, suite

Dans un billet précédant, j'évoquais la mauvaise adéquation des lois de Poisson pour les données d'assurance (et autres) à cause de l'hétérogénéité des données. J'ai évoqué en TD le théorème de Moshe Shaked, parfois appelé "two crossings theorem", énoncé ci-dessous,

On notera que Moshe Shaked l'applique d'ailleurs à des données assurantielles, en notant ce "+-+", i.e. plus de polices peu ou pas sinistrées (par rapport à un cas Poissonnien), puis moins de polices moyennes sinistrées, et enfin plus de polices très sinistrées. C'est ce que j'ai voulu représenter sur le graphique ci-dessous,

Et c'est aussi ce qui peu sur vérifier sur les données du billet précédant.

Actuariat, modèle collectif et calculs numériques

Le troisième (et normalement dernier) devoir maison portera sur les lois composées. Je distribuerais jeudi 5 des exercices (à traiter en binôme) de la forme suivante

Le TD aura lieu salle 347 le jeudi 5, et la liste des 18 sujets est en ligne ici. Je ferais la distribution en TD. Comme toujours, un exo par binôme.

Wednesday, February 25 2009

De la difficulté de trouver des lois de Poisson en assurance...

Voici quelques jeux de données de fréquences (de sinistre par police en assurance auto, ou de survenance d'évènements climatiques).

La loi de Poisson, alias la "loi des petits nombres" n'est malheureusement parfois pas adapté comme nous allons le voir, à cause de la trop grande hétérogénéité. En revanche, les mélanges Poissonniens marchent mieux.

  • Fréquences individuelles de sinistres sur le portefeuille US
Je mets ici les sorties R obtenues sur l'exemple. Petite remarque pratique, je me suis senti obligé de "créer" un vecteur d'observations car la fonction fitdistr de library(MASS), ajuste les lois pour un échantillon (pas un histogramme). Ayant les fréquences, le vecteur est bien le vecteur des observations, mais ordonné.

> library(stats4); library(MASS)
> FREQUENCE=c(7840,1317,239,42,14,4,4,1)
> x=rep(0:7,FREQUENCE)
> mean(x);var(x)
[1] 0.2143537
[1] 0.2889314
> fitdistr(x,"poisson")
lambda
0.21435366
(0.00475989)
> fitdistr(x,"negative binomial")
size mu
0.701486138 0.214355746
(0.062786579) (0.005438638)
Warning messages:
1: In dnbinom_mu(x, size, mu, log) : production de NaN
2: In dnbinom_mu(x, size, mu, log) : production de NaN
3: In dnbinom_mu(x, size, mu, log) : production de NaN
> library(vcd)
> (ajust=goodfit(x,type="poisson",method="MinChisq"))
Observed and fitted values for poisson distribution
with parameters estimated by `MinChisq'
count observed fitted
0 7840 6153.89
1 1317 2646.64
2 239 569.43
3 42 81.15
4 14 8.78
5 4 0.75
6 4 5.412266e-02
7 1 3.325654e-03
> summary(ajust)
Goodness-of-fit test for poisson distribution
X^2 df P(> X^2)
Pearson 1928.450 6 0
Warning message:
In summary.goodfit(ajust) : Chi-squared approximation may be incorrect
> plot(ajust,main="Portefeuille US, ajustement Poisson")
> (ajust=goodfit(x,type="nbinomial",method="MinChisq"))
Observed and fitted values for nbinomial distribution
with parameters estimated by `MinChisq'
count observed fitted
0 7840 7841.0452322
1 1317 1268.4750630
2 239 269.9038125
3 42 62.0184072
4 14 14.7777713
5 4 3.5966266
6 4 0.8875796
7 1 0.2211937
> summary(ajust)
Goodness-of-fit test for nbinomial distribution
X^2 df P(> X^2)
Pearson 24.5363 5 0.0001711956
Warning message:
In summary.goodfit(ajust) : Chi-squared approximation may be incorrect
> plot(ajust,main="Portefeuille US, ajustement Binomiale Negative")

Et voilà pour la représentation visuelle: l'ajustement Poissonnien est mauvais, celui Binomial Négatif (qui est un mélange Poissonnien très particulier) marchant mieux, même s'il ne passe pas le test du chi-deux.


  • Fréquences individuelles de sinistres sur le portefeuille Belge
Dans le cas Belge, on retrouve des choses très similaires
library(stats4); library(MASS)
FREQUENCE=c(12962,1369,157,14,3)
x=rep(0:4,FREQUENCE)
> mean(x);var(x)
[1] 0.1197518
[1] 0.1353414
> fitdistr(x,"poisson")
lambda
0.119751810
(0.002873308)
> fitdistr(x,"negative binomial")
size mu
0.919872365 0.119756068
(0.132940516) (0.003054496)
> library(vcd)
> (ajust=goodfit(x,type="poisson",method="MinChisq"))
Observed and fitted values for poisson distribution
with parameters estimated by `MinChisq'
count observed fitted
0 12962 12722.20
1 1369 1668.45
2 157 109.40
3 14 4.78
4 3 0.16
> summary(ajust)
Goodness-of-fit test for poisson distribution
X^2 df P(> X^2)
Pearson 146.7944 3 1.294854e-31
Warning message:
In summary.goodfit(ajust) : Chi-squared approximation may be incorrect
> plot(ajust,main="Portefeuille Belge, ajustement Poisson")
> (ajust=goodfit(x,type="nbinomial",method="MinChisq"))
Observed and fitted values for nbinomial distribution
with parameters estimated by `MinChisq'
count observed fitted
0 12962 12961.307481
1 1369 1370.721425
2 157 153.260648
3 14 17.445453
4 3 2.003399
> summary(ajust)
Goodness-of-fit test for nbinomial distribution
X^2 df P(> X^2)
Pearson 1.012422 2 0.6027752
Warning message:
In summary.goodfit(ajust) : Chi-squared approximation may be incorrect
> plot(ajust,main="Portefeuille Belge, ajustement Binomiale Negative")
Là enocre, l'ajustement Poissonnien est mauvais, celui Binomial Négatif (qui est un mélange Poissonnien très particulier) marchant nettement mieux, et passe haut la main le test du chi-deux.

  • Fréquences des ouragans ayant touché la côté US, entre 1850 et 2008
Ici, l'ajustement de Poisson est validé par le test du chi-deux (on a beaucoup moins d'observations, et donc les tests d'ajustement ont plus tendance à passer), et la loi binomiale négative semble mieux marcher (normal, on a un degré de liberté supplémentaire !).

Wednesday, February 11 2009

Actuariat, TD, un peu d'assurance non-vie

Après trois séances sur l'assurance-vie, on attaque l'assurance dommage. Je mets là encore beaucoup d'exercices, tant pis si on ne fait pas tout....
On reprendra les lois usuelles, aussi bien les lois de comptages pour les fréquences de sinistres que les lois continues (positives) pour les coûts. Je renvoie à Wikipedia pour les lois classiques, en particulier la Loi de Poisson ou la Loi binomiale (on parlera aussi beaucoup de la Loi binomiale négative). Et pour les lois continues, la Loi exponentielle, la Loi log normale, ou la Loi gamma. On passera pas mal de temps sur les calculs de moments, mais aussi les lois mélanges. J'ai mis en ligne un petit document qui reprend les lois classiques de l'assurance avec leurs moments et les fonctions génératrices.
La prochaine feuille d'exercice portera sur le processus de Poisson et la probabilité de ruine.

Monday, February 9 2009

"Petit" devoir maison pour les vacances...

Afin d'avoir une note pour l'UE de "statistique de l'assurance", un deuxième devoir maison sera demandé mercredi. Toujours par binôme, il s'agira de faire un petit travail de synthèse sur un thème. Une vingtaine de thèmes seront proposés, avec quelques références, dont un article de l'Encyclopédie des Sciences Actuarielles sur le sujet.

    Méthodes numériques pour les lois composées (Heckman-Meyers)
  1. Transformée d’Esscher et changement de mesure
  2. Options des contrats d’assurance-vie
  3. Espérance de vie résiduelle en assurance non-vie
  4. Loi de Pareto en tarification
  5. Réassurance optimale
  6. Lois sous-exponentielles
  7. Les lois de Sundt et Jewell
  8. La duration
  9. Méthodes de classification et tarification
  10. Sélection adverse
  11. Fraude en assurance
  12. Insolvabilité
  13. Aléa moral
  14. Modèle de Wilkie
  15. Competing Risks
  16. Dépendance entre risques
  17. Incapacité, invalidité (disability)
  18. Génétique et assurance
  19. Tables de mortalités
Certains sujets sont très descriptifs, d'autres très mathématiques, d'autres au contraire très mathématiques. Il s'agit de faire un petit rapport de 6 pages maximum sur le sujet en motivant un peu le sujet d'un point de vue assurantiel, et éventuellement, pour les sujets qui s'y prête, de présenter une application numérique ou sur des lois de probabilité usuelles.
Les articles seront distribués en séance. Si des groupes veulent d'autres sujets, je vous laisse consulter le sommaire de l'Encyclopédie. Et sinon si certains souhaitent travailler sur un sujet relié avec le stage qu'ils ont décroché, on peut en discuter !
Un troisième devoir maison sera demandé à la rentrée, dans le même esprit que le premier, mais cette fois-ci sur le calcul numérique de la loi de variables composées.... à suivre.

Friday, February 6 2009

Dernier billet sur l'assurance vie (a priori)

Afin de rappeler ce que nous avons vu en TD jeudi dernier, je mets un petit billet pour rappeler les trois techniques de calcul de PM. Pour une temporaire décès, sur n années, on a

  • la méthode prospective, i.e. sur la période [k,n], ce qui s'écrit
ou encore
  • la méthode rétrospective, i.e. sur la période [0,k] - on se place en 0 puis on "actualise", soit
  • la méthode itérative, i.e. on étudie la variation de PM, entre k-1 et k, en se plaçant en k-1, puis en "actualisant". On a
Pour un autre exemple (assurance combinant une rente viagère en cas de vie et un capital décès), je renvoie au dernier TD.

Wednesday, February 4 2009

Actuariat: fin de l'assurance-vie

Pour finir le cours d'assurance-vie, un dernier billet. Tout d'abord deux exercices supplémentaires pour le TD de demain, sur le calcul de la provisions mathématiques. Ensuite un petit complément sur le calcul d'annuités sur une tête lorsque l'on considère un fractionnement avec des paiements constants. Il semblerait que j'ai fait une erreur dans un signe à un moment dans le traitement de l'exemple au tableau (mais le résultat final semblait correct). Bref, j'ai refait tout le calcul (voir aussi ici pour un calcul beaucoup plus détaillé, tiré de l'Encyclopédie des Sciences Actuarielles):

Et enfin, last but not least, un peu de contrôle continu. Je distribuerai en cours des exercices à faire en binôme (non, les binômes ne sont pas constitués de 3 élèves). Les énoncées seront tirées au hasard parmi les exercices ici. Au cas où la description du contrat pourrait prêter à confusion, je vous laisser expliquer l'interprétation que vous avez retenue (comme si l'interprétation d'un contrat d'assurance pouvait prêter à confusion...). Il s'agira de me rendre une feuille avec le calcul formel des valeurs actuelles probables, puis une résolution numérique et un graphique présentant l'évolution de la PM (comme cela était fait dans un précédant billet). Les documents seront à rendre pour le jeudi 26 février, par mail. Le calcul peut être fait sous Excel (auquel cas je demandrais une copie du fichier xls), ou bien sous R, auquel cas je demandrais le code R. Pour rappel, les tables sont disponibles sur ce blog,  soit sous Excel i.e. TD8890.xls et TV8890.xls, soit directement dans un format lisible sous R

> Lx=read.table("http://perso.univ-rennes1.fr/arthur.charpentier/TV8890.csv",header=TRUE,sep=";")

> Lx=read.table("http://perso.univ-rennes1.fr/arthur.charpentier/TD8890.csv",header=TRUE,sep=";")

Actuariat: calcul (pratique) de la provision mathématique

Nous verrons mercredi comment calculer une provision mathématique (i.e. la PM) pour un contrat d'assurance temporaire décès. Les calculs suivants sont fait sous Excel, avec un assuré de 20 ans, un durée contractuelle de 25 ans, une prime payée annuellement et un taux d'actualisation de 3,5%.

On pourra alors utiliser cette feuille de calcul pour regarder l'évolution de la PM en fonction de l'âge de l'assuré, ou du taux d'actualisation.

Sinon il est aussi possible d'utiliser R pour faire des formules de calcul plus générales, et plus simples. Par exemple, pour calculer un VAP sous R, on peut utiliser un code de la forme suivante

> capital=c(100,100,125,125,150,150); n=length(capital)
> taux=0.035; x=45
> (capital.act=capital*(1/(1+taux))^(1:n))
[1] 96.61836 93.35107 112.74284 108.93028 126.29598 122.02510
> Lx=read.table("http://perso.univ-rennes1.fr/arthur.charpentier/TV8890.csv",header=TRUE,sep=";")
> (PROBA=Lx[((Lx[,1]>x)*(Lx[,1]<=(x+n)))==1,2]/Lx[(Lx[,1]==x)==1,2])
[1] 0.9980581 0.9960128 0.9938849 0.9915814 0.9890714 0.9863444
> (FluxVAP=capital.act*PROBA)
[1] 96.43073 92.97886 112.05341 108.01324 124.91573 120.35877
> (VAP=sum(FluxVAP))
[1] 654.7507

Tuesday, February 3 2009

Le TD est déplacé....

à la demande générale, le TD de "statistique de l'actuariat" sera déplacé du vendredi matin au jeudi matin, de 8 heures à 11 heures.

valorisation financière ou actuarielle ?

Un des derniers cours de statistique de l'actuariat portera sur la notion de "market valuation" c'est à dire de valorisation du passif d'une compagnie d'assurance par des mécanismes financiers (de prix de couverture et de réplication). En particulier, nous verrons comment passer de la probabilité historique des assureurs à la probabilité risque neutre des financiers. (cf un ancien billet).

Ce lien entre finance et assurance, qui sous-tendant les nouvelles normes Solvency II, ont été encore renforcé avec le rapport de Bruno Deletré qui recommande une fusion entre la Commission Bancaire et l'ACAM, Autorité de Contrôle des Assurances et des Mutuelles.

Mais sur ce sujet (comme beaucoup d'autres sur l'assurance d'ailleurs), je renvoie au commentaire sur le blog de Cimon.

Tuesday, January 27 2009

Actuariat: la couverture des catastrophes (naturelles)

Suite à l'article de Libé sur internet, je n'ai pas pu m'empêcher de mettre un petit billet (avec un peu d'avance) sur les catastrophes naturelles. La loi dite CatNat de 1982, i.e. Article L125, dit clairement que "sont considérés comme les effets des catastrophes naturelles, au sens du présent chapitre,les dommages matériels directs non assurables ayant eu pour cause déterminante l'intensité anormale d'un agent naturel, lorsque les mesures habituelles à prendre pour prévenir ces dommages n'ont pu empêcher leur survenance ou n'ont pu être prises". Mais elle exclue le risque tempête (en tous les cas pour les particuliers). Mais depuis juin 1990, les contrats d’assurance incendie doivent obligatoirement garantir les biens assurés contre les effets du vent dus aux tempêtes, ouragans et cyclones (art. L. 122-7 du Code des Assurance): "Les contrats d'assurance garantissant les dommages d'incendie ou tous autres dommages à des biens situés en France, ainsi que les dommages aux corps de véhicules terrestres à moteur, ouvrent droit à la garantie de l'assuré contre les effets du vent dû aux tempêtes, ouragans et cyclones, sur les biens faisant l'objet de tels contrats, sauf en ce qui concerne les effets du vent dû à un événement cyclonique pour lequel les vents maximaux de surface enregistrés ou estimés sur la zone sinistrée ont atteint ou dépassé 145 km/h en moyenne sur dix minutes ou 215 km/h en rafales, qui relèvent des dispositions des articles L. 125-1 et suivants du présent code". Ceci implique que la couverture dépend des contrats, et n'est pas lié à une quelconque déclaration d'état de "catastrophe naturelle" par un comité inter-ministériel. 

Parmi les références, on notera un document de l'INC, ou encore du Ministère de l'Environnement. Quelques références plus techniques sur la modélisation et la couverture, en particulier deux très bons articles publiés dans Variance, le premier de Pierre Michel et le second de Christophe Fritsch.

- page 1 of 2