Considérons un modèle exponentiel pour le temps de survie dans un essai randomisé et contrôlé par placebo de l’azathioprine pour la cirrhose biliaire primitive. Les temps de survie (en jours) des \(n\) patients du groupe placebo sont donnés par les variables aléatoires \(X_i\) avec les indicatrices de censure \(\gamma_i \quad i = 1,\ldots,n\), tandis que les temps de survie des \(m\) patients du groupe de contrôle sont désignés par \(Y_i\) et ont des indicatrices de censure \(\delta_i \quad i = 1, \ldots, m\). Les temps de survie non censurés (en partie non observés) suivent des modèles exponentiels avec les paramètres \(\eta\) et \(\eta \theta\) dans les groupes placebo et traités respectivement (\(\eta, \theta > 0\)).

  1. Interpréter les paramètres \(\eta\) et \(\theta\).

  2. Écrire la vraisemblance comme le produit des vraisemblances associées aux groupes placebo et contrôle respectivement1.

  3. Montrer que la log-vraisemblance des données est donnée par \[\ell\big(\eta, \theta\big) = (n \bar{\gamma} + m \bar{\delta}) \log(\eta) + m \bar{\delta}\log(\theta) - \eta (n \bar{x} + m \theta \bar{y}),\]\(\bar{\gamma}, \bar{\delta}, \bar{x}\) et \(\bar{y}\) sont les moyennes empiriques des \(\gamma_i, \delta_i, x_i\) et \(y_i\) respectivement.

  4. Calculer le MLE \(\big(\hat{\eta}_\text{ML}, \hat{\theta}_\text{ML}\big)\).

  5. Proposer une approximation de la matrice d’information de Fisher \(I_{m,n}\big(\hat{\eta}_\text{ML}, \hat{\theta}_\text{ML}\big)\) apportée par toutes les observations en remplaçant \(\mathbb E \big(\gamma_i\big)\) et \(\mathbb E \big(\delta_i\big)\) par les estimateurs appropriés2. Dans le cas d’un vecteur de paramètres, l’information de Fisher est une matrice symétrique où \(-\mathbb E \left(\frac{\partial^2}{\partial \eta^2} \ell\big(\eta, \theta\big) \right)\) et \(-\mathbb E \left(\frac{\partial^2}{\partial \theta^2} \ell\big(\eta, \theta\big) \right)\) sont les éléments diagonaux et \(-\mathbb E \left(\frac{\partial^2}{\partial \theta \partial \eta} \ell\big(\eta, \theta\big) \right)\) est l’élément anti-diagonal.

  6. Dans le cas d’un paramètre multidimensionnel, la loi asymptotique du paramètre \(\widehat{\theta}_\text{ML}\) est donnée par
    \[\widehat{\theta}_\text{ML} \sim \mathcal N\Big(\theta, I_{m,n}\big(\hat{\eta}_\text{ML}, \hat{\theta}_\text{ML}\big)^{-1}_{22}\Big),\]\(I_{m,n}\big(\hat{\eta}_\text{ML}, \hat{\theta}_\text{ML}\big)^{-1}_{22}\) correspond à l’élément \(22\) de l’inverse de la matrice d’information de Fisher obtenue en remplaçant \(\eta\) et \(\theta\) par les estimateurs \(\hat{\eta}_\text{ML}\) et \(\hat{\theta}_\text{ML}\).

    • (Difficile) Déduire que \(\hat{\theta}_\text{ML} \sqrt{\frac{n \bar{\gamma} + m \bar{\delta}}{n \bar{\gamma}m \bar{\delta}}}\) est une approximation de l’écart type asymptotique de \(\hat{\theta}_\text{ML}\) et proposer une formule générale d’un intervalle de confiance \(\alpha \cdot 100\%\) asymptotique.

La \(\delta\)-méthode

Un théorème appelé \(\delta\)-méthode permet de déduire la normalité asymptotique d’une transformation d’un estimateur. Soit \(\widehat{\theta}_n\) un estimateur asymptotiquement normal autour de \(\theta\) et de variance asymptotique \(\sigma^2\) comme suit

\[ \sqrt{n} \Big(\widehat{\theta}_n - \theta \Big) \to \mathcal N(0, \sigma^2) \quad \text{ en loi quand} \quad n \to \infty. \] Pour toute fonction \(g\) dérivable telle que \(g^\prime(\theta) \neq 0\), nous avons la normalité asymptotique suivante

\[ \sqrt{n} \Big(g\big(\widehat{\theta}_n\big) - g\big(\theta\big) \Big) \to \mathcal N\Big(0, \sigma^2[g^\prime(\theta)]^2\Big) \quad \text{ en loi quand} \quad n \to \infty. \]

  1. Considérer la transformation \(\psi = \log(\theta)\). À l’aide de la \(\delta\)-méthode, proposer un intervalle de confiance \(\alpha \cdot 100\%\) asymptotique pour \(\psi\).

  1. Indication : La vraisemblance d’un individu correspond à la densité d’une exponentielle évaluée au temps de survie de l’individu s’il est censuré et à la fonction de survie évaluée au temps de survie de l’individu en cas d’absence de censure.

  2. On considère la moyenne empirique est une bonne approximation de la moyenne théorique pour les \(X_i\) et \(Y_i\). Dans cette question nous n’avons pas besoin de faire un calcul d’espérence.