RÉSUMÉ.
Nous considérons le problème de sélection de variables via la vraisemblance pénalisée en
utilisant des fonctions de pénalité non convexes. Afin de maximiser la fonction objectif qui est non différentiable
et non concave, un algorithme basé sur une approximation linéaire locale et fournissant un
estimateur éparse été récemment proposé. Cependant, il hérite de certains inconvénients du Lasso
en grande dimension. Afin d’y remédier, nous proposons un algorithme (MLLQA) pour maximiser la
vraisemblance pénalisée pour une large classe de fonctions de pénalité non convexes. La propriété
de convergence du MLLQA ainsi que la propriété oracle de l’estimateur obtenu après une itération ont
été établies. Des simulations ainsi qu’une application sur données réelles sont également présentées.
ABSTRACT.
We consider the problem of variable selection via penalized likelihood using nonconvex
penalty functions. To maximize the non-differentiable and nonconcave objective function, an algorithm
based on local linear approximation and which adopts a naturally sparse representation was recently
proposed. However, although it has promising theoretical properties, it inherits some drawbacks of
Lasso in high dimensional setting. To overcome these drawbacks, we propose an algorithm (MLLQA)
for maximizing the penalized likelihood for a large class of nonconvex penalty functions. The convergence
property of MLLQA and oracle property of one-step MLLQA estimator are established. Some
simulations and application to a real data set are also presented.
MOTS-CLÉS : Régression, Sélection de variables, pénalité SCAD, algorithmes LARS, LLA et LQA.
KEYWORDS : Regression, Variable selection, SCAD penalty, LARS, LLA and LQA algorithms. |