Conference PaperPDF Available

Comparaison d'algorithmes pour le problème du vertex cover

Authors:

Abstract

Puisqu'il semble maintenant improbable que l'on puisse trouver un algorithme polynomial résol-vant de façon exacte un problème NP-difficile, l'utilisation d'algorithmes polynomiaux retournant des solutions non optimales s'est généralisée. Cependant, il est souhaitable que la qualité des solu-tions retournées ne soit pas trop dégradée et on demande donc à ces algorithmes d'approximation de donner une garantie sur leurs performances. Cette qualité est le plus souvent mesurée grâce au rapport d'approximation en pire cas. Le vertex cover 1 est un problème "classique" de minimisation, NP-complet pour lequel de nom-breux algorithmes d'approximation ont été proposés. Par exemple, il est connu que l'algorithme ED, qui sélectionne les sommets d'un couplage maximal du graphe, possède un rapport d'ap-proximation de 2 et l'algorithme M DG, qui sélectionne un sommet de degré maximum, le retire du graphe et recommence tant qu'il existe une arête, possède un rapport d'approximation de H(∆) = 1 + 1 2 + · · · + 1 ∆ (∆ est le degré max. du graphe). Aucun algorithme ayant un rapport d'approximation constant inférieure à 2 n'a été trouvé. Avis and Imamura ont proposé LL, un algorithme de liste ∆-approché (parcourir la liste L donnée des sommets de G de la gauche vers la droite et sélectionner le sommet courant s'il possède un voisin dans G qui se trouve à sa droite dans la liste L). Nous avons proposé un autre algorithme de liste, LR (parcourir la liste L donnée des sommets de G de la droite vers la gauche et sélectionner le sommet courant u ssi il possède un voisin dans G, qui se trouve à sa droite dans la liste L et qui n'a pas déjà été sélectionné lorsqu'il a été examiné). Nous avons prouvé dans [DL08] que LR retourne toujours une solution dont la taille est inférieure ou égale à celle retournée par LL et dans [BDL09] que pour tout graphe G à n sommets, E(LR(G)) ≤2-(2/opt(G)). Ce type de résultat indique que le rapport d'approximation en pire cas, bien qu'étant une mesure de grande importance, est trop macroscopique pour rendre compte de l'ensemble des exécutions des algorithmes (qui ne sont pas totalement déterministes) et ne permet pas d'obtenir un classement des algorithmes qui soit représentatif de leurs performances "pratiques'". Nous proposons, sous une hypothèse d'équiprobabilité, une comparaison en moyenne à la fois analytique et expérimentale des 4 algorithmes ED, MDG, LL et LR.
Comparaison d’algorithmes pour le problème du vertex cover
François Delbot1Christian Laforest2
1LATP (UMR CNRS 6632),
Université d’Aix-Marseille 1
francois.delbot@gmail.com
2ISIMA, LIMOS (UMR CNRS 6158),
Université B. Pascal, Clermont-Ferrand
christian.laforest@isima.fr
Puisqu’il semble maintenant improbable que l’on puisse trouver un algorithme polynomial résol-
vant de façon exacte un problème NP-difficile, l’utilisation d’algorithmes polynomiaux retournant
des solutions non optimales s’est généralisée. Cependant, il est souhaitable que la qualité des solu-
tions retournées ne soit pas trop dégradée et on demande donc à ces algorithmes d’approximation
de donner une garantie sur leurs performances. Cette qualité est le plus souvent mesurée grâce
au rapport d’approximation en pire cas.
Le vertex cover1est un problème "classique" de minimisation, NP-complet pour lequel de nom-
breux algorithmes d’approximation ont été proposés. Par exemple, il est connu que l’algorithme
ED, qui sélectionne les sommets d’un couplage maximal du graphe, possède un rapport d’ap-
proximation de 2 et l’algorithme MDG, qui sélectionne un sommet de degré maximum, le retire
du graphe et recommence tant qu’il existe une arête, possède un rapport d’approximation de
H(∆) = 1 + 1
2+···+1
(∆ est le degré max. du graphe). Aucun algorithme ayant un rapport
d’approximation constant inférieure à 2 n’a été trouvé. Avis and Imamura ont proposé LL, un
algorithme de liste ∆-approché (parcourir la liste Ldonnée des sommets de Gde la gauche vers
la droite et sélectionner le sommet courant s’il possède un voisin dans Gqui se trouve à sa droite
dans la liste L). Nous avons proposé un autre algorithme de liste, LR (parcourir la liste Ldonnée
des sommets de Gde la droite vers la gauche et sélectionner le sommet courant ussi il possède un
voisin dans G, qui se trouve à sa droite dans la liste Let qui n’a pas déjà été sélectionné lorsqu’il
a été examiné). Nous avons prouvé dans [DL08] que LR retourne toujours une solution dont
la taille est inférieure ou égale à celle retournée par LL et dans [BDL09] que pour tout graphe
Gànsommets, E(LR(G)) 22
nopt(G). Ce type de résultat indique que le rapport d’ap-
proximation en pire cas, bien qu’étant une mesure de grande importance, est trop macroscopique
pour rendre compte de l’ensemble des exécutions des algorithmes (qui ne sont pas totalement
déterministes) et ne permet pas d’obtenir un classement des algorithmes qui soit représentatif
de leurs performances “pratiques”. Nous proposons, sous une hypothèse d’équiprobabilité, une
comparaison en moyenne à la fois analytique et expérimentale des 4 algorithmes ED,MDG,LL
et LR.
Les chemins Pnànsommets. Au moyen de séries génératrices, nous avons calculé des
formules closes de l’espérance (exacte) du rapport d’approximation de ces quatre algorithmes,
ainsi que leur limite lorsque la taille du chemin tend vers l’infini. Les résultats de cette étude sont
résumés dans le tableau 1. Nous avons également montré que la meilleure solution retournée par
ED sur un chemin est toujours moins bonne ou égale à la plus mauvaise solution retournée par
MDG.
Travail soutenu par le projet ANR Todo http ://todo.lamsade.dauphine.fr/
1Étant donné un graphe G= (V, E ), le problème du vertex cover consiste à trouver le plus petit ensemble
CVtel que pour toute arête (i, j)Eon ait iCou jC(ou bien les deux).
1
Algorithme Espérance Limite de l’espérance
du rapport d’approximation
MDG n1
2+n1
2Pn1
p=0
(2)p
p!+Pn2
p=0
(2)p
p!1 + e21.13
LR n1
2+n+1
2·Pn
k=0
(2)k
k!+Pn1
k=0
(2)k
k!1 + e21.13
LL 2n1
3
4
31.33
ED nnPn1
p=0
(2)p
p!2Pn2
p=0
(2)p
p!22e21.73
TAB. 1 – Tableau récapitulatif des résultats analytiques obtenus sur les chemins.
Étude expérimentale Les résultats théoriques obtenus lors de l’étude précédente peuvent être
difficiles à obtenir ou, tout du moins, prennent du temps à être découverts. Pour aller plus loin,
nous avons décidé de mener une comparaison expérimentale de la qualité moyenne des algorithmes
précédemment utilisés. Pour cela, nous avons développé un outil en JAVA (qui propose un bon
générateur aléatoire pseudo-uniforme). Nos expériences ont été menées sur différents échantillons
de graphes : graphes aléatoires de Erdös-Renyi (denses), arbres, Benchmarks with Hidden Op-
timum Solutions [XL06], qui sont reconnus pour être des instances difficiles à résoudre, graphes
admettant une régularité structurelle (grilles, tores, hypercubes et les graphes réguliers). L’intérêt
de ce dernier échantillon est que tous les algorithmes se trouvent sur un pied d’égalité puisqu’ils
sont tous au plus 2approchés en pire cas. Cette étude confirme très clairement les résultats
théoriques. On pourra trouver l’intégralité de l’étude portant sur les chemins, l’étude expérimen-
tale ainsi que la comparaison à d’autres algorithmes dans [DLar]. Pour aller plus loin dans notre
analyse théorique, nous proposons ici une comparaison asymptotique de trois2de ces algorithmes
sur les graphes aléatoires de Erdös-Renyi. Pour cela, nous donnons une formule (exacte) de l’es-
pérance de LR et de LL sur cette classe de graphes. En utilisant le résultat asymptotique de
[DFP93] pour ED, nous montrons que dans le cas des graphes creux, c’est-à-dire lorsque la pro-
babilité d’existence d’une arête est de p=p(n) = c
n, avec cune constante, LL est meilleur que
ED (et donc que LR est le meilleur des trois algorithmes). De plus, la différence de performances
entre ces algorithmes n’est pas négligeable (par exemple, lorsque c= 1 ED retourne, en moyenne,
1
21
e·nsommets de plus que LL).
Conclusion, perspectives Nous avons montré que des algorithmes qui avaient de mauvaises
performances en pire cas pouvaient produire des solutions moyennes meilleures que des algo-
rithmes ayant de faibles rapports d’approximation. Il nous apparait que, au moins dans certains
cas, l’étude des algorithmes approchés ne doit pas se contenter de produire des analyses en pire
cas mais aussi des résultats en moyenne. Nous pensons même que le "classement" basé sur le pire
cas peut être l’inverse du classement basé sur le cas moyen. Par exemple, nous conjecturons que
pour tout graphe G, on a : E(LR(G)) E(ED(G)).
Références
[BDL09] Etienne Birmelé, François Delbot, and Christian Laforest. Mean analysis of an online
algorithm for the vertex cover problem. IPL, 109(9) :436–439, 2009.
[DFP93] Martin Dyer, Alan Frieze, and Boris Pittel. The average performance of the greedy
matching algorithm. AAP, 1993.
[DL08] François Delbot and Christian Laforest. A better list heuristic for vertex cover. IPL,
107(3-4) :125–127, 2008.
[DLar] François Delbot and Christian Laforest. Analytical and experimental comparison of six
algorithms for the vertex cover. ACM, JEA, 2010 (to appear).
[XL06] Ke Xu and Wei Li. Many hard examples in exact phase transitions. TCS, 355(3) :291–
302, 2006.
2La nature gloutonne liée au degré maximum de MDG rend son analyse très difficile sur les graphes aléatoires.
2
ResearchGate has not been able to resolve any citations for this publication.
Article
Full-text available
The vertex cover is a well-known NP-complete minimization problem in graphs that has received a lot of attention these last decades. Many algorithms have been proposed to construct vertex cover in different contexts (offline, online, list algorithms, etc.) leading to solutions of different level of quality. This quality is traditionally measured in terms of approximation ratio, that is, the worst possible ratio between the quality of the solution constructed and the optimal one. For the vertex cover problem the range of such known ratios are between 2 (conjectured as being the smallest constant ratio) and Δ, the maximum degree of the graph. Based on this measure of quality, the hierarchy is almost clear (the smaller the ratio is, the better the algorithm is). In this article, we show that this measure, although of great importance, is too macroscopic and does not reflect the practical behavior of the methods. We prove this by analyzing (known and recent) algorithms running on a particular class of graphs: the paths. We obtain closed and exact formulas for the mean of the sizes of vertex cover constructed by these different algorithms. Then, we assess their quality experimentally in several well-chosen class of graphs (random, regular, trees, BHOSLIB benchmarks, trap graphs, etc.). The synthesis of all these results lead us to formulate a “practical hierarchy” of the algorithms. We remark that it is, more or less, the opposite to the one only based on approximation ratios, showing that worst-case analysis only gives partial information on the quality of an algorithm.
Article
Full-text available
François Delbot and Christian Laforest develops a better list heuristic for vertex cover. A vertex cover C of G is a subset of vertices such that every edge e = uv ε E contains at least one vertex of C: C ⊂ V and ∀e =uv, u ε C or v ε C. In spite of these difficulties, the authors propose an online algorithm in which the scanned vertex is selected if and only if it has at least a nonselected already revealed neighbor with competitive ratio of ∇. Another type of interesting variation is what D. Avis and T. Imamura call the list heuristic. In this model, an algorithm scans the vertices one by one in a fixed given order called a list. A list algorithm scans the list only once and takes a definitive decision of selection for the currently scanned vertex. This can be viewed as an intermediate model between traditional approximation algorithms or heuristics.
Article
Full-text available
In 2005, Demange and Paschos proposed in [M. Demange, V.Th. Paschos, On-line vertex-covering, Theoret. Comput. Sci. 332 (2005) 83–108] an online algorithm (noted LR here) for the classical vertex cover problem. They shown that, for any graph of maximum degree Δ, LR constructs a vertex cover whose size is at most Δ times the optimal one (this bound is tight in the worst case).Very recently, two of the present authors have shown in [F. Delbot, C. Laforest, A better list heuristic for vertex cover, Inform. Process. Lett. 107 (2008) 125–127] that LR has interesting properties (it is a good “list algorithm” and it can easily be distributed). In addition, LR has good experimental behavior in spite of its Δ approximation (or competitive) ratio and the fact that it can be executed without the knowledge of the full instance at the beginning.In this paper we analyze it deeper and we show that LR has good “average” performances: we prove that its mean approximation ratio is strictly less than 2 for any graph and is equal to 1+e−2≈1.13 in paths. LR is then a very interesting algorithm for constructing small vertex covers, despite its bad worst case behavior.
Article
Full-text available
this paper we discuss the expected performance of the simplest of matching algorithms i.e. the GREEDY (or myopic) algorithm. Given a graph G the
Article
This paper analyzes the resolution complexity of two random constraint satisfaction problem (CSP) models (i.e. Model RB/RD) for which we can establish the existence of phase transitions and identify the threshold points exactly. By encoding CSPs into CNF formulas, it is proved that almost all instances of Model RB/RD have no tree-like resolution proofs of less than exponential size. Thus, we not only introduce new families of CSPs and CNF formulas hard to solve, which can be useful in the experimental evaluation of CSP and SAT algorithms, but also propose models with both many hard instances and exact phase transitions. Finally, conclusions are presented, as well as a detailed comparison of Model RB/RD with the Hamiltonian cycle problem and random 3-SAT, which, respectively, exhibit three different kinds of phase transition behavior in NP-complete problems.