J'ai récemment appris la conjecture gourmande du problème de chaîne la plus courte .
Dans ce problème, on nous donne un ensemble de chaînes et nous voulons trouver la chaîne la plus courte c'est-à-dire telle que chaque apparaisse comme une sous-chaîne de .
Ce problème est NP-difficile et après une longue séquence d'articles, l'algorithme d'approximation le plus connu pour ce problème a un rapport [Paluch '14].
En pratique, les biologistes utilisent l'algorithme Greedy suivant:
À chaque étape, fusionnez deux chaînes qui se chevauchent au maximum sur toutes les paires (le suffixe maximal qui est le préfixe d'une autre chaîne) et répétez sur cette nouvelle instance jusqu'à ce qu'il ne reste qu'une seule chaîne (qui est une super chaîne de toutes les chaînes d'entrée )
Une borne inférieure de dans le rapport d'approximation de cet algorithme gourmand peut être obtenue à partir de l'entrée .
Fait intéressant, il a été conjecturé que c'est le pire exemple, c'est-à-dire que Greedy réalise une approximation de pour le problème de supercord le plus court. J'ai été très surpris de voir qu'un algorithme aussi naturel et facile est si difficile à analyser.
Y a-t-il des intuitions, des faits, des observations, des exemples qui suggèrent pourquoi cette question est si difficile?