Intuition derrière les valeurs propres d'une matrice d'adjacence


10

Je travaille actuellement à comprendre l'utilisation de la limite de Cheeger et de l'inégalité de Cheeger, et leur utilisation pour le partitionnement spectral, la conductance, l'expansion, etc., mais j'ai encore du mal à avoir un début d'intuition concernant la deuxième valeur propre de la matrice d'adjacence.
Habituellement, dans la théorie des graphes, la plupart des concepts que nous rencontrons sont assez simples à comprendre, mais dans ce cas, je ne peux même pas trouver quel type de graphiques aurait une deuxième valeur propre très faible ou très élevée.
J'ai lu des questions similaires posées ici et là sur le réseau SE, mais elles se réfèrent généralement à des valeurs propres dans différents domaines ( analyse multivariée , matrices de distances euclidiennes , matrices de corrélation ...).
Mais rien sur le partitionnement spectral et la théorie des graphes.

Quelqu'un peut-il essayer de partager son intuition / expérience de cette deuxième valeur propre dans le cas des graphes et des matrices d'adjacence?


Connaissez-vous le lien entre le spectre de la matrice d'adjacence et la convergence des marches aléatoires sur le graphique?
Yuval Filmus

@YuvalFilmus Pas du tout, bien qu'il soit vraiment familier avec les marches aléatoires et en quelque sorte familier avec le spectre d'une matrice d'adjacence. Donc, je suis vraiment intéressé par votre point de vue :)
m.raynal

Réponses:


6

La deuxième valeur propre (en magnitude) contrôle le taux de convergence de la marche aléatoire sur le graphique. Ceci est expliqué dans de nombreuses notes de cours, par exemple les notes de cours de Luca Trevisan . En gros, la distance de L2 à l'uniformité après t étapes peut être limitée par λ2t .

Un autre endroit où la deuxième valeur propre apparaît est le problème de la clique plantée . Le point de départ est l'observation selon laquelle un aléatoire G(n,1/2) graphique contient une clique de taille 2log2n , mais l'algorithme glouton trouve seulement une clique de taille log2n , et pas de meilleur algorithme efficace est connu. (L'algorithme gourmand choisit simplement un nœud aléatoire, jette tous les non-voisins et répète.)

Cela suggère la plantation d' une grande clique sur le dessus de G(n,1/2) . La question est: quelle doit être la taille de la clique, afin que nous puissions la trouver efficacement. Si nous plantons une clique de taille Cnlogn , alors nous pourrions identifier les sommets de la clique juste par leur degré; mais cette méthode ne fonctionne que pour les cliques de tailleΩ(nlogn). Nous pouvons améliorer cela en utilisant des techniques spectrales: si nous plantons une clique de tailleCn , puis ledeuxième vecteur proprecode la clique, comme lemontrent Alon, Krivelevich et Sudakovdans un article classique.

Plus généralement, les premiers vecteurs propres sont utiles pour partitionner le graphique en un petit nombre de clusters. Voir par exemple le chapitre 3 des notes de cours de Luca Trevisan , qui décrit les inégalités de Cheeger d'ordre supérieur.


5

(Avertissement: cette réponse concerne les valeurs propres des graphiques en général, pas la deuxième valeur propre en particulier. J'espère que cela sera néanmoins utile.)

Une façon intéressante de penser les valeurs propres d'un graphe G=(V,E) est de prendre l'espace vectoriel Rnn=|V|et identifier chaque vecteur avec une fonction f:VR (c'est-à-dire un étiquetage de sommet). Un vecteur propre de la matrice d'adjacence est donc un élément de fRn tel qu'il existe λR (c'est-à-dire une valeur propre) avec Af=λf , Aétant la matrice d'adjacence de G . Notez que Af est le vecteur associé à la carte qui envoie chaque sommet vV à uN(v)f(u) , N(v) étant l'ensemble des voisins (c'est-à-dire les sommets adjacents à) u . Par conséquent, dans ce paramètre, la propriété vecteur propre de f correspond à la propriété qui sommant les valeurs de fonction (sous f )des voisins d'un sommet donne le même résultat que la multiplication de la valeur de fonction du sommet par la constante λ .


Merci beaucoup, je n'avais jamais «vu» que le vecteur propre multiplié par \ lambda avait la valeur de la somme des valeurs de fonction des voisins (même si cela vient directement de la définition).
m.raynal

1
Moi non plus :) Je l'ai trouvé par hasard dans un programme sur les valeurs propres des graphes.
dkaeae

5

Je pense que pour la plupart des choses, il est plus productif de regarder le laplacien du graphe G , qui est étroitement lié à la matrice d'adjacence. Ici, vous pouvez l'utiliser pour relier la deuxième valeur propre à une propriété "locale vs globale" du graphique.

Pour simplifier, supposons que G soit d régulier. Alors le laplacien normalisé de G est L=I1dA, oùIest l'identitén×n, etAest la matrice d'adjacence. La chose agréable sur le Laplacien est que,écriturevecteurs commefonctionsf:VRcomme @dkaeae, etutilisant,pour le produit intérieurhabitude, nous avons cette expression très agréable pour la forme quadratique donnée parL:

f,Lf=1d(u,v)E(f(u)f(v))2.

La plus grande valeur propre de A est d , et correspond à la plus petite valeur propre de L , qui est 0 ; la deuxième plus grande valeur propre λ2 de A correspond à la deuxième plus petite valeur propre de L , qui est 1λ2d . Par leprincipe min-max, nous avons

1λ2d=min{f,Lff,f:vVf(v)=0,f0}.

Notez que f,Lf ne change pas quand on passe f par la même constante pour chaque sommet. Donc, de manière équivalente, vous pouvez définir, pour tout f:VR , la fonction "centrée" f0 par f0(u)=f(u)1nvVf(v), et écrivez

1λ2d=min{f,Lff0,f0:f not constant}.

Maintenant , un peu de calcul montre que f0,f0=1n{u,v}(V2)(f(u)f(v))2, en remplaçant ci-dessus le numérateur et le dénominateur parn2 , nous avons

1λ2d=min{2nd(u,v)E(f(u)f(v))22n2{u,v}(V2)(f(u)f(v))2:f not constant}.

What this means is that, if we place every vertex u of G on the real line at the point f(u), then the average distance between two independent random vertices in the graph (the denominator) is at most ddλ2 times the average distance between the endpoints of a random edge in the graph (the numerator). So in this sense, a large spectral gap means that what happens across a random edge of G (local behavior) is a good predictor for what happens across a random uncorrelated pair of vertices (global behavior).

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.