Ce n'est pas seulement Hawking, vous entendez des variations sur ce refrain de beaucoup de gens. Et étant donné que ce sont surtout des gens très intelligents, bien éduqués et bien informés (Elon Musk en est un autre, par exemple), cela ne devrait probablement pas être rejeté d'emblée.
Quoi qu'il en soit, l'idée de base semble être la suivante: si nous créons une "vraie" intelligence artificielle, à un moment donné, elle pourra s'améliorer, ce qui améliore sa capacité à s'améliorer, ce qui signifie qu'elle peut améliorer sa capacité à s'améliorer même plus, et ainsi de suite ... une cascade galopante menant à une "intelligence surhumaine". C'est-à-dire, conduisant à quelque chose de plus intelligent que nous.
Alors, que se passe-t-il s'il y a une entité sur cette planète qui est littéralement plus intelligente que nous (les humains)? Serait-ce une menace pour nous? Eh bien, il semble certainement raisonnable de spéculer qu'il pourrait en être ainsi. OTOH, nous n'avons pour le moment aucune raison particulière de penser qu'il en sera ainsi.
Il semble donc que Hawking, Musk, etc., viennent de tomber du côté le plus prudent / le plus effrayant des choses. Comme nous ne savons pas si une IA surhumaine sera dangereuse ou non, et étant donné qu'elle pourrait être imparable si elle devenait malveillante (rappelez-vous, elle est plus intelligente que nous!), C'est une chose raisonnable à prendre en considération.
Eliezer Yudkowsky a également beaucoup écrit sur ce sujet, y compris la fameuse expérience "AI Box". Je pense que toute personne intéressée par ce sujet devrait lire une partie de son matériel.
http://www.yudkowsky.net/singularity/aibox/