Comment les gens ont-ils compris qu'ils pouvaient faire de la logique avec l'électronique? Existe-t-il des anecdotes ou des enregistrements des premières réalisations? Je m'interroge sur les premiers moments "euréka".
Comment les gens ont-ils compris qu'ils pouvaient faire de la logique avec l'électronique? Existe-t-il des anecdotes ou des enregistrements des premières réalisations? Je m'interroge sur les premiers moments "euréka".
Réponses:
De l'article Wikipedia, algèbre booléenne :
Dans les années 1930, alors qu'il étudiait les circuits de commutation, Claude Shannon a observé que l'on pouvait également appliquer les règles de l'algèbre de Boole à ce contexte. Shannon disposait déjà de l'appareil mathématique abstrait, il a donc présenté son algèbre de commutation sous le nom d'algèbre booléenne à deux éléments.
L'article sur Claude Shannon donne plus de détails:
En 1936, Shannon entreprit ses études supérieures en génie électrique au MIT, où il travailla sur l'analyseur différentiel de Vannevar Bush, un des premiers ordinateurs analogiques. Tout en étudiant les circuits ad hoc complexes de cet analyseur, Shannon a conçu des circuits de commutation basés sur les concepts de Boole. En 1937, il a rédigé sa thèse de maîtrise intitulée "Analyse symbolique des circuits de commutation et de relais". Un article de cette thèse a été publié en 1938. Dans cet ouvrage, Shannon a prouvé que ses circuits de commutation pouvaient être utilisés pour simplifier la disposition des relais électromécaniques. qui ont ensuite été utilisés dans les commutateurs d'acheminement des appels téléphoniques. Il a ensuite développé ce concept, prouvant que ces circuits pouvaient résoudre tous les problèmes que l’algèbre booléenne pourrait résoudre. Dans le dernier chapitre, il présente des schémas de plusieurs circuits, dont un additionneur complet 4 bits.
L'utilisation de cette propriété des commutateurs électriques pour mettre en œuvre la logique est le concept fondamental qui sous-tend tous les calculateurs numériques électroniques. Le travail de Shannon est devenu le fondement de la conception de circuit numérique, car il est devenu largement connu dans le milieu du génie électrique pendant et après la Seconde Guerre mondiale. La rigueur théorique du travail de Shannon a remplacé les méthodes ad hoc qui prévalaient auparavant. Howard Gardner a qualifié la thèse de Shannon de "peut-être la thèse de maîtrise la plus importante et la plus connue du siècle."
As with so many other important developments in logic and computer science, it was almost certainly the mathematician and philosopher Charles Sanders Peirce, whose work predated Shannon's by decades:
Bien sûr, avoir une idée bien avant qu’elle soit comprise et appréciée est une manifestation de génie. Permettez-moi de terminer en soulignant l'arrière-plan d'une autre des idées logiques d'une grande originalité de Peirce, l'idée d'un ordinateur relais polyvalent, qui avait cinquante ans d'avance sur son époque. La séquence des événements est la suivante:
- Peirce a incité Alan Marquand à inventer et à construire une machine à logique mécanique supérieure à celle de William Stanley Jevons. Cette machine est décrite dans Peirce's Logical machines , vol. III, pt. 1, pages 625–632.
- Cette machine a été construite au début des années 1880. À peu près au même moment, Peirce a conçu la suffisance de "ne pas", "non" et "non", ainsi que l'utilisation d'une table de vérité en tant que procédure de décision pour la tautologie.
- Dans une lettre à Marquand datée de 1886, Peirce suggérait l'utilisation de relais pour la machine de Marquand et montrait comment réaliser "et" et "ou" avec des relais . "... il n’est nullement désespéré ... de faire une machine pour des problèmes mathématiques vraiment très difficiles (ibid., p. 632).
- Marquand a ensuite préparé un schéma de câblage pour une version à relais de sa machine à logique mécanique.
(Source: Arthur W. Burks, «Les nouveaux éléments de mathématiques» (critique de livre) p. 917, Bulletin de la Société mathématique américaine , vol. 84 , numéro 5 (septembre 1978). Les caractères gras sont le mien.)
Citant la lettre de Peirce à Marquand, 1886:
… Il n’est nullement désespéré d’espérer créer une machine pour des problèmes mathématiques vraiment très difficiles. Mais vous devrez procéder étape par étape. Je pense que l'électricité serait la meilleure solution. Soit A, B, C trois clés ou d’autres points où le circuit peut être ouvert ou fermé. Comme sur la figure 1, il n'y a un circuit que si tous sont fermés; sur la figure 2, il existe un circuit si l'un d'entre eux est fermé. Cela ressemble à [logique et & logique ou] dans Logic.
(Source: Écrits de Charles S. Peirce: Une édition chronologique , vol. 5 (1884-1886) p. 422. Indiana University Press, 1993. Christian JW Kloesel et al., Rédacteurs.
Peirce était un cas incroyable de quelqu'un qui était si en avance sur son temps que son travail ne pouvait être apprécié par ses contemporains. La plupart du temps, il a été ignoré de son vivant, mais il a réussi à anticiper un grand nombre de développements logiques et mathématiques importants qui devaient ensuite être redécouverts beaucoup plus tard. Par exemple, il a inventé la théorie du réseau au 19ème siècle, mais personne n’y a vraiment prêté attention jusqu’à ce que Garrett Birkhoff la réinvente en 1935. Le point 2 de la citation de Burks ci-dessus indique que Peirce a inventé la logique NAND (encore la logique fondamentale des micropuces aujourd’hui), mais le crédit est généralement donné à Henry Sheffer qui l'a découvert 23 ans plus tard. Article de Stanford Encyclopedia of Philosophy sur Peirce .
En ce qui concerne les moments "euréka", je pense que l'application de la logique booléenne à l'électronique est devenue inévitable dès l'instant où l'Algèbre des booléens a été officialisée par George Boole The Mathematical Analysis of Logic
en 1847. Wikipedia
On pourrait également faire valoir que cet "eureka" est survenu une décennie avant la formalisation de la logique booléenne lorsque Charles Babbage tenta la construction de son moteur d'analyse en 1837 , un dispositif contenant
une unité arithmétique et logique, un flux de contrôle sous forme de branchements et de boucles conditionnels et une mémoire intégrée.
The argument here is strong if one considers that, from a computational perspective, both mechanical and electronic logic gates are equivalent. The replacement of mechanical components with cheaper, more reliable electronic ones was not limited to logical components and was widespread through all industries. Had Babbage had the basic electronic components available, one can imagine he would have utilized them for this sort of logic in exactly the same way he did mechanical ones.
A third possible "eureka" could be the meeting of Babbage and Boole at the Great London Exposition in 1862:
The two are said to have discussed this "thinking engine," which Babbage never completed. But it became a building block for modern computing.
Yet another "eureka" milestone could be the realization of Babbage's Analytical Engine dream with the completion of Howard Aiken's functioning, electomagnetic Automatic Sequence Controlled Calculator at Harvard in 1937.
Lastly, we can certainly peg the moment no later than (as mentioned in @the-photon's answer) in Claude Shannon's formalization of the mairrage of Boolean Logic with electronic components at MIT in 1938.
This excellent Atlantic article answers your question at length. Here's the closest thing to a Eureka moment:
Today, Boole’s name is well known to computer scientists (many programming languages have a basic data type called a Boolean), but in 1938 he was rarely read outside of philosophy departments. Shannon himself encountered Boole’s work in an undergraduate philosophy class. “It just happened that no one else was familiar with both fields at the same time,” he commented later.
Strowger's 1889 automatic telephone exchange was certainly a practical and real world use of digital logic via electromechanical means. Solving other pulse/state logic problems with relays and other electromechanical parts cannot have been an entirely new concept at the latest after this point in time.
Combining the facts "relays are slow and noisy" and "gas discharge and/or vacuum tubes and their technical successors are faster and can do the same job" to "let's use literal electronics for digital logic" appears almost trivial.
Some added explanations: "Gas discharge Tubes" as in Thyratrons, or even plain neon lamps (these have a strong hysteresis between striking and extinguishing voltages and can thus act as a memory element), or more complex thyratron-derived devices like dekatron counting tubes. Earlier production design vacuum tubes (up into the 1940s - the ENIAC design used that generation and had severe problems with it :) actually hated being used as hard on/off switching elements (being left with full voltage applied but switched hard off a lot progressively damaged the cathode coating. keyword is "cathode interface", or "zwischenschichtbildung" in german literature*); vacuum tubes that were reliable in that function were introduced for 50s/60s era industrial control equipment...
*Mentioning that because datasheets might only exist in English,German,Dutch or French for some of these types...