L'informatique concerne les algorithmes et non (strictement) les ordinateurs (et l'électronique).
Ainsi, l' étude des algorithmes (même de l'arithmétique élémentaire) peut permettre de comprendre l'informatique et la programmation. Rappelez-vous que même le terme "algorithme" est une paraphrase de l'auteur d'un livre d'arithmétique ( al-Khwārizmī , vers le 9ème siècle CE).
L'étude des algorithmes peut se faire en utilisant des moyens élémentaires, mais devrait fournir une couverture des raisons pour lesquelles l'algorithme fonctionne, comment il est né et comment peut-on réellement démontrer qu'il fonctionne correctement.
L'histoire derrière l'évolution de l'informatique, des algorithmes et de la programmation ne doit pas être sous-estimée. Par exemple, la calculatrice de Babbage / Ada, la machine Enigma, le plankalkul de Konrad Zuse , ENIAC etc.
Ensuite, on peut introduire la programmation (et les langages de programmation) comme un moyen de formaliser les algorithmes. Cela peut également être fait (dans une large mesure) en utilisant des moyens élémentaires.
Notez que certaines études ont montré que la programmation d'apprentissage des personnes a deux difficultés principales à comprendre (liées à la surcharge de symboles, par exemple le test d'affectation par rapport à l'égalité et le fonctionnement d'une machine RAM).
- Les constructions de boucles (par exemple pour, tandis que etc.) semblent difficiles
- Affectation vs tests d'égalité, semble également difficile.
Ainsi, on peut s'assurer que ceux-ci sont clairement saisis et compris par le peuple.
De plus, si un ordinateur est accessible (même une calculatrice qui peut être programmée), cela peut être utilisé pour fournir des exemples d'application et une expérience pratique. Sinon, on peut utiliser un ordinateur simulé. Cela peut être fait de différentes manières, par exemple un groupe de personnes peut simuler des parties d'un ordinateur et la classe peut concevoir des algorithmes pour résoudre divers problèmes pour cet ordinateur simulé et voir comment cela se passe. Cela peut aussi être vu comme un jeu, être créatif et créatif.
Ensuite, certains modèles de calcul (abstraits) (par exemple Turing Machines ) peuvent être introduits et liés au matériel précédent sur les algorithmes et la formalisation dans un langage (de programmation).
Si l'on veut introduire l'électronique d'un ordinateur réel, cela peut également se faire en deux parties.
Rappelez-vous que même dans les universités, certains cours d'électronique et d'architecture informatique sont théoriques (on n'entre pas en contact avec un CPU ou un design).
Ainsi, certains principes de fonctionnement de l'électronique (et de la physique sous-jacente) liés à l'architecture informatique peuvent être introduits ( semi - conducteurs , zones d'énergie à semi- conducteurs , portes p-np, etc.).
Ensuite, on peut tirer parti du matériel précédent sur la programmation et les algorithmes et introduire des techniques (modernes) de conception (et description) de CPU qui sont utilisées dans l'industrie ( portes logiques , bascules , FPGA , VHDL , circuits CMOS, etc.).
Cela peut être approfondi, les problèmes d'architecture de conception du processeur comme le parallélisme, le pipelining, la mémoire cache, l'adressage vectoriel, la micro-programmation, le DMA, etc.
Eh bien, peut-être que cela peut être trop, mais ajouté pour rendre la réponse autonome.