In der Informatik geht es um Algorithmen und nicht (ausschließlich) um Computer (und Elektronik).
Daher kann das Studium von Algorithmen (auch von elementarer Arithmetik) zu einem Verständnis der Informatik und der Programmierung führen. Denken Sie daran, dass auch der Begriff "Algorithmus" eine Umschreibung des Autors eines Arithmetikbuchs ( al-Khwārizmī , ca. 9. Jh. N. Chr.) Ist .
Das Studium von Algorithmen kann mit einfachen Mitteln durchgeführt werden, sollte jedoch Aufschluss darüber geben, warum der Algorithmus funktioniert, wie er zustande kam und wie man tatsächlich nachweisen kann, dass er korrekt funktioniert.
Die Geschichte hinter der Entwicklung der Informatik und der Algorithmen und Programmierung ist nicht zu unterschätzen. Zum Beispiel Babbages / Adas Rechner, Enigma-Maschine, Konrad Zuses Plankalkul , ENIAC usw.
Dann kann man Programmierung (und Programmiersprachen) einführen, um Algorithmen zu formalisieren. Dies kann auch (zu einem großen Teil) mit elementaren Mitteln geschehen.
Es ist anzumerken, dass einige Studien gezeigt haben, dass das Programmieren für das Lernen von Personen zwei Hauptschwierigkeiten aufweist (im Zusammenhang mit der Überladung von Symbolen, zum Beispiel Zuordnung vs. Gleichheitstest und dem Betrieb einer RAM-Maschine).
- Schleifenkonstrukte (zB für while etc ..) scheinen schwierig zu sein
- Assignment vs Equality Testing, scheint auch schwierig.
So kann man sicherstellen, dass diese von den Menschen klar erfasst und verstanden werden.
Wenn auf einen Computer zugegriffen werden kann (auch auf einen Taschenrechner, der programmiert werden kann), können Anwendungsbeispiele und praktische Erfahrungen bereitgestellt werden. Ansonsten kann man einen simulierten Computer benutzen. Dies kann auf verschiedene Arten geschehen, zum Beispiel kann eine Gruppe von Personen Teile eines Computers simulieren, und die Klasse kann Algorithmen entwerfen, um verschiedene Probleme für diesen simulierten Computer zu lösen und zu sehen, wie es funktioniert. Dies kann auch als Spiel angesehen werden, sei kreativ und mache es.
Anschließend können einige (abstrakte) Rechenmodelle (z. B. Turing Machines ) eingeführt und mit dem bisherigen Material zu Algorithmen und dem Formalisatinn in eine (Programmier-) Sprache verknüpft werden.
Wenn man die Elektronik eines tatsächlichen Computers vorstellen möchte, kann dies auch in zwei Teilen erfolgen.
Denken Sie daran, dass auch an Universitäten einige Kurse in Elektronik und Computerarchitektur theoretisch sind (man kommt eigentlich nicht mit einer CPU in Kontakt oder entwirft eine).
So können einige Prinzipien des Betriebs der Elektronik (und der zugrunde liegenden Physik) in Bezug auf die Computerarchitektur eingeführt werden ( Halbleiter , Festkörper-Energiezonen, p-np-Gatter usw.).
Dann kann man das vorherige Material über Programmierung und Algorithmen nutzen und (moderne) Techniken des CPU-Designs (und der Beschreibung) einführen, die in der Industrie verwendet werden ( Logikgatter , Flip-Flops , FPGA , VHDL , CMOS-Schaltungen usw.).
Dies kann weiter berücksichtigt werden, CPU-Entwurfsarchitekturprobleme wie Parallelität, Pipelining, Cache-Speicher, Vektoradressierung, Mikroprogrammierung, DMA usw.
Nun, ok, vielleicht kann das zu viel sein, aber hinzugefügt, um die Antwort in sich geschlossen zu machen.