Für die Erfassung, Bearbeitung und Ausgabe von Daten stehen heute unterschiedliche Arten von Computer zur Verfügung. Diese Datenverarbeitungsmaschinen basieren immer auf der Grundlage des EVA-Prinzips (Eingabe-Verarbeitung-Ausgabe). Nachfolgend soll ein kurzer Überblick über die heutzutage hauptsächlich verwendeten Rechnerarchitekturen, die von-Neumann und Harvard-Architektur, erfolgen. Die Unterschiede beider Architekturen lassen sich schon erahnen, da es sich bei der van-Neumann Architektur um eine sequentielle Architektur und bei der Harvard Architektur um eine hauptsächlich parallele Architektur.
Wie in der Einleitung bereits beschrieben, “arbeiten” die meisten Computer auf dem Grundprinzip der von-Neumann Architektur. Die von-Neumann Architektur hat nur einen einzelnen Bus, über den die Zentraleinheit auf Daten und Programme zugreift (das ist die eine Möglichkeit, wie ein Rechner aufgebaut werden kann, die Zusammenlegung). Im Prinzip besteht ein “von-Neumann-Computer” aus vier Komponenten, dem Rechenwerk, dem Steuerwerk, dem Speicherwerk und dem Ein- bzw. Ausgabewerk.
Es existiert nur ein Speicher die Daten und Befehle enthalten. Dieser Speicher ist dabei in gleichgroße Zellen unterteilt, die fortlaufend durchnumeriert sind (=Adressen). Das Steuerwerk hat ein Register (Programm Counter), in dem die Speicherzelle
mit dem auszuführenden Befehl steht, wobei aufeinanderfolgende Befehle oder Anweisungen in aufeinanderfolgende Speicherzellen abgelegt werden.
Ausführung eines Befehls erfogt durch das Steuerwerk, z.B. Lesen von Operanden aus Speicher; Ausführen einer Operation mit diesem Operanden; Schreiben des Ergebnisses in den Speicher. Das Ansprechen des nächsten Befehls geschieht vom Steuerwerk aus durch Erhöhen der Befehlsadresse um Eins, von der gespicherten Reihenfolge kann aber durch sog. Sprungbefehle abgewichen werden
Für Daten, Befehle, und Adressen werden Binärzeichen verwendet (=Codierung). Geeignete Schaltwerke im Steuerwerk entschlüsseln (=Decodierung) später den Code.
Die zweite Möglichkeit einen Rechner aufzubauen ist, dass Daten und Programme voneinander getrennt werden. Dies findet sich in der Harvard Architektur. Hier gibt zwei Datenbusse und i.d.R auch zwei Adressbusse, dabei erfolgt eine Separierung von Befehls- und Datenspeicher, auf die über getrennte Busse (deswegen zwei Datenbusse) zugegriffen wird. Im Prinzip ist ein “Harvard-Computer folgendermaßen aufgebaut:
Das Rechenwerk kommuniziert mit dem Steuerwerk über den Befehlsbus und gibt “Steuerbefehle”, das Steuerwerk senden über den Datenbus “den Status” an das Rechenwerk. Das Rechenwerk kommuniziert über Datenbus mit dem Datenspeicher und das Steuerwerk über Befehlsbus mit dem Programmspeicher.
Harvard Architektur:
von-Neumann Architektur:
weiterführende Informationen finden Sie hier:
Die Architektur eines Computers bezieht sich auf die Art und Weise, wie seine Hardwarekomponenten organisiert sind, und wie sie zusammenarbeiten, um Funktionen auszuführen.
Eine typische Computerarchitektur umfasst die Zentraleinheit (CPU), Speichergeräte, Eingabe-/Ausgabegeräte und die Busse, die diese Komponenten verbinden.
Die Zentraleinheit (CPU) ist das “Gehirn” des Computers, das Anweisungen ausführt, die in Computerprogrammen gespeichert sind.
Der Speicher ist eine Komponente, die Daten und Anweisungen speichert. Die Haupttypen sind der Hauptspeicher (RAM) und der sekundäre Speicher (Festplatten, CDs etc.).
Ein Bus ist ein Kommunikationssystem, das Daten zwischen den verschiedenen Komponenten eines Computers überträgt.
Eingabe- und Ausgabegeräte sind Komponenten, die es dem Computer ermöglichen, mit der Außenwelt zu kommunizieren. Beispiele sind Tastaturen, Mäuse (Eingabe) und Bildschirme, Drucker (Ausgabe).
Das Betriebssystem verwaltet und koordiniert die Hardware-Ressourcen des Computers und stellt Dienste für die Ausführung von Anwendungen bereit.
Eine Parallelarchitektur ist eine Computerarchitektur, die die gleichzeitige Ausführung mehrerer Anweisungen ermöglicht.
CISC (Complex Instruction Set Computer) Architekturen haben eine große Anzahl von Anweisungen mit variabler Länge, während RISC (Reduced Instruction Set Computer) Architekturen weniger, aber gleich lange Anweisungen haben, was zu einer effizienteren Ausführung führt.
Die Pipelining-Technik ist ein Ansatz zur Steigerung der CPU-Leistung, indem mehrere Befehle gleichzeitig in verschiedenen Stufen der Ausführung sind.