Was sind von Neumann-Prinzipien? John von Neumanns Prinzipien. Computergenerationen Klassifizierung moderner Computer

Von-Neumann-Prinzipien (Von-Neumann-Architektur)

    Rechnerarchitektur

1946 skizzierten D. von Neumann, G. Goldstein und A. Berks in ihrem gemeinsamen Artikel neue Prinzipien für den Aufbau und Betrieb von Computern. Anschließend wurden die ersten beiden Computergenerationen auf Basis dieser Prinzipien hergestellt. In späteren Generationen gab es einige Veränderungen, obwohl Neumanns Prinzipien auch heute noch relevant sind.

Tatsächlich gelang es Neumann, die wissenschaftlichen Entwicklungen und Entdeckungen vieler anderer Wissenschaftler zusammenzufassen und auf ihrer Grundlage etwas grundlegend Neues zu formulieren.

Von Neumanns Prinzipien

    Verwendung des binären Zahlensystems in Computern. Der Vorteil gegenüber dem dezimalen Zahlensystem besteht darin, dass Geräte recht einfach aufgebaut werden können und auch arithmetische und logische Operationen im binären Zahlensystem recht einfach ausgeführt werden können.

    Computersoftwaresteuerung. Der Betrieb des Computers wird durch ein Programm gesteuert, das aus einer Reihe von Befehlen besteht. Befehle werden sequentiell nacheinander ausgeführt. Die Schaffung einer Maschine mit einem gespeicherten Programm war der Beginn dessen, was wir heute Programmierung nennen.

    Der Computerspeicher dient nicht nur zum Speichern von Daten, sondern auch von Programmen.. Dabei werden sowohl Programmbefehle als auch Daten im binären Zahlensystem kodiert, d.h. Ihre Aufnahmemethode ist dieselbe. Daher können Sie in bestimmten Situationen dieselben Aktionen für Befehle wie für Daten ausführen.

    Computerspeicherzellen haben fortlaufend nummerierte Adressen. Sie können jederzeit über ihre Adresse auf jede Speicherzelle zugreifen. Dieses Prinzip eröffnete die Möglichkeit, Variablen in der Programmierung zu verwenden.

    Möglichkeit eines bedingten Sprungs während der Programmausführung. Trotz der Tatsache, dass Befehle nacheinander ausgeführt werden, können Programme die Möglichkeit implementieren, zu jedem Codeabschnitt zu springen.

Die wichtigste Konsequenz dieser Prinzipien besteht darin, dass das Programm nun kein fester Bestandteil der Maschine mehr war (wie beispielsweise ein Taschenrechner). Es wurde möglich, das Programm einfach zu ändern. Aber die Ausstattung bleibt natürlich unverändert und sehr einfach.

Im Vergleich dazu wurde das Programm des ENIAC-Computers (der über kein gespeichertes Programm verfügte) durch spezielle Jumper auf dem Panel bestimmt. Es kann mehr als einen Tag dauern, die Maschine neu zu programmieren (Jumper anders setzen). Und obwohl das Schreiben von Programmen für moderne Computer Jahre dauern kann, funktionieren sie nach wenigen Minuten Installation auf der Festplatte auf Millionen von Computern.

Wie funktioniert eine von Neumann-Maschine?

Eine von Neumann-Maschine besteht aus einem Speichergerät (Speicher) – einem Speicher, einer arithmetisch-logischen Einheit – ALU, einem Steuergerät – CU, sowie Ein- und Ausgabegeräten.

Programme und Daten werden vom Eingabegerät über eine arithmetische Logikeinheit in den Speicher eingegeben. Alle Programmbefehle werden in benachbarte Speicherzellen geschrieben und Daten zur Verarbeitung können in beliebigen Zellen enthalten sein. Für jedes Programm muss der letzte Befehl der Befehl zum Herunterfahren sein.

Der Befehl besteht aus einer Angabe, welche Operation ausgeführt werden soll (aus den möglichen Operationen auf einer bestimmten Hardware), und den Adressen der Speicherzellen, in denen die Daten gespeichert sind, auf denen die angegebene Operation ausgeführt werden soll, sowie der Adresse der Zelle wohin das Ergebnis geschrieben werden soll (falls es im Speicher gespeichert werden muss).

Die arithmetisch-logische Einheit führt die durch die Anweisungen angegebenen Operationen an den angegebenen Daten aus.

Von der Recheneinheit werden die Ergebnisse an den Speicher oder ein Ausgabegerät ausgegeben. Der grundlegende Unterschied zwischen einem Speicher und einem Ausgabegerät besteht darin, dass in einem Speicher Daten in einer für die Verarbeitung durch einen Computer geeigneten Form gespeichert und auf bequeme Weise an Ausgabegeräte (Drucker, Monitor usw.) gesendet werden für eine Person.

Die Steuereinheit steuert alle Teile des Computers. Vom Steuergerät erhalten andere Geräte Signale „was zu tun ist“ und von anderen Geräten erhält das Steuergerät Informationen über deren Status.

Das Steuergerät enthält ein spezielles Register (Zelle), das als „Programmzähler“ bezeichnet wird. Nach dem Laden des Programms und der Daten in den Speicher wird die Adresse der ersten Anweisung des Programms in den Programmzähler geschrieben. Das Steuergerät liest aus dem Speicher den Inhalt der Speicherzelle, deren Adresse sich im Programmzähler befindet, und legt ihn in einem speziellen Gerät ab – dem „Befehlsregister“. Die Steuereinheit bestimmt die Ausführung des Befehls, „markiert“ im Speicher die Daten, deren Adressen im Befehl angegeben sind, und steuert die Ausführung des Befehls. Der Vorgang wird von der ALU oder der Computerhardware ausgeführt.

Durch die Ausführung eines beliebigen Befehls ändert sich der Programmzähler um eins und zeigt somit auf den nächsten Befehl des Programms. Wenn ein Befehl ausgeführt werden muss, der nicht dem aktuellen Befehl folgt, sondern durch eine bestimmte Anzahl von Adressen vom angegebenen Befehl getrennt ist, enthält ein spezieller Sprungbefehl die Adresse der Zelle, an die die Steuerung übertragen werden muss .

Von Neumanns Prinzipien[Bearbeiten | Quelltext bearbeiten]

Das Prinzip der Gedächtnishomogenität

Befehle und Daten werden im selben Speicher gespeichert und sind im Speicher äußerlich nicht unterscheidbar. Sie sind nur an der Art der Nutzung zu erkennen; Das heißt, derselbe Wert in einer Speicherzelle kann abhängig von der Art des Zugriffs als Daten, als Befehl und als Adresse verwendet werden. Dadurch können Sie mit Befehlen die gleichen Operationen wie mit Zahlen ausführen und eröffnen sich dementsprechend eine Reihe von Möglichkeiten. Durch zyklisches Ändern des Adressteils des Befehls ist es somit möglich, auf aufeinanderfolgende Elemente des Datenarrays zuzugreifen. Diese Technik wird als Befehlsmodifikation bezeichnet und ist aus Sicht der modernen Programmierung nicht zu empfehlen. Nützlicher ist eine andere Konsequenz des Prinzips der Homogenität, wenn Anweisungen von einem Programm als Ergebnis der Ausführung eines anderen Programms erhalten werden können. Diese Möglichkeit liegt der Übersetzung zugrunde – der Übersetzung von Programmtexten aus einer Hochsprache in die Sprache eines bestimmten Computers.

Targeting-Prinzip

Strukturell besteht der Hauptspeicher aus nummerierten Zellen, und jede Zelle steht dem Prozessor jederzeit zur Verfügung. Binärcodes von Befehlen und Daten werden in Informationseinheiten, sogenannte Wörter, unterteilt und in Speicherzellen gespeichert. Für den Zugriff darauf werden die Nummern der entsprechenden Zellen – Adressen – verwendet.

Prinzip der Programmsteuerung

Alle vom Algorithmus zur Lösung des Problems vorgesehenen Berechnungen müssen in Form eines Programms dargestellt werden, das aus einer Folge von Steuerwörtern – Befehlen – besteht. Jeder Befehl schreibt eine Operation aus einer Reihe von Operationen vor, die vom Computer implementiert werden. Programmbefehle werden in sequentiellen Speicherzellen des Computers gespeichert und in einer natürlichen Reihenfolge, also in der Reihenfolge ihrer Position im Programm, ausgeführt. Bei Bedarf kann diese Reihenfolge durch spezielle Befehle geändert werden. Die Entscheidung, die Ausführungsreihenfolge von Programmbefehlen zu ändern, wird entweder auf der Grundlage einer Analyse der Ergebnisse früherer Berechnungen oder bedingungslos getroffen.

Binäres Codierungsprinzip

Nach diesem Prinzip werden alle Informationen, sowohl Daten als auch Befehle, mit den Binärziffern 0 und 1 kodiert. Jeder Informationstyp wird durch eine Binärsequenz dargestellt und hat sein eigenes Format. Eine Folge von Bits in einem Format, die eine bestimmte Bedeutung hat, wird als Feld bezeichnet. Bei numerischen Informationen gibt es normalerweise ein Vorzeichenfeld und ein Feld für signifikante Ziffern. Im Befehlsformat können zwei Felder unterschieden werden: das Operationscode-Feld und das Adressenfeld.

Eine weitere wirklich revolutionäre Idee, deren Bedeutung kaum zu überschätzen ist, ist das von Neumann vorgeschlagene Prinzip des „gespeicherten Programms“. Ursprünglich wurde das Programm durch die Installation von Jumpern auf einem speziellen Patchpanel installiert. Dies war eine sehr arbeitsintensive Aufgabe: Beispielsweise dauerte es mehrere Tage, das Programm der ENIAC-Maschine zu ändern (während die Berechnung selbst nicht länger als ein paar Minuten dauern konnte – die Lampen fielen aus). Neumann erkannte als erster, dass ein Programm auch als eine Reihe von Nullen und Einsen im selben Speicher wie die von ihm verarbeiteten Zahlen gespeichert werden kann. Das Fehlen eines grundlegenden Unterschieds zwischen dem Programm und den Daten ermöglichte es dem Computer, entsprechend den Ergebnissen der Berechnungen ein Programm für sich selbst zu erstellen.

Von Neumann stellte nicht nur die Grundprinzipien der logischen Struktur eines Computers dar, sondern schlug auch dessen Struktur vor, die während der ersten beiden Computergenerationen reproduziert wurde. Die Hauptblöcke nach Neumann sind eine Steuereinheit (CU) und eine arithmetisch-logische Einheit (ALU) (meist zu einem Zentralprozessor zusammengefasst), Speicher, externer Speicher, Ein- und Ausgabegeräte. Das Designdiagramm eines solchen Computers ist in Abb. dargestellt. 1. Es ist zu beachten, dass sich externe Speicher von Eingabe- und Ausgabegeräten dadurch unterscheiden, dass Daten in einer für einen Computer geeigneten Form eingegeben werden, die jedoch für die direkte Wahrnehmung durch eine Person unzugänglich ist. Somit bezieht sich das Magnetplattenlaufwerk auf einen externen Speicher, und die Tastatur ist ein Eingabegerät, Anzeige und Druck sind Ausgabegeräte.

Reis. 1. Computerarchitektur basierend auf von Neumann-Prinzipien. Durchgezogene Linien mit Pfeilen geben die Richtung des Informationsflusses an, gepunktete Linien zeigen Steuersignale vom Prozessor an andere Computerknoten an

Das Steuergerät und die arithmetisch-logische Einheit in modernen Computern sind in einer Einheit zusammengefasst – dem Prozessor, der Informationen aus dem Speicher und externen Geräten umwandelt (dazu gehört das Abrufen von Anweisungen aus dem Speicher, Kodierung und Dekodierung sowie die Ausführung verschiedener, einschließlich Arithmetik). , Operationen, Koordination des Betriebs von Computerknoten). Auf die Funktionen des Prozessors wird im Folgenden näher eingegangen.

Speicher (Memory) speichert Informationen (Daten) und Programme. Das Speichergerät in modernen Computern ist „mehrschichtig“ und umfasst einen Arbeitsspeicher (RAM), der die Informationen speichert, mit denen der Computer zu einem bestimmten Zeitpunkt direkt arbeitet (das ausführbare Programm, einen Teil der dafür erforderlichen Daten, einige). Steuerprogramme) und externe Speichergeräte (ESD). ) viel größere Kapazität als RAM. aber mit deutlich langsamerem Zugriff (und deutlich geringeren Kosten pro 1 Byte gespeicherter Informationen). Die Klassifizierung von Speichergeräten endet nicht bei RAM und VRAM – bestimmte Funktionen werden sowohl von SRAM (Super-Random Access Memory), ROM (Read-Only Memory) als auch von anderen Untertypen des Computerspeichers ausgeführt.

In einem nach dem beschriebenen Schema aufgebauten Computer werden Anweisungen nacheinander aus dem Speicher gelesen und ausgeführt. Nummer (Adresse) der nächsten Speicherzelle. aus dem der nächste Programmbefehl extrahiert wird, wird durch ein spezielles Gerät angezeigt – einen Befehlszähler in der Steuereinheit. Auch seine Präsenz gehört zu den charakteristischen Merkmalen der jeweiligen Architektur.

Die von Neumann entwickelten Grundlagen der Architektur von Computergeräten erwiesen sich als so grundlegend, dass sie in der Literatur den Namen „von Neumann-Architektur“ erhielten. Die überwiegende Mehrheit der heutigen Computer sind von Neumann-Maschinen. Die einzigen Ausnahmen bilden bestimmte Arten von Systemen für paralleles Rechnen, in denen es keinen Programmzähler gibt, das klassische Konzept einer Variablen nicht implementiert ist und es andere wesentliche grundlegende Unterschiede zum klassischen Modell gibt (Beispiele sind Streaming- und Reduktionscomputer).

Offenbar wird es durch die Entwicklung der Idee von Maschinen der fünften Generation zu einer deutlichen Abweichung von der von Neumann-Architektur kommen, bei der die Informationsverarbeitung nicht auf Berechnungen, sondern auf logischen Schlussfolgerungen basiert

.

Die erste Rechenmaschine, die vier Grundrechenarten ausführen konnte, war die Rechenmaschine des berühmten französischen Wissenschaftlers und Philosophen Blaise Pascal. Das Hauptelement darin war ein Zahnrad, dessen Erfindung an sich zu einem Schlüsselereignis in der Geschichte der Computertechnologie wurde. Ich möchte darauf hinweisen, dass die Entwicklung auf dem Gebiet der Computertechnologie ungleichmäßig und krampfhaft verläuft: Perioden der Kraftansammlung werden durch Durchbrüche in der Entwicklung ersetzt, nach denen eine Phase der Stabilisierung beginnt, in der die erzielten Ergebnisse praktisch und zeitnah genutzt werden Gleichzeitig werden Wissen und Kraft für den nächsten Schritt nach vorne gesammelt. Nach jeder Revolution erreicht der Evolutionsprozess eine neue, höhere Ebene.

Im Jahr 1671 schuf der deutsche Philosoph und Mathematiker Gustav Leibniz ebenfalls eine Additionsmaschine auf Basis eines Zahnrads besonderer Bauart – das Leibniz-Zahnrad. Die Addiermaschine von Leibniz führte wie die Addiermaschinen seiner Vorgänger vier Grundrechenoperationen aus. Diese Periode ging zu Ende und die Menschheit sammelte fast anderthalb Jahrhunderte lang Kraft und Wissen für die nächste Evolutionsrunde der Computertechnologie. Das 18. und 19. Jahrhundert war eine Zeit, in der sich verschiedene Wissenschaften, darunter Mathematik und Astronomie, rasant entwickelten. Dabei handelte es sich häufig um Aufgaben, die zeitaufwändige und arbeitsintensive Berechnungen erforderten.

Eine weitere berühmte Person in der Geschichte der Informatik war der englische Mathematiker Charles Babbage. Im Jahr 1823 begann Babbage mit der Arbeit an einer Maschine zur Berechnung von Polynomen, aber was noch interessanter ist: Diese Maschine sollte nicht nur Berechnungen direkt durchführen, sondern auch Ergebnisse liefern – sie auf einer Negativplatte für den Fotodruck ausdrucken. Es war geplant, dass die Maschine von einer Dampfmaschine angetrieben würde. Aufgrund technischer Schwierigkeiten konnte Babbage sein Projekt nicht abschließen. Hier entstand erstmals die Idee, Berechnungsergebnisse über ein externes (Peripherie-)Gerät auszugeben. Beachten Sie, dass ein anderer Wissenschaftler, Scheutz, dennoch die von Babbage 1853 konzipierte Maschine implementierte (sie erwies sich als noch kleiner als geplant). Wahrscheinlich gefiel Babbage der kreative Prozess der Suche nach neuen Ideen mehr als die Umsetzung in etwas Materielles. Im Jahr 1834 skizzierte er die Funktionsprinzipien einer anderen Maschine, die er „Analytisch“ nannte. Technische Schwierigkeiten hinderten ihn erneut daran, seine Ideen vollständig zu verwirklichen. Babbage konnte die Maschine lediglich ins Experimentierstadium bringen. Aber es ist die Idee, die der Motor des wissenschaftlichen und technischen Fortschritts ist. Die nächste Maschine von Charles Babbage war die Verkörperung der folgenden Ideen:

Produktionsprozessmanagement. Die Maschine kontrollierte den Betrieb des Webstuhls und veränderte das Muster des erzeugten Stoffes abhängig von der Lochkombination auf einem speziellen Papierband. Dieses Band wurde zum Vorläufer solcher Informationsträger, die uns allen als Lochkarten und Lochstreifen bekannt sind.

Programmierbarkeit. Die Steuerung der Maschine erfolgte ebenfalls über ein spezielles Papierband mit Löchern. Die Reihenfolge der Löcher darauf bestimmte die Befehle und die von diesen Befehlen verarbeiteten Daten. Die Maschine verfügte über ein Rechengerät und einen Speicher. Zu den Befehlen der Maschine gehörte sogar ein bedingter Sprungbefehl, der den Berechnungsverlauf abhängig von einigen Zwischenergebnissen änderte.

An der Entwicklung dieser Maschine war Gräfin Ada Augusta Lovelace beteiligt, die als die erste Programmiererin der Welt gilt.

Die Ideen von Charles Babbage wurden von anderen Wissenschaftlern weiterentwickelt und genutzt. So entwickelte der Amerikaner Herman Hollerith 1890, zu Beginn des 20. Jahrhunderts, eine Maschine, die mit Datentabellen arbeitete (das erste Excel?). Die Maschine wurde durch ein Programm auf Lochkarten gesteuert. Es wurde bei der US-Volkszählung von 1890 verwendet. 1896 gründete Hollerith das Unternehmen, das der Vorgänger der IBM Corporation war. Mit dem Tod von Babbage kam es zu einem weiteren Bruch in der Entwicklung der Computertechnologie bis in die 30er Jahre des 20. Jahrhunderts. In der Folge war die gesamte Entwicklung der Menschheit ohne Computer undenkbar.

Im Jahr 1938 verlagerte sich der Schwerpunkt der Entwicklung kurzzeitig von Amerika nach Deutschland, wo Konrad Zuse eine Maschine schuf, die im Gegensatz zu ihren Vorgängern nicht mit Dezimalzahlen, sondern mit Binärzahlen arbeitete. Auch diese Maschine war noch mechanisch, aber ihr unbestrittener Vorteil bestand darin, dass sie die Idee der Datenverarbeitung im Binärcode umsetzte. Als Fortsetzung seiner Arbeit schuf Zuse 1941 eine elektromechanische Maschine, deren Rechengerät auf einem Relais basierte. Die Maschine könnte Gleitkommaoperationen ausführen.

Auch in Übersee, in Amerika, wurde in dieser Zeit an der Entwicklung ähnlicher elektromechanischer Maschinen gearbeitet. Im Jahr 1944 entwarf Howard Aiken eine Maschine namens Mark-1. Sie arbeitete, wie Zuses Maschine, an einem Relais. Da diese Maschine jedoch eindeutig unter dem Einfluss von Babbages Arbeit entstand, arbeitete sie mit Daten in Dezimalform.

Aufgrund des hohen Anteils an mechanischen Teilen waren diese Maschinen natürlich dem Untergang geweiht.

Vier Generationen von Computern

Bis zum Ende der dreißiger Jahre des 20. Jahrhunderts nahm der Bedarf an Automatisierung komplexer Rechenprozesse stark zu. Dies wurde durch die rasche Entwicklung von Branchen wie dem Flugzeugbau, der Kernphysik und anderen erleichtert. Von 1945 bis heute hat die Computertechnologie in ihrer Entwicklung vier Generationen durchlaufen:

Erste Generation

Die erste Generation (1945–1954) – Vakuumröhrencomputer. Dies sind prähistorische Zeiten, die Ära der Entstehung der Computertechnologie. Die meisten Maschinen der ersten Generation waren Versuchsgeräte und wurden gebaut, um bestimmte theoretische Prinzipien zu testen. Das Gewicht und die Größe dieser Computer-Dinosaurier, die oft separate Gebäude für sich benötigten, sind längst zur Legende geworden.

Ab 1943 begann eine Gruppe von Spezialisten unter der Leitung von Howard Aitken, J. Mauchly und P. Eckert in den USA mit der Entwicklung eines Computers, der auf Vakuumröhren und nicht auf elektromagnetischen Relais basierte. Diese Maschine hieß ENIAC (Electronic Numeral Integrator And Computer) und arbeitete tausendmal schneller als die Mark-1. ENIAC enthielt 18.000 Vakuumröhren, nahm eine Fläche von 9 x 15 Metern ein, wog 30 Tonnen und verbrauchte eine Leistung von 150 Kilowatt. ENIAC hatte auch einen erheblichen Nachteil: Es wurde über ein Patchpanel gesteuert, hatte keinen Speicher und es dauerte mehrere Stunden oder sogar Tage, bis die Drähte richtig angeschlossen waren, um ein Programm einzustellen. Der schlimmste aller Mängel war die schreckliche Unzuverlässigkeit des Computers, da an einem Tag im Betrieb etwa ein Dutzend Vakuumröhren ausfielen.

Um den Prozess der Programmeinstellung zu vereinfachen, begannen Mauchly und Eckert mit der Entwicklung einer neuen Maschine, die ein Programm in ihrem Speicher speichern konnte. An der Arbeit war 1945 der berühmte Mathematiker John von Neumann beteiligt, der einen Bericht über diese Maschine verfasste. In diesem Bericht formulierte von Neumann klar und einfach die allgemeinen Funktionsprinzipien universeller Computergeräte, d.h. Computers. Dies war die erste betriebsfähige Maschine auf Vakuumröhrenbasis und wurde am 15. Februar 1946 offiziell in Betrieb genommen. Sie versuchten, mit dieser Maschine einige von Neumann vorbereitete Probleme im Zusammenhang mit dem Atombombenprojekt zu lösen. Anschließend wurde sie zum Aberdeen Proving Ground transportiert, wo sie bis 1955 operierte.

ENIAC wurde der erste Vertreter der 1. Computergeneration. Jede Klassifizierung ist bedingt, aber die meisten Experten waren sich einig, dass Generationen anhand der elementaren Basis unterschieden werden sollten, auf der die Maschinen gebaut sind. Somit scheint es sich bei der ersten Generation um Rohrmaschinen zu handeln.

Hervorzuheben ist die enorme Rolle des amerikanischen Mathematikers von Neumann bei der Entwicklung der Technologie der ersten Generation. Es war notwendig, die Stärken und Schwächen von ENIAC zu verstehen und Empfehlungen für spätere Entwicklungen auszusprechen. Der Bericht von Neumann und seinen Kollegen G. Goldstein und A. Burks (Juni 1946) formulierte klar die Anforderungen an den Aufbau von Computern. Viele der Bestimmungen dieses Berichts wurden als Von-Neumann-Prinzipien bezeichnet.

Die ersten Projekte für Haushaltscomputer wurden von S.A. vorgeschlagen. Lebedew, B.I. Rameev im Jahr 1948 1949-51. nach dem Projekt von S.A. Lebedew, MESM (kleine elektronische Rechenmaschine) wurde gebaut. Der erste Teststart eines Prototyps der Maschine fand im November 1950 statt und die Maschine wurde 1951 in Betrieb genommen. MESM arbeitete in einem Binärsystem mit einem Befehlssystem mit drei Adressen, und das Berechnungsprogramm wurde in einem betriebsbereiten Speichergerät gespeichert. Lebedews Maschine mit paralleler Textverarbeitung war eine grundlegend neue Lösung. Es war einer der ersten Computer der Welt und der erste auf dem europäischen Kontinent mit einem gespeicherten Programm.

Zum Computer der 1. Generation gehört auch BESM-1 (große elektronische Rechenmaschine), dessen Entwicklung unter der Leitung von S.A. Lebedeva wurde 1952 fertiggestellt, es enthielt 5.000 Lampen und arbeitete 10 Stunden lang ohne Ausfälle. Die Leistung erreichte 10.000 Operationen pro Sekunde (Anhang 1).

Fast gleichzeitig wurde der Strela-Computer unter der Leitung von Yu.Ya entworfen (Anhang 2). Bazilevsky, im Jahr 1953. es wurde in Produktion genommen. Später erschien der Ural-1-Computer (Anhang 3), der den Beginn einer großen Serie von Ural-Maschinen markierte, die unter der Leitung von B.I. entwickelt und in Produktion genommen wurden. Rameeva. Im Jahr 1958 Der Computer der ersten Generation M-20 (Geschwindigkeit bis zu 20.000 Operationen/s) wurde in Serienproduktion gebracht.

Computer der ersten Generation hatten Geschwindigkeiten von mehreren Zehntausend Operationen pro Sekunde. Als interner Speicher kamen Ferritkerne zum Einsatz, ALUs und Steuergeräte wurden auf elektronischen Röhren aufgebaut. Die Geschwindigkeit des Computers wurde durch eine langsamere Komponente – den internen Speicher – bestimmt und dies verringerte den Gesamteffekt.

Die Computer der ersten Generation waren auf die Durchführung arithmetischer Operationen ausgerichtet. Beim Versuch, sie an Analyseaufgaben anzupassen, erwiesen sie sich als wirkungslos.

Es gab noch keine Programmiersprachen als solche, und Programmierer verwendeten Maschinenanweisungen oder Assembler, um ihre Algorithmen zu codieren. Dies erschwerte und verzögerte den Programmiervorgang.

Ende der 50er Jahre erlebten die Programmierwerkzeuge einen grundlegenden Wandel: Es erfolgte der Übergang zur Automatisierung der Programmierung mithilfe universeller Sprachen und Bibliotheken von Standardprogrammen. Die Verwendung universeller Sprachen führte zur Entstehung von Übersetzern.

Die Programme wurden Task für Task ausgeführt, d.h. Der Bediener musste den Fortschritt der Aufgabe überwachen und bei Erreichen des Endes die nächste Aufgabe einleiten.

Zweite Generation

In der zweiten Computergeneration (1955–1964) wurden Transistoren anstelle von Vakuumröhren verwendet, und Magnetkerne und Magnettrommeln, die entfernten Vorfahren moderner Festplatten, wurden als Speichergeräte verwendet. All dies ermöglichte eine deutliche Reduzierung der Größe und der Kosten von Computern, die dann erstmals für den Verkauf gebaut wurden.

Die wichtigsten Errungenschaften dieser Ära liegen jedoch im Bereich der Programme. Auf der zweiten Computergeneration erschien erstmals das, was man heute Betriebssystem nennt. Gleichzeitig wurden die ersten Hochsprachen entwickelt – Fortran, Algol, Cobol. Diese beiden wichtigen Verbesserungen machten das Schreiben von Computerprogrammen viel einfacher und schneller; Das Programmieren bleibt zwar eine Wissenschaft, erhält aber die Merkmale eines Handwerks.

Dementsprechend erweiterte sich der Umfang der Computeranwendungen. Nun konnten nicht mehr nur Wissenschaftler auf den Zugang zur Computertechnologie zählen; In der Planung und im Management wurden Computer eingesetzt, und einige große Firmen führten sogar ihre Buchhaltung computerisiert aus, was dieser Mode um zwanzig Jahre voraus war.

Halbleiter wurden zur elementaren Basis der zweiten Generation. Ohne Zweifel können Transistoren als eines der beeindruckendsten Wunder des 20. Jahrhunderts angesehen werden.

Den Amerikanern D. Bardeen und W. Brattain wurde 1948 ein Patent für die Entdeckung des Transistors erteilt, acht Jahre später wurden sie zusammen mit dem Theoretiker V. Shockley Nobelpreisträger. Es stellte sich heraus, dass die Schaltgeschwindigkeiten der allerersten Transistorelemente hunderte Male höher waren als die von Röhrenelementen, ebenso wie Zuverlässigkeit und Effizienz. Zum ersten Mal wurden Speicher auf Ferritkernen und dünnen Magnetfilmen weit verbreitet und induktive Elemente – Parameteronen – wurden getestet.

Der erste Bordcomputer zum Einbau in eine Interkontinentalrakete, Atlas, wurde 1955 in den USA in Betrieb genommen. Die Maschine verwendete 20.000 Transistoren und Dioden und verbrauchte 4 Kilowatt. Im Jahr 1961 steuerten die bodengestützten Streckencomputer von Barrows die Raumflüge der Atlas-Raketen, und IBM-Maschinen kontrollierten den Flug des Astronauten Gordon Cooper. Der Computer steuerte 1964 die Flüge unbemannter Raumsonden vom Typ Ranger zum Mond sowie die Flüge der Raumsonde Mariner zum Mars. Sowjetische Computer erfüllten ähnliche Funktionen.

1956 entwickelte IBM schwebende Magnetköpfe auf einem Luftkissen. Ihre Erfindung ermöglichte die Entwicklung einer neuen Art von Speicher – Plattenspeichergeräten, deren Bedeutung in den folgenden Jahrzehnten der Entwicklung der Computertechnologie voll erkannt wurde. Die ersten Plattenspeichergeräte erschienen in den IBM-305- und RAMAC-Maschinen (Anhang 4). Letzterer verfügte über ein Paket bestehend aus 50 magnetisch beschichteten Metallscheiben, die mit einer Geschwindigkeit von 12.000 U/min rotierten. Auf der Oberfläche der Diskette befanden sich 100 Spuren zur Aufzeichnung von Daten mit jeweils 10.000 Zeichen.

Die ersten serienmäßig hergestellten Großrechner mit Transistoren kamen 1958 gleichzeitig in den USA, Deutschland und Japan auf den Markt.

Die ersten Minicomputer erscheinen (zum Beispiel PDP-8 (Anhang 5)).

In der Sowjetunion wurden zwischen 1959 und 1961 die ersten lampenlosen Maschinen „Setun“, „Razdan“ und „Razdan-2“ hergestellt. In den 60er Jahren entwickelten sowjetische Designer etwa 30 Modelle von Transistorcomputern, von denen die meisten mit der Massenproduktion begannen. Der leistungsstärkste von ihnen, Minsk-32, führte 65.000 Operationen pro Sekunde durch. Ganze Fahrzeugfamilien erschienen: „Ural“, „Minsk“, BESM.

Der Rekordhalter unter den Computern der zweiten Generation war BESM-6 (Anhang 6), der eine Geschwindigkeit von etwa einer Million Operationen pro Sekunde aufwies – einer der produktivsten der Welt. Die Architektur und viele technische Lösungen dieses Computers waren so fortschrittlich und ihrer Zeit voraus, dass er fast bis in unsere Zeit erfolgreich eingesetzt wurde.

Speziell für die Automatisierung technischer Berechnungen am Institut für Kybernetik der Akademie der Wissenschaften der Ukrainischen SSR unter der Leitung von Akademiemitglied V.M. Glushkov entwickelte die Computer MIR (1966) und MIR-2 (1969). Ein wichtiges Merkmal der MIR-2-Maschine war die Verwendung eines Fernsehbildschirms zur visuellen Kontrolle von Informationen und eines Lichtstifts, mit dem Daten direkt auf dem Bildschirm korrigiert werden konnten.

Der Bau solcher Systeme, die etwa 100.000 Schaltelemente umfassen, wäre auf Basis der Lampentechnologie schlichtweg unmöglich. So wurde die zweite Generation in den Tiefen der ersten geboren und übernahm viele ihrer Merkmale. Doch Mitte der 60er Jahre erreichte der Boom im Bereich der Transistorproduktion seinen Höhepunkt – es kam zu einer Marktsättigung. Tatsache ist, dass die Montage elektronischer Geräte ein sehr arbeitsintensiver und langsamer Prozess war, der sich nicht gut für Mechanisierung und Automatisierung eignete. Somit sind die Voraussetzungen für einen Übergang zu einer neuen Technologie gegeben, die der zunehmenden Komplexität von Schaltkreisen Rechnung trägt, indem sie die traditionellen Verbindungen zwischen ihren Elementen eliminiert.

Dritte Generation

Schließlich wurden in der dritten Computergeneration (1965–1974) erstmals integrierte Schaltkreise verwendet – ganze Geräte und Einheiten aus Dutzenden und Hunderten von Transistoren, die auf einem einzigen Halbleiterkristall hergestellt wurden (was heute Mikroschaltkreise genannt wird). Gleichzeitig erschien der Halbleiterspeicher, der in Personalcomputern den ganzen Tag über als RAM verwendet wird. Die Priorität bei der Erfindung integrierter Schaltkreise, die zur elementaren Basis von Computern der dritten Generation wurden, liegt bei den amerikanischen Wissenschaftlern D. Kilby und R. Noyce, die diese Entdeckung unabhängig voneinander machten. Die Massenproduktion integrierter Schaltkreise begann 1962, und 1964 begann der Übergang von diskreten zu integrierten Elementen rasch. Der erwähnte ENIAK mit den Maßen 9 x 15 Meter hätte 1971 auf einer Platte von 1,5 Quadratzentimetern zusammengebaut werden können. Die Umwandlung der Elektronik in die Mikroelektronik begann.

In diesen Jahren erreichte die Computerproduktion einen industriellen Maßstab. IBM, das zum Marktführer geworden war, war das erste Unternehmen, das eine Computerfamilie einführte – eine Reihe von Computern, die vollständig miteinander kompatibel waren, vom kleinsten Computer in der Größe eines kleinen Schranks (damals hatte man noch nie etwas kleiner gemacht), bis hin zu den leistungsstärksten und teuersten Modellen. Am weitesten verbreitet war in diesen Jahren die System/360-Familie von IBM, auf deren Grundlage in der UdSSR die Computerserie ES entwickelt wurde. 1973 wurde das erste Computermodell der ES-Serie veröffentlicht, und seit 1975 erschienen die Modelle ES-1012, ES-1032, ES-1033, ES-1022 und später der leistungsstärkere ES-1060.

Als Teil der dritten Generation wurde in den USA eine einzigartige Maschine „ILLIAK-4“ gebaut, die in ihrer ursprünglichen Version 256 Datenverarbeitungsgeräte auf monolithischen integrierten Schaltkreisen verwenden sollte. Das Projekt wurde später aufgrund der relativ hohen Kosten (mehr als 16 Millionen US-Dollar) geändert. Die Anzahl der Prozessoren musste auf 64 reduziert und zudem auf integrierte Schaltkreise mit geringem Integrationsgrad umgestellt werden. Eine verkürzte Version des Projekts wurde 1972 abgeschlossen; die Nenngeschwindigkeit von ILLIAC-4 betrug 200 Millionen Operationen pro Sekunde. Fast ein Jahr lang hielt dieser Computer den Rekord für Rechengeschwindigkeit.

Bereits in den frühen 60er Jahren kamen die ersten Minicomputer auf den Markt – kleine Computer mit geringem Stromverbrauch, die für kleine Firmen oder Labore erschwinglich waren. Minicomputer stellten den ersten Schritt zu Personalcomputern dar, von denen Prototypen erst Mitte der 70er Jahre auf den Markt kamen. Als Prototyp für die sowjetische Maschinenserie SM diente die bekannte Familie der PDP-Minicomputer von Digital Equipment.

Mittlerweile wuchs die Zahl der Elemente und Verbindungen zwischen ihnen, die in einen Mikroschaltkreis passen, ständig, und in den 70er Jahren enthielten integrierte Schaltkreise bereits Tausende von Transistoren. Dadurch war es möglich, die meisten Computerkomponenten in einem einzigen kleinen Teil zusammenzufassen – was Intel 1971 tat und den ersten Mikroprozessor herausbrachte, der für gerade erschienene Tischrechner gedacht war. Diese Erfindung sollte im nächsten Jahrzehnt eine echte Revolution auslösen – schließlich ist der Mikroprozessor das Herz und die Seele unseres Personalcomputers.

Aber das ist noch nicht alles – die Wende der 60er und 70er Jahre war tatsächlich eine schicksalhafte Zeit. Im Jahr 1969 wurde das erste globale Computernetzwerk geboren – der Embryo dessen, was wir heute das Internet nennen. Und im selben Jahr 1969 erschienen gleichzeitig das Betriebssystem Unix und die Programmiersprache C, die einen enormen Einfluss auf die Softwarewelt hatten und bis heute ihre führende Position behaupten.

Vierte Generation

Eine weitere Änderung der Elementbasis führte zu einem Generationswechsel. In den 70er Jahren wurde aktiv an der Entwicklung großer und ultragroßer integrierter Schaltkreise (LSI und VLSI) gearbeitet, die es ermöglichten, Zehntausende Elemente auf einem einzigen Chip unterzubringen. Dies führte zu einer weiteren deutlichen Reduzierung der Größe und Kosten von Computern. Das Arbeiten mit der Software ist benutzerfreundlicher geworden, was zu einem Anstieg der Nutzerzahlen geführt hat.

Im Prinzip wurde es mit einem solchen Integrationsgrad der Elemente möglich, einen funktionsfähigen Computer auf einem einzigen Chip zu erstellen. Es wurden entsprechende Versuche unternommen, die jedoch meist mit einem ungläubigen Lächeln quittiert wurden. Vermutlich würde es dieses Lächeln weniger geben, wenn man absehen könnte, dass diese Idee in nur anderthalb Jahrzehnten zum Aussterben der Großrechner führen würde.

In den frühen 70er Jahren brachte Intel jedoch den Mikroprozessor (MP) 4004 auf den Markt. Und wenn es zuvor nur drei Richtungen in der Computerwelt gab (Supercomputer, Großrechner und Minicomputer), kam jetzt eine weitere hinzu – der Mikroprozessor. Im Allgemeinen wird unter einem Prozessor eine Funktionseinheit eines Computers verstanden, die zur logischen und arithmetischen Verarbeitung von Informationen nach dem Prinzip der Mikroprogrammsteuerung dient. Basierend auf der Hardware-Implementierung können Prozessoren in Mikroprozessoren (alle Prozessorfunktionen sind vollständig integriert) und Prozessoren mit niedriger und mittlerer Integration unterteilt werden. Strukturell drückt sich dies darin aus, dass Mikroprozessoren alle Prozessorfunktionen auf einem Chip realisieren, während andere Prozessortypen diese durch die Verbindung einer großen Anzahl von Chips realisieren.

So wurde der erste Mikroprozessor 4004 Anfang der 70er Jahre von Intel entwickelt. Es handelte sich um ein 4-Bit-Parallelrechnergerät, dessen Fähigkeiten stark eingeschränkt waren. Der 4004 konnte vier Grundrechenarten ausführen und wurde zunächst nur in Taschenrechnern eingesetzt. Später wurde der Anwendungsbereich um den Einsatz in verschiedenen Steuerungssystemen erweitert (z. B. zur Steuerung von Ampeln). Intel hatte das Versprechen der Mikroprozessoren richtig vorhergesehen und setzte die intensive Entwicklung fort, und eines seiner Projekte führte schließlich zu einem großen Erfolg, der den zukünftigen Entwicklungspfad der Computertechnologie vorgab.

Dies war das Projekt zur Entwicklung des 8-Bit-Prozessors 8080 (1974). Dieser Mikroprozessor verfügte über ein ziemlich entwickeltes Befehlssystem und war in der Lage, Zahlen zu dividieren. Es wurde zur Entwicklung des Altair-Personalcomputers verwendet, für den der junge Bill Gates einen seiner ersten BASIC-Sprachinterpreter schrieb. Wahrscheinlich sollte von diesem Moment an die 5. Generation gezählt werden.

Fünfte Generation

Der Übergang zu Computern der fünften Generation bedeutete einen Übergang zu neuen Architekturen, die auf die Schaffung künstlicher Intelligenz abzielten.

Es wurde angenommen, dass die Computerarchitektur der fünften Generation zwei Hauptblöcke enthalten würde. Einer davon ist der Computer selbst, bei dem die Kommunikation mit dem Benutzer über eine Einheit namens „Intelligente Schnittstelle“ erfolgt. Die Aufgabe der Schnittstelle besteht darin, in natürlicher Sprache oder Sprache geschriebene Texte zu verstehen und die so dargelegte Problemstellung in ein Arbeitsprogramm zu übersetzen.

Grundvoraussetzungen für Computer der 5. Generation: Schaffung einer entwickelten Mensch-Maschine-Schnittstelle (Spracherkennung, Bilderkennung); Entwicklung von Logikprogrammen zur Erstellung von Wissensdatenbanken und Systemen der künstlichen Intelligenz; Schaffung neuer Technologien bei der Herstellung von Computergeräten; Erstellung neuer Computerarchitekturen und Computersysteme.

Neue technische Möglichkeiten der Computertechnik hätten das Spektrum der zu lösenden Aufgaben erweitern und den Übergang zu den Aufgaben der Schaffung künstlicher Intelligenz ermöglichen sollen. Eine der notwendigen Komponenten zur Schaffung künstlicher Intelligenz sind Wissensdatenbanken (Datenbanken) in verschiedenen Bereichen der Wissenschaft und Technologie. Die Erstellung und Nutzung von Datenbanken erfordert Hochgeschwindigkeits-Rechensysteme und viel Speicher. Allzweckcomputer sind in der Lage, Hochgeschwindigkeitsberechnungen durchzuführen, eignen sich jedoch nicht für schnelle Vergleichs- und Sortiervorgänge an großen Datensätzen, die normalerweise auf Magnetplatten gespeichert sind. Um Programme zu erstellen, die Datenbanken füllen, aktualisieren und mit ihnen arbeiten, wurden spezielle objektorientierte und logische Programmiersprachen erstellt, die im Vergleich zu herkömmlichen prozeduralen Sprachen die größten Fähigkeiten bieten. Die Struktur dieser Sprachen erfordert einen Übergang von der traditionellen von Neumann-Computerarchitektur zu Architekturen, die die Anforderungen der Aufgaben der Schaffung künstlicher Intelligenz berücksichtigen.

Zur Klasse der Supercomputer zählen Computer, die zum Zeitpunkt ihrer Veröffentlichung die maximale Leistung aufweisen, sogenannte Computer der 5. Generation.

Die ersten Supercomputer tauchten bereits unter den Computern der zweiten Generation auf (1955 – 1964, siehe Computer der zweiten Generation); sie wurden entwickelt, um komplexe Probleme zu lösen, die schnelle Berechnungen erforderten. Dies sind LARC von UNIVAC, Stretch von IBM und CDC-6600 (CYBER-Familie) von Control Data Corporation. Sie verwendeten parallele Verarbeitungsmethoden (Erhöhung der Anzahl der pro Zeiteinheit ausgeführten Operationen) und Befehls-Pipelining (wenn während der Ausführung eines Befehls). der zweite wird aus dem Speicher gelesen und zur Ausführung vorbereitet) und Parallelverarbeitung unter Verwendung einer komplexen Prozessorstruktur, bestehend aus einer Matrix von Datenprozessoren und einem speziellen Steuerprozessor, der Aufgaben verteilt und den Datenfluss im System steuert. Computer, die mithilfe mehrerer Mikroprozessoren mehrere Programme parallel ausführen, werden als Multiprozessorsysteme bezeichnet. Bis Mitte der 80er Jahre gehörten Sperry Univac und Burroughs zu den größten Supercomputerherstellern der Welt. Ersteres ist insbesondere für seine Großrechner UNIVAC-1108 und UNIVAC-1110 bekannt, die in Universitäten und Regierungsorganisationen weit verbreitet waren.

Nach der Fusion von Sperry Univac und Burroughs unterstützte das kombinierte UNISYS weiterhin beide Mainframe-Linien und behielt gleichzeitig die Aufwärtskompatibilität beider Linien bei. Dies ist ein klarer Hinweis auf die unveränderliche Regel, die die Entwicklung von Großrechnern unterstützte – die Wahrung der Funktionalität zuvor entwickelter Software.

Auch in der Welt der Supercomputer ist Intel bekannt. Ebenso klassisch sind Intels Paragon-Multiprozessorrechner aus der Familie der Multiprozessorstrukturen mit verteiltem Speicher geworden.

Von Neumann-Prinzipien

1946 skizzierten D. von Neumann, G. Goldstein und A. Berks in ihrem gemeinsamen Artikel neue Prinzipien für den Aufbau und Betrieb von Computern. Anschließend wurden die ersten beiden Computergenerationen auf Basis dieser Prinzipien hergestellt. In späteren Generationen gab es einige Veränderungen, obwohl Neumanns Prinzipien auch heute noch relevant sind. Tatsächlich gelang es Neumann, die wissenschaftlichen Entwicklungen und Entdeckungen vieler anderer Wissenschaftler zusammenzufassen und auf ihrer Grundlage grundlegend neue Prinzipien zu formulieren:
1. Das Prinzip der Darstellung und Speicherung von Zahlen.
Das binäre Zahlensystem dient der Darstellung und Speicherung von Zahlen. Der Vorteil gegenüber dem dezimalen Zahlensystem besteht darin, dass das Bit einfach zu implementieren ist, große Bitspeicher recht günstig sind, Geräte recht einfach hergestellt werden können und auch arithmetische und logische Operationen im binären Zahlensystem recht einfach ausgeführt werden.
2. Das Prinzip der Computerprogrammsteuerung.
Der Betrieb des Computers wird durch ein Programm gesteuert, das aus einer Reihe von Befehlen besteht. Befehle werden sequentiell nacheinander ausgeführt. Befehle verarbeiten Daten, die im Computerspeicher gespeichert sind.
3. Prinzip des gespeicherten Programms.
Der Computerspeicher dient nicht nur zum Speichern von Daten, sondern auch von Programmen. Dabei werden sowohl Programmbefehle als auch Daten im binären Zahlensystem kodiert, d.h. Ihre Aufnahmemethode ist dieselbe. Daher können Sie in bestimmten Situationen dieselben Aktionen für Befehle wie für Daten ausführen.
4. Das Prinzip des direkten Speicherzugriffs.
Computer-RAM-Zellen haben fortlaufend nummerierte Adressen. Sie können jederzeit über ihre Adresse auf jede Speicherzelle zugreifen.
5. Das Prinzip der Verzweigung und zyklischen Berechnungen.
Mit bedingten Sprungbefehlen können Sie einen Übergang zu einem beliebigen Codeabschnitt implementieren und so Verzweigungen organisieren und bestimmte Abschnitte des Programms erneut ausführen.
Die wichtigste Konsequenz dieser Prinzipien besteht darin, dass das Programm nun kein fester Bestandteil der Maschine mehr war (wie beispielsweise ein Taschenrechner). Es wurde möglich, das Programm einfach zu ändern. Aber die Ausstattung bleibt natürlich unverändert und sehr einfach. Im Vergleich dazu wurde das Programm des ENIAC-Computers (der über kein gespeichertes Programm verfügte) durch spezielle Jumper auf dem Panel bestimmt. Es kann mehr als einen Tag dauern, die Maschine neu zu programmieren (Jumper anders setzen).
Und obwohl die Entwicklung von Programmen für moderne Computer Monate dauern kann, dauert ihre Installation (Installation auf einem Computer) selbst bei großen Programmen mehrere Minuten. Ein solches Programm kann auf Millionen von Computern installiert werden und auf jedem von ihnen jahrelang laufen.

Anwendungen

Anhang 1

Anlage 2

Computer „Ural“

Anhang 3

Computer „Strela“

Anhang 4

IBM-305 und RAMAC

Anhang 5

Minicomputer PDP-8

Anhang 6

Literatur:

1) Broido V.L. Computersysteme, Netzwerke und Telekommunikation. Lehrbuch für Universitäten. 2. Aufl. – St. Petersburg: Peter, 2004

2) Zhmakin A.P. Rechnerarchitektur. – St. Petersburg: BHV – Petersburg, 2006

3) Semenenko V.A. und andere. Elektronische Computer. Lehrbuch für Berufsschulen - M.: Höhere Schule, 1991

Der Aufbau der allermeisten Computer basiert auf den folgenden allgemeinen Prinzipien, die 1945 vom amerikanischen Wissenschaftler John von Neumann formuliert wurden (Abbildung 8.5). Diese Prinzipien wurden erstmals in seinen Vorschlägen für die EDVAC-Maschine veröffentlicht. Dieser Computer war eine der ersten gespeicherten Programmmaschinen, d.h. mit einem Programm, das im Speicher der Maschine gespeichert ist, anstatt von einer Lochkarte oder einem ähnlichen Gerät gelesen zu werden.

Abbildung 9.5 – John von Neumann, 1945

1. Prinzip der Programmsteuerung . Daraus folgt, dass das Programm aus einer Reihe von Befehlen besteht, die vom Prozessor automatisch nacheinander in einer bestimmten Reihenfolge ausgeführt werden.

Ein Programm wird mithilfe eines Programmzählers aus dem Speicher abgerufen. Dieses Prozessorregister erhöht sequentiell die Adresse des nächsten darin gespeicherten Befehls um die Befehlslänge.

Und da sich die Programmbefehle nacheinander im Speicher befinden, wird dadurch eine Befehlskette aus nacheinander angeordneten Speicherzellen organisiert.

Ist es nach der Ausführung eines Befehls erforderlich, nicht zur nächsten, sondern zu einer anderen Speicherzelle zu wechseln, werden bedingte oder unbedingte Sprungbefehle verwendet, die die Nummer der Speicherzelle, die den nächsten Befehl enthält, in den Befehlszähler eintragen. Das Abrufen von Befehlen aus dem Speicher stoppt, nachdem der „Stopp“-Befehl erreicht und ausgeführt wurde.

Somit führt der Prozessor das Programm automatisch und ohne menschliches Eingreifen aus.

Nach John von Neumann sollte ein Computer aus einer zentralen arithmetisch-logischen Einheit, einer zentralen Steuereinheit, einem Speichergerät und einem Informationseingabe-/-ausgabegerät bestehen. Ein Computer sollte seiner Meinung nach mit Binärzahlen arbeiten und elektronisch (nicht elektrisch) sein; Führen Sie Operationen nacheinander aus.

Alle vom Algorithmus zur Lösung des Problems vorgeschriebenen Berechnungen müssen in Form eines Programms dargestellt werden, das aus einer Folge von Steuerwort-Befehlen besteht. Jeder Befehl enthält Anweisungen für die spezifische auszuführende Operation, den Speicherort (Adressen) der Operanden und eine Reihe von Dienstmerkmalen. Operanden sind Variablen, deren Werte an Datentransformationsvorgängen beteiligt sind. Eine Liste (Array) aller Variablen (Eingabedaten, Zwischenwerte und Berechnungsergebnisse) ist ein weiterer integraler Bestandteil jedes Programms.

Für den Zugriff auf Programme, Anweisungen und Operanden werden deren Adressen verwendet. Die Adressen sind die Nummern der Computerspeicherzellen, die zum Speichern von Objekten vorgesehen sind. Informationen (Befehl und Daten: numerisch, Text, Grafik usw.) werden mit den Binärziffern 0 und 1 codiert.



Daher sind verschiedene Arten von Informationen, die sich im Computerspeicher befinden, praktisch nicht zu unterscheiden; ihre Identifizierung ist nur möglich, wenn das Programm entsprechend seiner Logik im Kontext ausgeführt wird.

2. Das Prinzip der Gedächtnishomogenität . Programme und Daten werden im selben Speicher gespeichert. Daher unterscheidet der Computer nicht zwischen dem, was in einer bestimmten Speicherzelle gespeichert ist – einer Zahl, einem Text oder einem Befehl. Sie können für Befehle dieselben Aktionen ausführen wie für Daten. Dies eröffnet eine ganze Reihe von Möglichkeiten. Beispielsweise kann ein Programm auch während seiner Ausführung verarbeitet werden, wodurch Sie Regeln für den Erhalt einiger seiner Teile im Programm selbst festlegen können (so ist die Ausführung von Zyklen und Unterprogrammen im Programm organisiert). Darüber hinaus können Befehle eines Programms als Ergebnisse der Ausführung eines anderen Programms erhalten werden. Auf diesem Prinzip basieren Übersetzungsmethoden – die Übersetzung von Programmtexten aus einer höheren Programmiersprache in die Sprache einer bestimmten Maschine.

3. Targeting-Prinzip . Strukturell besteht der Hauptspeicher aus neu nummerierten Zellen; Jede Zelle steht dem Prozessor jederzeit zur Verfügung. Dies impliziert die Möglichkeit, Speicherbereiche so zu benennen, dass die darin gespeicherten Werte später während der Programmausführung mithilfe der zugewiesenen Namen abgerufen oder geändert werden können.

Von Neumanns Prinzipien lassen sich auf vielfältige Weise praktisch umsetzen. Hier stellen wir zwei davon vor: einen Computer mit Bus- und Kanalorganisation. Bevor wir die Prinzipien des Computerbetriebs beschreiben, führen wir mehrere Definitionen ein.

Rechnerarchitektur wird seine Beschreibung auf einer allgemeinen Ebene genannt, einschließlich einer Beschreibung der Programmierfähigkeiten des Benutzers, Befehlssystemen, Adressierungssystemen, Speicherorganisation usw. Die Architektur bestimmt die Funktionsprinzipien, Informationsverbindungen und die Verbindung der wichtigsten logischen Knoten eines Computers: Prozessor, RAM, externer Speicher und Peripheriegeräte. Die gemeinsame Architektur verschiedener Computer gewährleistet deren Kompatibilität aus Benutzersicht.

Computerstruktur ist eine Menge seiner Funktionselemente und Verbindungen zwischen ihnen. Die Elemente können verschiedenste Geräte sein – von den wichtigsten logischen Knoten eines Computers bis hin zu den einfachsten Schaltkreisen. Der Aufbau eines Computers wird in Form von Blockdiagrammen grafisch dargestellt, mit deren Hilfe Sie den Computer in jedem Detaillierungsgrad beschreiben können.

Der Begriff wird sehr häufig verwendet Computerkonfiguration , worunter das Layout eines Computergeräts mit einer klaren Definition der Art, Menge, Beziehungen und Hauptmerkmale seiner Funktionselemente verstanden wird. Der Begriff " Computerorganisation» bestimmt, wie die Fähigkeiten des Computers umgesetzt werden,

Team die Sammlung von Informationen, die der Prozessor benötigt, um bei der Ausführung eines Programms eine bestimmte Aktion auszuführen.

Das Team besteht aus Operationscode, enthält einen Hinweis auf die durchzuführende Operation und mehrere Adressfelder, Enthält einen Hinweis auf die Position der Befehlsoperanden.

Die Methode zur Berechnung einer Adresse aus den im Adressfeld eines Befehls enthaltenen Informationen wird aufgerufen Adressierungsmodus. Der in einem bestimmten Computer implementierte Befehlssatz bildet sein Befehlssystem.

Thuring-Maschine

Turingmaschine (MT)- abstrakter Performer (abstrakte Rechenmaschine). Es wurde 1936 von Alan Turing vorgeschlagen, um das Konzept eines Algorithmus zu formalisieren.

Eine Turing-Maschine ist eine Erweiterung einer endlichen Zustandsmaschine und gemäß der Church-Turing-These in der Lage, alle Darsteller nachzuahmen(durch Angabe von Übergangsregeln), die den schrittweisen Berechnungsprozess, bei dem jeder Berechnungsschritt recht elementar ist, irgendwie umsetzen.

Der Aufbau einer Turingmaschine[

Die Turingmaschine verfügt über eine unbegrenzte Geschwindigkeit in beide Richtungen Schleife(Möglich sind Turingmaschinen mit mehreren unendlichen Bändern), unterteilt in Zellen und Kontrollgerät(auch genannt Lese-/Schreibkopf(GZCH)), fähig, in einem von zu sein Menge von Staaten. Die Anzahl der möglichen Zustände des Steuergerätes ist endlich und genau festgelegt.

Das Steuergerät kann sich entlang des Bandes nach links und rechts bewegen, Zeichen eines endlichen Alphabets lesen und in Zellen schreiben. Fällt besonders hervor leer ein Symbol, das alle Zellen des Bandes ausfüllt, mit Ausnahme derjenigen (die endgültige Zahl), auf die die Eingabedaten geschrieben werden.

Das Steuergerät arbeitet entsprechend Übergangsregeln, die den Algorithmus darstellen, realisierbar diese Turingmaschine. Jede Übergangsregel weist die Maschine an, abhängig vom aktuellen Zustand und dem in der aktuellen Zelle beobachteten Symbol ein neues Symbol in diese Zelle zu schreiben, in einen neuen Zustand zu wechseln und eine Zelle nach links oder rechts zu verschieben. Einige Turing-Maschinenzustände können als bezeichnet werden Terminal, und zu einem von ihnen zu gehen bedeutet das Ende der Arbeit und das Stoppen des Algorithmus.

Eine Turingmaschine heißt deterministisch, wenn jede Kombination aus Zustand und Bandsymbol in der Tabelle höchstens einer Regel entspricht. Wenn es ein Paar „Bandsymbol – Zustand“ gibt, für das es 2 oder mehr Anweisungen gibt, wird eine solche Turingmaschine aufgerufen nicht deterministisch.

Beschreibung der Turingmaschine[

Eine bestimmte Turing-Maschine wird definiert, indem die Elemente der Buchstabenmenge des Alphabets A, der Zustandsmenge Q und der Regelmenge, nach der die Maschine arbeitet, aufgelistet werden. Sie haben die Form: q i a j →q i1 a j1 d k (wenn sich der Kopf im Zustand q i befindet und der Buchstabe a j in die beobachtete Zelle geschrieben wird, dann geht der Kopf in den Zustand q i1 über, a j1 wird in die Zelle geschrieben Anstelle eines j macht der Kopf eine Bewegung d k, die drei Möglichkeiten hat: eine Zelle nach links (L), eine Zelle nach rechts (R), an Ort und Stelle bleiben (N)). Für jede mögliche Konfiguration Es gibt genau eine Regel (für eine nichtdeterministische Turing-Maschine kann es mehrere Regeln geben). Es gibt keine Regeln nur für den Endzustand, in dem das Auto einmal stehen bleibt. Darüber hinaus müssen Sie den End- und Anfangszustand, die Anfangskonfiguration auf dem Band und die Position des Maschinenkopfes angeben.

Beispiel einer Turingmaschine[

Lassen Sie uns ein Beispiel für MT zum Multiplizieren von Zahlen im unären Zahlensystem geben. Der Eintrag der Regel „q i a j →q i1 a j1 R/L/N“ ist wie folgt zu verstehen: q i ist der Zustand, in dem diese Regel ausgeführt wird, a j sind die Daten in der Zelle, in der sich der Kopf befindet, q i1 ist der Zustand, in den man gehen soll, a j1 – was in die Zelle geschrieben werden muss, R/L/N – Befehl zum Verschieben.

Computerarchitektur von John von Neumann

Von Neumann-Architektur- ein bekanntes Prinzip der gemeinsamen Speicherung von Befehlen und Daten im Computerspeicher. Computersysteme dieser Art werden oft als „von Neumann-Maschinen“ bezeichnet, die Übereinstimmung dieser Konzepte ist jedoch nicht immer eindeutig. Wenn man von Neumann-Architektur spricht, meint man im Allgemeinen das Prinzip, Daten und Anweisungen in einem Speicher zu speichern.

Von Neumann-Prinzipien

Von Neumanns Prinzipien[

Das Prinzip der Gedächtnishomogenität

Befehle und Daten werden im selben Speicher gespeichert und sind im Speicher äußerlich nicht unterscheidbar. Sie sind nur an der Art der Nutzung zu erkennen; Das heißt, derselbe Wert in einer Speicherzelle kann abhängig von der Art des Zugriffs als Daten, als Befehl und als Adresse verwendet werden. Dadurch können Sie mit Befehlen die gleichen Operationen wie mit Zahlen ausführen und eröffnen sich dementsprechend eine Reihe von Möglichkeiten. Durch zyklisches Ändern des Adressteils des Befehls ist es somit möglich, auf aufeinanderfolgende Elemente des Datenarrays zuzugreifen. Diese Technik wird als Befehlsmodifikation bezeichnet und ist aus Sicht der modernen Programmierung nicht zu empfehlen. Nützlicher ist eine andere Konsequenz des Prinzips der Homogenität, wenn Anweisungen von einem Programm als Ergebnis der Ausführung eines anderen Programms erhalten werden können. Diese Möglichkeit liegt der Übersetzung zugrunde – der Übersetzung von Programmtexten aus einer Hochsprache in die Sprache eines bestimmten Computers.

Targeting-Prinzip

Strukturell besteht der Hauptspeicher aus nummerierten Zellen, und jede Zelle steht dem Prozessor jederzeit zur Verfügung. Binärcodes von Befehlen und Daten werden in Informationseinheiten, sogenannte Wörter, unterteilt und in Speicherzellen gespeichert. Für den Zugriff darauf werden die Nummern der entsprechenden Zellen – Adressen – verwendet.

Prinzip der Programmsteuerung

Alle vom Algorithmus zur Lösung des Problems vorgesehenen Berechnungen müssen in Form eines Programms dargestellt werden, das aus einer Folge von Steuerwörtern – Befehlen – besteht. Jeder Befehl schreibt eine Operation aus einer Reihe von Operationen vor, die vom Computer implementiert werden. Programmbefehle werden in sequentiellen Speicherzellen des Computers gespeichert und in einer natürlichen Reihenfolge, also in der Reihenfolge ihrer Position im Programm, ausgeführt. Bei Bedarf kann diese Reihenfolge durch spezielle Befehle geändert werden. Die Entscheidung, die Ausführungsreihenfolge von Programmbefehlen zu ändern, wird entweder auf der Grundlage einer Analyse der Ergebnisse früherer Berechnungen oder bedingungslos getroffen.

Prozessortypen

Mikroprozessor- Dies ist ein Gerät, bei dem es sich um einen oder mehrere große integrierte Schaltkreise (LSI) handelt, die die Funktionen eines Computerprozessors ausführen. Ein klassisches Computergerät besteht aus einer Recheneinheit (AU), einem Steuergerät (CU) und einem Speichergerät (SU). ) und ein Eingabe-Ausgabe-Gerät (I/O) ).

IntelCeleron 400 Sockel 370 in einem Kunststoff-PPGA-Gehäuse, Draufsicht.

Es gibt Prozessoren verschiedener Architekturen.

CISC(engl. ComplexInstructionSetComputing) ist ein Prozessordesignkonzept, das durch die folgenden Eigenschaften gekennzeichnet ist:

· eine große Anzahl von Befehlen unterschiedlichen Formats und unterschiedlicher Länge;

· Einführung einer Vielzahl unterschiedlicher Adressierungsmodi;

· verfügt über eine komplexe Befehlscodierung.

Ein CISC-Prozessor muss komplexere Anweisungen ungleicher Länge verarbeiten. Ein einzelner CISC-Befehl kann schneller ausgeführt werden, die parallele Verarbeitung mehrerer CISC-Befehle ist jedoch schwieriger.

Um das Debuggen von Programmen in Assembler zu erleichtern, muss die Mikroprozessoreinheit mit Knoten überladen werden. Um die Leistung zu verbessern, müssen Taktfrequenz und Integrationsgrad erhöht werden, was eine verbesserte Technologie und damit eine teurere Produktion erfordert.

Vorteile der CISC-Architektur[zeigen]

Nachteile der CISC-Architektur[zeigen]

RISC(Reduced Instruction Set Computing). Prozessor mit reduziertem Befehlssatz. Das Befehlssystem ist vereinfacht. Alle Befehle haben das gleiche Format mit einfacher Kodierung. Der Zugriff auf den Speicher erfolgt über Lade- und Schreibbefehle; die übrigen Befehle sind vom Typ Register-Register. Der in die CPU eingegebene Befehl ist bereits in Felder unterteilt und erfordert keine zusätzliche Entschlüsselung.

Ein Teil des Kristalls wird frei, um zusätzliche Komponenten aufzunehmen. Der Integrationsgrad ist geringer als bei der vorherigen Architekturvariante, sodass niedrigere Taktraten für eine hohe Leistung zulässig sind. Der Befehl belastet den RAM weniger, die CPU ist günstiger. Diese Architekturen sind nicht softwarekompatibel. Das Debuggen von RISC-Programmen ist schwieriger. Diese Technologie kann in Software implementiert werden, die mit der CISC-Technologie kompatibel ist (z. B. Superskalar-Technologie).

Da RISC-Anweisungen einfach sind, sind für deren Ausführung weniger Logikgatter erforderlich, was letztendlich die Kosten des Prozessors senkt. Heutzutage wird die meiste Software jedoch speziell für Intel CISC-Prozessoren geschrieben und kompiliert. Um die RISC-Architektur nutzen zu können, müssen aktuelle Programme neu kompiliert und teilweise neu geschrieben werden.

Taktfrequenz

Die Taktfrequenz ist ein Indikator für die Geschwindigkeit, mit der Befehle vom Zentralprozessor ausgeführt werden.
Takt ist die Zeitspanne, die zur Durchführung einer elementaren Operation benötigt wird.

In der jüngeren Vergangenheit wurde die Taktrate eines Zentralprozessors direkt mit seiner Leistung identifiziert, d. h. je höher die Taktrate der CPU, desto produktiver ist sie. In der Praxis kommt es vor, dass Prozessoren mit unterschiedlichen Frequenzen die gleiche Leistung erbringen, weil sie in einem Taktzyklus unterschiedlich viele Befehle ausführen können (je nach Kerndesign, Busbandbreite, Cache-Speicher).

Die Prozessortaktrate ist proportional zur Systembusfrequenz ( siehe unten).

Bittiefe

Die Prozessorkapazität ist ein Wert, der die Informationsmenge bestimmt, die der Zentralprozessor in einem Taktzyklus verarbeiten kann.

Wenn es sich beispielsweise um einen 16-Bit-Prozessor handelt, bedeutet dies, dass er in einem Taktzyklus 16 Bit an Informationen verarbeiten kann.

Ich denke, jeder versteht, dass je höher die Bittiefe des Prozessors ist, desto größere Informationsmengen kann er verarbeiten.

Normalerweise gilt: Je höher die Prozessorkapazität, desto höher die Leistung.

Derzeit werden 32- und 64-Bit-Prozessoren verwendet. Die Größe des Prozessors bedeutet nicht, dass er verpflichtet ist, Befehle mit der gleichen Bitgröße auszuführen.

Cache-Speicher

Beantworten wir zunächst die Frage: Was ist Cache-Speicher?

Cache-Speicher ist ein Hochgeschwindigkeits-Computerspeicher, der für die vorübergehende Speicherung von Informationen (Code ausführbarer Programme und Daten) konzipiert ist, die vom Zentralprozessor benötigt werden.

Welche Daten werden im Cache-Speicher gespeichert?

Am häufigsten verwendet.

Was ist der Zweck des Cache-Speichers?

Tatsache ist, dass die RAM-Leistung im Vergleich zur CPU-Leistung viel geringer ist. Es stellt sich heraus, dass der Prozessor darauf wartet, dass Daten aus dem RAM eintreffen – was die Leistung des Prozessors und damit die Leistung des gesamten Systems verringert. Der Cache-Speicher reduziert die Prozessorlatenz, indem er Daten und Code ausführbarer Programme speichert, auf die der Prozessor am häufigsten zugegriffen hat (der Unterschied zwischen Cache-Speicher und Computer-RAM besteht darin, dass die Geschwindigkeit des Cache-Speichers um ein Vielfaches höher ist).

Der Cache-Speicher verfügt wie der normale Speicher über eine Kapazität. Je höher die Cache-Speicherkapazität, desto größere Datenmengen können verarbeitet werden.

Es gibt drei Ebenen des Cache-Speichers: Cache-Speicher Erste (L1), zweite (L2) und dritte (L3). Die ersten beiden Ebenen werden am häufigsten in modernen Computern verwendet.

Schauen wir uns alle drei Ebenen des Cache-Speichers genauer an.

Erster Cache Level ist der schnellste und teuerste Speicher.

Der L1-Cache befindet sich auf demselben Chip wie der Prozessor, arbeitet mit der CPU-Frequenz (daher die schnellste Leistung) und wird direkt vom Prozessorkern verwendet.

Die Kapazität des First-Level-Cache ist klein (aufgrund der hohen Kosten) und wird in Kilobyte gemessen (normalerweise nicht mehr als 128 KB).

L2-Cache ist ein Hochgeschwindigkeitsspeicher, der die gleichen Funktionen wie der L1-Cache ausführt. Der Unterschied zwischen L1 und L2 besteht darin, dass letztere über eine geringere Geschwindigkeit, aber eine größere Kapazität (von 128 KB bis 12 MB) verfügt, was für die Ausführung ressourcenintensiver Aufgaben sehr nützlich ist.

L3-Cache befindet sich auf der Hauptplatine. L3 ist deutlich langsamer als L1 und L2, aber schneller als RAM. Es ist klar, dass das Volumen von L3 größer ist als das Volumen von L1 und L2. Der Level-3-Cache findet sich in sehr leistungsstarken Computern.

Anzahl der Kerne

Moderne Permöglichen die Unterbringung mehrerer Kerne in einem Paket. Das Vorhandensein mehrerer Kerne erhöht die Leistung des Prozessors erheblich, dies bedeutet jedoch nicht, dass das Vorhandensein mehrerer Kerne der Fall ist N Kerne sorgen für eine höhere Leistung N einmal. Darüber hinaus besteht das Problem bei Mehrkernprozessoren darin, dass heutzutage relativ wenige Programme geschrieben werden, die das Vorhandensein mehrerer Kerne im Prozessor berücksichtigen.

Mit dem Multi-Core-Prozessor können Sie zunächst die Multitasking-Funktion implementieren: die Arbeit von Anwendungen auf die Prozessorkerne verteilen. Das bedeutet, dass jeder einzelne Kern seine eigene Anwendung ausführt.

Motherboard-Struktur

Bevor Sie sich für ein Motherboard entscheiden, müssen Sie dessen Struktur zumindest oberflächlich betrachten. Allerdings ist hier anzumerken, dass die Lage der Sockel und anderer Teile des Mainboards keine besondere Rolle spielt.

Das erste, worauf Sie achten sollten, ist der Prozessorsockel. Dabei handelt es sich um eine kleine quadratische Aussparung mit Verschluss.

Wer mit dem Begriff „Overlocking“ (Übertakten eines Computers) vertraut ist, sollte auf das Vorhandensein eines Doppelkühlers achten. Oftmals verfügen Motherboards nicht über einen doppelten Kühlkörper. Daher ist es für diejenigen, die beabsichtigen, ihren Computer in Zukunft zu übertakten, ratsam, sicherzustellen, dass dieses Element auf der Platine vorhanden ist.

Verlängerte PCI-Express-Steckplätze sind für Grafikkarten, TV-Tuner, Audio- und Netzwerkkarten konzipiert. Grafikkarten erfordern eine hohe Bandbreite und verwenden PCI-Express X16-Anschlüsse. Für andere Adapter werden PCI-Express X1-Anschlüsse verwendet.

Fachberatung!PCI-Steckplätze mit unterschiedlichen Bandbreiten sehen fast gleich aus. Es lohnt sich, die Anschlüsse besonders genau zu betrachten und die Beschriftungen darunter zu lesen, um plötzliche Enttäuschungen zu Hause bei der Installation von Grafikkarten zu vermeiden.

Kleinere Anschlüsse sind für RAM-Sticks gedacht. Sie sind normalerweise schwarz oder blau gefärbt.

Der Chipsatz des Boards ist normalerweise unter dem Kühlkörper versteckt. Dieses Element ist für den gemeinsamen Betrieb des Prozessors und anderer Teile der Systemeinheit verantwortlich.

Die kleinen quadratischen Anschlüsse am Rand der Platine dienen zum Anschluss der Festplatte. Auf der anderen Seite befinden sich Anschlüsse für Ein- und Ausgabegeräte (USB, Maus, Tastatur etc.).

Hersteller

Viele Unternehmen produzieren Motherboards. Es ist fast unmöglich, die besten oder schlechtesten davon hervorzuheben. Die Bezahlung jedes Unternehmens kann als hochwertig bezeichnet werden. Oft bieten auch unbekannte Hersteller gute Produkte an.

Das Geheimnis liegt darin, dass alle Boards mit Chipsätzen zweier Firmen ausgestattet sind: AMD und Intel. Darüber hinaus sind die Unterschiede zwischen den Chipsätzen unbedeutend und spielen nur bei der Lösung hochspezialisierter Probleme eine Rolle.

Formfaktor

Bei Mainboards kommt es auf die Größe an. Der Standard-ATX-Formfaktor ist in den meisten Heimcomputern zu finden. Die große Größe und damit das Vorhandensein einer großen Auswahl an Steckplätzen ermöglicht es Ihnen, die grundlegenden Eigenschaften des Computers zu verbessern.

Die kleinere mATX-Version ist weniger verbreitet. Verbesserungsmöglichkeiten sind begrenzt.

Es gibt auch mITX. Dieser Formfaktor findet sich in preisgünstigen Bürocomputern. Eine Leistungsverbesserung ist entweder unmöglich oder macht keinen Sinn.

Oftmals werden Prozessoren und Platinen im Set verkauft. Wenn der Prozessor jedoch zuvor gekauft wurde, ist es wichtig, sicherzustellen, dass er mit dem Board kompatibel ist. Anhand des Sockels lässt sich sofort die Kompatibilität von Prozessor und Mainboard feststellen.

Chipsatz

Das Verbindungsglied aller Komponenten des Systems ist der Chipsatz. Chipsätze werden von zwei Unternehmen hergestellt: Intel und AMD. Es gibt keinen großen Unterschied zwischen ihnen. Zumindest für den durchschnittlichen Benutzer.

Standard-Chipsätze bestehen aus einer Nord- und einer Südbrücke. Die neuesten Intel-Modelle bestehen nur noch aus Nord. Dies geschah nicht, um Geld zu sparen. Dieser Faktor beeinträchtigt in keiner Weise die Leistung des Chipsatzes.

Die modernsten Intel-Chipsätze bestehen aus einer einzigen Bridge, da sich die meisten Controller mittlerweile im Prozessor befinden, darunter der DD3-RAM-Controller, PCI-Express 3.0 und einige andere.

AMD-Gegenstücke basieren auf einem traditionellen Zwei-Brücken-Design. Beispielsweise ist die 900er-Serie mit einer Southbridge SB950 und einer Northbridge 990FX (990X, 970) ausgestattet.

Bei der Auswahl eines Chipsatzes sollten Sie von den Fähigkeiten der North Bridge ausgehen. Northbridge 990FX unterstützt den gleichzeitigen Betrieb von 4 Grafikkarten im CrossFire-Modus. In den meisten Fällen ist diese Leistung zu hoch. Aber für Fans schwerer Spiele oder diejenigen, die mit anspruchsvollen Grafikeditoren arbeiten, ist dieser Chipsatz am besten geeignet.

Die leicht abgespeckte Version des 990X kann noch zwei Grafikkarten gleichzeitig unterstützen, das 970-Modell arbeitet jedoch ausschließlich mit einer Grafikkarte.

Motherboard-Layout

· Datenverarbeitungssubsystem;

· Stromversorgungssubsystem;

· Hilfsblöcke und -einheiten.

Die Hauptkomponenten des Motherboard-Datenverarbeitungssubsystems sind in Abb. dargestellt. 1.3.14.

1 – Prozessorsockel; 2 – Vorderreifen; 3 – Nordbrücke; 4 – Taktgenerator; 5 – Speicherbus; 6 – RAM-Anschlüsse; 7 – IDE (ATA)-Anschlüsse; 8 – SATA-Anschlüsse; 9 – Südbrücke; 10 – IEEE 1394-Anschlüsse; 11 – USB-Anschlüsse; 12 – Ethernet-Netzwerkanschluss; 13 – Audioanschlüsse; 14 – LPC-Bus; 15 – Super-I/O-Controller; 16 – PS/2-Anschluss;

17 – Parallelport; 18 – serielle Anschlüsse; 19 – Diskettenanschluss;

20 – BIOS; 21 – PCI-Bus; 22 – PCI-Anschlüsse; 23 – AGP- oder PCI-Express-Anschlüsse;

24 – interner Bus; 25 – AGP/PCI-Express-Bus; 26 – VGA-Anschluss

FPM (Fast Page Mode) ist eine Art dynamischer Speicher.
Sein Name entspricht dem Funktionsprinzip, da das Modul einen schnelleren Zugriff auf Daten ermöglicht, die sich auf derselben Seite befinden wie die im vorherigen Zyklus übertragenen Daten.
Diese Module wurden um 1995 auf den meisten 486-basierten Computern und frühen Pentium-basierten Systemen verwendet.

EDO-Module (Extended Data Out) erschienen 1995 als neuer Speichertyp für Computer mit Pentium-Prozessoren.
Dies ist eine modifizierte Version von FPM.
Im Gegensatz zu seinen Vorgängern beginnt EDO gleichzeitig mit dem Abrufen des nächsten Speicherblocks, während es den vorherigen Block an die CPU sendet.

SDRAM (Synchronous DRAM) ist eine Art Direktzugriffsspeicher, der so schnell arbeitet, dass er mit der Prozessorfrequenz synchronisiert werden kann, ausgenommen Standby-Modi.
Die Mikroschaltungen sind in zwei Zellenblöcke unterteilt, sodass während des Zugriffs auf ein Bit in einem Block Vorbereitungen für den Zugriff auf ein Bit in einem anderen Block getroffen werden.
Wenn die Zeit für den Zugriff auf die erste Information 60 ns betrug, wurden alle nachfolgenden Intervalle auf 10 ns verkürzt.
Ab 1996 unterstützten die meisten Intel-Chipsätze diesen Speichermodultyp, wodurch er bis 2001 sehr beliebt war.

SDRAM kann mit 133 MHz arbeiten, was fast dreimal schneller als FPM und doppelt so schnell wie EDO ist.
Die meisten Computer mit Pentium- und Celeron-Prozessoren, die 1999 auf den Markt kamen, verwendeten diesen Speichertyp.

DDR (Double Data Rate) war eine Weiterentwicklung von SDRAM.
Diese Art von Speichermodulen kam erstmals im Jahr 2001 auf den Markt.
Der Hauptunterschied zwischen DDR und SDRAM besteht darin, dass diese Module Daten nicht zweimal pro Taktzyklus übertragen, anstatt die Taktrate zu verdoppeln, um die Geschwindigkeit zu erhöhen.
Dies ist nun der Hauptspeicherstandard, aber er beginnt bereits, DDR2 zu weichen.

DDR2 (Double Data Rate 2) ist eine neuere Variante von DDR, die theoretisch doppelt so schnell sein sollte.
DDR2-Speicher erschien erstmals im Jahr 2003 und Chipsätze, die ihn unterstützen, kamen Mitte 2004 auf den Markt.
Dieser Speicher überträgt wie DDR zwei Datensätze pro Taktzyklus.
Der Hauptunterschied zwischen DDR2 und DDR besteht in der Möglichkeit, dank Verbesserungen im Design mit deutlich höheren Taktraten zu arbeiten.
Das geänderte Betriebsschema, das es ermöglicht, hohe Taktfrequenzen zu erreichen, erhöht jedoch gleichzeitig die Verzögerungen bei der Arbeit mit dem Speicher.

DDR3 SDRAM (Double Data Rate Synchronous Dynamic Random Access Memory, dritte Generation) ist eine Art Direktzugriffsspeicher, der in der Computertechnik als RAM und Videospeicher verwendet wird.
Es ersetzte den DDR2-SDRAM-Speicher.

DDR3 hat im Vergleich zu DDR2-Modulen einen um 40 % geringeren Energieverbrauch, was auf die niedrigere (1,5 V, im Vergleich zu 1,8 V bei DDR2 und 2,5 V bei DDR) Versorgungsspannung der Speicherzellen zurückzuführen ist.
Die Reduzierung der Versorgungsspannung wird durch den Einsatz einer 90-nm-Prozesstechnologie (zunächst 65, 50, 40 nm) bei der Herstellung von Mikroschaltungen und den Einsatz von Dual-Gate-Transistoren (was zur Reduzierung von Leckströmen beiträgt) erreicht. .

DIMMs mit DDR3-Speicher sind mechanisch nicht mit denselben DDR2-Speichermodulen kompatibel (der Schlüssel befindet sich an einer anderen Stelle), daher kann DDR2 nicht in DDR3-Steckplätzen installiert werden (dies geschieht, um die versehentliche Installation einiger Module statt anderer zu verhindern – diese). Speichertypen sind hinsichtlich der elektrischen Parameter nicht gleich).

RAMBUS (RIMM)

RAMBUS (RIMM) ist ein Speichertyp, der 1999 auf den Markt kam.
Es basiert auf traditionellem DRAM, weist jedoch eine radikal veränderte Architektur auf.
Das RAMBUS-Design macht den Speicherzugriff intelligenter und ermöglicht den Vorabzugriff auf Daten bei gleichzeitiger geringfügiger Entlastung der CPU.
Die Grundidee dieser Speichermodule besteht darin, Daten in kleinen Paketen, aber mit einer sehr hohen Taktrate zu empfangen.
Beispielsweise kann SDRAM 64 Bit an Informationen bei 100 MHz übertragen, und RAMBUS kann 16 Bit bei 800 MHz übertragen.
Diese Module hatten keinen Erfolg, da Intel bei der Implementierung viele Probleme hatte.
RDRAM-Module erschienen in den Spielekonsolen Sony Playstation 2 und Nintendo 64.

RAM steht für Random Access Memory – Speicher, auf den über die Adresse zugegriffen wird. Adressen, auf die nacheinander zugegriffen wird, können jeden Wert annehmen, sodass auf jede Adresse (oder „Zelle“) unabhängig zugegriffen werden kann.

Statistischer Speicher ist Speicher, der aus statischen Schaltern aufgebaut ist. Es speichert Informationen, solange Strom anliegt. Typischerweise sind mindestens sechs Transistoren erforderlich, um ein Bit in einer SRAM-Schaltung zu speichern. SRAM wird in kleinen Systemen (bis zu mehreren hundert KB RAM) und dort eingesetzt, wo die Zugriffsgeschwindigkeit entscheidend ist (z. B. Cache in Prozessoren oder auf Motherboards).

Dynamischer Speicher (DRAM) entstand in den frühen 70er Jahren. Es basiert auf kapazitiven Elementen. Wir können uns DRAM als eine Reihe von Kondensatoren vorstellen, die durch Schalttransistoren gesteuert werden. Zum Speichern eines Bits wird nur ein „Kondensatortransistor“ benötigt, sodass DRAM mehr Kapazität als SRAM hat (und billiger ist).
DRAM ist als rechteckige Anordnung von Zellen organisiert. Um auf eine Zelle zuzugreifen, müssen wir die Zeile und Spalte auswählen, in der sich diese Zelle befindet. Typischerweise wird dies so implementiert, dass der obere Teil der Adresse auf eine Zeile zeigt und der niedrige Teil der Adresse auf eine Zelle in der Zeile („Spalte“). Historisch gesehen (aufgrund langsamer Geschwindigkeiten und kleiner IC-Pakete in den frühen 70er Jahren) wurde die Adresse dem DRAM-Chip in zwei Phasen zugeführt – eine Zeilenadresse mit einer Spaltenadresse auf denselben Leitungen. Zuerst empfängt der Chip die Zeilenadresse und dann Nach einigen Nanosekunden wird die Spaltenadresse auf die gleiche Leitung übertragen. Der Chip liest die Daten und gibt sie an den Ausgang weiter. Während des Schreibzyklus werden die Daten zusammen mit der Spaltenadresse vom Chip empfangen. Dazu werden mehrere Steuerleitungen verwendet steuern den Chip. RAS-Signale (Row Address Strobe), die die Zeilenadresse übertragen und außerdem den gesamten Chip aktivieren. CAS-Signale (Column Address Strobe), die die Spaltenadresse übertragen. WE (Write Enable), die anzeigen, dass es sich bei dem durchgeführten Zugriff um einen Schreibzugriff handelt. OE ( Output Enable) öffnet die Puffer, die zum Übertragen von Daten vom Speicherchip zum „Host“ (Prozessor) verwendet werden.
FP-DRAM

Da jeder Zugriff auf klassisches DRAM die Übertragung von zwei Adressen erfordert, war es für 25-MHz-Maschinen zu langsam. FP (Fast Page) DRAM ist eine Variante des klassischen DRAM, bei dem nicht bei jedem Zugriffszyklus die Zeilenadresse übertragen werden muss. Solange die RAS-Leitung aktiv ist, bleibt die Zeile ausgewählt und einzelne Zellen aus dieser Zeile können ausgewählt werden, indem nur die Spaltenadresse übergeben wird. Während also die Speicherzelle gleich bleibt, ist die Zugriffszeit kürzer, da in den meisten Fällen nur eine Adressübertragungsphase erforderlich ist.

EDO (Extended Data Out) DRAM ist eine Variante des FP DRAM. Im FP-DRAM muss die Spaltenadresse während der gesamten Datenübertragungsperiode korrekt bleiben. Datenpuffer werden nur während des Übertragungszyklus der Spaltenadresse durch das CAS-Signal-Aktivitätspegelsignal aktiviert. Daten müssen vom Speicherdatenbus gelesen werden, bevor die neue Spaltenadresse auf dem Chip empfangen wird. Der EDO-Speicher speichert Daten in Ausgabepuffern, nachdem das CAS-Signal in den inaktiven Zustand zurückkehrt und die Spaltenadresse entfernt wird. Parallel zum Auslesen der Daten kann die Adresse der nächsten Spalte übertragen werden. Dies bietet die Möglichkeit, beim Lesen eine teilweise Übereinstimmung zu verwenden. Während EDO-RAM-Speicherzellen die gleiche Geschwindigkeit wie FP-DRAM haben, kann der sequentielle Zugriff schneller sein. Daher sollte EDO etwas schneller sein als FP, insbesondere für Massenzugriffe (wie in Grafikanwendungen).

Video-RAM kann auf jeder der oben aufgeführten DRAM-Architekturen basieren. Zusätzlich zu dem unten beschriebenen „normalen“ Zugriffsmechanismus verfügt VRAM über einen oder zwei spezielle serielle Ports. VRAM wird oft als Dual-Port- oder Triple-Port-Speicher bezeichnet. Serielle Ports enthalten Register, die den Inhalt einer ganzen Serie speichern können. Es ist möglich, in einem einzigen Zugriffszyklus Daten von einer gesamten Zeile eines Speicherarrays in ein Register (oder umgekehrt) zu übertragen. Die Daten können dann in Blöcken beliebiger Länge aus dem seriellen Register gelesen oder in dieses geschrieben werden. Da ein Register aus schnellen, statischen Zellen besteht, erfolgt der Zugriff darauf sehr schnell, normalerweise um ein Vielfaches schneller als auf ein Speicherarray. In den meisten typischen Anwendungen wird VRAM als Bildschirmspeicherpuffer verwendet. Der parallele Anschluss (Standardschnittstelle) wird vom Prozessor verwendet, und der serielle Anschluss dient der Übertragung von Daten über Punkte auf dem Display (oder dem Lesen von Daten von einer Videoquelle).

WRAM ist eine proprietäre Speicherarchitektur, die von Matrox und (wer sonst, erinnere ich mich... - Samsung?, MoSys?...) entwickelt wurde. Es ähnelt VRAM, ermöglicht jedoch einen schnelleren Zugriff durch den Host. WRAM wurde auf den Grafikkarten Millenium und Millenium II von Matrox verwendet (jedoch nicht auf der modernen Millenium G200).

SDRAM ist eine komplette Neuauflage des in den 90er Jahren eingeführten DRAM. „S“ steht für Synchronous, da SDRAM eine vollständig synchrone (und daher sehr schnelle) Schnittstelle implementiert. SDRAM enthält (normalerweise zwei) DRAM-Arrays. Jedes Array hat sein eigenes eigenes Seitenregister, das (ein bisschen) dem seriellen Zugriffsregister auf VRAM ähnelt. SDRAM arbeitet viel intelligenter als normales DRAM. Die gesamte Schaltung wird mit einem externen Taktsignal synchronisiert. Bei jedem Taktimpuls empfängt der Chip einen übertragenen Befehl und führt ihn aus entlang der Befehlszeilen. Die Befehlszeilennamen bleiben dieselben wie bei klassischen DRAM-Chips, ihre Funktionen ähneln jedoch nur dem Original. Es gibt Befehle zum Übertragen von Daten zwischen dem Speicherarray und den Seitenregistern sowie für den Zugriff auf Daten in Seitenregistern. Der Zugriff auf ein Seitenregister erfolgt sehr schnell – moderne SDRAMs können alle 6..10 ns ein neues Datenwort übertragen.

Synchronous Graphics RAM ist eine Variante von SDRAM, die für Grafikanwendungen entwickelt wurde. Der Hardwareaufbau ist nahezu identisch, daher können wir in den meisten Fällen SDRAM und SGRAM ändern (siehe Matrox G200-Karten – einige verwenden SD, andere SG). Der Unterschied liegt in den Funktionen, die das Seitenregister ausführt. Der SG kann mehrere Stellen in einem einzigen Zyklus schreiben (dies ermöglicht sehr schnelle Farbfüllungen und Bildschirmlöschungen) und kann nur wenige Bits pro Wort schreiben (die Bits werden durch eine von der Schnittstellenschaltung gespeicherte Bitmaske ausgewählt). Daher ist SG in Grafikanwendungen schneller, bei „normaler“ Verwendung jedoch physikalisch nicht schneller als SD. Zusätzliche Funktionen von SG werden von Grafikbeschleunigern genutzt. Ich denke, dass insbesondere die Bildschirmlösch- und Z-Puffer-Funktionen sehr nützlich sind.

RAMBUS (RDRAM)

Die Entwicklung von RAMBUS (Warenzeichen von RAMBUS, Inc.) begann in den 80er Jahren und ist daher nicht neu. Moderne RAMBUS-Technologien kombinieren alte, aber sehr gute Ideen und heutige Speicherproduktionstechnologien. RAMBUS basiert auf einer einfachen Idee: Wir nehmen alles Gute Bei DRAM bauen wir einen statischen Puffer in den Chip ein (wie bei VRAM und SGRAM) und stellen eine spezielle, elektronisch konfigurierbare Schnittstelle bereit, die mit 250..400 MHz arbeitet. Die Schnittstelle ist mindestens doppelt so schnell wie die, die bei SDRAM verwendet wird, und das sogar noch länger Die Direktzugriffszeit ist normalerweise langsamer, der sequentielle Zugriff ist sehr, sehr, sehr schnell. Denken Sie daran, dass bei der Einführung von 250-MHz-RDRAMs die meisten DRAMs mit Frequenzen von 12 bis 25 MHz betrieben wurden. RDRAM erfordert eine spezielle Schnittstelle und eine sehr sorgfältige physische Platzierung Die meisten RDRAM-Chips unterscheiden sich optisch stark von anderen DRAMs: Sie haben alle alle Signalleitungen auf einer Seite des Gehäuses (sie sind also gleich lang) und nur vier Stromleitungen auf der anderen Seite. RDRAMs werden in Grafikkarten verwendet, die auf Cirrus 546x-Chips basieren. Bald werden wir RDRAMs als Hauptspeicher in PCs sehen.

Festplattengerät.

Die Festplatte enthält eine Reihe von Platten, meist Metallscheiben, die mit einem magnetischen Material – Platte (Gammaferritoxid, Bariumferrit, Chromoxid …) – beschichtet und über eine Spindel (Welle, Achse) miteinander verbunden sind.

Die Scheiben selbst (ca. 2 mm dick) bestehen aus Aluminium, Messing, Keramik oder Glas. (siehe Bild)

Für die Aufnahme werden beide Oberflächen der Discs genutzt. Es werden 4-9 Teller verwendet. Die Welle dreht sich mit hoher konstanter Geschwindigkeit (3600-7200 U/min)

Die Drehung der Scheiben und die radikale Bewegung der Köpfe erfolgt über 2 Elektromotoren.

Daten werden mithilfe von Schreib-/Leseköpfen geschrieben oder gelesen, jeweils einer auf jeder Oberfläche der Festplatte. Die Anzahl der Köpfe entspricht der Anzahl der Arbeitsflächen aller Platten.

Informationen werden an genau definierten Stellen auf der Festplatte aufgezeichnet – konzentrische Spuren (Spuren). Die Gleise sind in Sektoren unterteilt. Ein Sektor enthält 512 Bytes an Informationen.

Der Datenaustausch zwischen RAM und NMD erfolgt sequentiell durch einen Integer (Cluster). Cluster – Ketten aufeinanderfolgender Sektoren (1,2,3,4,…)

Ein spezieller Motor positioniert den Lese-/Schreibkopf mithilfe einer Halterung über einer bestimmten Spur (bewegt ihn in radialer Richtung).

Beim Drehen der Scheibe befindet sich der Kopf über dem gewünschten Sektor. Offensichtlich bewegen sich alle Köpfe gleichzeitig und lesen Informationen; Datenköpfe bewegen sich gleichzeitig und lesen Informationen von identischen Spuren auf verschiedenen Laufwerken.

Festplattenspuren mit derselben Seriennummer auf verschiedenen Festplattenlaufwerken werden als Zylinder bezeichnet.

Die Lese-/Schreibköpfe bewegen sich entlang der Oberfläche der Platte. Je näher der Kopf an der Oberfläche der Platte ist, ohne diese zu berühren, desto höher ist die zulässige Aufzeichnungsdichte .

Festplattenschnittstellen.

IDE (ATA – Advanced Technology Attachment) ist eine parallele Schnittstelle zum Anschluss von Laufwerken, weshalb sie (mit SATA-Ausgang) in PATA (Parallel ATA) geändert wurde. Wurde früher zum Anschluss von Festplatten verwendet, wurde jedoch durch die SATA-Schnittstelle ersetzt. Wird derzeit zum Anschluss optischer Laufwerke verwendet.

SATA (Serial ATA) – serielle Schnittstelle zum Datenaustausch mit Laufwerken. Der Anschluss erfolgt über einen 8-poligen Stecker. Wie PATA ist es veraltet und wird nur für die Arbeit mit optischen Laufwerken verwendet. Der SATA-Standard (SATA150) ermöglichte einen Durchsatz von 150 MB/s (1,2 Gbit/s).

SATA 2 (SATA300). Der SATA 2-Standard verdoppelt den Durchsatz auf bis zu 300 MB/s (2,4 Gbit/s) und ermöglicht den Betrieb mit 3 GHz. Standard-SATA und SATA 2 sind miteinander kompatibel. Bei einigen Modellen ist es jedoch erforderlich, die Modi manuell durch Umstecken der Jumper einzustellen.

SATA 3, obwohl es laut Spezifikationen korrekt ist, es SATA 6Gb/s zu nennen. Dieser Standard verdoppelte die Datenübertragungsgeschwindigkeit auf 6 Gbit/s (600 MB/s). Weitere positive Neuerungen sind die NCQ-Programmsteuerungsfunktion und Befehle zur kontinuierlichen Datenübertragung für einen hochprioren Prozess. Obwohl die Schnittstelle bereits 2009 eingeführt wurde, erfreut sie sich bei den Herstellern noch nicht großer Beliebtheit und ist nicht oft im Handel zu finden. Neben Festplatten kommt dieser Standard auch bei SSDs (Solid-State-Drives) zum Einsatz. Es ist zu beachten, dass sich die Bandbreite der SATA-Schnittstellen in der Praxis nicht in der Datenübertragungsgeschwindigkeit unterscheidet. In der Praxis überschreitet die Geschwindigkeit beim Schreiben und Lesen von Datenträgern 100 MB/s nicht. Eine Leistungssteigerung wirkt sich nur auf die Bandbreite zwischen Controller und Laufwerk-Cache aus.

SCSI (Small Computer System Interface) – ein Standard, der in Servern verwendet wird, bei denen eine höhere Datenübertragungsgeschwindigkeit erforderlich ist.

SAS (Serial Attached SCSI) ist eine Generation, die den SCSI-Standard durch serielle Datenübertragung ersetzt. Es wird wie SCSI in Workstations verwendet. Vollständig kompatibel mit der SATA-Schnittstelle.

CF (Compact Flash) – Schnittstelle zum Anschluss von Speicherkarten, sowie für 1,0-Zoll-Festplatten. Es gibt zwei Standards: Compact Flash Typ I und Compact Flash Typ II, der Unterschied liegt in der Dicke.

FireWire ist eine alternative Schnittstelle zum langsameren USB 2.0. Wird zum Anschließen tragbarer Festplatten verwendet. Unterstützt Geschwindigkeiten von bis zu 400 Mbit/s, aber die physische Geschwindigkeit ist niedriger als bei normalen Geschwindigkeiten. Beim Lesen und Schreiben liegt der maximale Schwellenwert bei 40 MB/s.

Arten von Grafikkarten

Moderne Computer (Laptops) sind mit verschiedenen Arten von Grafikkarten erhältlich, die sich direkt auf die Leistung in Grafikprogrammen, die Videowiedergabe usw. auswirken.

Derzeit sind 3 Arten von Adaptern im Einsatz, die kombiniert werden können.

Schauen wir uns die Arten von Grafikkarten genauer an:

  • integriert;
  • diskret;
  • Hybrid;
  • zwei diskrete;
  • Hybrid-SLI.

Integrierte Grafikkarte- Dies ist eine kostengünstige Option. Es verfügt nicht über Videospeicher und Grafikprozessor. Mit Hilfe des Chipsatzes werden Grafiken vom Zentralprozessor verarbeitet, statt Videospeicher kommt RAM zum Einsatz. Ein solches Gerätesystem reduziert die Leistung des Computers im Allgemeinen und der Grafikverarbeitung im Besonderen erheblich.

Wird häufig in preisgünstigen PC- oder Laptop-Konfigurationen verwendet. Ermöglicht das Arbeiten mit Office-Anwendungen, das Ansehen und Bearbeiten von Fotos und Videos, das Spielen moderner Spiele ist jedoch nicht möglich. Es sind nur Legacy-Optionen mit Mindestsystemanforderungen verfügbar.

Alle modernen Computer arbeiten trotz der Tatsache, dass viel Zeit vergangen ist, nach den Prinzipien des amerikanischen Mathematikers John von Neumann (1903 - 1957). Er leistete auch einen wesentlichen Beitrag zur Entwicklung und Anwendung von Computern. Er war der Erste, der die Prinzipien festlegte, nach denen ein Computer funktioniert:

1. Das Prinzip der binären Codierung: Alle Informationen in einem Computer werden in binärer Form dargestellt, einer Kombination aus 0 und 1.

2. Das Prinzip der Speicherhomogenität: Sowohl Programme als auch Daten werden im selben Speicher gespeichert. Daher erkennt der Computer nicht, was in einer bestimmten Speicherzelle gespeichert ist, Zahlen, Texte, Befehle usw. können sich dort jedoch befinden. Die Für Befehle können dieselben Aktionen ausgeführt werden wie für Superdaten.

3. Das Prinzip der Speicheradressierbarkeit: Schematisch besteht der OP (Hauptspeicher) aus nummerierten Zellen, die CPU (Zentraleinheit) ist jede Speicherzelle jederzeit zugänglich. Daher ist es möglich, Speicherblöcken Namen zuzuweisen, um die Interaktion zwischen OP und CPU zu vereinfachen.

4. Das Prinzip der sequentiellen Programmsteuerung: Ein Programm besteht aus einer Reihe von Anweisungen, die von der CPU sequentiell nacheinander ausgeführt werden.

5. Das Prinzip der bedingten Verzweigung: Es ist nicht immer so, dass Befehle einzeln ausgeführt werden. Daher ist es möglich, bedingte Verzweigungsbefehle zu haben, die die sequentielle Ausführung von Befehlen abhängig vom Wert der gespeicherten Daten ändern

. Klassifizierung moderner Computer.

Modern Computer sind in eingebaute unterteilt Mikroprozessoren, Mikrocomputer(persönliche Computer), Großrechner Und Supercomputer- ein Computerkomplex mit mehreren Prozessoren.

Mikroprozesse- im Formular implementierte Auftragsverarbeiter Integral elektronisch Mikroschaltungen. Mikroprozessoren können in Telefone, Fernseher und andere Geräte, Maschinen und Geräte eingebaut werden.

Über integrierte Schaltkreise Prozessoren und RAM aller modernen Mikrocomputer sowie aller Blöcke großer Computer und Supercomputer sowie aller programmierbaren Geräte sind implementiert.

Mikroprozessorleistung beläuft sich auf mehrere Millionen Operationen pro Sekunde, und das Volumen moderner RAM-Blöcke beträgt mehrere Millionen Bytes.

Mikrocomputer - diese sind vollwertig Rechnen Autos, das nicht nur über einen Prozessor und RAM für die Datenverarbeitung verfügt, sondern auch über Eingabe-/Ausgabe- und Informationsspeichergeräte.

Persönliche Computer - Das Mikrocomputer, mit Anzeigegeräten auf elektronischen Bildschirmen sowie Dateneingabe-/-ausgabegeräten in Form einer Tastatur und möglicherweise Geräten zum Anschluss an Computernetzwerke.

Mikrocomputerarchitektur basiert auf der Verwendung eines System-Backbones – eines Schnittstellengeräts, an das Prozessoren und RAM-Einheiten sowie alle Eingabe-Ausgabe-Geräte angeschlossen sind.

Den Kofferraum benutzen ermöglicht es Ihnen, sich zu ändern Verbindung Und Struktur Mikrocomputer- Fügen Sie zusätzliche Eingabe-/Ausgabegeräte hinzu und erhöhen Sie die Funktionalität von Computern.

Langzeitlagerung Die Informationsübertragung in modernen Computern erfolgt über elektronische, magnetische und optische Medien – Magnetplatten, optische Platten und Flash-Speicherblöcke.

Architektur moderner Computer erfordert das Vorhandensein eines Langzeitspeichers, in dem sich Dateien, Softwarepakete, Datenbanken und Steuerungsbetriebssysteme befinden.

Großrechner - Computers hoch Produktivität mit viel externem Speicher. Großrechner werden als Server für Computernetzwerke und große Datenspeicher eingesetzt.

Großrechner als Grundlage für die Organisation verwendet Unternehmen Information Systeme Dienstleistungen für Industrieunternehmen und Regierungsbehörden.

Supercomputer- Das Multiprozessor Computer mit einer komplexen Architektur, höchster Leistung und zur Lösung superkomplexer Rechenprobleme.

Leistung eines Supercomputers beläuft sich auf Zehner Und Hunderte tausend Milliarden Rechnen Operationen pro Sekunde. Gleichzeitig nimmt die Zahl der Prozessoren in Supercomputern immer weiter zu und die Rechnerarchitektur wird immer komplexer.

Fortsetzung des Themas:
Modems

Diejenigen, die in der Zeit der weit verbreiteten Computerisierung nicht zufällig in der Schule lernten, haben möglicherweise Zeitpläne auf Papier gezeichnet. Der Autor dieses Artikels war Teilnehmer einer solchen...