Die Geschichte der Entstehung und Entwicklung der Informationstechnologie. Entstehung und Entwicklung der Informationstechnologien Geschichte der neuen Informationstechnologien

Die Entstehungsgeschichte der Informationstechnologie hat ihre Wurzeln in der Antike. Die erste Stufe kann als die Erfindung des einfachsten digitalen Geräts betrachtet werden - Konten. Abakus wurde völlig unabhängig und praktisch gleichzeitig im antiken Griechenland, im antiken Rom, in China, Japan und Russland erfunden.

Im antiken Griechenland wurde Abakus Abakus genannt, dh ein Brett oder "Salamisbrett" (Salamis-Insel in der Ägäis). Der Abakus war ein sandbedecktes Brett mit Rillen, auf denen Zahlen mit Kieselsteinen markiert waren. Der erste Groove stand für Einsen, der zweite für Zehner und so weiter. Während des Zählens konnte jeder von ihnen mehr als 10 Kieselsteine ​​​​ansammeln, was bedeutete, dass ein Kieselstein in die nächste Rille hinzugefügt wurde. In Rom existierte der Abakus in anderer Form: Holzbretter wurden durch Marmorbretter ersetzt, auch Kugeln wurden aus Marmor gefertigt.

In China unterschied sich der Suan-Pan-Abakus geringfügig von den griechischen und römischen. Sie basierten nicht auf der Zahl zehn, sondern auf der Zahl fünf. Im oberen Teil der "Suan-Pfanne" befanden sich Reihen von fünf Stück-Einheiten und im unteren Teil - in zwei. Wenn es zum Beispiel erforderlich war, die Zahl acht wiederzugeben, wurde ein Knochen in den unteren Teil und drei in den Teil der Einsen gelegt. In Japan gab es ein ähnliches Gerät, nur der Name lautete bereits "Serobyan".

In Russland war der Abakus viel einfacher - eine Handvoll Einheiten und eine Handvoll Dutzende mit Knochen oder Kieselsteinen. Aber im XV Jahrhundert. Weit verbreitet wird "Board Count", also die Verwendung eines Holzrahmens mit horizontalen Seilen, an denen die Knochen aufgereiht wurden.

Herkömmlicher Abakus war der Pionier moderner digitaler Geräte. Wenn jedoch einige der Objekte der umgebenden materiellen Welt einer direkten zählbaren, stückweisen Berechnung zugänglich waren, verlangten andere eine vorläufige Messung von Zahlenwerten. Dementsprechend gab es historisch gesehen zwei Entwicklungsrichtungen von Computern und Computertechnologie: digital und analog.

Die analoge Richtung, die auf der Berechnung eines unbekannten physikalischen Objekts (Prozess) in Analogie zum Modell eines bekannten Objekts (Prozess) basiert, hat im Zeitraum des späten 19. bis Mitte des 20. Jahrhunderts die größte Entwicklung erfahren. Der Begründer der analogen Richtung ist der Autor der Idee der logarithmischen Berechnung, der schottische Baron - John Napier, der 1614 vorbereitete. wissenschaftlicher Wälzer "Beschreibung der erstaunlichen Logarithmentabelle." John Napier begründete nicht nur Funktionen theoretisch, sondern entwickelte auch eine praktische Tabelle binärer Logarithmen.

Das Prinzip der Erfindung von John Napier liegt in der Entsprechung des Logarithmus (der Exponent, zu dem eine Zahl erhöht werden muss) zu einer gegebenen Zahl. Die Erfindung vereinfacht die Durchführung von Multiplikations- und Divisionsoperationen, da es beim Multiplizieren ausreicht, die Logarithmen der Zahlen zu addieren.

1617. Napier erfand eine Methode, um Zahlen mit Stäbchen zu multiplizieren. Ein spezielles Gerät bestand aus in Segmente unterteilten Stäben, die so positioniert werden konnten, dass beim Addieren von Zahlen in horizontal benachbarten Segmenten das Ergebnis der Multiplikation dieser Zahlen erhalten wurde.

Etwas später stellte der Engländer Henry Briggs die erste Tabelle dezimaler Logarithmen zusammen. Der erste Rechenschieber wurde auf Basis der Theorie und Logarithmentabellen erstellt. 1620 verwendete der Engländer Edmund Gunther für Berechnungen auf dem damals gängigen Proportionalkompass eine spezielle Platte, auf der die Logarithmen von Zahlen und trigonometrischen Größen parallel zueinander aufgetragen wurden (sogenannte „Gunther-Skalen“). 1623 erfand William Oughtred den rechteckigen Rechenschieber und Richard Delamaine 1630 den runden Rechenschieber. 1775 fügte der Bibliothekar John Robertson dem Lineal einen Schieberegler hinzu, um das Lesen von Zahlen aus verschiedenen Skalen zu erleichtern. Und schließlich 1851-1854. Der Franzose Amedey Mannheim hat die Linie drastisch umgestaltet und ihr einen fast modernen Look verpasst. Die vollständige Vorherrschaft des Rechenschiebers hielt bis in die 1920er und 1930er Jahre an. Jahrhundert, bis elektrische Addiermaschinen auftauchten, die es ermöglichten, einfache arithmetische Berechnungen mit viel größerer Genauigkeit durchzuführen. Der Rechenschieber verlor nach und nach seine Position, erwies sich aber als unverzichtbar für komplexe trigonometrische Berechnungen und hat sich daher erhalten und wird bis heute verwendet.

Die meisten Leute, die einen Rechenschieber verwenden, sind gut darin, routinemäßige Rechenoperationen durchzuführen. Komplexe Operationen zur Berechnung von Integralen, Differentialen , Momente von Funktionen usw., die nach speziellen Algorithmen in mehreren Stufen ausgeführt werden und eine gute mathematische Ausbildung erfordern, bereiten erhebliche Schwierigkeiten. All dies führte auf einmal zum Erscheinen einer ganzen Klasse von analogen Geräten, die für die Berechnung bestimmter mathematischer Indikatoren und Größen durch einen Benutzer bestimmt waren, der in Fragen der höheren Mathematik nicht allzu versiert war. Anfang bis Mitte des 19. Jahrhunderts wurden erstellt: ein Planimeter (Berechnung der Fläche von flachen Figuren), ein Krümmungsmesser (Bestimmung der Länge von Kurven), ein Differenzierer, ein Integrator, ein Integraph (grafische Ergebnisse der Integration ), einen Integrierer (Integration von Graphen) usw. . Geräte. Der Autor des ersten Planimeters (1814) ist der Erfinder Hermann. 1854 erschien das Polarplanimeter von Amsler. Mit Hilfe des Integrators der Firma "Coradi" wurden das erste und zweite Moment der Funktion berechnet. Es gab universelle Sets von Blöcken, zum Beispiel den Kombiintegrator KI-3, aus denen der Anwender nach eigenem Wunsch das gewünschte Gerät auswählen konnte.

Die digitale Richtung in der Entwicklung der Computertechnik erwies sich als erfolgversprechender und bildet heute die Grundlage der Computerausrüstung und -technologie. Auch Leonardo da Vinci zu Beginn des 16. Jahrhunderts. skizzierte einen 13-Bit-Addierer mit Zehnzahnringen. Obwohl erst im 20. Jahrhundert ein auf diesen Zeichnungen basierendes Arbeitsgerät gebaut wurde, wurde die Realität von Leonardo da Vincis Projekt bestätigt.

1623 beschrieb Professor Wilhelm Schickard in Briefen an I. Kepler das Gerät einer Rechenmaschine, die sogenannte "Zähluhr". Die Maschine wurde auch nicht gebaut, aber jetzt wurde anhand der Beschreibung ein funktionierendes Modell erstellt.

Die erste gebaute mechanische Digitalmaschine, die Zahlen mit entsprechender Erhöhung der Ziffern summieren konnte, wurde 1642 von dem französischen Philosophen und Mechaniker Blaise Pascal entwickelt. Der Zweck dieser Maschine war es, die Arbeit von B. Pascals Vater, einem Steuermann, zu erleichtern Kollektor. Die Maschine sah aus wie eine Kiste mit zahlreichen Zahnrädern, darunter das Hauptrechenzahnrad. Das berechnete Zahnrad wurde über einen Ratschenmechanismus mit einem Hebel verbunden, dessen Auslenkung es ermöglichte, einstellige Zahlen in den Zähler einzugeben und aufzusummieren. Das Rechnen mit mehrstelligen Zahlen auf einer solchen Maschine war ziemlich schwierig.

1657 entwickelten zwei Engländer, R. Bissakar und S. Patridge, völlig unabhängig voneinander einen rechteckigen Rechenschieber. Der Rechenschieber existiert bis heute unverändert.

1673 erfand der berühmte deutsche Philosoph und Mathematiker Gottfried Wilhelm Leibniz den mechanischen Taschenrechner, eine fortschrittlichere Rechenmaschine, die grundlegende arithmetische Operationen ausführen kann. Mit Hilfe des binären Zahlensystems konnte die Maschine addieren, subtrahieren, multiplizieren, dividieren und wurzeln.

Im Jahr 1700 veröffentlichte Charles Perrault ein Buch seines Bruders, A Collection of a Large Number of Machines of His Own Invention by Claude Perrault. Das Buch beschreibt eine Summiermaschine mit Zahnstangen anstelle von Zahnrädern, die als "rhabdologischer Abakus" bezeichnet wird. Der Name der Maschine besteht aus zwei Wörtern: dem alten "Abakus" und "Rhabdologie" - der mittelalterlichen Wissenschaft der Rechenoperationen mit kleinen Stäbchen mit Zahlen.

Gottfried Wilhelm Leibniz schrieb 1703 in Fortsetzung einer Reihe seiner Werke die Abhandlung "Explication de I" Arithmetique Binaire "über die Verwendung des binären Zahlensystems in Computern. Später, 1727, auf der Grundlage von Leibniz' Werken, Jacob Leopolds Berechnungen Maschine erstellt wurde.

Deutscher Mathematiker und Astronom Christian Ludwig Gersten im Jahr 1723 G. eine Rechenmaschine geschaffen. Die Maschine berechnet den Quotienten und die Anzahl der aufeinanderfolgenden Additionen beim Multiplizieren von Zahlen. Außerdem konnte die Richtigkeit der Dateneingabe kontrolliert werden.

1751 erfindet der Franzose Perera auf der Grundlage der Ideen von Pascal und Perrault eine Rechenmaschine. Im Gegensatz zu anderen Geräten war es kompakter, da sich seine Zählräder nicht auf parallelen Achsen befanden, sondern auf einer einzigen Achse, die durch die gesamte Maschine ging.

1820 erfolgte die erste industrielle Produktion von digitalen Rechenmaschinen oder Rechenmaschinen. . Die Meisterschaft gehört hier dem Franzosen Tom de Calmar. In Russland gehören Bunyakovskys Selbstzählungen (1867) zu den ersten Rechenmaschinen dieser Art. 1874 verbesserte ein Ingenieur aus St. Petersburg, Wilgodt Odner, das Design der Rechenmaschine erheblich, indem er Räder mit einziehbaren Zähnen („Odner“-Räder) zur Eingabe von Zahlen verwendete. Die Rechenmaschine von Odner ermöglichte es, Rechenoperationen mit einer Geschwindigkeit von bis zu 250 Aktionen mit vierstelligen Ziffern in einer Stunde durchzuführen.

Gut möglich, dass die Entwicklung der digitalen Rechentechnik auf dem Niveau kleiner Maschinen geblieben wäre, wäre da nicht der Franzose Joseph Marie Jaccard entdeckt worden, der zu Beginn des 19. Lochkarte) zur Steuerung eines Webstuhls. Die Maschine von Jacquard wurde mit einem ganzen Stapel Lochkarten programmiert, von denen jede einen Shuttle-Hub steuerte, so dass der Bediener beim Wechsel zu einem neuen Muster einen Lochkartenstapel durch einen anderen ersetzte. Wissenschaftler haben versucht, diese Entdeckung zu nutzen, um eine grundlegend neue Rechenmaschine zu entwickeln, die Operationen ohne menschliches Zutun durchführt.

1822 schuf der englische Mathematiker Charles Babbage eine softwaregesteuerte Rechenmaschine, die der Prototyp heutiger peripherer Eingabe- und Druckgeräte ist. Es bestand aus manuell gedrehten Zahnrädern und Rollen.

Ende der 80er Jahre. Im 19. Jahrhundert gelang es Herman Hollerith, einem Mitarbeiter des US-amerikanischen National Census Bureau, einen statistischen Tabulator zu entwickeln, der Lochkarten automatisch verarbeiten konnte. Die Schaffung des Tabulators markierte den Beginn der Produktion einer neuen Klasse von digitalen Zähl- und Stanzmaschinen (Rechen- und Analysemaschinen), die sich von der Klasse der Kleinmaschinen durch das ursprüngliche System der Dateneingabe von Lochkarten unterschied. Bis Mitte des 20. Jahrhunderts wurden von IBM und Remington Rand Zähl- und Perforiermaschinen in Form von recht komplexen Lochkomplexen hergestellt, darunter: Locher (Stanzen von Lochkarten), Kontrollstanzen (Nachfüllen und Kontrolle der Lochfehlanpassung), Sortiermaschinen (Lochkarten nach bestimmten Zeichen gruppieren), Layoutmaschinen (Sorgfältigere Anordnung der Lochkarten und Erstellen von Funktionstabellen), Tabulatoren (Lochkarten lesen, Berechnungsergebnisse berechnen und ausdrucken), Multiplayer ( Multiplikationsoperationen für Zahlen, die auf Lochkarten geschrieben sind). Die besten Modelle von Lochkomplexen verarbeiteten bis zu 650 Karten pro Minute, und der Multiplayer multiplizierte 870 achtstellige Zahlen innerhalb einer Stunde. Das fortschrittlichste Modell des elektronischen Lochers IBM Model 604, das 1948 auf den Markt kam, verfügte über ein programmierbares Befehlsfeld für die Datenverarbeitung und bot die Möglichkeit, mit jeder Lochkarte bis zu 60 Operationen durchzuführen.

Zu Beginn des 20. Jahrhunderts tauchten Rechenmaschinen mit Tasten zur Zahleneingabe auf. Ein erhöhter Automatisierungsgrad der Arbeit von Rechenmaschinen ermöglichte es, Rechenmaschinen oder sogenannte kleine Rechenmaschinen mit elektrischem Antrieb und automatischer Ausführung von bis zu 3.000 Operationen mit drei- und vierstelligen Zahlen pro Stunde. Im industriellen Maßstab wurden in der ersten Hälfte des 20. Jahrhunderts kleine Rechenmaschinen von Friden, Burroughs, Monro usw. hergestellt, eine Vielzahl von kleinen Maschinen waren Buchführungs- und Schreibmaschinen und Wortzählmaschinen, die in Europa von Olivetti hergestellt wurden, und in den USA von der National Cash Register (NCR). In dieser Zeit waren in Russland „Mercedes“ weit verbreitet - Buchhaltungsmaschinen, die dazu dienten, Daten einzugeben und die Endsalden (Salden) für synthetische Konten zu berechnen.

Basierend auf den Ideen und Erfindungen von Babbage und Hollerith konnte der Harvard-Professor Howard Aiken 1937-1943 etwas erschaffen. eine höhere Rechenstanzmaschine namens Mark-1, die mit elektromagnetischen Relais betrieben wurde. Im Jahr 1947 erschien eine Maschine dieser Serie "Mark-2" mit 13 Tausend Relais.

Ungefähr zur gleichen Zeit erschienen theoretische Voraussetzungen und die technische Möglichkeit, eine perfektere Maschine an elektrischen Lampen zu schaffen. 1943 begannen Mitarbeiter der University of Pennsylvania (USA) unter der Leitung von John Mauchly und Prosper Eckert unter Beteiligung des berühmten Mathematikers John von Neumann mit der Entwicklung einer solchen Maschine. Das Ergebnis ihrer gemeinsamen Bemühungen war die Röhrenrechenmaschine ENIAC (1946), die 18 Tausend Lampen enthielt und 150 kW Strom verbrauchte. Im Zuge der Arbeiten an der Lampenmaschine veröffentlichte John von Neumann einen Bericht (1945), der zu den wichtigsten wissenschaftlichen Dokumenten in der Theorie der Entwicklung der Computertechnik zählt. Der Bericht untermauerte die Prinzipien der Struktur und Funktionsweise von Universalcomputern einer neuen Generation von Computern, die das Beste enthalten, was von vielen Generationen von Wissenschaftlern, Theoretikern und Praktikern geschaffen wurde.

Dies führte zur Entwicklung von Computern der sogenannten ersten Generation. Sie zeichnen sich durch den Einsatz von Vakuumröhrentechnik, Speichersystemen auf Quecksilber-Verzögerungsleitungen, Magnettrommeln und Williams-Kathodenstrahlröhren aus. Die Dateneingabe erfolgte über Lochstreifen, Lochkarten und Magnetbänder mit hinterlegten Programmen. Gebrauchte Druckgeräte. Die Geschwindigkeit von Computern der ersten Generation überschritt 20.000 Operationen pro Sekunde nicht.

Darüber hinaus vollzog sich die Entwicklung der digitalen Computertechnologie in rasantem Tempo. 1949 baute der englische Entdecker Maurice Wilkes nach Neumanns Prinzipien den ersten Computer. Bis Mitte der 50er Jahre. Lampenmaschinen wurden im industriellen Maßstab hergestellt. Die wissenschaftliche Forschung im Bereich der Elektronik eröffnete jedoch neue Entwicklungsperspektiven. Führend Positionen in diesem Bereich wurden von den Vereinigten Staaten besetzt. 1948 erfand Walter Brattain, John Bardeen von AT&T den Transistor, und 1954 verwendete Gordon Type von Texas Instruments Silizium, um den Transistor herzustellen. Seit 1955 wurden Computer auf Transistoren hergestellt, die im Vergleich zu Röhrenmaschinen kleinere Abmessungen, eine höhere Geschwindigkeit und einen geringeren Energieverbrauch haben. Die Computer wurden von Hand unter einem Mikroskop zusammengebaut.

Der Einsatz von Transistoren markierte den Übergang zu Computern der zweiten Generation. Transistoren haben Vakuumröhren ersetzt und Computer sind zuverlässiger und schneller geworden (bis zu 500.000 Operationen pro Sekunde). Funktionale Geräte haben sich ebenfalls verbessert - arbeiten mit Magnetbändern, Speicher auf Magnetplatten.

1958 wurden erfunden: die erste Intervall-Mikroschaltung (Jack Kilby - Texas Instruments) und die erste industrielle integrierte Schaltung (Chip), deren Autor Robert Noyce später (1968) die weltberühmte Firma Intel (INTegrated ELectronics) gründete. Noch schneller und kompakter waren Computer mit integrierten Schaltkreisen, die seit 1960 hergestellt werden.

Im Jahr 1959 kamen die Forscher von Datapoint zu der wichtigen Schlussfolgerung, dass ein Computer eine zentrale arithmetische Logikeinheit benötigt, die Berechnungen, Programme und Geräte steuern kann. Es ging um einen Mikroprozessor. Datapoint-Mitarbeiter entwickelten grundlegende technische Lösungen für die Entwicklung eines Mikroprozessors und begannen zusammen mit Intel Mitte der 60er Jahre mit der industriellen Entwicklung. Die ersten Ergebnisse waren nicht ganz erfolgreich Intels Mikroprozessoren liefen viel langsamer als erwartet. Datapoint und Intel haben ihre Partnerschaft beendet.

1964 wurden Computer der dritten Generation mit elektronischen Schaltungen kleiner und mittlerer Integration (bis zu 1000 Komponenten pro Chip) entwickelt. Von diesem Zeitpunkt an begannen sie nicht einen einzelnen Computer zu entwerfen, sondern eine ganze Computerfamilie basierend auf dem Einsatz von Software. Als Beispiel für Computer der dritten Generation können der damalige amerikanische IBM 360 sowie die sowjetischen EU 1030 und 1060 angesehen werden. Ende der 60er Jahre. Mini-Computer erschienen, und 1971 - der erste Mikroprozessor. Ein Jahr später veröffentlichte Intel den ersten bekannten Intel 8008-Mikroprozessor und im April 1974 den Intel 8080-Mikroprozessor der zweiten Generation.

Seit Mitte der 70er Jahre. Computer der vierten Generation wurden entwickelt. Sie zeichnen sich durch die Verwendung von großen und sehr großen integrierten Schaltkreisen (bis zu einer Million Komponenten pro Chip) aus. Die ersten Computer der vierten Generation wurden von Amdahl Corp. Diese Computer verwendeten Hochgeschwindigkeits-IC-Speichersysteme mit einer Kapazität von mehreren Megabyte. Beim Herunterfahren wurden die RAM-Daten auf die Festplatte übertragen. Beim Einschalten fand eine Selbstladung statt. Die Leistung von Computern der vierten Generation beträgt Hunderte von Millionen Operationen pro Sekunde.

Ebenfalls Mitte der 70er Jahre erschienen die ersten Personal Computer. Die weitere Geschichte der Computer ist eng mit der Entwicklung der Mikroprozessortechnik verbunden. 1975 wurde der erste Massen-Personalcomputer Altair auf der Basis des Intel 8080-Prozessors entwickelt. Ende der 70er Jahre wurden dank der Bemühungen von Intel, die die neuesten Mikroprozessoren Intel 8086 und Intel 8088 entwickelten, Voraussetzungen geschaffen, um die Rechen- und Ergonomieeigenschaften von Computern zu verbessern. Während dieser Zeit trat der größte Elektrokonzern IBM in den Wettbewerb auf dem Markt ein und versuchte, einen Personal Computer auf der Grundlage des Intel 8088-Prozessors zu entwickeln.Im August 1981 erschien der IBM-PC und gewann schnell eine immense Popularität. Das erfolgreiche Design des IBM-PCs bestimmte Ende des 20. Jahrhunderts seinen Einsatz als Standard für Personal Computer.

Seit 1982 läuft die Entwicklung von Computern der fünften Generation. Sie basieren auf einer Orientierung an der Wissensverarbeitung. Wissenschaftler sind sich sicher, dass die Verarbeitung von nur dem Menschen innewohnendem Wissen auch durch einen Computer erfolgen kann, um die gestellten Probleme zu lösen und adäquate Entscheidungen zu treffen.

1984 stellte Microsoft die ersten Muster des Windows-Betriebssystems vor. Die Amerikaner betrachten diese Erfindung noch immer als eine der herausragenden Entdeckungen des 20. Jahrhunderts.

Ein wichtiger Vorschlag wurde im März 1989 von Tim Berners-Lee, einem Mitarbeiter des International European Scientific Center (CERN), gemacht. Der Kern der Idee bestand darin, ein neues verteiltes Informationssystem namens World Wide Web zu schaffen. Ein hypertextbasiertes Informationssystem könnte die Informationsressourcen des CERN (Berichtsdatenbanken, Dokumentation, Postanschriften usw.) integrieren. Das Projekt wurde 1990 angenommen.

Der Begriff " Informationstechnologie„Erschien Ende der 1970er Jahre. und wurde zu Informationsverarbeitungstechnologie. Computer haben die Art und Weise, wie wir mit Informationen arbeiten, verändert und die Reaktionsfähigkeit und Effizienz des Managements erhöht, aber gleichzeitig hat die Computerrevolution ernsthafte soziale Probleme der Informationsanfälligkeit geschaffen. In der Wirtschaft besteht der Einsatz eines Computers in der Identifizierung von Problemsituationen, deren Klassifizierung und dem Einsatz von Hard- und Software zu deren Lösung, die sog. Technologien- Handlungsregeln mit beliebigen allgemeinen Mitteln für eine ganze Reihe von Aufgaben oder Aufgabensituationen.

Der Einsatz von Computertechnologie ermöglicht es dem Unternehmen, einen Wettbewerbsvorteil auf dem Markt durch die Verwendung grundlegender Computerkonzepte zu erzielen:

· Steigerung der Effizienz und Effizienz der Arbeit durch den Einsatz von technologischen, elektronischen, instrumentellen und Kommunikationsmitteln;

· Maximierung der individuellen Effizienz durch Ansammlung von Informationen und Nutzung von Zugangswegen zu Datenbanken;

· Erhöhung der Zuverlässigkeit und Geschwindigkeit der Informationsverarbeitung durch Informationstechnologien;

· Sie verfügen über eine technologische Basis für spezialisierte Teamarbeit.

Das Informationszeitalter begann in den 1950er Jahren mit der Einführung des ersten Allzweckcomputers für den kommerziellen Einsatz. UNIVAC die Berechnungen in Millisekunden durchführte. Die Suche nach einem Mechanismus für das Rechnen begann vor vielen Jahrhunderten. Abacus - eines der ersten mechanischen Rechengeräte vor fünftausend Jahren, wurde unabhängig und fast gleichzeitig im antiken Griechenland, im antiken Rom, in China, Japan und Russland erfunden. Abacus ist der Urahn der digitalen Geräte.

Historisch hat sich die Entwicklung von zwei Entwicklungsrichtungen der Computer- und Computertechnologie entwickelt: analog und digital. Analoge Richtung basierend auf der Berechnung eines unbekannten physikalischen Objekts (Prozess) analog zum Modell eines bekannten Objekts (Prozess). Der Begründer der analogen Richtung ist der schottische Baron John Napier, der Funktionen theoretisch begründete und eine praktische Algorithmentabelle entwickelte, die die Durchführung von Multiplikations- und Divisionsoperationen vereinfachte. Wenig später stellte der Engländer Henry Briggs eine Tabelle mit dezimalen Logarithmen zusammen.

1623 erfand William Oughtred den rechteckigen Rechenschieber und 1630 erfand Richard Delamaine den kreisförmigen Rechenschieber, 1775 fügte John Robertson dem Lineal einen Schieber hinzu, 1851-1854. Der Franzose Amedey Manheim änderte das Design der Linie auf einen fast modernen Look. In der Mitte des IX Jahrhunderts. Geräte wurden erstellt: ein Planimeter (zur Berechnung der Fläche von flachen Figuren), ein Krümmungsmesser (Bestimmung der Länge von Kurven), ein Differenzierer, ein Integrator, ein integrierter Graph (um grafische Ergebnisse der Integration zu erhalten) und andere Geräte.



Die digitale Richtung in der Entwicklung der Computertechnologie erwies sich als vielversprechender. Zu Beginn des 16. Jahrhunderts. Leonardo da Vinci erstellte eine Skizze eines 13-Bit-Addierers mit Zehnzahnringen (der Prototyp eines Arbeitsgeräts wurde erst im 20. Jahrhundert gebaut). 1623 beschrieb Professor Wilhelm Schickard das Gerät einer Rechenmaschine. 1642 entwickelte und baute der französische Mathematiker und Philosoph Blaise Pascal (1623-1662) ein Rechengerät. Pascaline„Um seinem Vater zu helfen – einem Steuereintreiber. Diese Bauform des Zählrades wurde bis 1960 in allen mechanischen Rechenmaschinen verwendet, als sie mit dem Aufkommen elektronischer Rechenmaschinen nicht mehr verwendet wurden.

1673 erfand der deutsche Philosoph und Mathematiker Gottfried Wilhelm Leibniz einen mechanischen Taschenrechner, der grundlegende arithmetische Operationen im binären Zahlensystem ausführen kann. 1727 schuf Jacob Leopold auf der Grundlage des Leibniz-Binärsystems eine Rechenmaschine. 1723 schuf ein deutscher Mathematiker und Astronom eine Rechenmaschine, die beim Multiplizieren von Zahlen den Quotienten und die Anzahl der aufeinanderfolgenden Additionen ermittelt und die Richtigkeit der Dateneingabe überwacht.

1896 gründete Hollerith eine Firma für tabellarische Rechenmaschinen. Tabelliermaschinenhersteller, das 1911 mit mehreren anderen Unternehmen fusionierte, und 1924 änderte General Manager Thomas Watson seinen Namen in International Business Machine Corporation (IBM). Den Beginn der modernen Computergeschichte markiert 1941 die Erfindung des Z3-Computers (programmgesteuerte elektrische Relais) durch den deutschen Ingenieur Konrad Zuse und die Erfindung des einfachsten Computers durch John W. Atanasoff, Professor an der University of Iowa . Beide Systeme nutzten die Prinzipien moderner Computer und basierten auf dem binären Zahlensystem.

Die Hauptkomponenten der Computer der ersten Generation waren Vakuumröhren, Speichersysteme wurden auf Quecksilberverzögerungsleitungen, Magnettrommeln und Williams-Kathodenstrahlröhren gebaut. Die Dateneingabe erfolgte über Lochstreifen, Lochkarten und Magnetbänder mit hinterlegten Programmen. Gebrauchte Druckgeräte. Die Leistung von Computern der ersten Generation überstieg 20.000 Operationen pro Sekunde nicht. Bis Mitte der 50er Jahre wurden Lampenmaschinen im industriellen Maßstab hergestellt.

1948 erfanden Walter Brattain und John Bardeen in den USA den Transistor, 1954 verwendete Gordon Teale Silizium zur Herstellung des Transistors. Seit 1955 werden Computer auf Transistoren hergestellt. 1958 wurde der integrierte Schaltkreis von Jack Kilby erfunden und der industrielle integrierte Schaltkreis ( Chip). 1968 gründete Robert Noyce das Unternehmen Intel (Integrierte Elektronik). Computer auf integrierten Schaltkreisen wurden 1960 hergestellt. Computer der zweiten Generation wurden kompakt, zuverlässig, schnell (bis zu 500.000 Operationen pro Sekunde), Funktionsgeräte für die Arbeit mit Magnetbändern und Speicher auf Magnetplatten wurden verbessert.

1964 wurden Computer der dritten Generation mit elektronischen Schaltungen niedriger und mittlerer Integration (bis zu 1000 Komponenten pro Chip) entwickelt. Beispiel: IBM 360(USA, Firma IBM), EU 1030, EU 1060(DIE UDSSR). In den späten 60er Jahren. XX Jahrhundert erschien 1971 Minicomputer - ein Mikroprozessor. 1974 wurde das Unternehmen Intel brachte den ersten weithin bekannten Mikroprozessor heraus Intel 8008, 1974 - Mikroprozessor der 2. Generation Intel 8080.

Seit Mitte der 1970er Jahre. XX Jahrhundert Computer der 4. Generation wurden entwickelt. Sie basierten auf großen und sehr großen integrierten Schaltkreisen (bis zu einer Million Komponenten pro Chip) und Hochmit Kapazitäten von mehreren Megabyte. Beim Einschalten fand ein Selbstladen statt, beim Ausschalten wurden die RAM-Daten auf die Platte übertragen. Die Leistung von Computern beträgt Hunderte von Millionen Operationen pro Sekunde. Die ersten Computer wurden von der Firma hergestellt Amdahl Corporation.

Mitte der 70er Jahre. XX Jahrhundert die ersten industriellen Personalcomputer erschienen. Der erste industrielle Personal Computer wurde 1975 entwickelt Altair Mikroprozessor basiert Intel 8080... Im August 1981 wurde das Unternehmen IBM einen Computer veröffentlicht IBM-PC Mikroprozessor basiert Intel 8088 die schnell an Popularität gewann.

Seit 1982 werden Computer der V-Generation entwickelt, die sich auf die Wissensverarbeitung konzentrieren. 1984 wurde das Unternehmen Microsoft präsentierte die ersten Beispiele des Betriebssystems Fenster, im März 1989 schlug Tim Berners-Lee, Mitarbeiter des International European Center, die Idee vor, ein verteiltes Informationssystem zu schaffen Weltweites Netz, das Projekt wurde 1990 angenommen.

Ähnlich wie die Entwicklung von Hardware wird auch die Softwareentwicklung in Generationen eingeteilt. Die Software der ersten Generation war eine grundlegende Programmiersprache, die nur Computerspezialisten kannten. Software der Generation II zeichnet sich durch die Entwicklung problemorientierter Sprachen wie z Fortran, Cobol, Algol-60.

Einsatz von interaktiven Betriebssystemen, Datenbankmanagementsystemen und strukturierten Programmiersprachen wie Pascal, gehört zur 3. Generation der Software. Software der Generation IV umfasst verteilte Systeme: lokale und globale Netzwerke von Computersystemen, fortschrittliche grafische und Benutzerschnittstellen und eine integrierte Programmierumgebung. Software der Generation V zeichnet sich durch Wissensverarbeitung und parallele Programmierschritte aus.

Der Einsatz von Computern und Informationssystemen, deren Industrie in den 1950er Jahren begann, ist das wichtigste Mittel zur Steigerung der Wettbewerbsfähigkeit durch folgende Hauptvorteile:

· Verbesserung und Ausbau des Kundenservices;

· Steigerung der Effizienz durch Zeitersparnis;

· Erhöhung von Last und Durchsatz;

· Verbesserung der Genauigkeit von Informationen und Reduzierung von durch Fehler verursachten Verlusten;

· Erhöhung des Ansehens der Organisation;

· Steigerung der Unternehmensgewinne;

· Gewährleistung der Möglichkeit, zuverlässige Informationen in Echtzeit im iterativen Modus zu erhalten und Abfragen zu organisieren;

· Die Nutzung zuverlässiger Informationen durch den Manager für Planung, Management und Entscheidungsfindung.

Die Entstehungsgeschichte der Informationstechnologie hat ihre Wurzeln in der Antike. Die erste Stufe kann als die Erfindung des einfachsten digitalen Geräts betrachtet werden - Konten. Abakus wurde völlig unabhängig und praktisch gleichzeitig im antiken Griechenland, im antiken Rom, in China, Japan und Russland erfunden.

Abakus hieß im antiken Griechenland Abakus, also ein Brett oder auch "Salamis-Brett" (Salamis-Insel in der Ägäis). Der Abakus war ein sandbedecktes Brett mit Rillen, auf denen Zahlen mit Kieselsteinen markiert waren. Der erste Groove stand für Einsen, der zweite für Zehner und so weiter. Während des Zählens konnte jeder von ihnen mehr als 10 Kieselsteine ​​​​ansammeln, was bedeutete, dass ein Kieselstein in die nächste Rille hinzugefügt wurde. In Rom existierte der Abakus in anderer Form: Holzbretter wurden durch Marmorbretter ersetzt, auch Kugeln wurden aus Marmor gefertigt.

In China unterschied sich der Suan-Pan-Abakus geringfügig von den griechischen und römischen. Sie basierten nicht auf der Zahl zehn, sondern auf der Zahl fünf. Im oberen Teil der "Suan-Pfanne" befanden sich Reihen von fünf Stück-Einheiten und im unteren Teil - in zwei. Wenn es zum Beispiel erforderlich war, die Zahl acht wiederzugeben, wurde ein Knochen in den unteren Teil und drei in den Teil der Einsen gelegt. In Japan gab es ein ähnliches Gerät, nur der Name lautete bereits "Serobyan".

In Russland war der Abakus viel einfacher - eine Handvoll Einheiten und eine Handvoll Dutzende mit Knochen oder Kieselsteinen. Aber im XV Jahrhundert. Weit verbreitet wird "Board Count", also die Verwendung eines Holzrahmens mit horizontalen Seilen, an denen die Knochen aufgereiht wurden.

Herkömmlicher Abakus war der Pionier moderner digitaler Geräte. Wenn jedoch einige der Objekte der umgebenden materiellen Welt einer direkten zählbaren, stückweisen Berechnung zugänglich waren, verlangten andere eine vorläufige Messung von Zahlenwerten. Dementsprechend gab es historisch gesehen zwei Entwicklungsrichtungen von Computern und Computertechnologie: digital und analog.

Die analoge Richtung, die auf der Berechnung eines unbekannten physikalischen Objekts (Prozess) in Analogie zum Modell eines bekannten Objekts (Prozess) basiert, hat im Zeitraum des späten 19. bis Mitte des 20. Jahrhunderts die größte Entwicklung erfahren. Der Begründer des analogen Trends ist der schottische Baron John Napier, der Autor der Idee der Logarithmusrechnung, der 1614 den wissenschaftlichen Wälzer "Description of the Amazing Table of Logarithms" verfasste. John Napier begründete nicht nur Funktionen theoretisch, sondern entwickelte auch eine praktische Tabelle binärer Logarithmen.



Das Prinzip der Erfindung von John Napier liegt in der Entsprechung des Logarithmus (der Exponent, zu dem eine Zahl erhöht werden muss) zu einer gegebenen Zahl. Die Erfindung vereinfacht die Durchführung von Multiplikations- und Divisionsoperationen, da es beim Multiplizieren ausreicht, die Logarithmen der Zahlen zu addieren.

1617 erfand Napier eine Methode, um Zahlen mit Stäbchen zu multiplizieren. Ein spezielles Gerät bestand aus in Segmente unterteilten Stäben, die so positioniert werden konnten, dass beim Addieren von Zahlen in horizontal benachbarten Segmenten das Ergebnis der Multiplikation dieser Zahlen erhalten wurde.

Etwas später stellte der Engländer Henry Briggs die erste Tabelle dezimaler Logarithmen zusammen. Der erste Rechenschieber wurde auf Basis der Theorie und Logarithmentabellen erstellt. 1620 verwendete der Engländer Edmund Gunther für Berechnungen auf dem damals gängigen Proportionalkompass eine spezielle Platte, auf der die Logarithmen von Zahlen und trigonometrischen Größen parallel zueinander aufgetragen wurden (sogenannte „Gunther-Skalen“). 1623 erfand William Oughtred den rechteckigen Rechenschieber und Richard Delamaine 1630 den runden Rechenschieber. 1775 fügte der Bibliothekar John Robertson dem Lineal einen Schieberegler hinzu, um das Lesen von Zahlen aus verschiedenen Skalen zu erleichtern. Und schließlich 1851-1854. Der Franzose Amedey Mannheim hat die Linie drastisch umgestaltet und ihr einen fast modernen Look verpasst. Die vollständige Vorherrschaft des Rechenschiebers hielt bis in die 1920er und 1930er Jahre an. Jahrhundert, bis elektrische Addiermaschinen auftauchten, die es ermöglichten, einfache arithmetische Berechnungen mit viel größerer Genauigkeit durchzuführen. Der Rechenschieber verlor nach und nach seine Position, erwies sich aber als unverzichtbar für komplexe trigonometrische Berechnungen und hat sich daher erhalten und wird bis heute verwendet.



Die meisten Leute, die einen Rechenschieber verwenden, sind gut darin, routinemäßige Rechenoperationen durchzuführen. Komplexe Operationen zur Berechnung von Integralen, Differentialen , Momente von Funktionen usw., die nach speziellen Algorithmen in mehreren Stufen ausgeführt werden und eine gute mathematische Ausbildung erfordern, bereiten erhebliche Schwierigkeiten. All dies führte auf einmal zum Erscheinen einer ganzen Klasse von analogen Geräten, die für die Berechnung bestimmter mathematischer Indikatoren und Größen durch einen Benutzer bestimmt waren, der in Fragen der höheren Mathematik nicht allzu versiert war. Anfang bis Mitte des 19. Jahrhunderts wurden erstellt: ein Planimeter (Berechnung der Fläche von flachen Figuren), ein Krümmungsmesser (Bestimmung der Länge von Kurven), ein Differenzierer, ein Integrator, ein Integraph (grafische Ergebnisse der Integration ), einen Integrierer (Integration von Graphen) usw. . Geräte. Der Autor des ersten Planimeters (1814) ist der Erfinder Hermann. 1854 erschien das Polarplanimeter von Amsler. Mit Hilfe des Integrators der Firma "Coradi" wurden das erste und zweite Moment der Funktion berechnet. Es gab universelle Sets von Blöcken, zum Beispiel den Kombiintegrator KI-3, aus denen der Anwender nach eigenem Wunsch das gewünschte Gerät auswählen konnte.

Die digitale Richtung in der Entwicklung der Computertechnik erwies sich als erfolgversprechender und bildet heute die Grundlage der Computerausrüstung und -technologie. Auch Leonardo da Vinci zu Beginn des 16. Jahrhunderts. skizzierte einen 13-Bit-Addierer mit Zehnzahnringen. Obwohl erst im 20. Jahrhundert ein auf diesen Zeichnungen basierendes Arbeitsgerät gebaut wurde, wurde die Realität von Leonardo da Vincis Projekt bestätigt.

1623 beschrieb Professor Wilhelm Schickard in Briefen an I. Kepler das Gerät einer Rechenmaschine, die sogenannte "Zähluhr". Die Maschine wurde auch nicht gebaut, aber jetzt wurde anhand der Beschreibung ein funktionierendes Modell erstellt.

Die erste gebaute mechanische Digitalmaschine, die Zahlen mit entsprechender Erhöhung der Ziffern summieren konnte, wurde 1642 von dem französischen Philosophen und Mechaniker Blaise Pascal entwickelt. Der Zweck dieser Maschine war es, die Arbeit von B. Pascals Vater, einem Steuermann, zu erleichtern Kollektor. Die Maschine sah aus wie eine Kiste mit zahlreichen Zahnrädern, darunter das Hauptrechenzahnrad. Das berechnete Zahnrad wurde über einen Ratschenmechanismus mit einem Hebel verbunden, dessen Auslenkung es ermöglichte, einstellige Zahlen in den Zähler einzugeben und aufzusummieren. Das Rechnen mit mehrstelligen Zahlen auf einer solchen Maschine war ziemlich schwierig.

1657 entwickelten zwei Engländer, R. Bissakar und S. Patridge, völlig unabhängig voneinander einen rechteckigen Rechenschieber. Der Rechenschieber existiert bis heute unverändert.

1673 erfand der berühmte deutsche Philosoph und Mathematiker Gottfried Wilhelm Leibniz den mechanischen Taschenrechner, eine fortschrittlichere Rechenmaschine, die grundlegende arithmetische Operationen ausführen kann. Mit Hilfe des binären Zahlensystems konnte die Maschine addieren, subtrahieren, multiplizieren, dividieren und wurzeln.

Im Jahr 1700 veröffentlichte Charles Perrault ein Buch seines Bruders, A Collection of a Large Number of Machines of His Own Invention by Claude Perrault. Das Buch beschreibt eine Summiermaschine mit Zahnstangen anstelle von Zahnrädern, die als "rhabdologischer Abakus" bezeichnet wird. Der Name der Maschine besteht aus zwei Wörtern: dem alten "Abakus" und "Rhabdologie" - der mittelalterlichen Wissenschaft der Rechenoperationen mit kleinen Stäbchen mit Zahlen.

Gottfried Wilhelm Leibniz, der seine Werkreihe fortsetzte, schrieb 1703 eine Abhandlung "Explication de I" Arithmetique Binaire" über die Verwendung des binären Zahlensystems in Computern. Später, 1727, auf der Grundlage von Leibniz' Werken, Jacob Leopolds Rechenmaschine erstellt wurde.

Deutscher Mathematiker und Astronom Christian Ludwig Gersten im Jahr 1723 eine Rechenmaschine geschaffen. Die Maschine berechnet den Quotienten und die Anzahl der aufeinanderfolgenden Additionen beim Multiplizieren von Zahlen. Außerdem konnte die Richtigkeit der Dateneingabe kontrolliert werden.

1751 erfindet der Franzose Perera auf der Grundlage der Ideen von Pascal und Perrault eine Rechenmaschine. Im Gegensatz zu anderen Geräten war es kompakter, da sich seine Zählräder nicht auf parallelen Achsen befanden, sondern auf einer einzigen Achse, die durch die gesamte Maschine ging.

1820 erfolgte die erste industrielle Produktion von digitalen Rechenmaschinen oder Rechenmaschinen. . Die Meisterschaft gehört hier dem Franzosen Tom de Calmar. In Russland gehören Bunyakovskys Selbstzählungen (1867) zu den ersten Rechenmaschinen dieser Art. 1874 verbesserte ein Ingenieur aus St. Petersburg, Wilgodt Odner, das Design der Rechenmaschine erheblich, indem er Räder mit einziehbaren Zähnen („Odner“-Räder) zur Eingabe von Zahlen verwendete. Die Rechenmaschine von Odner ermöglichte es, Rechenoperationen mit einer Geschwindigkeit von bis zu 250 Aktionen mit vierstelligen Ziffern in einer Stunde durchzuführen.

Gut möglich, dass die Entwicklung der digitalen Rechentechnik auf dem Niveau kleiner Maschinen geblieben wäre, wäre da nicht der Franzose Joseph Marie Jaccard entdeckt worden, der zu Beginn des 19. Lochkarte) zur Steuerung eines Webstuhls. Die Maschine von Jacquard wurde mit einem ganzen Stapel Lochkarten programmiert, von denen jede einen Shuttle-Hub steuerte, so dass der Bediener beim Wechsel zu einem neuen Muster einen Lochkartenstapel durch einen anderen ersetzte. Wissenschaftler haben versucht, diese Entdeckung zu nutzen, um eine grundlegend neue Rechenmaschine zu entwickeln, die Operationen ohne menschliches Zutun durchführt.

1822 schuf der englische Mathematiker Charles Babbage eine softwaregesteuerte Rechenmaschine, die der Prototyp heutiger peripherer Eingabe- und Druckgeräte ist. Es bestand aus manuell gedrehten Zahnrädern und Rollen.

Ende der 80er Jahre. Im 19. Jahrhundert gelang es Herman Hollerith, einem Mitarbeiter des US-amerikanischen National Census Bureau, einen statistischen Tabulator zu entwickeln, der Lochkarten automatisch verarbeiten konnte. Die Schaffung des Tabulators markierte den Beginn der Produktion einer neuen Klasse von digitalen Zähl- und Stanzmaschinen (Rechen- und Analysemaschinen), die sich von der Klasse der Kleinmaschinen durch das ursprüngliche System der Dateneingabe von Lochkarten unterschied. Bis Mitte des 20. Jahrhunderts wurden von IBM und Remington Rand Zähl- und Perforiermaschinen in Form recht komplexer Stanzkomplexe hergestellt. Dazu gehörten Locher (Stanzen von Lochkarten), Kontrollstanzen (Nachfüllen und Überwachen der Lochfehlanpassung), Sortiermaschinen (Lochkarten nach bestimmten Merkmalen zu Gruppen anordnen), Zusammentragmaschinen (Lochkarten genauer anordnen und Funktionstabellen erstellen), Tabulatoren (Lesen von Lochkarten, Berechnung und Ausdruck von Rechenergebnissen), Multiplayer (Multiplikationsoperationen für Zahlen, die auf Lochkarten geschrieben sind). Die besten Modelle von Lochkomplexen verarbeiteten bis zu 650 Karten pro Minute, und der Multiplayer multiplizierte 870 achtstellige Zahlen innerhalb einer Stunde. Das fortschrittlichste Modell des elektronischen Lochers IBM Model 604, das 1948 auf den Markt kam, verfügte über ein programmierbares Befehlsfeld für die Datenverarbeitung und bot die Möglichkeit, mit jeder Lochkarte bis zu 60 Operationen durchzuführen.

Zu Beginn des 20. Jahrhunderts tauchten Rechenmaschinen mit Tasten zur Zahleneingabe auf. Ein erhöhter Automatisierungsgrad der Arbeit von Rechenmaschinen ermöglichte es, Rechenmaschinen oder sogenannte kleine Rechenmaschinen mit elektrischem Antrieb und automatischer Ausführung von bis zu 3.000 Operationen mit drei- und vierstelligen Zahlen pro Stunde. Im industriellen Maßstab wurden in der ersten Hälfte des 20. Jahrhunderts kleine Rechenmaschinen von Friden, Burroughs, Monro usw. hergestellt, eine Vielzahl von kleinen Maschinen waren Buchführungs- und Schreibmaschinen und Wortzählmaschinen, die in Europa von Olivetti hergestellt wurden, und in den USA von der National Cash Register (NCR). In dieser Zeit waren in Russland „Mercedes“ weit verbreitet - Buchhaltungsmaschinen, die dazu dienten, Daten einzugeben und die Endsalden (Salden) für synthetische Konten zu berechnen.

Basierend auf den Ideen und Erfindungen von Babbage und Hollerith konnte der Harvard-Professor Howard Aiken 1937-1943 etwas erschaffen. eine höhere Rechenstanzmaschine namens Mark-1, die mit elektromagnetischen Relais betrieben wurde. Im Jahr 1947 erschien eine Maschine dieser Serie "Mark-2" mit 13 Tausend Relais.

Ungefähr zur gleichen Zeit erschienen theoretische Voraussetzungen und die technische Möglichkeit, eine perfektere Maschine an elektrischen Lampen zu schaffen. 1943 begannen Mitarbeiter der University of Pennsylvania (USA) unter der Leitung von John Mauchly und Prosper Eckert unter Beteiligung des berühmten Mathematikers John von Neumann mit der Entwicklung einer solchen Maschine. Das Ergebnis ihrer gemeinsamen Bemühungen war die Röhrenrechenmaschine ENIAC (1946), die 18 Tausend Lampen enthielt und 150 kW Strom verbrauchte. Im Zuge der Arbeiten an der Lampenmaschine veröffentlichte John von Neumann einen Bericht (1945), der zu den wichtigsten wissenschaftlichen Dokumenten in der Theorie der Entwicklung der Computertechnik zählt. Der Bericht untermauerte die Prinzipien der Struktur und Funktionsweise von Universalcomputern einer neuen Generation von Computern, die das Beste enthalten, was von vielen Generationen von Wissenschaftlern, Theoretikern und Praktikern geschaffen wurde.

Dies führte zur Entwicklung von Computern, den sogenannten erste Generation... Sie zeichnen sich durch den Einsatz von Vakuumröhrentechnik, Speichersystemen auf Quecksilber-Verzögerungsleitungen, Magnettrommeln und Williams-Kathodenstrahlröhren aus. Die Dateneingabe erfolgte über Lochstreifen, Lochkarten und Magnetbänder mit hinterlegten Programmen. Gebrauchte Druckgeräte. Die Geschwindigkeit von Computern der ersten Generation überschritt 20.000 Operationen pro Sekunde nicht.

Darüber hinaus vollzog sich die Entwicklung der digitalen Computertechnologie in rasantem Tempo. 1949 baute der englische Entdecker Maurice Wilkes nach Neumanns Prinzipien den ersten Computer. Bis Mitte der 50er Jahre. Lampenmaschinen wurden im industriellen Maßstab hergestellt. Die wissenschaftliche Forschung im Bereich der Elektronik eröffnete jedoch neue Entwicklungsperspektiven. Die führenden Positionen in diesem Bereich wurden von den Vereinigten Staaten eingenommen. 1948 erfand Walter Brattain, John Bardeen von AT&T den Transistor, und 1954 verwendete Gordon Type von Texas Instruments Silizium, um den Transistor herzustellen. Seit 1955 wurden Computer auf Transistoren hergestellt, die im Vergleich zu Röhrenmaschinen kleinere Abmessungen, eine höhere Geschwindigkeit und einen geringeren Energieverbrauch haben. Die Computer wurden von Hand unter einem Mikroskop zusammengebaut.

Der Einsatz von Transistoren markierte den Übergang zum Computer zweite Generation... Transistoren haben Vakuumröhren ersetzt und Computer sind zuverlässiger und schneller geworden (bis zu 500.000 Operationen pro Sekunde). Funktionale Geräte haben sich ebenfalls verbessert - arbeiten mit Magnetbändern, Speicher auf Magnetplatten.

1958 wurden erfunden: die erste Intervall-Mikroschaltung (Jack Kilby - Texas Instruments) und die erste industrielle integrierte Schaltung (Chip), deren Autor Robert Noyce später (1968) die weltberühmte Firma Intel (INTegrated ELectronics) gründete. Noch schneller und kompakter waren Computer mit integrierten Schaltkreisen, die seit 1960 hergestellt werden.

Im Jahr 1959 kamen die Forscher von Datapoint zu der wichtigen Schlussfolgerung, dass ein Computer eine zentrale arithmetische Logikeinheit benötigt, die Berechnungen, Programme und Geräte steuern kann. Es ging um einen Mikroprozessor. Datapoint-Mitarbeiter entwickelten grundlegende technische Lösungen für die Entwicklung eines Mikroprozessors und begannen zusammen mit Intel Mitte der 60er Jahre mit der industriellen Entwicklung. Erste Ergebnisse waren nicht ganz erfolgreich: Intel-Mikroprozessoren liefen viel langsamer als erwartet. Datapoint und Intel haben ihre Partnerschaft beendet.

Computer wurden 1964 entwickelt dritte Generation unter Verwendung elektronischer Schaltkreise kleiner und mittlerer Integration (bis zu 1000 Komponenten pro Chip). Von diesem Zeitpunkt an begannen sie nicht einen einzelnen Computer zu entwerfen, sondern eine ganze Computerfamilie basierend auf dem Einsatz von Software. Als Beispiel für Computer der dritten Generation können der damalige amerikanische IBM 360 sowie die sowjetischen EU 1030 und 1060 angesehen werden. Ende der 60er Jahre. Mini-Computer erschienen, und 1971 - der erste Mikroprozessor. Ein Jahr später veröffentlichte Intel den ersten bekannten Intel 8008-Mikroprozessor und im April 1974 den Intel 8080-Mikroprozessor der zweiten Generation.

Seit Mitte der 70er Jahre. Computer wurden entwickelt vierte Generation... Sie zeichnen sich durch die Verwendung von großen und sehr großen integrierten Schaltkreisen (bis zu einer Million Komponenten pro Chip) aus. Die ersten Computer der vierten Generation wurden von Amdahl Corp. Diese Computer verwendeten Hochgeschwindigkeits-IC-Speichersysteme mit einer Kapazität von mehreren Megabyte. Beim Herunterfahren wurden die RAM-Daten auf die Festplatte übertragen. Beim Einschalten fand eine Selbstladung statt. Die Leistung von Computern der vierten Generation beträgt Hunderte von Millionen Operationen pro Sekunde.

Ebenfalls Mitte der 70er Jahre erschienen die ersten Personal Computer. Die weitere Geschichte der Computer ist eng mit der Entwicklung der Mikroprozessortechnik verbunden. 1975 wurde der erste Massen-Personalcomputer Altair auf der Basis des Intel 8080-Prozessors entwickelt. Ende der 70er Jahre wurden dank der Bemühungen von Intel, die die neuesten Mikroprozessoren Intel 8086 und Intel 8088 entwickelten, Voraussetzungen geschaffen, um die Rechen- und Ergonomieeigenschaften von Computern zu verbessern. Während dieser Zeit trat der größte Elektrokonzern IBM in den Wettbewerb auf dem Markt ein und versuchte, einen Personal Computer auf der Grundlage des Intel 8088-Prozessors zu entwickeln.Im August 1981 erschien der IBM-PC und gewann schnell eine immense Popularität. Das erfolgreiche Design des IBM-PCs bestimmte Ende des 20. Jahrhunderts seinen Einsatz als Standard für Personal Computer.

Die Computerentwicklung läuft seit 1982 fünfte Generation... Sie basieren auf einer Orientierung an der Wissensverarbeitung. Wissenschaftler sind sich sicher, dass die Verarbeitung von nur dem Menschen innewohnendem Wissen auch durch einen Computer erfolgen kann, um die gestellten Probleme zu lösen und adäquate Entscheidungen zu treffen.

1984 stellte Microsoft die ersten Muster des Windows-Betriebssystems vor. Die Amerikaner betrachten diese Erfindung noch immer als eine der herausragenden Entdeckungen des 20. Jahrhunderts.

Ein wichtiger Vorschlag wurde im März 1989 von Tim Berners-Lee, einem Mitarbeiter des International European Scientific Center (CERN), gemacht. Der Kern der Idee bestand darin, ein neues verteiltes Informationssystem namens World Wide Web zu schaffen. Ein hypertextbasiertes Informationssystem könnte die Informationsressourcen des CERN (Berichtsdatenbanken, Dokumentation, Postanschriften usw.) integrieren. Das Projekt wurde 1990 angenommen.

Vorlesung 1. Das Konzept der Informationstechnologie.

Thema Nummer 1, Lektion Nummer 1

PÄDAGOGISCHE - METHODISCHE ENTWICKLUNG

Arbeits- und Umweltsicherheit

Abteilung

(Vorlesung)

ZUR DISZIPLIN "Informationstechnologien im Risikomanagement"

In den frühen Stadien der Geschichte benötigte eine Person codierte Kommunikationssignale, um die durchgeführten Aktionen zu synchronisieren. Das menschliche Gehirn hat dieses Problem ohne künstlich geschaffene Werkzeuge gelöst: die menschliche Sprache entwickelt. Die Sprache war auch der erste Wissensträger. Wissen wurde gesammelt und von Generation zu Generation in Form von mündlichen Geschichten weitergegeben. Die natürlichen Fähigkeiten des Menschen, Wissen anzusammeln und weiterzugeben, erhielten mit der Schriftschöpfung die erste technologische Unterstützung. Der Prozess der Verbesserung der Informationsträger ist noch im Gange: Stein - Knochen - Ton - Papyrus - Seide - Papier magnetische und optische Medien - Silizium - ... Die Schrift wurde zur ersten historischen Stufe der Informationstechnologie. Die zweite Stufe der Informationstechnologie ist das Aufkommen des Buchdrucks. Es stimulierte die Entwicklung der Wissenschaften und beschleunigte die Anhäufung von professionellem Wissen. Der Kreislauf: Wissen – Wissenschaft – Soziale Produktion – Wissen ist geschlossen. Die Spirale der technologischen Zivilisation begann sich mit halsbrecherischer Geschwindigkeit abzuwickeln. Die Typografie hat informationelle Voraussetzungen für das Wachstum der Produktivkräfte geschaffen. Aber die Informationsrevolution ist mit der Entwicklung von Computern Ende der 40er Jahre des 20. Jahrhunderts verbunden. Zur gleichen Zeit beginnt die Ära der Entwicklung der Informationstechnologie. Eine sehr wichtige Eigenschaft der Informationstechnologie ist, dass für sie Information nicht nur ein Produkt, sondern auch ein Rohstoff ist. Die elektronische Modellierung der realen Welt auf einem Computer erfordert die Verarbeitung einer wesentlich größeren Informationsmenge, als das Endergebnis enthält. Bei der Entwicklung der Informationstechnologie lassen sich Stadien unterscheiden. Jede Stufe zeichnet sich durch ein spezifisches Merkmal aus.

1. In der Anfangsphase der Entwicklung der Informationstechnologien (1950-1960er Jahre) basierte die Interaktion zwischen Mensch und Computer auf Maschinensprachen. Der Computer stand nur Profis zur Verfügung.

2. In der nächsten Phase (1960-1970er Jahre) werden Betriebssysteme erstellt. Bearbeitung mehrerer Aufgaben, formuliert von verschiedenen Benutzern; Das Hauptziel ist die Maximierung der Auslastung der Maschinenressourcen.

3. Die dritte Phase (1970-1980er Jahre) ist durch eine Änderung des Kriteriums der Effizienz der Datenverarbeitung gekennzeichnet, die Humanressourcen für die Entwicklung und Wartung von Software wurden zu den wichtigsten. Diese Phase umfasst die Verbreitung von Minicomputern. Es wird eine interaktive Art der Interaktion mehrerer Benutzer durchgeführt.

4. Die vierte Stufe (1980-1990er Jahre) ist ein neuer qualitativer Sprung in der Softwareentwicklungstechnologie. Der Schwerpunkt technologischer Lösungen wird bei der Erstellung eines Softwareprodukts auf die Schaffung von Interaktionsmöglichkeiten zwischen Benutzern und Computern verlagert. Das zentrale Bindeglied in der neuen Informationstechnologie ist die Präsentation und Verarbeitung von Wissen. Die Gesamtverbreitung von Personalcomputern. Beachten Sie, dass die Entwicklung aller Computergenerationen mit einer konstanten Geschwindigkeit erfolgt - 10 Jahre pro Generation. Prognosen gehen davon aus, dass das Tempo bis zum Beginn des 21. Jahrhunderts anhält. Jeder Generationswechsel in der Informationstechnologie erfordert eine Umschulung und eine radikale Umgestaltung des Denkens von Spezialisten und Benutzern, einen Gerätewechsel und die Schaffung von mehr Massencomputergeräten. Die Informationstechnologie als fortschrittliches Gebiet der Wissenschaft und Technologie bestimmt den Rhythmus der Zeit der technischen Entwicklung der gesamten Gesellschaft Investitionen in Infrastruktur und Internetdienste verursachten Ende der 90er Jahre des 20. Jahrhunderts das schnelle Wachstum der IT-Branche.

Einführung

Diese abstrakte Arbeit widmet sich dem Thema: "Informationstechnologie: Entstehung und Entwicklungsstufen, Zweck, Mittel und Methoden".

Die Relevanz der Wahl des Themas der Arbeit erklärt sich aus der Tatsache, dass im Prozess des menschlichen Wirtschaftens Informationen für die Subjekte der Welt- und Volkswirtschaften kritisch werden. Informationen werden unter modernen Bedingungen auch zu einem starken Faktor, um die radikale Umstrukturierung von Produktionsprozessen zu beschleunigen und beeinflussen nicht einzelne Glieder, sondern den gesamten Prozess der materiellen Produktion als Ganzes. In der Russischen Föderation werden nun organisatorische, materielle und rechtliche Voraussetzungen für die Bildung einer Informationsunterstützung für das Management aller Sektoren der Volkswirtschaft geschaffen: eine gesetzliche Grundlage wird geschaffen, der Bereich der Informationsdienste entwickelt, die technische Die Unterstützung des Informationsumfelds wird verbessert (auch aufgrund der inländischen Produktion), der Informationskomponente aller Organisationen der Gesellschaft. Als Ergebnis dieser Ereignisse hat sich der Prozess der „ersten Anhäufung“ von Ressourcen des Informationsmarktes intensiviert, und die nächste Stufe sollte der Prozess der Regulierung der zivilisierten Regeln des „Spiels“ sein. Diesbezüglich die notwendige Entwicklung einer hocheffizienten, funktionalen Informationstechnologie (nachfolgend IT).

Der Zweck unserer Arbeit war daher eine prägnante Systematisierung von Informationen über Informationstechnologien im gegenwärtigen Stadium ihrer Entwicklung als Instrumente zur Regulierung des Informationsmarktes.

Ausgehend vom Zweck des Verfassens einer Arbeit stellen sich uns folgende Aufgaben:

Geben Sie eine Definition des Begriffs der Informationstechnologie und betrachten Sie die Geschichte ihrer Entstehung;

Beschreiben Sie die Ziele der Entwicklung und Funktionsweise der Informationstechnologie;

Geben Sie Beispiele für Mittel und Methoden der Informationstechnologie.

Informationstechnologie-Konzept. Die Geschichte ihrer Entstehung

Informationstechnologien sind längst in unseren Alltag eingezogen und haben sich darin verwurzelt, doch gerade dieser Begriff bleibt multifunktional und undeutlich. Technologie wird traditionell als Prozess der Kreativität, Produktion, sowohl in der Kunst als auch im Handwerk verstanden. Gleichzeitig beinhaltete der Prozess selbst eine Reihe von konsequenten Anstrengungen, um das gesetzte Ziel zu erreichen.

Dieser vom Menschen gesteuerte Prozess umfasst nicht nur Ziele, sondern auch bestimmte Mittel, Methoden, Strategien. Bei stofflichen Produktionstechnologien umfasst der Prozess also die Sammlung und Verarbeitung von Rohstoffen bis zur Herstellung des Endprodukts mit bestimmten Eigenschaften und Qualitäten.

Dementsprechend ist es unter Verwendung unterschiedlicher Technologien für das gleiche Material möglich, unterschiedliche Produkte zu erhalten, da die Technologie den Ausgangszustand von Rohstoffen ändert, um völlig neue Produktionsgegenstände zu erhalten.

Da Informationen eine der wertvollsten Ressourcen der Gesellschaft sind, sind sie nicht weniger wichtig als traditionelle materielle Ressourcen - Öl, Gas, Mineralien usw. Das Arbeiten mit Informationsressourcen ist vergleichbar mit den Prozessen der konventionellen Produktion und wird auch als Technik bezeichnet. Dann ist die folgende Definition gerecht: Informationstechnologie ist ein Prozess oder eine Reihe von Prozessen der Informationsverarbeitung. Die Informationstechnik (IT) kann in Form eines Diagramms dargestellt werden (Abb. 1). Konopleva I.A., Khokhlova O.A., Denisov A.V. Informationstechnologie. - M.: Prospekt, 2013.-- 328 p.

Weil am Input und Output von IT nicht Materie und nicht Energie, sondern Information steht, dann: Informationstechnologie kann auch definiert werden als - eine Reihe von Prozessen, die die Mittel und Methoden der Akkumulation, Verarbeitung und Übertragung von Primärinformationen zur Gewinnung von Informationen nutzen einer neuen Qualität über den Zustand des Objekts, Prozesses oder Phänomens.

Diese Information einer neuen Qualität wird als Informationsprodukt bezeichnet. Schematisch lässt sich der Prozess der Umwandlung von Informationen in Informationen und später in ein Softwareprodukt wie folgt darstellen (Abb. 2). Unter Bedrohungen wird dabei eine Kombination von Faktoren verstanden, die eine Gefahr für wertvolle Informationen darstellen, nämlich: die Möglichkeit des unbefugten Zugriffs und/oder der Verbreitung. Yudina I.G. Komplexes Informationsprodukt: Merkmale und Definition // Bibliosphäre. 2012. Nr. 5. S. 43-46.

Bild 1

Informationstechnologie-Diagramm

Wenn die Herstellung materieller Produkte erfolgt, um die Bedürfnisse von Menschen und ihren Gemeinschaften zu befriedigen, dann wird das Ziel der Informationstechnologie darin dargestellt, ein Informationsprodukt zur Analyse durch eine Person zu erhalten und darauf basierende Entscheidungen für die Durchführung von Handlungen zu treffen. Wie bei der materiellen Produktion kann durch die Anwendung unterschiedlicher Technologien in Bezug auf die eingehenden Informationen ein anderes Informationsprodukt erhalten werden.

In der juristischen Literatur wurde der Begriff "Informationsprodukt" noch nicht angegeben, insbesondere fehlt er im Gesetz der Russischen Föderation "Über Information, Informatisierung und Informationsschutz". Sie können nur die im Gesetz der Russischen Föderation "Über die Teilnahme am internationalen Informationsaustausch" enthaltene Definition berücksichtigen, die jedoch ihre Gültigkeit verloren hat: Ein Informationsprodukt (Produkte) sind dokumentierte Informationen, die gemäß den Bedürfnissen von Benutzer und bestimmt oder verwendet werden, um die Bedürfnisse der Benutzer zu erfüllen ... S. V. Sinatorov Informationstechnologie. - M.: Dashkov und Co, 2010.-- 456 p.

Bild 2

Ort der Information und des Softwareprodukts im Informationskreislauf


Folglich ist der Endzweck eines Informationsprodukts wie der Informationstechnologie auch die Befriedigung menschlicher Bedürfnisse. Auf die Ziele der Informationstechnologie werden wir später noch genauer eingehen.

Der Beginn des Zeitalters der Informationstechnologie (IT) kann als die Zeit angesehen werden, in der eine Person begann, sich von der Welt um sie herum zu unterscheiden: Sprache, mündliche Wiedergabe von Informationen, Übertragung mit Zeichen, Klängen - all dies kann als die bezeichnet werden erste Stufe in der Entwicklung der Informationstechnologie.

Die Entstehung der Schrift ist ein charakteristisches Merkmal der zweiten Stufe der Entwicklung der Informationstechnologie. Dank der Fähigkeit, Informationen auf materiellen Trägern (Holz-, Wachs- oder Tontafeln, Papyrus, Leder) zu reproduzieren, werden die ersten Informationsspeicher gebildet - Bibliotheken. Aber die Massenverbreitung von Informationen wurde durch den Druck eingeleitet (Tabelle 1) Aloshti H.R. Philosophische Sicht der Informationstechnologie // Wissenschaftliche und technische Informationen. Serie 2: Informationsprozesse und -systeme. 2012. Nr. 4. S. 1-12 ..

Die dritte Stufe in der Entwicklung der Informationstechnologie kann als die Zeit des Aufkommens und der schnellen Einführung mechanischer Mittel zur Verarbeitung, Speicherung und Übertragung von Informationen, wie einer Schreibmaschine oder einer Rechenmaschine, bezeichnet werden.

Die Entdeckung auf dem Gebiet der Elektrizität führte zu einer Revolution in den Informationstechnologien, die zum Übergang zur vierten Stufe ihrer Entwicklung führte. Es wurde möglich, große Informationsmengen mit ausreichend hoher Geschwindigkeit (Telefon, Fernschreiber) über große Distanzen zu übertragen und auf magnetischen Datenträgern zu speichern.

Tabelle 1

Phasen der IT-Entwicklung

Zu lösende Aufgaben

Die erste ist 150 Tausend v. - 3000 v. Chr.

Einfache Werkzeuge zum Zeichnen von Symbolen auf Haushaltsgegenständen

Zusammenhalt einzelner Stämme zu Clangemeinschaften, die Bildung der ersten Gesellschaften

Nicht mechanisiert

Die zweite - 3 Tausend v. - V. Jahrhundert. n. NS.

Schreibgeräte, die ersten Druckmaschinen

Aufrechterhaltung von Macht und Ordnung in den ersten Staaten, Arbeitsorganisation

Primitive mechanisiert

Das dritte - V Jahrhundert. n. NS. - XIX n. Chr

Tastaturen drucken und berechnen

Mechanisierung von Steuerungssystemen

Mechanisiert

Der vierte Anfang des zwanzigsten Jahrhunderts. - 1940er Jahre

Fernkommunikationskomplexe

Globale Automatisierung von Managementprozessen

Automatisiert

Fünfter - 1940 - unsere Tage

Computer, Computer

Management der Weltwirtschaft im Informationsmarkt

Elektronisch, digital – eine Kombination aus Rechentechnik und Kommunikation

Der Beginn der fünften Stufe der Entwicklung der Informationstechnologien ist mit dem Aufkommen der ersten elektronischen Computer und dem Übergang zu elektronischen Informationstechnologien verbunden.

Der Hauptvorteil elektronischer Informationsquellen gegenüber analogen ist ihre Effizienz und zunehmende Masse (ein gutes Beispiel sind Informationen im Internet). Die rasante Entwicklung der Computertechnik führt zu neuen Formen und Methoden der Verarbeitung, Speicherung und Übermittlung von Informationen.

Es können auch separate Phasen der Entwicklung von Computerinformationstechnologien unterschieden werden:

Maschinenressourcenstufe (Computerimplementierung, Programmierung in Maschinencodes);

Programmierphase (Programmiersprachen, Stapelverarbeitung);

Das Stadium der neuen Informationstechnologien, gekennzeichnet durch das Aufkommen von Personal Computern (Personal Computer oder abgekürzt PC - Personal Computer), Computernetzwerke, AWPs (automatisierte Workstations), Datenbanken, OLAP-Technologien (dynamische Datenanalyse), Internet-Technologien usw. NS .

Die Hauptaufgaben der modernen IT sind:

Erreichen der Universalität der Kommunikationsmethoden;

Unterstützung für Multimediasysteme;

Maximale Vereinfachung der Kommunikationsmittel im "Man-PC"-System.

Darüber hinaus hat die IT als System folgende Eigenschaften:

Zweckmäßigkeit;

Das Vorhandensein von Komponenten und Struktur;

Interaktion mit der externen Umgebung;

Integrität;

Entwicklung in der Zeit. V. A. Pastuchow I// Ölraffination und Petrochemie. Wissenschaftliche und technische Errungenschaften und bewährte Verfahren. 2011. Nr. 5. S. 59-61.

Fortsetzung des Themas:
Netzwerke

Wie kopiere ich Bücher auf mein Gerät? Verbinden Sie Ihr Gerät mit Ihrem Computer. Das Gerät sollte im eingeschalteten Zustand mit dem PC verbunden sein. Am unteren Rand des E-Book-Displays ...