Geschichte der Informationstechnologie. Entstehung und Entwicklung der Informationstechnologie Vorgeschichte der Informationstechnologie

Die Geschichte der Entstehung und Entwicklung der Informationstechnologie.

Die Entstehungsgeschichte der Informationstechnologie hat ihre Wurzeln in der Antike. Das erste einfachste digitale Gerät gilt als Abakus. Alles, was Stück für Stück quantifiziert werden konnte, wurde mit solchen digitalen Geräten berechnet.

1949 wurde der erste Röhrencomputer gebaut – eine universelle Rechenmaschine der neuen Generation. In Managementtätigkeiten wurden Computer der ersten Generation verwendet, um bestimmte, arbeitsintensivste Aufgaben, beispielsweise in der Lohn- und Materialabrechnung, sowie bestimmte Optimierungen zu lösen. Aufgaben.

Seit 1955 werden Computer auf Transistoren hergestellt, ihre Abmessungen sind kleiner geworden, der Stromverbrauch ist gesunken und gestiegen. Seit 1960 wurde die Produktion von Computern auf integrierten Schaltkreisen (Chip) gestartet. Computertechnologie auf der Grundlage von Transistoren und Mikroschaltungen bedeutete die Schaffung von Computern der zweiten Generation

1964 wurden Computer der dritten Generation mit elektronischen Schaltungen geringer und mittlerer Integration hergestellt. In den späten 60er Jahren erschienen die ersten Mini-Computer und 1971 der erste Mikroprozessor. Seit dieser Zeit wurden nicht einzelne Computer entwickelt und konstruiert, sondern viele Komponenten der Computertechnik basierend auf dem Einsatz von Software. Software gilt als eigenständiger und zugleich integraler Bestandteil der Computertechnik.

Mitte der 1970er Jahre wurden Computer der vierten Generation mit großen und sehr großen integrierten Schaltkreisen mit einer Kapazität von mehreren Megabyte entwickelt. Wenn diese Computer ausgeschaltet werden, werden die RAM-Daten auf die Festplatte übertragen, und wenn diese Computer eingeschaltet werden, erfolgt ein Selbstladen.

Seit 1982 läuft die Entwicklung von Computern der fünften Generation, die auf die Verarbeitung von Wissen ausgerichtet sind. Zuvor glaubte man, dass die Verarbeitung von Wissen nur dem Menschen innewohnt. In Managementtätigkeiten werden mit Hilfe eines Computers der fünften Generation komplexe ökonomische Probleme gelöst, ein objektorientierter Ansatz zur Lösung individueller Probleme bereitgestellt. Die Rechentechnik dieser Generation zeichnet sich durch ein breites Anwendungsspektrum, eine intelligente Schnittstelle, das Vorhandensein von Informations-Beratungssystemen und Entscheidungsunterstützungssystemen, eine interaktive Arbeitsweise der Benutzer sowie die Netzwerkorganisation von Informationsstrukturen aus. Mit der Entwicklung von Computern der fünften Generation tauchte der Begriff NIT (Neue Informationstechnologie) auf, was die Kombination von Computertechnik, Kommunikations- und Bürogeräten bedeutet.

Informationskonzept. Grundlegende Eigenschaften von Informationen.

Der Informationsbegriff ist einer der Hauptbegriffe der modernen Wissenschaft. Die Bedeutung von Informationen im gesellschaftlichen Leben nimmt rasant zu, die Methoden der Arbeit mit Informationen ändern sich, der Anwendungsbereich neuer Informationstechnologien erweitert sich.

Information- Dies sind Informationen über Objekte und Phänomene der Umwelt, deren Parameter, Eigenschaften und Zustand, die den bestehenden Grad an Unsicherheit über sie reduzieren, Unvollständigkeit des Wissens.

Unter Informationen müssen nicht die Gegenstände und Vorgänge selbst verstanden werden, sondern deren Spiegelung oder Darstellung in Form von Zahlen, Formeln, Beschreibungen, Zeichnungen, Symbolen, Mustern.

Grundlegende Eigenschaften von Informationen: Zuverlässigkeit und Vollständigkeit; Wert und Relevanz; Klarheit und Verständlichkeit.

Informationen sind zuverlässig, wenn sie den wahren Sachverhalt nicht verfälschen. Informationen sind vollständig, wenn sie zum Verständnis und zur Entscheidungsfindung ausreichen. Der Wert der Information hängt davon ab, welche Aufgaben mit ihrer Hilfe gelöst werden. Sie müssen über aktuelle Informationen verfügen, wenn Sie in einer sich ständig ändernden Umgebung arbeiten. Informationen werden klar und nützlich, wenn sie in der Sprache derjenigen ausgedrückt werden, für die sie bestimmt sind.

Merkmale moderner Computeranlagen.

Eigenschaften des Mikroprozessors. Es gibt verschiedene Modelle von Mikroprozessoren, die von verschiedenen Firmen hergestellt werden. Die Hauptmerkmale des MP sind die Taktfrequenz und die Bittiefe des Prozessors. Der Betriebsmodus des Mikroprozessors wird durch eine Mikroschaltung eingestellt, die als Taktgenerator bezeichnet wird. Dabei handelt es sich um eine Art Metronom im Computer, bei dem der Prozessor jedem Vorgang eine bestimmte Anzahl von Taktzyklen zuweist. Taktfrequenzmess. in Megahertz.

Das nächste Merkmal ist die Bitkapazität des Prozessors. Die Bittiefe ist die maximale Länge eines Binärcodes, die vom gesamten Prozessor verarbeitet oder übertragen werden kann. Die meisten modernen PCs verwenden 32-Bit-Prozessoren. Die meisten Hochleistungsmaschinen verfügen über 64-Bit-Prozessoren.

Die Größe des internen (RAM) Speichers. Der Computerspeicher ist in Arbeitsspeicher (intern) und Langzeitspeicher (extern) unterteilt. Die Leistung einer Maschine hängt stark von der Größe des internen Speichers ab. Wenn nicht genügend interner Speicher für den Betrieb einiger Programme vorhanden ist, beginnt der Computer, einen Teil der Daten in den externen Speicher zu übertragen, was seine Leistung stark reduziert. Moderne Programme benötigen Dutzende und Hunderte von Megabyte RAM. Moderne Programme benötigen Hunderte von Megabyte RAM, um gut zu funktionieren.

Eigenschaften externer Speichergeräte. Externe Speichergeräte sind magnetische und optische Laufwerke. Die in die Systemeinheit eingebauten Magnetplatten werden als Festplatten oder Festplatten bezeichnet. Das Lesen / Schreiben auf eine Festplatte ist schneller als alle anderen Arten von externen Medien, aber immer noch langsamer als auf RAM. Je größer der Festplattenspeicher, desto besser. Auf modernen PCs sind Festplatten verbaut, deren Volumen in Gigabyte gemessen wird: Dutzende und Hunderte von Gigabyte. Beim Kauf eines Computers erwerben Sie auch die notwendigen Programme auf der Festplatte. In der Regel bestellt der Käufer selbst die Zusammenstellung der Computersoftware.

Alle anderen externen Speichermedien sind entfernbar, dh sie können in das Laufwerk eingelegt und aus dem Laufwerk entnommen werden. Dazu gehören Disketten - CD-ROM, CD-RW, DVD-ROM.

In letzter Zeit ersetzt Flash-Speicher Disketten als Hauptmittel zur Übertragung von Informationen von einem Computer auf einen anderen. Flash-Speicher ist ein elektronisches externes Speichergerät, das zum Lesen und Schreiben von Informationen in einem Dateiformat verwendet wird. Flash-Speicher ist wie Festplatten ein nichtflüchtiges Gerät. Im Vergleich zu Festplatten hat Flash-Speicher jedoch ein viel größeres Informationsvolumen (Hunderte und Tausende von Megabyte). Und die Geschwindigkeit beim Lesen und Schreiben von Daten auf einem Flash-Laufwerk nähert sich der Geschwindigkeit von RAM,

Alle anderen Gerätetypen werden als Eingabe-/Ausgabegeräte klassifiziert. Die obligatorischen sind eine Tastatur, ein Monitor und ein Manipulator (normalerweise eine Maus). Zusatzgeräte: Drucker, Modem, Scanner, Soundsystem usw. Die Wahl dieser Geräte hängt von den Bedürfnissen und finanziellen Möglichkeiten des Käufers ab.

Die Entstehung des Betriebssystems

Mitte der 40er Jahre entstanden die ersten Röhrencomputer. Die Programmierung erfolgte ausschließlich in Maschinensprache. Es gab keine andere Systemsoftware als Mathematik- und Dienstprogrammbibliotheken. Betriebssysteme sind noch nicht erschienen, alle Aufgaben zur Organisation des Rechenprozesses wurden von jedem Programmierer manuell über das Bedienfeld gelöst.

Mitte der 1950er Jahre begann eine neue Periode in der Entwicklung der Computertechnologie, verbunden mit dem Aufkommen einer neuen technischen Basis - Halbleiterelementen. Die Geschwindigkeit der Prozessoren hat zugenommen, zugenommen. die Menge an RAM und externem Speicher.

Um den effizienten Austausch von Übersetzern, Bibliotheksprogrammen und Ladern zu organisieren, wurden die Positionen der Operatoren in das Personal vieler Rechenzentren eingeführt. Aber die meiste Zeit war der Prozessor im Leerlauf und wartete darauf, dass der Bediener die nächste Aufgabe startete. Um dieses Problem zu lösen, wurden die ersten Batch-Processing-Systeme entwickelt, die den gesamten Ablauf der Bedienerhandlungen zur Organisation des Rechenprozesses automatisierten. Frühe Stapelverarbeitungssysteme waren der Prototyp moderner Betriebssysteme; sie waren die ersten Systemprogramme, die nicht zur Verarbeitung von Daten, sondern zur Steuerung des Rechenprozesses entwickelt wurden.

Im Zuge der Implementierung von Stapelverarbeitungssystemen wurde eine formalisierte Aufgabensteuerungssprache entwickelt, mit deren Hilfe der Programmierer dem System und dem Bediener mitteilt, welche Aktionen und in welcher Reihenfolge er am Computer ausführen möchte. Ein typischer Satz von Direktiven beinhaltete normalerweise ein Zeichen für den Beginn eines separaten Werkes, einen Anruf an einen Übersetzer, einen Anruf an einen Lader, Zeichen für den Anfang und das Ende der Ausgangsdaten.

Der Bediener stellte einen Stapel von Aufgaben zusammen, die anschließend ohne seine Beteiligung sequentiell zur Ausführung durch das Steuerungsprogramm, den Monitor, gestartet wurden. Darüber hinaus war der Monitor in der Lage, die gängigsten Notsituationen beim Betrieb von Anwenderprogrammen wie fehlende Initialdaten, Registerüberlauf, Division durch Null, Zugriff auf einen nicht vorhandenen Speicherbereich usw. selbstständig zu bewältigen. Das Paket war normalerweise ein Satz Lochkarten, aber um die Arbeit zu beschleunigen, konnte er auf ein bequemeres und geräumigeres Medium übertragen werden, zum Beispiel ein Magnetband oder eine Magnetplatte. Das Monitorprogramm selbst wurde in den ersten Implementierungen auch auf Lochkarten oder Lochstreifen gespeichert und in späteren Versionen - auf Magnetbändern und Magnetplatten.

Frühe Stapelverarbeitungssysteme reduzierten den Zeitaufwand für die Unterstützung der Organisation des Rechenprozesses erheblich, was bedeutet, dass ein weiterer Schritt zur Verbesserung der Effizienz der Computernutzung unternommen wurde. Gleichzeitig verloren Anwenderprogrammierer jedoch den direkten Zugriff auf den Computer, was ihre Effizienz verringerte – eine Korrektur erforderte viel mehr Zeit als beim interaktiven Arbeiten am Bedienfeld der Maschine.

8. Integrierte Pakete angewandter Programme. Die Vorteile ihrer Verwendung bei der Implementierung in Informationstechnologien.

Integrierte Pakete- eine Reihe von mehreren sich funktional ergänzenden Softwareprodukten, die einheitliche Informationstechnologien unterstützen und auf einer gemeinsamen Computer- und Betriebsplattform implementiert sind.

Am gebräuchlichsten sind integrierte Pakete, deren Bestandteile:

Texteditor;

Tabellenprozessor;

Veranstalter;

E-Mail-Support-Tools;

Präsentationsprogramm;

Grafik-Editor.

Die Komponenten der integrierten Pakete können isoliert voneinander arbeiten, aber die Hauptvorteile der integrierten Pakete zeigen sich, wenn sie intelligent miteinander kombiniert werden. Benutzern von integrierten Paketen steht eine einheitliche Schnittstelle für verschiedene Komponenten zur Verfügung. die relative Leichtigkeit des Prozesses ihrer Entwicklung.

Besondere Merkmale dieser Softwareklasse sind:

Vollständigkeit der Informationstechnologie für Endbenutzer;

Die gleiche Endbenutzeroberfläche für alle im integrierten Paket enthaltenen Programme - gemeinsame Befehle im Menü, Standardsymbole der gleichen Funktionen, einheitlicher Aufbau und Arbeiten mit einem Dialog. Fenster usw .;

Allgemeiner Service für die Programme des integrierten Pakets (zB Wörterbuch- und Rechtschreibtools zur Rechtschreibprüfung, Chart Builder, Datenkonverter usw.);

Einfacher Austausch und Referenzen auf Objekte, die von den Programmen des integrierten Pakets erstellt wurden (zwei Methoden werden verwendet: DDE - dynamischer Datenaustausch und OLE - dynamisches Binden durch Objekte), einheitliche Übertragung von Objekten;

Verfügbarkeit einer einzigen Sprachplattform zum Parsen von Makros und Benutzerprogrammen;

Die Möglichkeit, Dokumente zu erstellen, die die Funktionen verschiedener Programme integrieren, die im integrierten Paket enthalten sind.

Integrierte Pakete eignen sich auch für Gruppenarbeiten in einem Netzwerk mit vielen Benutzern. So können Dokumente und Dateien aus der Anwendung, in der der Benutzer arbeitet, an einen anderen Benutzer gesendet werden, während die Standards für die Übertragung von Daten in Form von Objekten über das Netzwerk oder per E-Mail unterstützt werden.

Stilkonzept.

Stil Ist eine Art Befehl, mit dem Sie alle für einen bestimmten Stil angegebenen Formatierungsfunktionen gleichzeitig auf einen bestimmten Teil des Textes anwenden können: - Schriftarten; - Versätze vom linken und rechten Rand; - Zeilenabstand; - Ausrichtung der Kanten; - Einzüge; - Erlaubnis oder Verbot von Übertragungen.

Sie können Inhaltsverzeichniselemente manuell eingeben und Tabulatoren verwenden, um gestrichelte Linien oder Punktränder zwischen Einträgen und ihren Seitenzahlen zu erstellen. Eine schnellere Möglichkeit, ein Inhaltsverzeichnis zu erstellen, ist "automatisch". Um das Inhaltsverzeichnis mittig zu platzieren, wählen Sie in der Gruppe Ausrichtung die Option Zentriert; um den Absatzanfang anzuzeigen, drücken Sie die TAB-Taste.

Bearbeiten einer Tabelle.

Der Word-Editor bietet zwei alternative Möglichkeiten zum Bearbeiten von Tabellen: mit der Maus und mit Menübefehlen.

Jede Tabelle besteht aus einer bestimmten Anzahl von Zellen. Wird das Bild der Tabellentrennlinien mit dem Befehl Tabelle / Raster anzeigen eingeschaltet, sind alle Tabellenzellen deutlich sichtbar. Um den Textcursor über die Tabellenzellen zu bewegen, verwenden Sie die Tabulatortaste.

Sie können Text in der Tabelle mit der Maus oder mit den Tasten auswählen. Um einzelne Zeichen in der Tabelle hervorzuheben, können Sie die Shift-Tastenkombinationen in Kombination mit den Cursortasten verwenden. Um eine einzelne Tabellenzelle mit der Maus auszuwählen, können Sie in diese Zelle dreimal klicken oder die Auswahlleiste verwenden, die jede Tabellenzelle zwischen der Rasterlinie und dem Zellentext hat.

Um eine separate Spalte der Tabelle mit der Maus auszuwählen, müssen Sie den Mauszeiger an den oberen Rand der Tabelle bewegen, wo er die Form eines schwarzen Pfeils nach unten hat, und dann mit der Maus klicken. Das Auswählen einer Tabellenzeile ähnelt dem Auswählen einer Textzeile: Verwenden der Auswahlleiste links vom Dokumentrand.

Um einzelne Zeilen und Spalten einer Tabelle auszuwählen, können Sie auch die Befehle Tabelle / Zeile auswählen und Tabelle / Spalte auswählen verwenden.

Um Spalten oder Zeilen einzufügen, wählen Sie einfach die Spalte oder Zeile aus und klicken Sie auf die Schaltfläche Tabelle / Einfügen / und drücken Sie die entsprechende Schaltfläche.

Um Zeilen, Spalten oder Zellen zu löschen, wählen Sie die Zeile, Spalte oder Zelle aus, die Sie löschen möchten, wählen Sie den Befehl Tabelle / Zellen löschen, Zeilen löschen oder Spalten löschen.

Das Bearbeiten einer Tabelle umfasst auch die Größenänderung von Zeilen, Spalten und Zellen.

Um eine Zelle in mehrere aufzuteilen, klicken Sie einfach mit der rechten Maustaste darauf und wählen Sie den Befehl Zellen teilen oder den Menübefehl Tabelle / Zellen teilen. Geben Sie als Nächstes an, wie viele Zeilen und Spalten Sie die ausgewählte Zelle teilen möchten, und klicken Sie auf OK.

Um zwei oder mehr Zellen zu einer zu kombinieren, wählen Sie diese Zellen aus und führen Sie dann den Befehl Tabelle / Zellen zusammenführen aus oder verwenden Sie einen ähnlichen Befehl aus dem Kontextmenü.

Um die Breite der Spalten anzupassen, wählen Sie die Spalten aus, deren Breite Sie ändern möchten, wählen Sie dann das Menü Tabelle / Höhe und Zellenbreiten, klicken Sie auf die Registerkarte Spalte, geben Sie dann die gewünschte Breite in das Feld Spaltenbreite ein, klicken Sie auf OK.

Um die Höhe der Linien anzupassen, wählen Sie die Linien aus, deren Höhe Sie ändern möchten; Wählen Sie Tabellen-/Zellenhöhe und -breite aus dem Menü, klicken Sie in der Liste Zeilenhöhe auf die Registerkarte Zeile, um den genauen Wert anzugeben.

Wenn sich die Tabelle über mehrere Dokumentseiten erstreckt, können Sie über den Menübefehl Tabelle / Überschriften die automatische Wiederholung der ersten Zeile der Tabelle einstellen.

25. Zweck und allgemeine Eigenschaften des Tabellenkalkulationseditors von Microsoft Excel.

Microsoft Excel- ein leistungsstarker Tabelleneditor, der alle Tabellenverarbeitungsprozesse ausführen kann: von der Erstellung von Tabellendokumenten über die Berechnung mathematischer Funktionen und das Zeichnen von Grafiken für sie bis hin zum Drucken.

Er arbeitet mit vielen Schriftarten, sowohl Russisch als auch einer der einundzwanzig Sprachen der Welt. Zu den vielen nützlichen Eigenschaften von Excel gehören die automatische Textkorrektur in Zellen, der automatische Zeilenumbruch und die Wortbuchstabierung, das Speichern von Text in einem bestimmten einstellbaren Zeitraum, das Vorhandensein von Standardtabellenassistenten, Vorlagen und Vorlagen, mit denen Sie einen Vorabbericht erstellen können , Bilanz in wenigen Minuten, Stundenzettel, Rechnung, Finanzvorlagen und mehr. Excel bietet eine Suche nach einem bestimmten Wort oder Textstück, ersetzt es durch ein bestimmtes Fragment, löscht, kopiert in die interne Zwischenablage oder ersetzt nach Schriftart, Schriftart oder Schriftgröße sowie durch hoch- oder tiefgestellte Zeichen.

Darin ähnelt Excel in vielerlei Hinsicht dem Texteditor Microsoft Word, hat aber auch seine eigenen Besonderheiten: Sie können für jede Zelle Zahlenformate, Ausrichtung, Zusammenführen von Zellen, Textrichtung in beliebigem Grad usw. einstellen Excel-Makros können Sie Objekte in Tabellen, Grafiken, Bilder, Musikmodule in *. wav.

Um den Zugriff auf das Dokument einzuschränken, können Sie für die Tabellen ein Kennwort festlegen, das Excel beim Laden von Tabellen abfragt, um Aktionen mit ihnen durchzuführen. Excel ermöglicht es Ihnen, viele Fenster zu öffnen, um mit mehreren Tabellen gleichzeitig zu arbeiten.

Vektorgrafiken.

Vektorgrafiken sind Bilder, die mit mathematischen Formeln erstellt (oder besser beschrieben) werden. Im Gegensatz zu Rastergrafiken, die nichts anderes als ein Array von farbigen Pixeln sind und Informationen für jeden von ihnen speichern, sind Vektorgrafiken ein Satz grafischer Grundelemente, die durch mathematische Formeln beschrieben werden. Um beispielsweise eine Linie auf dem Bildschirm zu erstellen, müssen Sie nur die Koordinaten der Punkte des Anfangs und des Endes der Linie und die Farbe kennen, mit der sie gezeichnet werden soll, und ein Polygon erstellen. - Koordinaten der Scheitelpunkte, Füllfarbe und ggf. Strichfarbe.

Nachteile von Vektorgrafiken:

Rastergrafiken.

Rastergrafiken sind Bilder, die aus Pixeln bestehen – kleine farbige Quadrate, die in einem rechteckigen Raster angeordnet sind. Ein Pixel ist die kleinste Einheit eines digitalen Bildes. Die Qualität eines Rasterbildes hängt direkt von der Anzahl der Pixel ab, aus denen es besteht – je mehr Pixel, desto mehr Details können dargestellt werden. Es wird nicht funktionieren, ein Rasterbild durch unverblümtes Vergrößern des Maßstabs zu vergrößern - die Anzahl der Pixel kann nicht erhöht werden, ich denke, davon waren viele überzeugt, als sie versuchten, kleine Details in einem kleinen digitalen Foto zu sehen, indem sie auf den Bildschirm zoomten; Als Ergebnis dieser Aktion war nichts anderes als die sich vergrößernden Quadrate (das sind nur die Pixel) zu sehen. Ein solcher Trick gelingt nur CIA-Agenten in Hollywood-Filmen, wenn sie die Nummernschilder anhand einer Vergrößerung des Bildes einer externen Überwachungskamera erkennen. Wenn Sie kein Angestellter dieser Struktur sind und keine solche magische Ausrüstung besitzen, wird daraus nichts.

Eine Bitmap hat mehrere Eigenschaften. Für einen Fotostocker sind die wichtigsten: Auflösung, Größe und Farbmodell.

Auflösung ist die Anzahl der Pixel pro Zoll (ppi – Pixel pro Zoll) zur Beschreibung der Anzeige auf dem Bildschirm oder dpi – Punkt pro Zoll zum Drucken von Bildern.

Größe ist die Gesamtzahl der Pixel in einem Bild, normalerweise in Megapixeln (Megapixel) gemessen. Dies ist nur das Ergebnis der Multiplikation der Anzahl der Pixel in der Höhe mit der Anzahl der Pixel in der Breite des Bildes.

Das Farbmodell ist ein Merkmal eines Bildes, das seine Darstellung anhand von Farbkanälen beschreibt.

Nachteile von Bitmap-Grafiken:

Rasterformat

Rasterbilder entstehen beim Scannen von mehrfarbigen Illustrationen und Fotografien sowie bei der Verwendung digitaler Foto- und Videokameras. Sie können eine Bitmap direkt auf Ihrem Computer mit einem Bitmap-Grafikeditor erstellen.

Eine Bitmap wird mit verschiedenfarbigen Punkten (Pixeln) erstellt, die Zeilen und Spalten bilden. Jedes Pixel kann jede Farbe aus einer Palette annehmen, die Zehntausende oder sogar Zehntausende von Farben enthält, sodass Bitmaps eine hohe Genauigkeit bei der Farb- und Halbtonwiedergabe bieten. Die Qualität der Bitmap nimmt mit zunehmender räumlicher Auflösung (der Anzahl der Pixel im Bild horizontal und vertikal) und der Anzahl der Farben in der Palette zu.

Vorteile von Rastergrafiken:

Die Fähigkeit, Bilder beliebiger Komplexität zu reproduzieren. Wie viele Details in einem Bild wiedergegeben werden, hängt stark von der Anzahl der Pixel ab.

Präzise Wiedergabe von Farbübergängen.

Das Vorhandensein vieler Programme zum Anzeigen und Bearbeiten von Rastergrafiken. Die überwiegende Mehrheit der Programme unterstützt die gleichen Rastergrafikdateiformate. Die Rasterdarstellung ist vielleicht die älteste Möglichkeit, digitale Bilder zu speichern.

Nachteile von Bitmap-Grafiken:

Große Dateigröße. Tatsächlich müssen Sie für jedes Pixel Informationen über seine Koordinaten und Farbe speichern.

Die Unmöglichkeit, das Bild ohne Qualitätsverlust zu skalieren (insbesondere zu vergrößern).

Vektorgrafiken- Dies sind Bilder, die mit mathematischen Formeln erstellt (oder besser beschrieben) wurden. Im Gegensatz zu Rastergrafiken, die nichts anderes als ein Array von farbigen Pixeln sind und Informationen für jeden von ihnen speichern, sind Vektorgrafiken ein Satz grafischer Grundelemente, die durch mathematische Formeln beschrieben werden.

Dank dieser Methode zur Darstellung von Grafikinformationen kann ein Vektorbild nicht nur nach unten und oben skaliert werden, sondern Sie können auch Grundelemente neu anordnen und ihre Form ändern, um völlig unterschiedliche Bilder aus denselben Objekten zu erstellen.

Vorteile von Vektorgrafiken:

Kleine Dateigröße mit relativ einfachen Bilddetails.

Unbegrenzte Skalierbarkeit ohne Qualitätsverlust.

Die Fähigkeit, sich zu bewegen, zu drehen, zu dehnen, zu gruppieren usw., ohne an Qualität zu verlieren.

Möglichkeit der Positionierung von Objekten entlang der Achse senkrecht zur Bildschirmebene (entlang der Z-Achse - "oben", "unten", "vor allem", "unter allen").

Die Fähigkeit, boolesche Transformationen an Objekten durchzuführen - Addition, Subtraktion, Schnittmenge, Addition.

Steuerung der Linienstärke bei jedem Abbildungsmaßstab.

Nachteile von Vektorgrafiken:

Große Dateigröße mit komplexen Bilddetails. (Es gibt Fälle, in denen die Größe eines Vektorbilds aufgrund der vielen kleinen komplexen Details viel größer ist als die Größe seiner Rasterkopie)

Schwierigkeiten bei der Übertragung eines fotorealistischen Bildes (folgt aus dem 1. Nachteil)

Kompatibilitätsprobleme von Programmen, die mit Vektorgrafiken arbeiten, während nicht alle Programme öffnen (oder korrekt anzeigen), selbst "allgemein akzeptierte" Formate (wie eps), die in anderen Editoren erstellt wurden.

Farbkonzept in Grafiken.

Farbe ist sowohl für die Physik als auch für die Physiologie ein äußerst schwieriges Problem, da sie sowohl psychophysiologischer als auch physikalischer Natur ist. Die Farbwahrnehmung hängt von den physikalischen Eigenschaften des Lichts, also der elektromagnetischen Energie, von seiner Wechselwirkung mit physikalischen Stoffen sowie von deren Interpretation durch das menschliche Sehsystem ab. Mit anderen Worten, die Farbe eines Objekts hängt nicht nur vom Objekt selbst ab, sondern auch von der Lichtquelle, die das Objekt beleuchtet, und vom menschlichen Sehsystem. Darüber hinaus reflektieren einige Objekte das Licht (Karton, Papier), während andere es durchlassen (Glas, Wasser). Wird eine Fläche, die nur blaues Licht reflektiert, mit rotem Licht beleuchtet, erscheint sie schwarz. Wenn eine grüne Lichtquelle durch Glas betrachtet wird, das nur rotes Licht durchlässt, erscheint sie ebenfalls schwarz.
In der Computergrafik werden zwei Systeme zum Mischen von Primärfarben verwendet: additiv - Rot, Grün, Blau (RGB) und subtraktiv - Cyan, Magenta, Gelb (CMY). Die Farben des einen Systems sind komplementär zu den Farben des anderen: Cyan zu Rot, Magenta zu Grün und Gelb zu Blau. Eine Komplementärfarbe ist der Unterschied zwischen Weiß und einer bestimmten Farbe.
Subtraktiv das CMY-Farbsystem wird für reflektierende Oberflächen wie Druckfarben, Folien und nicht leuchtende Bildschirme verwendet.
Zusatzstoff Das RGB-Farbsystem ist nützlich für beleuchtete Oberflächen wie CRT-Bildschirme oder Farblampen.

Zusatzstoff Farbe wird durch die Kombination von Licht verschiedener Farben erhalten. In diesem Schema ist das Fehlen aller Farben schwarz und das Vorhandensein aller Farben weiß. Planen Zusatzstoff Farben arbeitet mit emittiertem Licht, wie einem Computermonitor. Im Schema subtraktiv Farben findet der umgekehrte Vorgang statt. Hier wird eine Farbe durch Subtrahieren anderer Farben vom Gesamtlichtstrahl erhalten. In diesem Schema erscheint Weiß als Ergebnis des Fehlens aller Farben, während ihre Anwesenheit Schwarz ergibt. Planen subtraktiv Farben arbeitet mit reflektiertem Licht.

RGB-Farbsystem

Ein Computermonitor erzeugt Farbe direkt durch die Emission von Licht und verwendet ein RGB-Farbschema. Wenn Sie den Monitorbildschirm aus der Nähe betrachten, werden Sie feststellen, dass er aus den kleinsten roten, grünen und blauen Farbpunkten besteht. Der Computer kann die Lichtmenge steuern, die durch jeden farbigen Punkt emittiert wird, und durch die Kombination verschiedener Kombinationen beliebiger Farben kann er jede Farbe erzeugen. Aufgrund der Natur von Computermonitoren ist das RGB-Schema das beliebteste und am weitesten verbreitete, hat jedoch einen Nachteil: Computerzeichnungen müssen nicht immer nur auf dem Monitor vorhanden sein, manchmal müssen sie gedruckt werden, dann muss ein anderes Farbsystem verwendet werden verwendet werden - CMYK.

CMYK-Farbsystem

Dieses System war weithin bekannt, lange bevor Computer zum Erstellen von Grafiken verwendet wurden. Computer werden verwendet, um Bildfarben in CMYK-Farben zu trennen, und ihre speziellen Modelle wurden für den Druck entwickelt. Das Konvertieren von Farben von RGB in CMYK steht vor einer Reihe von Herausforderungen. Die Hauptschwierigkeit liegt darin, dass sich Farben in verschiedenen Systemen ändern können. Diese Systeme haben eine andere Art, Farben zu erhalten, und was wir auf dem Bildschirm von Monitoren sehen, kann beim Drucken nie genau wiederholt werden. Derzeit gibt es Programme, mit denen Sie direkt in CMYK-Farben arbeiten können. Vektorgrafikprogramme verfügen bereits über diese Fähigkeit, und Rastergrafikprogramme haben erst vor kurzem damit begonnen, Benutzern die Möglichkeit zu geben, mit CMYK-Farben zu arbeiten und das Aussehen einer Zeichnung beim Drucken präzise zu steuern.

PowerPoint Präsentation.

Das einfachste und gebräuchlichste elektronische Präsentationsformat ist die PowerPoint-Präsentation. Mit diesem Programm können Sie Audio- und Videodateien in Ihrer Präsentation verwenden und einfache Animationen erstellen. Der Hauptvorteil dieses Präsentationsformats ist die Möglichkeit, ohne besondere Kenntnisse und Fähigkeiten Änderungen an der Präsentation vorzunehmen und sie an unterschiedliche Zielgruppen und Zwecke anzupassen.

PDF-Präsentation

Eine andere Art der relativ einfachen Computerpräsentation ist eine PDF-Präsentation. Dies ist eine Variante eines elektronischen Katalogs, der sich bequem per E-Mail versenden, auf der Website veröffentlichen und auf einem Drucker ausdrucken lässt. Der Hauptvorteil der Präsentation im pdf-Format ist das geringe Gewicht, das den Versand der Datei per E-Mail einfach und unkompliziert macht. Die PDF-Präsentation ist statisch und für jeden Drucker und jedes Betriebssystem geeignet, was aber auch ein Nachteil ist.

Präsentationsvideo

Bei dieser Art der Präsentation weichen Computergrafiken und andere Animations-Spezialeffekte einem Live-Bild - einem Videobild. Diese Art der Präsentation gehört der Vergangenheit an und das liegt an den begrenzten Möglichkeiten von Video, also

wie üblich werden präsentationen, die länger als 5-7 minuten dauern, vom publikum nicht wahrgenommen, und während dieser zeit ist es nicht möglich, alle notwendigen informationen per video zu zeigen. Außerdem wird Video mit langweiligen Unternehmensfilmen und anderen langweiligen Formaten in Verbindung gebracht – das ist ein weiterer Nachteil dieser Präsentationsform. Der Hauptvorteil ist ein lebendiges, vertrauenswürdiges Bild.

Multimedia-Präsentation

Multimedia-Präsentationen sind in Bezug auf ihre Fähigkeiten die umfangreichste Präsentationsart. Mit diesem Präsentationsformat können Sie Ton, Videodateien, Animationen, dreidimensionale Objekte und beliebige andere Elemente ohne Qualitätseinbußen in Ihre Präsentation integrieren. Der wichtigste und unbestreitbare Vorteil von Multimedia-Präsentationen ist die Möglichkeit, praktisch jedes Format in sie zu integrieren - Power-Point-Präsentationen, PDF-Präsentationen und Video-Präsentationen.

Flash-Präsentation

Fast alle besten Multimedia-Präsentationen basieren auf Flash-Präsentationen. Flash-Präsentation ist eine Präsentation, die als einzelne Datei ohne Ordner und Austausch von Dokumenten erstellt wird, mit der Möglichkeit, die Präsentation beim Laden einer Disc mit der hellsten Animation automatisch auszuführen. Ein weiterer Vorteil einer flashbasierten Präsentation ist ihr relativ geringes Gewicht, das es ermöglicht, solche Präsentationen ins Internet zu stellen oder auf Minidisks zu spenden.

Die richtige Strukturierung der Präsentation erleichtert dem Publikum die Wahrnehmung der Informationen. Bei der Rede empfiehlt es sich, sich an die bekannte Regel der drei Teile zu halten: Einleitung – Hauptteil – Schluss. Auf die Rede folgt ein Frage-Antwort-Teil. So gibt es im Aufbau der Präsentation vier funktionale Teile, von denen jeder seine eigenen Aufgaben und Mittel hat: Lassen Sie uns auf die "Schock"-Teile der Präsentation aufmerksam machen - den Schluss und die Einleitung. Ja, genau in dieser Reihenfolge: Bei der Vorbereitung wird zuerst der Schlussteil geschrieben und erst dann der Einleitungsteil. Wieso den? Denn das Fazit ist der wichtigste Teil der Präsentation, an den sich das Publikum am meisten erinnern sollte. Der Inhalt der gesamten Präsentation sollte genau auf einen erfolgreichen Abschluss ausgerichtet sein. Fast immer treffen die Leute die endgültige Entscheidung zum Zeitpunkt des Endes der Präsentation. Erinnern Sie sich daher im letzten Teil noch einmal an die Hauptidee, konzentrieren Sie sich auf die wichtigsten Details, betonen Sie die Vorteile Ihres Vorschlags. Einleitung und Schluss sind die hellsten Momente der Präsentation, in denen jedes Wort durchdacht und abgewogen werden sollte.

PowerPoint-Fenster

Beim Start von PowerPoint wird eine leere Titelfolie erstellt und im Programmfenster angezeigt.

Wie in anderen Microsoft Office-Anwendungen befindet sich am oberen Rand des PowerPoint-Fensters die Titelleiste unterhalb des Hauptmenüs und der Symbolleisten.

Das Hauptmenü enthält ein Diashow-Element, das in anderen Anwendungsfenstern nicht vorhanden ist. Sie können eine Vorschau anzeigen, wie die Diashow ablaufen wird. Am unteren Rand des Fensters befindet sich die Statusleiste. Es zeigt erklärende Beschriftungen an: die Nummer der aktuellen Folie, die Anzahl der Folien, die Art der Präsentation.

Die Anzeigeoptionen von PowerPoint nach dem Start werden durch die Einstellungen bestimmt, die auf der Registerkarte Ansicht des Dialogfelds Optionen im Menü Extras vorgenommen werden. Auf dieser Registerkarte können Sie das Kontrollkästchen Startaufgabenseite aktivieren, um den Aufgabenbereich Erste Schritte auf der rechten Seite des Fensters anzuzeigen.

Folien können im Quer- oder Hochformat vorliegen. Um zwischen den Folien zu wechseln, können Sie die Bildlaufleiste oder die darauf befindlichen Schaltflächen verwenden: Nächste Folie und Vorherige Folie. Die PageUp- und PageDown-Tasten werden für die gleichen Zwecke verwendet. Im unteren linken Teil des Präsentationsfensters befinden sich Schaltflächen, mit denen Sie den Anzeigemodus Ihrer Präsentation ändern können.

Es gibt fünf Modi in PowerPoint, die leistungsstarke Optionen zum Erstellen, Erstellen und Präsentieren von Präsentationen bieten. In der Folienansicht können Sie mit einzelnen Folien arbeiten. Mit der Foliensortieransicht können Sie die Reihenfolge und den Status von Folien in Ihrer Präsentation ändern. Der Modus der Notizseiten ist für die Eingabe von Abstracts oder einer kurzen Zusammenfassung des Berichts vorgesehen. Im Anzeigemodus können Sie eine Demonstration der Präsentation auf einem Computer durchführen. In diesem Fall nehmen die Folien den gesamten Bildschirm ein. Die Umschaltung der Modi erfolgt über die Schaltflächen am unteren Rand des Präsentationsfensters.

Die Modi können auch über Menübefehle aufgerufen werden.

In Gliederungs- und Folienansichten können Sie Ihre Präsentationen verfeinern. In der Gliederungsansicht können alle Folien gleichzeitig angezeigt und bearbeitet werden, während Sie in der Folienansicht nur Anpassungen an der aktuellen Folie vornehmen können.

Die Foliensortieransicht bietet eine weitere Möglichkeit, mit Folien zu arbeiten, wenn die gesamte Präsentation als ein Satz Folien präsentiert wird, die in einer bestimmten Reihenfolge auf einer hellen Oberfläche angeordnet sind. In diesem Modus können Sie genau wie im Gliederungsmodus die Reihenfolge der Folien in Ihrer Präsentation ändern.


In diesem Artikel gehen wir kurz auf die Ansätze zum Verständnis der Informationstechnologie und die Geschichte ihrer Entwicklung ein. So, Informationstechnologie (eine gebräuchliche Abkürzung - IT, von "Englisch". Informationstechnologie, "IT") ist die breiteste Klasse von Disziplinen und Tätigkeitsbereichen im Zusammenhang mit Technologien zum Erstellen, Speichern, Verwalten und Verarbeiten von Daten, einschließlich des Einsatzes von Computertechnologie.
Auch wird IT am häufigsten als Computertechnologie verstanden, da es sich bei IT um den Einsatz von Computern und Software zur Erstellung, Speicherung, Verarbeitung, Beschränkung der Übertragung und des Empfangs von Informationen handelt. Darüber hinaus werden Computertechniker und Programmierer oft als IT-Spezialisten bezeichnet.

Laut UNESCO, ES- ist ein Komplex miteinander verbundener wissenschaftlicher, technologischer und ingenieurwissenschaftlicher Disziplinen, die Methoden zur effektiven Organisation der Arbeit von Personen untersuchen, die an der Verarbeitung und Speicherung von Informationen beteiligt sind; Computertechnologie und Methoden der Organisation und Interaktion mit Menschen und Produktionsanlagen, ihre praktischen Anwendungen sowie damit verbundene soziale, wirtschaftliche und kulturelle Probleme.
Im weiteren Sinne umfasst die IT alle Bereiche der Erzeugung, Übermittlung, Speicherung und Wahrnehmung von Informationen und nicht nur die Computertechnik. Dabei wird IT oft gerade mit Computertechnologie in Verbindung gebracht, und das kommt nicht von ungefähr: Das Aufkommen von Computern hat die IT auf eine neue Ebene gehoben, wie es einst das Fernsehen tat.

Entwicklungsgeschichte der Informationstechnologie

Die Geschichte der Informationstechnologie reicht weit zurück, bevor im 20. Jahrhundert die moderne Disziplin "Informatik" entstand. Angesichts der steigenden Bedürfnisse der Menschheit bei der Verarbeitung einer immer größeren Datenmenge wurden die Mittel zur Informationsgewinnung von den frühesten mechanischen Erfindungen bis hin zu modernen Computern verbessert. Auch im Rahmen der Informationstechnologie gibt es die Entwicklung verwandter mathematischer Theorien, die heute moderne Konzepte bilden. Konventionell lässt sich die Geschichte der IT-Entwicklung in die Entwicklung der Computertechnik und weiterer Software unterteilen, deren wesentliche Meilensteine ​​im Folgenden kurz dargestellt werden.

Die Entwicklung der Computertechnologie

Das früheste bekannte mechanische Analogon des Computers ist der Antikythera-Mechanismus. Es wurde entwickelt, um astronomische Positionen zu berechnen. Ein solcher Mechanismus wurde 1901 auf den Ruinen der griechischen Insel Antikythera zwischen Kythira und Kreta entdeckt und auf 100 v. Chr. datiert. NS. Technologische Artefakte dieser Komplexität tauchten erst im 14. Jahrhundert wieder auf, als in Europa die mechanische astronomische Uhr erfunden wurde.
Mechanische analoge Rechengeräte tauchten Hunderte von Jahren später in der mittelalterlichen islamischen Welt auf. Beispiele für Geräte aus dieser Zeit sind der mechanische Motor des Astrolabiums Abu Raikhan al-Biruni und das Torquetum Jabir ibn Aflah. Muslimische Ingenieure haben eine Reihe von Spielautomaten gebaut, darunter auch Musikautomaten, die "programmiert" werden können, um eine Vielzahl von Musikkompositionen abzuspielen.
Nachdem John Napier im frühen 17. 1623 entwickelte Wilhelm Schickard eine Rechenmaschine, gab das Projekt jedoch auf, als der von ihm begonnene Prototyp 1624 durch einen Brand zerstört wurde. Um 1640 baute Blaise Pascal, ein führender französischer Mathematiker, das erste mechanische Additionsgerät. Dann, 1672, erfand Gottfried Wilhelm Leibniz den Schrittrechner, den er 1694 zusammenstellte.
1837 beschrieb Charles Babbage seine erste analytische Maschine, die als die früheste Konstruktion des modernen Computers gilt. Die analytische Engine verfügte über einen erweiterbaren Speicher, eine arithmetische Einheit und logische Schaltungen mit der Fähigkeit, eine Programmiersprache mit Schleifen und bedingten Verzweigungen zu interpretieren. Obwohl nicht gebaut, wurde das Design gut studiert und spiegelte die Idee der Turing-Vollständigkeit wider. Die analytische Engine hätte weniger als 1 Kilobyte Speicher und eine Taktrate von weniger als 10 Hz. Um den ersten modernen Computer bauen zu können, bedurfte es noch einer bedeutenden Weiterentwicklung der Theorie der Mathematik und der Elektronik.
Nach den 1920er Jahren bezeichnet der Begriff Rechenmaschine jede Maschine, die die Arbeit eines menschlichen Computers verrichtet, insbesondere solche, die nach den effektiven Methoden der Church-Turing-These entwickelt wurden. Diese These lautet: „Jeder Algorithmus kann in Form einer entsprechenden Turingmaschine oder einer partiell rekursiven Definition spezifiziert werden, und die Klasse der berechenbaren Funktionen fällt mit der Klasse der partiell rekursiven Funktionen und mit der Klasse der auf Turingmaschinen berechenbaren Funktionen zusammen „Die Bezeichnung Rechenmaschine begann seit den 1940er Jahren den Begriff Computer zu verdrängen. Angefangen damit, dass Werte nicht mehr von physikalischen Eigenschaften abhängig waren (wie bei analogen Maschinen), konnte ein logischer Computer auf Basis digitaler Hardware alles tun, was durch ein rein mechanisches System beschrieben werden kann.
1937 präsentierte Alan Turing seine Idee einer sogenannten Turing-Maschine. Die theoretische Turingmaschine ist zu einem hypothetischen Gerät geworden, das theoretisiert wird, um die Eigenschaften solcher Geräte zu untersuchen. In Erwartung moderner Computer, die Programme speichern können, beschrieb er die sogenannte Universal Turing Machine.
1946 entstand ein Modell der Computerarchitektur, das als von Neumann-Architektur bekannt wurde. Das von Neumann-Modell sichert seit 1950 die Durchgängigkeit der Designs für nachfolgende Computer. Es galt als bahnbrechend, weil von Neumann eine Darstellung einführte, die es ermöglichte, Maschinenbefehle zu verwenden und Speicherbereiche zuzuweisen. Das Neumann-Modell besteht aus 3 Hauptteilen: einem Rechenwerk (ALU), einem Speicher (OP) und einer Speichersteuereinheit.

1941 entwickelte Konrad Zuse den weltweit ersten funktionsfähigen softwaregesteuerten Turing-Komplettrechner, den Z3. Zuse bemerkte, dass der Z2-Computer als der erste Computer mit einem kontrollierten Prozess gilt. 1941 gründete er eines der ersten Computerunternehmen zur Herstellung des Z4, des ersten kommerziellen Computers der Welt. 1946 entwickelte er die erste höhere Programmiersprache, Planckalkühl. 1944 wurde der berühmte Mark I, der erste amerikanische programmierbare Computer, auf den Markt gebracht. Aber die erste elektronische Rechenmaschine heißt meist ENIAC, deren Entwicklung unter der Leitung von John Mauchly und D. Eckert erfolgte und 1946 endete. Die ENIAC-Maschine wurde an der University of Pennsylvania installiert. Es bestand aus 18.000 Vakuumröhren und 1.500 Relais und verbrauchte etwa 150 kW Strom. Die Programmsteuerung des Arbeitsablaufes erfolgte über Steck- und Satzfelder, wie bei Rechen- und Analysemaschinen. Die Konfiguration des ENIAC für eine Aufgabe bedeutete, die 6.000-Draht-Verbindung manuell zu ändern. Am 2. Oktober 1955 wurde ENIAC gestoppt. Neben anderen bedeutenden Entwicklungen stellte IBM am 13. September 1956 die erste RAMAC-Festplatte mit einem Volumen von 5 Megabyte vor, am 12. September 1958 wurde die erste Mikroschaltung bei Texas Instruments (Jack Kilby und einer der Gründer von Intel , Robert Noyce, gelten als Erfinder der Mikroschaltung).

Am 7. April 1964 kündigte IBM die Entwicklung der System 360-Computerfamilie an, der ersten Serie skalierbarer Computer, die später zu einem Beispiel für einen offenen Standard wurde, bei dem ein Computerausrüstungshersteller Ausrüstung herstellen konnte, die mit der Ausrüstung eines anderen Herstellers kompatibel war ; Die weit verbreitete Einführung von System 360 etablierte de facto den 8-Bit-Byte-Standard und führte das hexadezimale Zahlensystem in die weit verbreitete Verwendung in der Programmierung ein. 1966 gründeten Robert Noyce und Gordon Moore die Intel Corporation. Dieses Unternehmen begann mit Speicher-Mikrochips, entwickelt sich aber allmählich zu einem Mikroprozessorunternehmen.
Beachten Sie, dass Computer in den 1950er und 60er Jahren aufgrund ihrer Größe und ihres Preises nur großen Unternehmen zur Verfügung standen. Im Wettbewerb um Umsatzsteigerung versuchten Computerfirmen, die Kosten und die Miniaturisierung ihrer Produkte zu reduzieren. Dafür wurden alle modernen Errungenschaften der Wissenschaft genutzt: Speicher auf Magnetkernen, Transistoren und schließlich Mikroschaltungen. Bis 1965 nahm der PDP-8-Minicomputer ein Volumen ein, das mit einem Haushaltskühlschrank vergleichbar war, die Kosten betrugen etwa 20.000 Dollar, außerdem gab es eine Tendenz zur weiteren Miniaturisierung.
Im Jahr 1974 begann MITS mit der Produktion des Altair 8800-Computers, von dem angenommen wird, dass er den Grundstein für alle Amateur-PCs gelegt hat. Einer der Gründe für den Erfolg dieses Computers war die Einfachheit seiner Architektur. 1975 gründete MOS Technology, Inc. begann mit der Produktion des Computers KIM-1, der für 245 US-Dollar eine benutzerfreundlichere Oberfläche hatte als der beliebte und teurere Altair 8800, was ihn bei Funkamateuren und Enthusiasten sehr beliebt machte.
1976 begann die handwerkliche Veröffentlichung des Apple I - eines Computers, der als Vorläufer für die Entwicklung eines der modernen Hersteller von Personalcomputern, Apple Computer, diente. Im Juni 1977 bot der erste massenproduzierte Apple II Benutzern eine integrierte Tastatur, Farbgrafik, Sound, ein Kunststoffgehäuse und acht Erweiterungssteckplätze.

Im August 1977 erschien der Tandy Radio Shack TRS-80, der erste Heimcomputer für weniger als 600 US-Dollar. Im Dezember 1977 erschien der Commodore PET - der erste Computer, dessen Lieferumfang eine Tastatur, einen Monitor und ein Magnetbandlaufwerk (ein spezielles proprietäres Tonbandgerät) enthielt. 1978 kam der Sinclair Mk14 für nur 39,95 £ in den Handel. Am 12. August 1981 präsentierte IBM der breiten Öffentlichkeit das erste Modell des Personalcomputers, den IBM PC 5150, der de facto zum Vorläufer moderner Personalcomputer auf Basis der Intel x86-Architektur wurde. 1981 begann der Verkauf des Commodore VIC-20. Zu Beginn des Verkaufs war es der billigste PC in den USA. Trotzdem kostet ein zeitgleich zum Verkaufsstart in Großbritannien erschienener ähnlicher Sinclair ZX81 nur 49,95 britische Pfund. Im April 1982 erschien der ZX Spectrum - der meistverkaufte englische Computer; half beim Aufbau der Softwareindustrie im Vereinigten Königreich. Insbesondere für Verdienste um die Entwicklung der Gesellschaft (nicht nur die Herstellung von Computern) wurde dem Gründer von Sinclair Research, Sir Clive Sinclair, der niedrigste Adelstitel „Knight of the Royal Order“ verliehen. Im August 1982 begann der Verkauf des Commodore 64 - er wurde mit mehr als 20 Millionen verkauften Einheiten zum meistverkauften Computer aller Zeiten. 1983 wurde der MSX-Standard für Verbrauchercomputerarchitekturen entwickelt; Computer dieses Standards wurden von verschiedenen Firmen, hauptsächlich in Japan, hergestellt.

1983 wurde der IBM PC durch den IBM PC / XT ersetzt, der eine Festplatte enthielt. Im März 1983 begann Compaq mit dem Verkauf des Compaq Portable, des ersten Laptops und des ersten Klons der IBM PC-Serie. Im Januar 1984 ist der erste erfolgreiche kommerziell erhältliche Personal Computer mit einer Maus und einer vollgrafischen Oberfläche, genannt Apple Macintosh, der erste erfolgreiche Computer, der die Ideen des Xerox Alto im industriellen Maßstab umsetzt. Am 3. April 1986 wurde das erste IBM PC Convertible von IBM veröffentlicht.
Die Weiterentwicklung der Computertechnik und Software in den 1900er und 2000er Jahren verlief sprunghaft und ist mit einer deutlichen Steigerung der Rechenleistung, der Speicherung und Verarbeitung von Informationen, einer Vielzahl multimedialer Aufgaben zur Erstellung und Verarbeitung von Audio- und Videoinformationen verbunden .

Software-Entwicklung

1964 starteten Bell Labs zusammen mit General Electric und Forschern des Massachusetts Institute of Technology das Multics OS-Projekt. Aufgrund von Problemen mit der Organisation der Benutzeroberfläche wurde das Projekt bald geschlossen. Ken Thompson und Brian Kernighan begannen 1969 mit der Verbesserung und nannten sie später einen ähnlichen Namen - UNICS. Nach einer Weile wurde der Name auf UNIX verkürzt. Das Betriebssystem wurde in Assembler geschrieben. Im November 1971 wurde die erste Ausgabe von UNIX veröffentlicht. Die erste kommerzielle Version von UNIX SYSTEM III (basierend auf der siebten Version des Systems) wurde 1982 veröffentlicht.

Die IBM Corporation beauftragte Microsoft mit der Arbeit am Betriebssystem für neue Modelle von IBM-PC-Personalcomputern. Ende 1981 wurde die erste Version des neuen Betriebssystems PC DOS 1.0 veröffentlicht. Außerdem wurde PC-DOS nur in IBM-Computern verwendet, und Microsoft erhielt seine eigene Modifikation von MS-DOS. 1982 erschienen PC-DOS und MS-DOS Version 1.1 gleichzeitig mit einigen hinzugefügten und erweiterten Funktionen. Später wurden diese Betriebssysteme kombiniert und bis zur sechsten Version unterschieden sie sich kaum. Die in MS-DOS niedergelegten Prinzipien wurden später in weiteren Betriebssystemen von Microsoft verwendet.
Die erste Version von Mac OS wurde 1984 zusammen mit dem ersten Macintosh-Personalcomputer von Apple veröffentlicht. Durch die Kombination bestehender Ideen und eigener Ideen schufen Apple-Programmierer das Mac OS, das erste Grafik-Betriebssystem. Am 24. März 2000 stellte der neue CEO von Apple, Steve Jobs, Mac OS X 10.0 vor, das sehr stabil und im Gegensatz zu seinem Vorgänger Mac OS 9 ist.
Das erste Windows, das 1982 veröffentlicht wurde, unterschied sich von seinen Zeitgenossen zum einen in der grafischen Oberfläche (damals hatte das nur Mac OS) sowie der Möglichkeit, mehrere Programme gleichzeitig auszuführen und zwischen ihnen umzuschalten. Im November 1985 wurde Windows 1.0 veröffentlicht, dann gab es die Versionen 2.0, 3.0, Windows NT 3.5, in die die Unterstützung für ein lokales Netzwerk auf Systemebene eingebaut wurde. 24. August 1995 - das Datum der offiziellen Veröffentlichung von Windows 95. Etwas später wurde das neue Windows NT veröffentlicht. Während Windows 95 eher für Consumer-Computer gedacht war, wurde NT eher in einer Unternehmensumgebung eingesetzt. 1998 kam Windows 98 mit integriertem Internet Explorer 4.0 und Outlook heraus, mit der Möglichkeit, auf dem Desktop eine Webseite (genannt Active Desktop) und aktive Feeds zu installieren, die die Vorläufer des modernen RSS waren. Am gebräuchlichsten sind derzeit Windows XP, 7 und 8.
Auch mobile Betriebssysteme werden immer beliebter. Dies sind die Betriebssysteme, die auf Smartphones, Tablets oder anderen digitalen Mobilgeräten ausgeführt werden. Moderne mobile Betriebssysteme kombinieren die Funktionen eines PC-Betriebssystems mit Funktionen wie Touchscreen, Mobilfunk, Bluetooth, Wi-Fi, GPS-Navigation, Kamera, Videokamera, Spracherkennung, Diktiergerät, MP3-Player, NFC. Die gängigsten mobilen Betriebssysteme sind Android, iOS, Windows Phone, Firefox OS, Tizen.

Im nächsten Artikel werden die Eigenschaften und Anwendungsgebiete moderner Informationstechnologien näher beleuchtet.

Der Begriff " Informationstechnologie„Erschien Ende der 1970er Jahre. und wurde zu Informationsverarbeitungstechnologie. Computer haben die Art und Weise, wie wir mit Informationen arbeiten, verändert und die Reaktionsfähigkeit und Effizienz des Managements erhöht, aber gleichzeitig hat die Computerrevolution ernsthafte soziale Probleme der Informationsanfälligkeit geschaffen. In der Wirtschaft besteht der Einsatz eines Computers in der Identifizierung von Problemsituationen, deren Klassifizierung und dem Einsatz von Hard- und Software zu deren Lösung, die sog. Technologien- Handlungsregeln mit beliebigen allgemeinen Mitteln für eine ganze Reihe von Aufgaben oder Aufgabensituationen.

Der Einsatz von Computertechnologie ermöglicht es dem Unternehmen, durch die Verwendung grundlegender Computerkonzepte einen Wettbewerbsvorteil auf dem Markt zu erzielen:

· Steigerung der Effizienz und Effizienz der Arbeit durch den Einsatz von technologischen, elektronischen, instrumentellen und Kommunikationsmitteln;

· Maximierung der individuellen Effizienz durch Ansammlung von Informationen und Nutzung von Zugangswegen zu Datenbanken;

· Erhöhung der Zuverlässigkeit und Geschwindigkeit der Informationsverarbeitung durch Informationstechnologien;

· Sie verfügen über eine technologische Basis für spezialisierte Teamarbeit.

Das Informationszeitalter begann in den 1950er Jahren mit der Einführung des ersten Allzweckcomputers für den kommerziellen Einsatz. UNIVAC die Berechnungen in Millisekunden durchführte. Die Suche nach einem Mechanismus für das Rechnen begann vor vielen Jahrhunderten. Abakus - eines der ersten mechanischen Rechengeräte vor fünftausend Jahren, wurde unabhängig und fast gleichzeitig im antiken Griechenland, im antiken Rom, in China, Japan und Russland erfunden. Abacus ist der Vorfahr der digitalen Geräte.

Historisch hat sich die Entwicklung von zwei Entwicklungsrichtungen der Computer- und Computertechnologie entwickelt: analog und digital. Analoge Richtung basierend auf der Berechnung eines unbekannten physikalischen Objekts (Prozess) analog zum Modell eines bekannten Objekts (Prozess). Der Begründer der analogen Richtung ist der schottische Baron John Napier, der Funktionen theoretisch begründete und eine praktische Algorithmentabelle entwickelte, die die Durchführung von Multiplikations- und Divisionsoperationen vereinfachte. Wenig später stellte der Engländer Henry Briggs eine Tabelle mit dezimalen Logarithmen zusammen.

1623 erfand William Oughtred den rechteckigen Rechenschieber und 1630 erfand Richard Delamaine den kreisförmigen Rechenschieber, 1775 fügte John Robertson dem Lineal einen Schieber hinzu, 1851-1854. Der Franzose Amedey Manheim änderte das Design der Linie auf einen fast modernen Look. In der Mitte des IX Jahrhunderts. Geräte wurden erstellt: ein Planimeter (zur Berechnung der Fläche von flachen Figuren), ein Krümmungsmesser (Bestimmung der Länge von Kurven), ein Differenzierer, ein Integrator, ein integrierter Graph (um grafische Ergebnisse der Integration zu erhalten) und andere Geräte.



Die digitale Richtung in der Entwicklung der Computertechnologie erwies sich als vielversprechender. Zu Beginn des 16. Jahrhunderts. Leonardo da Vinci erstellte eine Skizze eines 13-Bit-Addierers mit Zehnzahnringen (der Prototyp eines Arbeitsgeräts wurde erst im 20. Jahrhundert gebaut). 1623 beschrieb Professor Wilhelm Schickard das Gerät einer Rechenmaschine. 1642 entwickelte und baute der französische Mathematiker und Philosoph Blaise Pascal (1623-1662) ein Rechengerät. Pascaline„Um seinem Vater zu helfen – einem Steuereintreiber. Diese Bauform des Zählrades wurde bis 1960 in allen mechanischen Rechenmaschinen verwendet, als sie mit dem Aufkommen elektronischer Rechenmaschinen nicht mehr verwendet wurden.

1673 erfand der deutsche Philosoph und Mathematiker Gottfried Wilhelm Leibniz einen mechanischen Taschenrechner, der grundlegende arithmetische Operationen im binären Zahlensystem ausführen kann. 1727 schuf Jacob Leopold auf der Grundlage des Leibniz-Binärsystems eine Rechenmaschine. 1723 schuf ein deutscher Mathematiker und Astronom eine Rechenmaschine, die beim Multiplizieren von Zahlen den Quotienten und die Anzahl der aufeinanderfolgenden Additionen ermittelt und die Richtigkeit der Dateneingabe überwacht.

1896 gründete Hollerith eine Firma für tabellarische Rechenmaschinen. Tabelliermaschinenhersteller, das 1911 mit mehreren anderen Unternehmen fusionierte, und 1924 änderte General Manager Thomas Watson seinen Namen in International Business Machine Corporation (IBM). Den Beginn der modernen Computergeschichte markiert 1941 die Erfindung des Z3-Computers (programmgesteuerte elektrische Relais) durch den deutschen Ingenieur Konrad Zuse und die Erfindung des einfachsten Computers durch John W. Atanasoff, Professor an der University of Iowa . Beide Systeme nutzten die Prinzipien moderner Computer und basierten auf dem binären Zahlensystem.

Die Hauptkomponenten der Computer der ersten Generation waren Vakuumröhren, Speichersysteme wurden auf Quecksilberverzögerungsleitungen, Magnettrommeln und Williams-Kathodenstrahlröhren gebaut. Die Dateneingabe erfolgte über Lochstreifen, Lochkarten und Magnetbänder mit hinterlegten Programmen. Gebrauchte Druckgeräte. Die Leistung von Computern der ersten Generation überstieg 20.000 Operationen pro Sekunde nicht. Bis Mitte der 50er Jahre wurden Lampenmaschinen im industriellen Maßstab hergestellt.

1948 erfanden Walter Brattain und John Bardeen in den USA den Transistor, 1954 verwendete Gordon Teale Silizium zur Herstellung des Transistors. Seit 1955 werden Computer auf Transistoren hergestellt. 1958 wurde der integrierte Schaltkreis von Jack Kilby erfunden und der industrielle integrierte Schaltkreis ( Chip). 1968 gründete Robert Noyce das Unternehmen Intel (Integrierte Elektronik). Computer auf integrierten Schaltkreisen wurden 1960 hergestellt. Computer der zweiten Generation wurden kompakt, zuverlässig, schnell (bis zu 500.000 Operationen pro Sekunde), Funktionsgeräte für die Arbeit mit Magnetbändern und Speicher auf Magnetplatten wurden verbessert.

1964 wurden Computer der dritten Generation mit elektronischen Schaltungen niedriger und mittlerer Integration (bis zu 1000 Komponenten pro Chip) entwickelt. Beispiel: IBM 360(USA, Firma IBM), EU 1030, EU 1060(DIE UDSSR). In den späten 60er Jahren. XX Jahrhundert erschien 1971 Minicomputer - ein Mikroprozessor. 1974 wurde das Unternehmen Intel brachte den ersten weithin bekannten Mikroprozessor heraus Intel 8008, 1974 - Mikroprozessor der 2. Generation Intel 8080.

Seit Mitte der 1970er Jahre. XX Jahrhundert Computer der 4. Generation wurden entwickelt. Sie basierten auf großen und sehr großen integrierten Schaltkreisen (bis zu einer Million Komponenten pro Chip) und Hochmit Kapazitäten von mehreren Megabyte. Beim Einschalten fand ein Selbstladen statt, beim Ausschalten wurden die RAM-Daten auf die Platte übertragen. Die Leistung von Computern beträgt Hunderte von Millionen Operationen pro Sekunde. Die ersten Computer wurden von der Firma hergestellt Amdahl Corporation.

Mitte der 70er Jahre. XX Jahrhundert die ersten industriellen Personalcomputer erschienen. Der erste industrielle Personal Computer wurde 1975 entwickelt Altair Mikroprozessor basiert Intel 8080... Im August 1981 wurde das Unternehmen IBM einen Computer veröffentlicht IBM-PC Mikroprozessor basiert Intel 8088 die schnell an Popularität gewann.

Seit 1982 werden Computer der V-Generation entwickelt, die sich auf die Wissensverarbeitung konzentrieren. 1984 wurde das Unternehmen Microsoft präsentierte die ersten Beispiele des Betriebssystems Fenster, im März 1989 schlug Tim Berners-Lee, Mitarbeiter des International European Center, die Idee vor, ein verteiltes Informationssystem zu schaffen Weltweites Netz, das Projekt wurde 1990 angenommen.

Ähnlich wie die Entwicklung von Hardware wird auch die Softwareentwicklung in Generationen eingeteilt. Die Software der ersten Generation war eine grundlegende Programmiersprache, die nur Computerspezialisten kannten. Software der Generation II zeichnet sich durch die Entwicklung problemorientierter Sprachen wie z Fortran, Cobol, Algol-60.

Einsatz von interaktiven Betriebssystemen, Datenbankmanagementsystemen und strukturierten Programmiersprachen wie z Pascal, gehört zur Software der 3. Generation. Die Software der Generation IV umfasst verteilte Systeme: lokale und globale Netzwerke von Computersystemen, fortschrittliche grafische und Benutzerschnittstellen und eine integrierte Programmierumgebung. Software der Generation V zeichnet sich durch Wissensverarbeitung und parallele Programmierschritte aus.

Der Einsatz von Computern und Informationssystemen, deren Industrie in den 1950er Jahren begann, ist das wichtigste Mittel zur Steigerung der Wettbewerbsfähigkeit durch folgende Hauptvorteile:

· Verbesserung und Ausbau des Kundenservices;

· Steigerung der Effizienz durch Zeitersparnis;

· Erhöhung von Last und Durchsatz;

· Verbesserung der Genauigkeit von Informationen und Reduzierung von durch Fehler verursachten Verlusten;

· Erhöhung des Ansehens der Organisation;

· Steigerung der Unternehmensgewinne;

· Gewährleistung der Möglichkeit, zuverlässige Informationen in Echtzeit im iterativen Modus zu erhalten und Abfragen zu organisieren;

· Die Nutzung zuverlässiger Informationen durch den Manager für Planung, Management und Entscheidungsfindung.

Verwendete Abkürzungen IT - Informationstechnik

IR - Informationsquellen

1) Das Konzept der "Informationstechnologie"

Bücher sind bekanntlich Datenspeicher. Sie sind so konzipiert, dass sie Informationen durch Lesen erhalten. Aber wenn man verschiedene Bücher durch Anfassen oder Geschmack probiert, kann man sich auch informieren. Solche Methoden werden es ermöglichen, zwischen Büchern aus Leder, Pappe und Papiereinbänden zu unterscheiden. Dies sind natürlich nicht die Methoden, die von den Autoren der Bücher vorgeschlagen wurden, aber sie geben auch Informationen, wenn auch nicht vollständig.

Information ist neben traditionellen materiellen Ressourcen wie Öl, Gas, Mineralien usw. eine der wertvollsten Ressourcen der Gesellschaft. Daher kann der Prozess der Informationsverarbeitung in Analogie zum Prozess der Verarbeitung materieller Ressourcen als Technologie wahrgenommen werden .

Informationsressourcenwird als eine Menge von Daten bezeichnet, die für ein Unternehmen (eine Organisation) wertvoll sind und als materielle Ressourcen dienen.Informationsressourcen umfassen Texte, Wissen, Dateien usw.

Informationstechnologieist eine Reihe von Methoden, Produktionsprozessen sowie Software und Hardware, die in einer technologischen Kette vereint sind und die Sammlung, Speicherung, Verarbeitung, Ausgabe und Verbreitung von Informationen ermöglichen, um die Arbeitsintensität der Prozesse der Nutzung von Informationsressourcen zu reduzieren, ihre Zuverlässigkeit und Effizienz zu erhöhen .

Gemäß der Definition der UNESCO ist die Informationstechnologie eine Reihe miteinander verbundener wissenschaftlicher, technologischer und ingenieurwissenschaftlicher Disziplinen, die Methoden zur effektiven Organisation der Arbeit von Personen untersuchen, die an der Verarbeitung und Speicherung von Informationen beteiligt sind, sowie die Computertechnologie und Methoden der Organisation und Interaktion mit Menschen und Produktionsmitteln. ...

Es gibt drei Klassen von Informationstechnologien, die es Ihnen ermöglichen, mit verschiedenen Arten von Themenbereichen zu arbeiten:

1) Globale Informationstechnologien,die Modelle, Methoden und Werkzeuge umfassen, die die Nutzung von Informationsressourcen der Gesellschaft insgesamt formalisieren und ermöglichen;

2) Grundlegende Informationstechnologiedie für einen bestimmten Anwendungsbereich bestimmt sind;

3) Spezifische Informationstechnologie,die die Verarbeitung spezifischer Daten bei der Lösung spezifischer funktionaler Aufgaben des Benutzers (z. B. Aufgaben der Planung, Buchhaltung, Analyse usw.) implementieren.

Der Hauptzweck der Informationstechnologiebesteht in der Gewinnung und Verarbeitung von Informationen für deren spätere Analyse durch eine Person und das Treffen der optimalen Entscheidung über die Durchführung einer Handlung auf der Grundlage der Analyse.

2) Entwicklungsgeschichte der Informationstechnologie

ICH. Bis in die zweite Hälfte des 19. Jahrhunderts war die Basis der Informationstechnologie ein Stift, ein Tintenfass und ein Hauptbuch. Die Kommunikation (Kommunikation) erfolgt durch das Senden von Paketen (Dispatches). Die Produktivität der Informationsverarbeitung war extrem niedrig, jeder Brief wurde einzeln manuell kopiert, außer der manuell aufsummierten Abrechnung gab es keine weiteren Informationen zur Entscheidungsfindung.

Der Anfang des 16. Jahrhunderts - Leonardo da Vinci entwarf einen Dreißig-Bit-Addierer mit Zehnzahnringen.

1723g - es. Der Wissenschaftler Christian Ludwig Gesten hat eine Rechenmaschine entwickelt.

1751 gr. - Der Franzose Perera erfand eine kompaktere Rechenmaschine.

1820 - die erste industrielle Produktion von digitalen Rechenmaschinen-Addiermaschinen.

1822 - Englisch. Der Mathematiker Charles Babbage hat eine softwaregesteuerte Rechenmaschine entwickelt.

II. Ende des 19. Jahrhunderts wurde die „manuelle“ Informationstechnik durch die „mechanische“ ersetzt. Die Erfindung der Schreibmaschine, des Telefons, des Diktiergeräts, die Modernisierung des öffentlichen Postwesens - all dies war die Grundlage für grundlegende Veränderungen in der Informationsverarbeitungstechnik und damit in der Arbeitsproduktivität.Im Wesentlichen ebnete die "mechanische" Technologie den Weg für die Organisationsstruktur bestehender Institutionen.

Anfang 20. Jahrhundert - es gab eine Rechenmaschine mit Tasten zum Eingeben von Zahlen.

III. Die 40er - 60er Jahre des 20. Jahrhunderts sind durch das Aufkommen der "elektrischen" Technologie basierend auf dem Einsatz von elektrischen Schreibmaschinen gekennzeichnetmit abnehmbaren Elementen, Kopierer auf Normalpapier, tragbare Diktiergeräte. Sie haben den Bürobetrieb verbessert, indem sie die Qualität, Quantität und Geschwindigkeit der Verarbeitung von Dokumenten verbessert haben.

1937-1943. - ein Computer basierend auf elektromagnetischen Relais - "Mark 1".

1947 - Mark 2.

1943 - unter der Leitung von John Mauchly und Prosper Eckert, dem Mathematiker John von Neumann, wurde die Röhrenrechenmaschine erfunden.

1948 - Der Transistor wird erfunden.

1955 - begann mit der Herstellung von Computern auf Transistoren.

1958 - Der erste integrierte Schaltkreis wurde erfunden.

1959 - Lösungen zur Erstellung eines Mikroprozessors wurden entwickelt.

NS. Das Aufkommen großer produktiver Computer in der zweiten Hälfte der 60er Jahre an der Peripherie von Bürotätigkeiten (in Rechenzentren) ermöglichte es, den Schwerpunkt in der Informationstechnologie auf die Verarbeitung nicht der Form, sondern des Inhalts von Informationen zu mischen.Dies war der Beginn der Bildung der "elektronischen" oder "Computer"-Technologie. Wie Sie wissen, sollte die Imindestens die 3 wichtigsten Komponenten der Informationsverarbeitung enthalten: Buchhaltung, Analyse und Entscheidungsfindung. Diese Komponenten werden in einer "viskosen" Umgebung implementiert - einem Papier-"Meer" von Dokumenten, das jedes Jahr größer wird.

1964 - Es wurde ein Computer der 3. Generation unter Verwendung elektronischer Schaltungen entwickelt.

Die in den 60er Jahren entstandenen Konzepte zum Einsatz von automatisierten Kontrollsystemen (ACS) erfüllen nicht immer und nicht in vollem Umfang die Aufgabe, das Management und die optimale Umsetzung der informationstechnischen Komponenten (Rechnungswesen, Analyse, Entscheidungsfindung) zu verbessern.Methodisch basieren diese Konzepte oft auf Vorstellungen über die unbegrenzten Möglichkeiten der „Knopf-Informationstechnik“ mit einer stetigen Steigerung der Rechenleistung von ACS-Systemen unter Verwendung allgemeinster Simulationsmodelle, die teilweise weit von der realen Betriebssteuerung entfernt sind Mechanismus.

Der Name „automatisiertes Steuerungssystem“ spiegelt die Funktionen, die solche Systeme erfüllen, nicht ganz richtig wieder, bzw. würde es „automatisierte Steuerungen“ (ACS) heißen, da in bestehenden ACS der Begriff „System“ nicht das entscheidende Glied enthält der Kontrolle - der Benutzer. Diesen grundlegenden Umstand außer Acht zu lassen, führte offenbar dazu, dass der Ausbau des ACS-Netzes und die Leistungssteigerung ihrer Rechenanlagen dank umfangreicher Primärdaten zu einer Verbesserung der Hauptfunktionen des Rechnungswesens (Referenz, Statistik , Verfolgung). Rechnungslegungsfunktionen spiegeln jedoch nur den vergangenen Zustand des Kontrollobjekts wider und erlauben keine Einschätzung der Aussichten für seine Entwicklung, d.h. eine geringe Dynamik haben. Bei anderen Komponenten der Steuerungstechnik zeigte die Leistungssteigerung des ACS keinen spürbaren Effekt. Das Fehlen ausgebauter Kommunikationsverbindungen der Benutzerarbeitsplätze mit dem Zentralrechner, der für die meisten ACS typische Batch-Modus der Datenverarbeitung, die geringe analoge Unterstützung - all dies bietet eigentlich keine hohe Analysequalität durch die Benutzer von statistischen Berichtsdaten und die gesamte interaktive Ebene analytischer Arbeit. Somit ist die Wirksamkeit von ACS auf den unteren Stufen der Managementleiter, d.h. genau dort, wo Informationsflüsse gebildet werden, sinkt sie aufgrund der erheblichen Redundanz der eingehenden Informationen ohne Datenaggregationsmittel erheblich. Aus diesem Grund nimmt trotz der Einführung eines zusätzlichen ACS-Systems die Zahl der Mitarbeiter im Rechnungswesen jedes Jahr zu: Heute sind ein Sechstel aller Mitarbeiter des Verwaltungsapparates Rechnungswesen.

V. 1975 - prozessorbasiert Intel 8080 schuf den ersten Massen-PC - Altair.

Seit den 70er Jahren hat sich eine Tendenz gebildet, den Schwerpunkt der Entwicklung von ACS auf die grundlegenden Komponenten der Informationstechnologie (insbesondere auf analytische Arbeiten) unter maximaler Nutzung von Mensch-Maschine-Verfahren zu verlagern. All diese Arbeiten wurden aber nach wie vor auf leistungsstarken Rechnern durchgeführt, die zentral in Rechenzentren untergebracht sind.Gleichzeitig basiert der Aufbau solcher automatisierter Steuerungssysteme auf der Hypothese, dass die Analyse- und Entscheidungsprobleme zur Klasse der formalisierbaren, mathematischen Modellierung zugänglichen gehören. Es wurde davon ausgegangen, dass ein solches ACS die Qualität, Vollständigkeit, Authentizität und Aktualität der Informationsunterstützung für Entscheidungsträger verbessern soll, deren Arbeitseffizienz durch die Zunahme der Anzahl der analysierten Aufgaben erhöht wird.

aber Die Einführung solcher Systeme hat zu sehr ernüchternden Ergebnissen geführt. Es zeigte sich, dass die angewandten ökonomischen und mathematischen Modelle nur begrenzte praktische Anwendungsmöglichkeiten haben: Analytische Arbeit und Entscheidungsfindung erfolgen losgelöst von der realen Situation und werden nicht durch den informationellen Bildungsprozess unterstützt. Für jede neue Aufgabe wird ein neues Modell benötigt, und da das Modell von Spezialisten für wirtschaftswissenschaftliche und mathematische Methoden erstellt wurde und nicht vom Anwender, erfolgt die Entscheidungsfindung wie in Echtzeit und der kreative Beitrag der Der Benutzer selbst geht verloren, insbesondere bei der Lösung atypischer Managementprobleme. Gleichzeitig wird das in Rechenzentren konzentrierte Rechenpotenzial der Steuerung durch den ineffektiven Betrieb der unteren Stufen und die Notwendigkeit einer ständigen Umwandlung von Informationen von anderen Mitteln und Technologien der Informationsverarbeitung getrennt. Es verringert auch die Effektivität der Informationstechnologie bei der Lösung von Problemen auf den obersten Stufen der Managementleiter. Darüber hinaus zeichnet sich die Organisationsstruktur der technischen Mittel, die sich im automatisierten Steuerungssystem entwickelt hat, durch einen niedrigen Nutzungskoeffizienten, erhebliche (nicht immer durchgeführte) Zeiträume für die Entwicklung automatisierter Systeme und ihre geringe Rentabilität aufgrund der schwachen Auswirkungen der Automatisierungsergebnisse aus auf die Effizienz des Managements.

Vi. August 1984 - Der IBM-PC erschien.

Mit dem Aufkommen von Personal Computern auf dem „Kamm der Mikroprozessor-Revolution“ wird die Idee automatisierter Steuerungssysteme grundlegend modernisiert: von Rechenzentren und zentraler Steuerung hin zu verteiltem Rechenpotenzial, wodurch die Homogenität der Informationsverarbeitungstechnik erhöht und die Steuerung dezentralisiert wird.Dieser Ansatz hat seine Verkörperung in Entscheidungsunterstützungssystemen (DSS) und Expertensystemen (ES) gefunden, die im Wesentlichen eine neue Stufe der Computerisierung der Orkennzeichnen - die Stufe der Personalisierung von ACS. Konsistenz ist das Hauptmerkmal von DSS und die Erkenntnis, dass der leistungsstärkste Computer eine Person nicht ersetzen kann. Die Rede ist in diesem Fall von einer strukturellen Mensch-Maschine-Steuerung, die in den Arbeitsabläufen optimiert ist: Die Fähigkeiten des Computers werden durch die Strukturierung der Aufgaben durch den Benutzer und die Auffüllung seiner Wissensbasis erweitert, und die Fähigkeiten des Benutzers - aufgrund der Automatisierung von Aufgaben, die bisher aus wirtschaftlichen oder technischen Gründen nicht auf Computer übertragen werden konnten. Es wird möglich, die Konsequenzen verschiedener Entscheidungen zu analysieren und Antworten auf Fragen wie „Was passiert, wenn …?“ zu erhalten, ohne Zeit mit dem mühsamen Programmierprozess zu verschwenden.

Der wichtigste Aspekt bei der Implementierung von DSS und ES¾ Rationalisierung der täglichen Aktivitäten von Führungskräften. Durch deren Umsetzung auf den unteren Führungsebenen wird das gesamte Management-Fundament deutlich gestärkt, die Belastung der zentralen Rechensysteme und der oberen Führungsebenen reduziert, so dass sie sich auf die Lösung großer langfristiger strategischer Aufgaben konzentrieren können .Natürlich sollte die DSS-Computertechnologie nicht nur Personalcomputer, sondern auch andere moderne Mittel der Informationsverarbeitung verwenden.

Das DSS-Konzept erfordert eine Überarbeitung der bestehenden Ansätze zur Steuerung von Arbeitsabläufen in einer Institution. Im Wesentlichen wird auf der Grundlage des DSS eine neue Mensch-Maschine-Arbeitseinheit mit Arbeitsqualifikationen, deren Rationierung und Entlohnung gebildet. Es sammelt das Wissen und die Fähigkeiten einer bestimmten Person (Benutzer eines DSS) mit integrierten Kenntnissen und Fähigkeiten, die in einen PC eingebettet sind.

1990 - ein Datenbanksystem wird erstellt Internet.

Zur Entwicklung der Informationstechnologie mit Hilfe von Computern gibt es mehrere Standpunkte, die durch unterschiedliche Aufteilungsmerkmale bestimmt sind.

Allen im Folgenden skizzierten Ansätzen ist gemeinsam, dass mit dem Aufkommen des Personal Computers eine neue Etappe in der Entwicklung der Informationstechnologie begann. Das Hauptziel besteht darin, den persönlichen Informationsbedarf einer Person sowohl für den beruflichen Bereich als auch für den Haushalt zu decken.

Die Hauptzeichen der Teilung der Informationstechnologie sind in Abbildung (1) dargestellt.

Es ist notwendig, zwischen der Geschichte der IT und der IT zu unterscheiden

3) Moderne Arten von Formationstechnologien

Wenden wir uns der allgemeinen Definition von Technologie zu: einer Reihe von Methoden, Methoden zur Beeinflussung von Rohstoffen, Materialien usw. geeignete Produktionsinstrumente im Prozess der Schaffung materieller und spiritueller Werte. „Rohstoff“ im Fall der Informationstechnologie sind zweifellos Informationen. Und die Methoden und Wege, mit denen wir Informationen verarbeiten, speichern und übermitteln, sind sehr vielfältig.

Es gibt unterschiedliche Definitionen des Begriffs „Informationstechnologie“. Neue Informationstechnologien (NIT) werden als Gesamtheit von Methoden und Mitteln zur Automatisierung von Informationsaktivitäten im wissenschaftlichen, sozialen, industriellen, Bildungs-, Haushalts-, Organisations- und Büromanagement verstanden. Laut J. Wellington sind "Informationstechnologien Systeme zur Erzeugung, Übertragung, Auswahl, Umwandlung und Nutzung von Informationen in Form von Ton, Text, grafischen Bildern und digitalen Informationen. Diese Systeme basieren auf Computer- und Telekommunikationstechnologien (basierend auf Mikroelektronik), die wiederum in Verbindung mit anderen Arten von Technologien verwendet werden kann, um den Endeffekt zu verbessern.

Eine informationskultivierte, gebildete Person sollte in der Lage sein, zu erkennen, wann Informationen benötigt werden, sollte in der Lage sein, die erhaltenen Informationen zu finden, zu bewerten und effektiv zu nutzen, und in der Lage sein, mit traditionellen und automatisierten Mitteln zu ihrer Speicherung zu interagieren.

Die moderne Materialproduktion und andere Tätigkeitsbereiche benötigen zunehmend Informationsdienste, die Verarbeitung einer großen Menge an Informationen. Ein universelles technisches Mittel zur Verarbeitung von Informationen ist ein Computer, der die Rolle eines Verstärkers der intellektuellen Fähigkeiten einer Person und der Gesellschaft als Ganzes spielt, und Kommunikationsmittel, die Computer verwenden, werden verwendet, um Informationen zu kommunizieren und zu übertragen. Die Entstehung und Entwicklung von Computern ist ein notwendiger Bestandteil des Prozesses der Informatisierung der Gesellschaft.

Die Informatisierung der Gesellschaft ist eines der Gesetze des modernen sozialen Fortschritts. Dieser Begriff ersetzt immer mehr den bis vor kurzem weit verbreiteten Begriff der „Informatisierung der Gesellschaft“. Trotz der äußeren Ähnlichkeit dieser Konzepte weisen sie einen signifikanten Unterschied auf.

Bei der Computerisierung der Gesellschaft wird das Hauptaugenmerk auf die Entwicklung und Implementierung der technischen Basis von Computern gelegt, die den zeitnahen Erhalt der Ergebnisse der Informationsverarbeitung und deren Akkumulation gewährleisten.

Bei der Informatisierung der Gesellschaft wird das Hauptaugenmerk auf eine Reihe von Maßnahmen gelegt, die sicherstellen sollen, dass zuverlässiges, umfassendes und aktuelles Wissen in allen Arten menschlichen Handelns vollständig genutzt wird.

Somit ist die „Informatisierung der Gesellschaft“ ein weiter gefasster Begriff als die „Informatisierung der Gesellschaft“ und zielt auf eine möglichst frühe Informationsbeschaffung ab, um ihren Bedarf zu decken.Im Konzept der "Informatisierung der Gesellschaft" sollte der Schwerpunkt weniger auf technischen Mitteln als auf Wesen und Zielen des sozio-technischen Fortschritts gelegt werden. Computer sind die grundlegende technische Komponente des Prozesses der Informatisierung der Gesellschaft.

Die Informatisierung auf der Grundlage der Einführung von Computer- und Telekommunikationstechnologien ist die Reaktion der Gesellschaft auf die Notwendigkeit einer signifikanten Steigerung der Arbeitsproduktivität im Informationssektor der gesellschaftlichen Produktion, auf dem mehr als die Hälfte der arbeitsfähigen Bevölkerung konzentriert ist.Beispielsweise sind in den Vereinigten Staaten mehr als 60 % der Bevölkerung im erwerbsfähigen Alter im Informationsbereich beschäftigt, in der GUS etwa 40 %.

Betrachten wir einige Arten moderner Informationstechnologien: Telefon, Fernsehen, Kino, PC.

Aus heutiger Sicht sieht die Nutzung des Telefons in den ersten Jahren seines Bestehens ziemlich lächerlich aus. Der Vorgesetzte diktierte die Nachricht seiner Sekretärin, die sie dann aus dem Telefonzimmer verschickte. Der Anruf ging in einem ähnlichen Raum einer anderen Firma ein, der Text wurde auf Papier aufgezeichnet und dem Adressaten zugestellt (Abbildung 2).

Telefonkommunikation

Es hat lange gedauert, bis das Telefon zu einem so weit verbreiteten und gebräuchlichen Kommunikationsmittel wurde, wie wir es heute tun: Wir rufen selbst und mit dem Aufkommen des Handys den richtigen Ort an – und eine bestimmte Person.

Computer werden heute hauptsächlich als Mittel zur Erstellung und Analyse von Informationen verwendet, die dann auf bekannte Medien (z. B. Papier) übertragen werden. Die Entstehung des Internets entfällt diese Notwendigkeit (Steuerbehörden akzeptieren Meldungen in elektronischer Form).Aber jetzt, dank der weit verbreiteten Verwendung von Computern und der Entwicklung des Internets, können Sie Ihren Computer zum ersten Mal verwenden, um mit anderen Menschen über deren Computer zu kommunizieren. Die Notwendigkeit, gedruckte Daten für die Übermittlung an Kollegen zu verwenden, entfällt ebenso wie Papier aus Telefongesprächen. Heute dank des Einsatzes von Netz vergleichbar mit der Zeit, als man aufhörte, den Text von Telefonnachrichten aufzuzeichnen: Computer (und ihre Kommunikation untereinander über das Internet) sind bereits so weit verbreitet und bekannt, dass wir beginnen, sie grundlegend neu zu nutzen. Www Ist der Beginn der Reise, auf der Computer wirklich zu Kommunikationswerkzeugen werden.

Das Internet bietet eine noch nie dagewesene Möglichkeit, Informationen zu erhalten. Jeder mit Zugriff auf Www , kann alle darauf verfügbaren Informationen sowie leistungsstarke Mittel zum Suchen danach abrufen. Die Möglichkeiten für Bildung, Wirtschaft und das Wachstum des gegenseitigen Verständnisses zwischen den Menschen sind einfach überwältigend. Außerdem ist die Technologie Netz ermöglicht die Verbreitung von Informationen überall. Die Einfachheit dieser Methode ist in der Geschichte einzigartig.Um Ihre Ansichten, Produkte oder Dienstleistungen anderen bekannt zu machen, müssen Sie nicht mehr Platz in einer Zeitung oder Zeitschrift kaufen oder für Zeit im Fernsehen und Radio bezahlen. Netz macht die Spielregeln für Regierungen und Einzelpersonen, für kleine und große Unternehmen, für Produzenten und Verbraucher, für Wohltätigkeitsorganisationen und politische Organisationen gleich. World Wide Web (WWW .) ) im Internet - dies ist das demokratischste Informationsmedium: Mit seiner Hilfe kann jeder das Gesagte ohne Zwischeninterpretation, Verzerrung und Zensur sagen und hören, geleitet von einem gewissen Rahmen des Anstands. Das Internet bietet eine einzigartige Meinungsfreiheit für Einzelpersonen und Informationen.

Wie die Verwendung von internen Telefonen des Unternehmens, um mit Mitarbeitern und der Außenwelt zu kommunizieren, Netz Es wird sowohl für die Kommunikation innerhalb der Organisation als auch zwischen Organisationen und ihren Verbrauchern, Kunden und Partnern verwendet. Die gleiche Technologie Netz die es kleinen Firmen ermöglicht, sich im Internet zu profilieren, kann ein großes Unternehmen genutzt werden, um den aktuellen Stand eines Projekts über ein internes Intranet zu kommunizieren, sodass seine Mitarbeiter stets sachkundiger und damit reaktionsschneller sind als kleine, agile Wettbewerber.Die Verwendung eines Intranets innerhalb einer Organisation, um ihren Mitgliedern Informationen leichter zugänglich zu machen, ist ebenfalls ein Fortschritt gegenüber der Vergangenheit. Mit der Möglichkeit, Dokumente in einem komplexen Computerarchiv zu speichern, wurde es nun (unter der Kontrolle von Sicherheitstools) möglich, Dokumente einfach zu durchsuchen und zu beschreiben, Links zu ihnen zu erstellen und Indizes zu erstellen. Dank Technik Netz Sowohl das Geschäft als auch das Management werden effizienter.

Informationstechnische Datenverarbeitung

Die Informationstechnik der Datenverarbeitung ist darauf ausgerichtet, gut strukturierte Probleme zu lösen, für die die notwendigen Eingabedaten vorliegen und Algorithmen und andere Standardverfahren zu deren Verarbeitung bekannt sind. Diese Technologie wird auf der Ebene der betrieblichen (Führungs-)Tätigkeiten von geringqualifiziertem Personal eingesetzt, um einige routinemäßige, sich ständig wiederholende Operationen von Führungskräften zu automatisieren. Daher wird die Einführung von Informationstechnologien und -systemen auf dieser Ebene die Produktivität des Personals deutlich steigern, es von Routineoperationen befreien und möglicherweise sogar zu einer Reduzierung der Mitarbeiterzahl führen.

Auf der Ebene der operativen Tätigkeiten werden folgende Aufgaben gelöst:

· Verarbeitung von Daten über die vom Unternehmen durchgeführten Operationen;

· Erstellung von periodischen Kontrollberichten über den Stand der Dinge im Unternehmen;

· Antworten auf aktuelle Anfragen aller Art entgegennehmen und in Form von Papierdokumenten oder Berichten arrangieren.

Ein Beispiel wäre ein täglicher Bericht über Geldeingänge und -auszahlungen einer Bank, der zur Kontrolle des Kassenbestands erstellt wird, oder eine Abfrage an die Personaldatenbank, die Daten über die Anforderungen an Kandidaten für eine bestimmte Position liefert.

Es gibt mehrere Merkmale im Zusammenhang mit der Datenverarbeitung, die diese Technologie von allen anderen unterscheiden:

· Erfüllung der vom Unternehmen geforderten Datenverarbeitungsaufgaben. Jede Firma ist gesetzlich verpflichtet, Daten über ihre Aktivitäten zu haben und zu speichern, die als Mittel zur Sicherstellung und Aufrechterhaltung der Kontrolle über die Firma verwendet werden können. Daher muss jedes Unternehmen über ein Informationssystem zur Datenverarbeitung verfügen und die entsprechende Informationstechnologie entwickeln;

· nur gut strukturierte Probleme lösen, für die ein Algorithmus entwickelt werden kann;

· Durchführung von Standardverarbeitungsverfahren. Bestehende Standards definieren typische Datenverarbeitungsverfahren und schreiben sie für Organisationen aller Art vor;

· Ausführung des Großteils der Arbeit im automatischen Modus mit minimaler menschlicher Beteiligung;

· Verwendung von Detaildaten. Die Aufzeichnungen über die Aktivitäten des Unternehmens sind detailliert (detailliert) und ermöglichen Prüfungen. Während des Audits werden die Aktivitäten der Firma chronologisch vom Beginn der Periode bis zum Ende und vom Ende bis zum Anfang überprüft;

· Betonung der Chronologie der Ereignisse;

· das Erfordernis einer minimalen Unterstützung bei der Lösung von Problemen durch Spezialisten auf anderen Ebenen.

Datenaufbewahrung: Viele der Daten auf operativer Ebene müssen für die spätere Verwendung entweder hier oder auf einer anderen Ebene gespeichert werden. Datenbanken werden erstellt, um sie zu speichern.

Erstellung von Berichten (Dokumenten): In der Informationstechnologie der Datenverarbeitung ist es notwendig, Dokumente für die Geschäftsführung und Mitarbeiter des Unternehmens sowie für externe Partner zu erstellen. In diesem Fall können Dokumente sowohl auf Anfrage oder im Zusammenhang mit einem vom Unternehmen durchgeführten Vorgang als auch periodisch zum Ende eines jeden Monats, Quartals oder Jahres erstellt werden.

Informationstechnologie Management

Der Zweck des Inbesteht darin, den Informationsbedarf aller Mitarbeiter des Unternehmens, die mit Entscheidungen befasst sind, ausnahmslos zu erfüllen. Es kann auf jeder Regierungsebene nützlich sein.

Diese Technologie konzentriert sich auf die Arbeit im Umfeld eines Informationsmanagementsystems und wird verwendet, wenn die zu lösenden Aufgaben im Vergleich zu den Aufgaben, die mit Informationstechnologie zur Datenverarbeitung gelöst werden, weniger strukturiert sind.

Das Iist ideal geeignet, um ähnliche Informationsbedürfnisse von Mitarbeitern und unterschiedlichen funktionalen Teilsystemen (Abteilungen) oder Ebenen der Unternehmensführung zu erfüllen. Die von ihnen bereitgestellten Informationen enthalten Informationen über die Vergangenheit, Gegenwart und voraussichtliche Zukunft des Unternehmens. Diese Informationen erfolgen in Form von regelmäßigen oder Ad-hoc-Managementberichten.

Um Entscheidungen auf der Ebene der Managementkontrolle treffen zu können, sollten Informationen in aggregierter Form dargestellt werden, damit Trends in der Datenänderung, die Ursachen von Abweichungen und mögliche Lösungen sichtbar werden. In dieser Phase werden folgende Datenverarbeitungsaufgaben gelöst:

· Einschätzung des geplanten Zustands des Kontrollobjekts;

· Einschätzung von Abweichungen vom Planzustand;

· Ermittlung der Gründe für Abweichungen;

· Analyse möglicher Lösungen und Maßnahmen.

Das Izielt darauf ab, verschiedene Arten von Berichten zu erstellen. Regelmäßige Berichte werden nach einem festgelegten Zeitplan erstellt, der den Zeitpunkt ihrer Erstellung bestimmt, beispielsweise eine monatliche Analyse des Umsatzes eines Unternehmens.

Sonderberichte werden auf Wunsch von Führungskräften erstellt oder wenn etwas Unvorhergesehenes im Unternehmen passiert ist. Sowohl diese als auch andere Arten von Berichten können in Form von zusammenfassenden, vergleichenden und außerordentlichen Berichten vorliegen.

In zusammenfassenden Berichten werden die Daten in getrennten Gruppen zusammengefasst, sortiert und als Zwischensummen und Endsummen für einzelne Felder dargestellt.

Vergleichsberichte enthalten Daten, die aus verschiedenen Quellen stammen oder nach verschiedenen Merkmalen klassifiziert und zu Vergleichszwecken verwendet werden.

Außerordentliche Meldungen enthalten Daten außergewöhnlicher (außerordentlicher) Natur.

Der Einsatz von Berichten zur Unterstützung der Kontrolle ist besonders effektiv bei der Umsetzung der sogenannten Abweichungskontrolle. Das Abweichungsmanagement geht davon aus, dass der Hauptinhalt der vom Manager erhaltenen Daten die Abweichungen des Zustands der wirtschaftlichen Aktivitäten des Unternehmens von einigen etablierten Standards (z. B. vom geplanten Zustand) sein sollten. Bei Anwendung der Grundsätze des Abweichungsmanagements im Unternehmen werden folgende Anforderungen an die erstellten Berichte gestellt:

· der Bericht sollte nur erstellt werden, wenn eine Abweichung aufgetreten ist;

· Informationen im Bericht sollten nach dem Wert des kritischen Indikators für eine bestimmte Abweichung sortiert werden;

· es ist wünschenswert, alle Abweichungen zusammen darzustellen, damit der Manager die bestehende Verbindung zwischen ihnen erfassen kann;

· der Bericht muss die quantitative Abweichung von der Norm zeigen.

Hauptkomponenten: Eingabeinformationen stammen von Systemen auf operativer Ebene. Die Ausgabeinformationen werden in Form von Managementberichten in einer entscheidungsfreundlichen Form generiert. Der Inhalt der Datenbank wird mit Hilfe geeigneter Software in periodische und ad-hoc-Berichte umgewandelt, die an die an der Entscheidungsfindung in der Organisation beteiligten Spezialisten gesendet werden.Die Datenbank, die verwendet wird, um die angegebenen Informationen zu erhalten, muss aus zwei Elementen bestehen:

1) Daten, die aufgrund der Bewertung der von der Firma durchgeführten Transaktionen gesammelt wurden;

2) Pläne, Normen, Budgets und andere behördliche Dokumente, die den geplanten Zustand des Verwaltungsgegenstandes (Aufteilung des Unternehmens) bestimmen.

Entscheidungsunterstützung in der Informationstechnologie

Die Effizienz und Flexibilität der Informationstechnologie hängen maßgeblich von den Eigenschaften der Schnittstelle, des Entscheidungsunterstützungssystems, ab. Die Schnittstelle bestimmt: die Sprache des Benutzers; die Computernachrichtensprache, die den Dialog auf dem Anzeigebildschirm organisiert; Benutzerwissen.

Benutzersprache -dies sind die Aktionen, die der Benutzer in Bezug auf das System ausführt, indem er die Fähigkeiten der Tastatur, elektronischer Stifte, des Schreibens auf dem Bildschirm, des Joysticks, der "Maus", der Sprachbefehle und dergleichen verwendet. Die einfachste Form der Benutzersprache ist die Erstellung von Ein- und Ausgabeformularen. Nach Erhalt des Eingabeformulars (Dokument) füllt der Benutzer dieses mit den erforderlichen Daten aus und gibt es in den Computer ein. Das Entscheidungsunterstützungssystem führt die notwendige Analyse durch und gibt die Ergebnisse in Form eines Ausgabedokuments der festgelegten Form aus.

Nachrichtensprache - dies sieht der Benutzer auf dem Bildschirm (Symbole, Grafiken, Farbe), die vom Drucker empfangenen Daten, Tonausgaben usw. Ein wichtiges Maß für die Effektivität der verwendeten Schnittstelle ist die gewählte Dialogform zwischen Benutzer und System. Derzeit sind die folgenden Dialogformen am gebräuchlichsten: Anfrage-Antwort-Modus, Befehlsmodus, Menümodus, Modus zum Ausfüllen von Lücken in Ausdrücken, die von einem Computer vorgeschlagen werden. Jedes Formular kann je nach Art der Aufgabe, Benutzereigenschaften und der getroffenen Entscheidung seine eigenen Vor- und Nachteile haben. Die einzige Implementierung einer Nachrichtensprache war lange Zeit ein gedruckter oder angezeigter Bericht oder eine Nachricht. Nun gibt es eine neue Möglichkeit die Ausgabedaten darzustellen - Computergrafik. Es ermöglicht die Erstellung farbiger grafischer Bilder in dreidimensionaler Form auf dem Bildschirm und auf Papier. Der Einsatz von Computergrafiken, die die Sichtbarkeit und Interpretierbarkeit der Ausgabedaten deutlich erhöhen, wird in der Informationstechnologie zur Entscheidungsunterstützung immer beliebter.

Benutzerkenntnisse -Dies sollte der Benutzer beim Betrieb des Systems wissen. Dazu gehören nicht nur der Aktionsplan im Kopf des Benutzers, sondern auch Lehrbücher, Anleitungen, vom Computer ausgegebene Referenzdaten.

Die Verbesserung der Schnittstelle, des Entscheidungsunterstützungssystems, wird durch den Erfolg bei der Entwicklung jeder der drei spezifizierten Komponenten bestimmt. Die Schnittstelle muss über folgende Fähigkeiten verfügen:

· verschiedene Dialogformen manipulieren und sie im Prozess der Entscheidungsfindung nach Wahl des Benutzers ändern;

· Daten auf verschiedene Weise an das System übertragen;

· Empfangen von Daten von verschiedenen Geräten des Systems in einem anderen Format;

· Anwenderwissen flexibel pflegen (auf Wunsch Hilfestellung geben, zeitnah).

IT-Expertensysteme

Der größte Fortschritt unter den Computerinformationssystemen wurde bei der Entwicklung von Expertensystemen festgestellt. Expertensysteme ermöglichen einer Führungskraft oder Fachkraft eine kompetente Beratung zu allen Problemen, über die diese Systeme Wissen angesammelt haben.

Spezielle Probleme zu lösen erfordert spezielles Wissen... Doch nicht jedes Unternehmen kann es sich leisten, Experten für alle Fragen rund um seine Arbeit bei seinen Mitarbeitern zu haben oder diese gar bei jedem Problem einzuladen. Die Grundidee bei der Nutzung der Technologie von Expertensystemen besteht darin, von einem Experten sein Wissen zu erhalten und durch das Laden in den Computerspeicher bei Bedarf zu verwenden. All dies ermöglicht die Nutzung der Technologie von Expertensystemen als Beratungssysteme.

Die Ähnlichkeit der in Expertensystemen und Entscheidungsunterstützungssystemen verwendeten Informationstechnologien besteht darin, dass beide ein hohes Maß an Entscheidungsunterstützung bieten. Es gibt jedoch drei wesentliche Unterschiede.

Der erste ist darauf zurückzuführen, dass die Lösung eines Problems im Rahmen von Entscheidungsunterstützungssystemen den Grad seines Verständnisses durch den Benutzer und seine Fähigkeit, die Lösung zu erhalten und zu verstehen, widerspiegelt. Im Gegenteil, Expertensystemtechnik lädt den Benutzer ein, eine Entscheidung zu treffen, die seine Fähigkeiten übersteigt.

Der zweite Unterschied zwischen diesen Technologien drückt sich in der Fähigkeit von Expertensystemen aus, ihre Argumentation im Prozess der Lösungsfindung zu erklären. Sehr oft sind diese Erklärungen für den Benutzer wichtiger als die Lösung selbst.

Der dritte Unterschied hängt mit der Verwendung einer neuen Komponente der Informationstechnologie zusammen - Wissen.

Die im Expertensystem verwendeten Hauptkomponenten der Informationstechnologie sind: Benutzerschnittstelle, Wissensdatenbank, Interpreter, Systemerstellungsmodul.

Der Manager (Spezialist) verwendet die Schnittstelle, um Informationen und Befehle in das Expertensystem einzugeben und von diesem Ausgabeinformationen zu erhalten. Befehle enthalten Parameter, die die Verarbeitung von Wissen leiten. Informationen werden normalerweise in Form von Werten gegeben, die bestimmten Variablen zugewiesen sind.

Die Technologie von Expertensystemen bietet die Möglichkeit, als Ausgabeinformation nicht nur die Lösung, sondern auch die notwendigen Erklärungen zu erhalten.

Es gibt zwei Arten von Erklärungen:

· Erklärungen auf Abruf. Der Nutzer kann jederzeit vom Expertensystem eine Erklärung seiner Handlungen verlangen;

· Erläuterung der erhaltenen Lösung des Problems. Nach Erhalt der Entscheidung kann der Benutzer eine Erklärung darüber verlangen, wie sie erhalten wurde. Das System muss jeden Schritt seiner Argumentation erklären, der zur Lösung des Problems führt. Obwohl die Technik der Arbeit mit dem Expertensystem nicht einfach ist, ist die Benutzeroberfläche dieser Systeme freundlich und verursacht normalerweise keine Schwierigkeiten im Dialog.

Die Wissensbasis enthält Fakten, die den Problembereich beschreiben, sowie die logische Beziehung dieser Fakten. Regeln sind von zentraler Bedeutung für die Wissensdatenbank. Die Regel bestimmt, was in einer bestimmten Situation zu tun ist und besteht aus zwei Teilen: einer Bedingung, die erfüllt werden kann oder nicht, und einer Aktion, die ausgeführt werden soll, wenn die Bedingung erfüllt ist.

Alle im Expertensystem verwendeten Regeln bilden ein Regelsystem, das selbst bei einem relativ einfachen System mehrere tausend Regeln enthalten kann.

Ein Dolmetscher ist ein Teil eines Expertensystems, das Wissen (Denken) in einer Wissensbasis in einer bestimmten Reihenfolge verarbeitet. Die Technik des Interpreters reduziert sich auf die sequentielle Betrachtung eines Regelwerks (Regel für Regel). Wenn die in der Regel enthaltene Bedingung erfüllt ist, wird eine bestimmte Aktion ausgeführt und dem Benutzer wird eine Option zur Lösung seines Problems angezeigt.

Außerdem werden in vielen Expertensystemen zusätzliche Blöcke eingeführt: eine Datenbank, ein Berechnungsblock, ein Dateneingabe- und Korrekturblock. Der Berechnungsblock ist in Situationen im Zusammenhang mit Managemententscheidungen erforderlich. In diesem Fall spielt die Datenbank eine wichtige Rolle, die geplante, physische, berechnete, Berichts- und andere konstante oder operative Indikatoren enthält. Die Sperre für die Eingabe und Korrektur von Daten dient dazu, die aktuellen Veränderungen in der Datenbank zeitnah und zeitnah widerzuspiegeln.

Systemerstellungsmodul - dient zum Erstellen einer Reihe (Hierarchie) von Regeln. Es gibt zwei Ansätze, die als Grundlage für das Systemerstellungsmodul verwendet werden können: der Einsatz von algorithmischen Programmiersprachen und der Einsatz von Schalen von Expertensystemen.

Expertensystem-Shellist eine vorgefertigte Softwareumgebung, die durch die Schaffung einer entsprechenden Wissensbasis zur Lösung eines bestimmten Problems angepasst werden kann. In den meisten Fällen macht die Verwendung von Wrappern den Aufbau von Expertensystemen schneller und einfacher als die Programmierung.

Grundbegriffe der Informationstechnologie.

Die Managementtätigkeit in jeder Organisation basiert auf der Datenverarbeitung und der Produktion von Ausgabeinformationen, was das Vorhandensein von Technologien zur Umwandlung von Eingabedaten in effektive Informationen voraussetzt.

Technologie aus dem Griechischen (techne) übersetzt bedeutet Kunst, Handwerk, Geschick und das sind nichts anderes als Prozesse. Ein Prozess sollte als eine Reihe von Aktionen verstanden werden, die darauf abzielen, das gesetzte Ziel zu erreichen. Der Prozess sollte durch die von der Person gewählte Strategie bestimmt und mit einer Kombination verschiedener Mittel und Methoden umgesetzt werden.

Die Technologie der Materialherstellung wird als ein Prozess verstanden, der durch eine Reihe von Mitteln und Methoden der Verarbeitung, Herstellung, Zustandsänderung, Eigenschaften, Form von Rohstoffen oder Materialien bestimmt wird. Technologie verändert die Qualität oder den ursprünglichen Zustand der Materie, um ein materielles Produkt zu erhalten

Information ist neben so traditionellen materiellen Ressourcen wie Öl, Gas, Mineralien usw. eine der wertvollsten Ressourcen der Gesellschaft, sodass der Prozess ihrer Verarbeitung analog zur Verarbeitung materieller Ressourcen wahrgenommen werden kann als Technik. Dann gilt folgende Definition.

Informationstechnologie ist ein Prozess, der eine Reihe von Mitteln und Methoden zur Sammlung, Verarbeitung und Übermittlung von Daten (Primärinformationen) verwendet, um Informationen neuer Qualität über den Zustand eines Objekts, Prozesses oder Phänomens (Informationsprodukt) zu erhalten.

Ziel der Materialfertigungstechnik ist die Freigabe von Produkten, die den Bedürfnissen eines Menschen oder einer Anlage entsprechen.

Der Zweck der Informationstechnologie besteht darin, Informationen zu ihrer Analyse durch eine Person zu erzeugen und auf ihrer Grundlage eine Entscheidung zur Durchführung einer Handlung zu treffen.

Den Inhalt dieses Konzepts auf Managementtätigkeiten erweiternd und unter Berücksichtigung der Spezifika der ihm zugrunde liegenden Informationsprozesse definieren wir die Informationstechnologie als ein System von Methoden und Methoden zum Erheben, Übertragen, Sammeln, Verarbeiten, Speichern, Darstellen und Verwendung von Informationen, die auf dem Einsatz technischer Mittel beruhen.

IT entsprechend der Differenz der Informationsprozesse werden in Technologien eingeteilt:

Ø Sammeln von Informationen;

Ø Übermittlung von Informationen;

Ø Ansammlung von Informationen;

Ø Informationsverarbeitung;

Ø Informationsspeicherung;

Ø Präsentation von Informationen;

Ø Nutzung von Informationen.

Eine spezifische Informationstechnologie für ihre Implementierung setzt das Vorhandensein von:

1. Eine Reihe geeigneter technischer Mittel, die den Informationsprozess selbst implementieren;

2. Systeme zur Steuerung eines technischen Komplexes (für die Computertechnik sind dies Softwarewerkzeuge);

3. Organisatorische und methodische Unterstützung, die die Umsetzung aller Maßnahmen und des Personals in einen einzigen technologischen Prozess gemäß dem Zweck eines bestimmten Informationsprozesses im Rahmen der Gewährleistung einer bestimmten Funktion der Managementtätigkeiten verbindet.

Jeder spezifische Informationsprozess kann als eigenständige Technologie mit eigener technischer Basis, technischem Mittelmanagementsystem und organisatorischer und methodischer Unterstützung implementiert. Die Managementtätigkeit basiert jedoch auf der Implementierung fast aller der aufgeführten Arten von Informationstechnologien entsprechend der Reihenfolge und dem Inhalt der einzelnen Phasen des Entscheidungsprozesses. Daher basiert die moderne IT-Unterstützung für Managementaktivitäten auf der integrierten Nutzung verschiedener Arten von Informationsprozessen auf der Grundlage eines einzigen technischen Komplexes, dessen Grundlage die Computertechnologie ist.

Die Informationstechnologie ist die wichtigste Komponente im Prozess der Nutzung der Informationsressourcen der Gesellschaft. Inzwischen hat es mehrere Evolutionsstufen durchlaufen, deren Wandel vor allem durch die Entwicklung des wissenschaftlich-technischen Fortschritts, das Aufkommen neuer technischer Mittel der Informationsverarbeitung bestimmt wurde. In der modernen Gesellschaft ist das wichtigste technische Mittel der Infoein Personal Computer, der sowohl das Konzept des Aufbaus und der Nutzung technologischer Prozesse als auch die Qualität der resultierenden Informationen maßgeblich beeinflusst hat. Die Einführung des Personalcomputers in die Informationssphäre und die Verwendung von Telekommunikationsmitteln markierten eine neue Etappe in der Entwicklung der Informationstechnologie und in der Folge eine Namensänderung durch die Hinzufügung eines der Synonyme: " neu", "Computer" oder "modern".

Das Adjektiv „neu“ betont eher den innovativen als den evolutionären Charakter dieser Technologie. Ihre Umsetzung ist insofern innovativ, als sie die Inhalte verschiedener Aktivitäten in Organisationen maßgeblich verändert. Der Begriff der neuen Informationstechnologie umfasst auch Kommunikationstechnologien, die die Übertragung von Informationen auf verschiedene Weise sicherstellen, nämlich Telefon, Telegraf, Telekommunikation, Fax usw. In der Tabelle. die wichtigsten charakteristischen Merkmale der neuen Informationstechnologie werden angegeben.

Hauptmerkmale der neuen Informationstechnologie

Neue Informationstechnologie - Informationstechnologie mit einer "freundlichen" Benutzeroberfläche, die Personalcomputer und Telekommunikationseinrichtungen verwendet.

Das Adjektiv "Computer" betont, dass das wichtigste technische Mittel seiner Implementierung ein Computer ist.

Drei Grundprinzipien der neuen (Computer-) Informationstechnologie:

· Interaktive (Dialog-)Arbeitsweise mit einem Computer;

· Integration (Docking, Interconnection) mit anderen Softwareprodukten;

· Flexibilität des Prozesses zum Ändern von Daten und Aufgabeneinstellungen.

Die Umsetzung des technologischen Prozesses der Materialherstellung erfolgt mit verschiedenen technischen Mitteln, darunter: Geräte, Werkzeugmaschinen, Werkzeuge, Förderstrecken usw.

Analog sollte es für die Informationstechnologie etwas Ähnliches geben. Solche technischen Mittel der Informationsproduktion werden Hardware, Software und mathematische Unterstützung dieses Prozesses sein. Mit ihrer Hilfe werden die Primärinformationen zu Informationen neuer Qualität verarbeitet. Lassen Sie uns Softwareprodukte getrennt von diesen Werkzeugen herausgreifen und sie Toolkit nennen, und wir können es der Übersichtlichkeit halber konkretisieren und es Softwarewerkzeuge der Informationstechnologie nennen. Lassen Sie uns dieses Konzept definieren.

Das Informationstechnologie-Toolkit ist ein oder mehrere miteinander verbundene Softwareprodukte für einen bestimmten Computertyp, die Arbeitstechnologie, mit der Sie das vom Benutzer festgelegte Ziel erreichen können.

Als Toolkit können Sie die folgenden gängigen Arten von Softwareprodukten für einen PC verwenden: Textverarbeitung (Editor), Desktop-Publishing-Systeme, Tabellenkalkulationen, Datenbankverwaltungssysteme, elektronische Notizbücher, elektronische Kalender, funktionale Informationssysteme (Finanzwesen, Buchhaltung, Marketing). usw.), Expertensysteme usw.

Die Informationstechnologie muss wie jede andere die folgenden Anforderungen erfüllen:

Bieten Sie einen hohen Grad an Zerlegung des gesamten Inin Phasen (Phasen), Operationen, Aktionen;

Fügen Sie den gesamten Satz von Elementen ein, die zum Erreichen des Ziels erforderlich sind;

Seien Sie regelmäßig. Phasen, Aktionen und Abläufe des technologischen Prozesses können standardisiert und vereinheitlicht werden, was ein effizienteres zielgerichtetes Management von Informationsprozessen ermöglicht.

Entstehung und Entwicklung der Informationstechnologie.

Bis in die zweite Hälfte des 19. Jahrhunderts war die Basis der Informationstechnologie ein Stift, ein Tintenfass und ein Hauptbuch. Die Kommunikation (Kommunikation) erfolgt durch das Senden von Paketen (Dispatches). Die Produktivität der Informationsverarbeitung war extrem gering, jeder Brief wurde einzeln manuell kopiert, zusätzlich zu den manuell aufsummierten Abrechnungen gab es keine weiteren Informationen zur Entscheidungsfindung

Das Aufkommen großer produktiver Computer in der zweiten Hälfte der 60er Jahre an der Peripherie von Bürotätigkeiten (in Rechenzentren) ermöglichte es, den Schwerpunkt in der Informationstechnologie auf die Verarbeitung nicht der Form, sondern des Inhalts von Informationen zu mischen. Dies war der Beginn der Bildung der "elektronischen" oder "Computer"-Technologie. Wie Sie wissen, sollte die Imindestens die 3 wichtigsten Komponenten der Informationsverarbeitung enthalten: Buchhaltung, Analyse und Entscheidungsfindung. Diese Komponenten werden in einer "viskosen" Umgebung implementiert - einem Papier-"Meer" von Dokumenten, das jedes Jahr größer wird.

Seit den 70er Jahren hat sich eine Tendenz gebildet, den Schwerpunkt der Entwicklung von ACS auf die grundlegenden Komponenten der Informationstechnologie (insbesondere auf analytische Arbeiten) unter maximaler Nutzung von Mensch-Maschine-Verfahren zu verlagern. All diese Arbeiten wurden aber nach wie vor auf leistungsstarken Rechnern durchgeführt, die zentral in Rechenzentren untergebracht sind. Gleichzeitig basiert der Aufbau solcher automatisierter Steuerungssysteme auf der Hypothese, dass die Analyse- und Entscheidungsprobleme zur Klasse der formalisierbaren, mathematischen Modellierung zugänglichen gehören. Es wurde davon ausgegangen, dass ein solches ACS die Qualität, Vollständigkeit, Authentizität und Aktualität der Informationsunterstützung für Entscheidungsträger verbessern soll, deren Arbeitseffizienz durch die Zunahme der Anzahl der analysierten Aufgaben erhöht wird.

Mit dem Aufkommen von Personal Computern auf dem „Kamm der Mikroprozessor-Revolution“ wird die Idee automatisierter Steuerungssysteme grundlegend modernisiert: von Rechenzentren und zentraler Steuerung hin zu verteiltem Rechenpotenzial, wodurch die Homogenität der Informationsverarbeitungstechnik erhöht und die Steuerung dezentralisiert wird. Dieser Ansatz hat seine Verkörperung in Entscheidungsunterstützungssystemen (DSS) und Expertensystemen (ES) gefunden, die im Wesentlichen eine neue Stufe der Computerisierung der Orkennzeichnen - die Stufe der Personalisierung von ACS. Konsistenz ist das Hauptmerkmal von DSS und die Erkenntnis, dass der leistungsstärkste Computer eine Person nicht ersetzen kann. Die Rede ist in diesem Fall von einer strukturellen Mensch-Maschine-Steuerung, die in den Arbeitsabläufen optimiert ist: Die Fähigkeiten des Computers werden durch die Strukturierung der Aufgaben durch den Benutzer und die Auffüllung seiner Wissensbasis erweitert, und die Fähigkeiten des Benutzers - aufgrund der Automatisierung von Aufgaben, die bisher aus wirtschaftlichen oder technischen Gründen nicht auf Computer übertragen werden konnten. Es wird möglich, die Konsequenzen verschiedener Entscheidungen zu analysieren und Antworten auf Fragen zu erhalten wie: "Was passiert, wenn ...?", ohne Zeit mit dem mühsamen Programmierprozess zu verschwenden .

Fortsetzung des Themas:
Netzwerke

Wie kopiere ich Bücher auf mein Gerät? Verbinden Sie Ihr Gerät mit Ihrem Computer. Das Gerät sollte im eingeschalteten Zustand mit dem PC verbunden sein. Am unteren Rand des E-Book-Displays ...