Enzyklopädie der Informatik. II. Theoretische Grundlagen der Informatik. Annäherung unterschiedlicher Auftrittswahrscheinlichkeiten von Zeichen im Text

Im englischsprachigen Raum wird der Begriff Informatik verwendet – Computer Science.

Die theoretische Grundlage der Informatik ist eine Gruppe von Grundlagenwissenschaften wie: Informationstheorie, Theorie der Algorithmen, mathematische Logik, Theorie der formalen Sprachen und Grammatiken, kombinatorische Analyse usw. Darüber hinaus umfasst die Informatik Bereiche wie Computerarchitektur, Betriebssysteme, Datenbanktheorie, Programmiertechnologie und viele andere. Wichtig bei der Definition der Informatik als Wissenschaft ist, dass sie einerseits Geräte und Funktionsprinzipien von Mitteln untersucht. Informatik, und andererseits die Systematisierung von Techniken und Methoden der Arbeit mit Programmen, die diese Technik steuern.

Informationstechnologie ist eine Reihe von spezifischen Hardware- und Software-Tools, die verwendet werden, um eine Vielzahl von Informationsverarbeitungsvorgängen in allen Bereichen unseres Lebens und unserer Aktivitäten durchzuführen. Informationstechnologie wird manchmal als Computertechnologie oder angewandte Informatik bezeichnet.

Informationen analog und digital.

Der Begriff „Informationen“ stammt aus dem lateinischen informatio, Erklärung, Darstellung, Bewusstsein.

Informationen können auf unterschiedliche Weise klassifiziert werden, und verschiedene Wissenschaften tun dies auf unterschiedliche Weise. Unterscheide zum Beispiel in der Philosophie zwischen objektiven und subjektiven Informationen. Objektive Informationen spiegeln die Phänomene der Natur und der menschlichen Gesellschaft wider. Subjektive Informationen werden von Menschen geschaffen und spiegeln ihre Sicht auf objektive Phänomene wider.

In der Informatik werden analoge Informationen und digitale Informationen getrennt betrachtet. Das ist wichtig, denn der Mensch ist es dank seiner Sinne gewohnt, mit analogen Informationen umzugehen, während die Computertechnik dagegen hauptsächlich mit digitalen Informationen arbeitet.

Eine Person nimmt Informationen durch die Sinne wahr. Licht, Ton, Wärme sind Energiesignale, und Geschmack und Geruch sind das Ergebnis der Einwirkung chemischer Verbindungen, die ebenfalls auf der Energienatur beruhen. Eine Person erfährt kontinuierlich Energieeinwirkungen und trifft möglicherweise nie zweimal auf dieselbe Kombination. Es gibt keine zwei identischen grünen Blätter an einem Baum und zwei absolut identische Geräusche - das sind analoge Informationen. Wenn verschiedene Farben mit Zahlen versehen sind, und verschiedene Geräusche- Notizen, dann können analoge Informationen in digitale umgewandelt werden.

Musik, wenn sie gehört wird, trägt analoge Informationen, aber wenn sie notiert wird, wird sie digital.

Der Unterschied zwischen analogen Informationen und digitalen Informationen besteht zunächst darin, dass analoge Informationen kontinuierlich sind, während digitale Informationen diskret sind.

Zu den digitalen Geräten gehören Personal Computer – sie arbeiten mit Informationen, die in digitaler Form präsentiert werden, und Musikabspielgeräte von Laser-CDs sind ebenfalls digital.

Informationskodierung.

Das Kodieren von Informationen ist der Prozess der Bildung eines Bestimmten Übermittlung von Informationen.

Im engeren Sinne wird der Begriff "Codierung" oft als Übergang von einer Form der Informationsdarstellung zu einer anderen, bequemer zu speichernden, zu übertragenden oder zu verarbeitenden Form verstanden.

Ein Computer kann nur Informationen verarbeiten, die in numerischer Form dargestellt werden. Alle anderen Informationen (Töne, Bilder, Instrumentenanzeigen usw.) müssen für die Verarbeitung auf einem Computer in numerische Form umgewandelt werden. Um beispielsweise musikalischen Klang zu quantifizieren, kann man die Schallintensität bei bestimmten Frequenzen in kurzen Intervallen messen und die Ergebnisse jeder Messung in numerischer Form darstellen. Mit Hilfe von Computerprogrammen ist es möglich, die empfangenen Informationen umzuwandeln, beispielsweise Töne aus verschiedenen Quellen übereinander zu „überlagern“.

Ebenso können Textinformationen auf einem Computer verarbeitet werden. Bei der Eingabe in einen Computer wird jeder Buchstabe mit einer bestimmten Zahl codiert, und bei der Ausgabe an externe Geräte (Bildschirm oder Druck) werden anhand dieser Zahlen Bilder von Buchstaben für die menschliche Wahrnehmung aufgebaut. Die Entsprechung zwischen einer Menge von Buchstaben und Zahlen wird als Zeichenkodierung bezeichnet.

In der Regel werden alle Zahlen im Computer mit Nullen und Einsen dargestellt (und nicht mit zehn Ziffern, wie es bei Menschen üblich ist). Mit anderen Worten, Computer arbeiten normalerweise binär Zahlensystem, da in diesem Fall die Geräte zu ihrer Verarbeitung viel einfacher sind.

Maßeinheiten für Informationen. Bisschen. Byte.

Ein Bit ist die kleinste Einheit der Informationsdarstellung. Byte - die kleinste Einheit der Informationsverarbeitung und -übertragung .

Bei der Lösung verschiedener Probleme verwendet eine Person Informationen über die Welt um uns herum. Oft hört man, dass eine Nachricht wenig Informationen enthält oder umgekehrt erschöpfende Informationen enthält, während verschiedene Personen, die dieselbe Nachricht erhalten (z. B. nach dem Lesen eines Artikels in einer Zeitung), die darin enthaltene Informationsmenge unterschiedlich einschätzen. Dies bedeutet, dass das Wissen der Menschen über diese Ereignisse (Phänomene) vor dem Empfang der Nachricht unterschiedlich war. Die Menge an Informationen in einer Nachricht hängt also davon ab, wie neu die Nachricht für den Empfänger ist. Wenn durch den Erhalt einer Nachricht vollständige Klarheit über ein bestimmtes Problem erreicht wird (d. h. die Unsicherheit verschwindet), sagen sie, dass erschöpfende Informationen erhalten wurden. Dies bedeutet, dass keine zusätzlichen Informationen zu diesem Thema erforderlich sind. Wenn hingegen nach Erhalt der Nachricht die Unsicherheit unverändert blieb (die gemeldeten Informationen waren entweder bereits bekannt oder nicht relevant), wurden keine Informationen erhalten (Nullinformationen).

Eine Münze zu werfen und ihr beim Fallen zuzusehen, liefert bestimmte Informationen. Beide Seiten der Medaille sind "gleich", also kommen beide Seiten mit gleicher Wahrscheinlichkeit zum Vorschein. In solchen Fällen trägt das Ereignis Informationen in 1 Bit. Wenn wir zwei Bälle unterschiedlicher Farbe in eine Tasche stecken, erhalten wir durch blindes Zeichnen eines Balls auch Informationen über die Farbe des Balls in 1 Bit.

Die Maßeinheit von Informationen wird als Bit (Bit) bezeichnet - eine Abkürzung für die englischen Wörter binäre Ziffer, was bedeutet eine binärziffer.

In der Computertechnik entspricht ein Bit dem physikalischen Zustand des Informationsträgers: magnetisiert – nicht magnetisiert, da ist ein Loch – da ist kein Loch. In diesem Fall wird ein Zustand normalerweise mit der Zahl 0 und der andere mit der Zahl 1 bezeichnet. Wenn Sie sich für eine der beiden möglichen Optionen entscheiden, können Sie auch zwischen logischer Wahrheit und Falschheit unterscheiden. Eine Folge von Bits kann Text, Bild, Ton oder andere Informationen kodieren. Diese Methode der Darstellung von Informationen wird als Binärcodierung bezeichnet. (binäre Kodierung) .

In der Informatik wird häufig eine Größe namens Byte verwendet, die 8 Bit entspricht. Und wenn Sie mit dem Bit eine Option aus zwei möglichen auswählen können, ist das Byte jeweils 1 von 256 (2 8). Zusammen mit Bytes werden größere Einheiten verwendet, um die Informationsmenge zu messen:

1 KB (ein Kilobyte) = 2\up1210 Bytes = 1024 Bytes;

1 MB (ein Megabyte) = 2\up1210 KB = 1024 KB;

1 GB (ein Gigabyte) = 2\up1210 MB = 1024 MB.

Ein Buch enthält beispielsweise 100 Seiten; 35 Zeilen pro Seite, 50 Zeichen pro Zeile. Der Informationsumfang des Buches errechnet sich wie folgt:

Die Seite enthält 35 × 50 = 1750 Bytes an Informationen. Der Umfang aller Informationen im Buch (in verschiedenen Einheiten):

1750 × 100 = 175.000 Byte.

175.000 / 1024 = 170,8984 KB.

170,8984 / 1024 = 0,166893 MB.

Datei. Dateiformate.

Eine Datei ist die kleinste Informationsspeichereinheit, die eine Folge von Bytes enthält und einen eindeutigen Namen hat.

Der Hauptzweck von Dateien besteht darin, Informationen zu speichern. Sie dienen auch dazu, Daten von Programm zu Programm und von System zu System zu übertragen. Mit anderen Worten, eine Datei ist ein Aufbewahrungsort für stabile und mobile Daten. Aber eine Datei ist mehr als nur ein Datenspeicher. Die Datei hat normalerweise Name, Attribute, Änderungszeit und Erstellungszeit.

Eine Dateistruktur ist ein System zum Speichern von Dateien auf einem Speichergerät, beispielsweise einer Festplatte. Dateien sind in Verzeichnissen organisiert (manchmal auch als Verzeichnisse oder Ordner bezeichnet). Jedes Verzeichnis kann eine beliebige Anzahl von Unterverzeichnissen enthalten, von denen jedes Dateien und andere Verzeichnisse speichern kann.

Die Art und Weise, wie Daten in Bytes organisiert sind, wird als Dateiformat bezeichnet. .

Um eine Datei wie eine Tabellenkalkulation zu lesen, müssen Sie wissen, wie die Bytes die Zahlen (Formeln, Text) in jeder Zelle darstellen; um die Datei zu lesen Texteditor müssen Sie wissen, welche Bytes Zeichen darstellen und welche Schriftarten oder Felder sowie andere Informationen.

Programme können Daten auf eine vom Programmierer gewählte Weise in einer Datei speichern. Es wird jedoch oft erwartet, dass die Dateien von verschiedenen Programmen verwendet werden, daher unterstützen viele Anwendungsprogramme einige der gebräuchlicheren Formate, sodass andere Programme die Daten in der Datei verstehen können. Softwareunternehmen (die wollen, dass ihre Programme zu "Standards" werden) veröffentlichen häufig Informationen über die von ihnen erstellten Formate, damit sie in anderen Anwendungen verwendet werden können.

Alle Dateien können bedingt in zwei Teile geteilt werden - Text und Binär.

Textdateien sind die häufigste Art von Daten in der Computerwelt. Am häufigsten wird ein Byte zugewiesen, um jedes Zeichen zu speichern, und Textdateien werden unter Verwendung spezieller Tabellen codiert, in denen jedes Zeichen einer bestimmten Zahl entspricht, die 255 nicht überschreitet. Eine Datei zum Codieren, die nur 127 erste Zahlen verwendet, wird aufgerufen ASCII- Datei (kurz für American Standard Code for Information Intercange - Amerikanischer Standardcode für Informationsaustausch), aber eine solche Datei darf nur lateinische (einschließlich russische) Buchstaben enthalten. Die meisten nationalen Alphabete können mit einer Acht-Bit-Tabelle codiert werden. Für die russische Sprache sind derzeit drei Kodierungen am beliebtesten: Koi8-R, Windows-1251 und die sogenannte alternative (alt) Kodierung.

Sprachen wie Chinesisch enthalten deutlich mehr als 256 Zeichen, daher werden mehrere Bytes verwendet, um jedes Zeichen zu codieren. Um Platz zu sparen, wird oft folgender Trick angewendet: Manche Zeichen werden mit einem Byte kodiert, andere mit zwei oder mehr Bytes. Ein Versuch, diesen Ansatz zu verallgemeinern, ist der Unicode-Standard, der zur Codierung von Zeichen einen Zahlenbereich von 0 bis 65.536 verwendet, der es ermöglicht, die Zeichen einer Sprache aus allen Ecken der Welt numerisch darzustellen.

Aber reine Textdateien werden immer seltener. Dokumente enthalten oft Bilder und Diagramme, und es werden verschiedene Schriftarten verwendet. Als Ergebnis erscheinen Formate, die verschiedene Kombinationen von Text-, Grafik- und anderen Datenformen sind.

Binärdateien sind im Gegensatz zu Textdateien nicht so einfach anzuzeigen und enthalten normalerweise keine vertrauten Wörter - nur viele obskure Zeichen. Diese Dateien sind nicht dazu bestimmt, von Menschen direkt gelesen zu werden. Beispiele für Binärdateien sind ausführbare Programme und Grafikdateien.

Beispiele für die binäre Codierung von Informationen.

Unter der Vielzahl von Informationen, die auf einem Computer verarbeitet werden, besteht ein wesentlicher Teil aus numerischen, textuellen, grafischen und Audioinformationen. Machen wir uns mit einigen Möglichkeiten vertraut, diese Arten von Informationen in einem Computer zu codieren.

Zahlenkodierung.

Es gibt zwei Hauptformate zur Darstellung von Zahlen im Computerspeicher. Einer von ihnen wird verwendet, um Ganzzahlen zu codieren, der zweite (die sogenannte Fließkommadarstellung einer Zahl) wird verwendet, um eine bestimmte Teilmenge reeller Zahlen anzugeben.

Der Satz von ganzen Zahlen, die im Computerspeicher dargestellt werden können, ist begrenzt. Der Wertebereich hängt von der Größe des Speicherbereichs ab, der zum Speichern der Zahlen verwendet wird. IN k-Bit-Zelle kann 2 speichern k verschiedene Werte von ganzen Zahlen .

Um die interne Darstellung einer positiven Ganzzahl zu erhalten n darin gespeichert k-Bit-Maschinenwort, Sie benötigen:

1) übersetze die Zahl N in das binäre Zahlensystem;

2) das erhaltene Ergebnis wird links mit unbedeutenden Nullen bis zu k Stellen ergänzt.

Um beispielsweise die interne Darstellung der Ganzzahl 1607 in einer 2-Byte-Zelle zu erhalten, wird die Zahl in eine Binärzahl umgewandelt: 1607 10 = 11001000111 2 . Die interne Darstellung dieser Nummer in der Zelle ist: 0000 0110 0100 0111.

Um die interne Darstellung einer negativen Ganzzahl (–N) zu schreiben, benötigen Sie:

1) Holen Sie sich die interne Darstellung einer positiven Zahl n;

2) Holen Sie sich den Rückgabecode dieser Nummer, indem Sie 0 durch 1 und 1 durch 0 ersetzen;

3) Addiere 1 zur empfangenen Zahl.

Die interne Darstellung einer negativen ganzen Zahl ist -1607. Unter Verwendung des Ergebnisses des vorherigen Beispiels wird die interne Darstellung der positiven Zahl 1607 geschrieben: 0000 0110 0100 0111. Der umgekehrte Code wird durch Invertieren erhalten: 1111 1001 1011 1000. Eins wird hinzugefügt: 1111 1001 1011 1001 - das ist die interne binäre Darstellung der Zahl -1607.

Das Fließkommaformat verwendet eine reelle Zahlendarstellung R als Produkt der Mantisse m nach dem Zahlensystem n bis zu einem gewissen Grad P, die als Reihenfolge bezeichnet wird: R=m * np.

Die Darstellung einer Zahl in Fließkommaform ist mehrdeutig. Beispielsweise sind die folgenden Gleichheiten wahr:

12,345 \u003d 0,0012345 × 10 4 \u003d 1234,5 × 10 -2 \u003d 0,12345 × 10 2

Am häufigsten verwenden Computer eine normalisierte Darstellung einer Zahl in Fließkommaform. Die Mantisse in dieser Darstellung muss die Bedingung erfüllen:

0,1 p J m P . Mit anderen Worten, die Mantisse ist kleiner als 1 und die erste signifikante Ziffer ist nicht null ( P ist die Basis des Zahlensystems).

Im Computerspeicher wird die Mantisse als Ganzzahl dargestellt, die nur signifikante Ziffern enthält (0-Ganzzahlen und ein Komma werden nicht gespeichert), sodass für die Zahl 12.345 die Zahl 12.345 in der Speicherzelle gespeichert wird, die der Speicherung der Mantisse zugeordnet ist Stellen Sie die ursprüngliche Nummer eindeutig wieder her, es bleibt nur die Reihenfolge zu speichern, in diesem Beispiel ist die 2.

Textentschlüsselung.

Der Satz von Zeichen, der zum Schreiben von Text verwendet wird, wird als Alphabet bezeichnet. Die Anzahl der Zeichen eines Alphabets wird als Kardinalität bezeichnet.

Um Textinformationen in einem Computer darzustellen, wird am häufigsten ein Alphabet mit einer Kapazität von 256 Zeichen verwendet. Ein Zeichen aus einem solchen Alphabet enthält 8 Bits an Informationen, da 2 8 \u003d 256. Aber 8 Bits bilden ein Byte, daher belegt der Binärcode jedes Zeichens 1 Byte Computerspeicher.

Alle Zeichen eines solchen Alphabets sind von 0 bis 255 nummeriert, und jede Zahl entspricht einem 8-Bit-Binärcode von 00000000 bis 11111111. Dieser Code ist die Ordnungszahl des Zeichens im binären Zahlensystem.

Für unterschiedliche Arten von Computern und Betriebssystemen werden unterschiedliche Codierungstabellen verwendet, die sich in der Reihenfolge unterscheiden, in der alphabetische Zeichen in der Codierungstabelle platziert werden. Die bereits erwähnte ASCII-Kodierungstabelle ist der internationale Standard auf Personal Computern.

Das Prinzip der sequentiellen Alphabetcodierung besteht darin, dass in der ASCII-Codetabelle lateinische Buchstaben (Groß- und Kleinbuchstaben) in alphabetischer Reihenfolge angeordnet sind. Die Anordnung der Zahlen ist ebenfalls in aufsteigender Reihenfolge der Werte geordnet.

Nur die ersten 128 Zeichen sind in dieser Tabelle Standard, also Zeichen mit Zahlen von Null (Binärcode 00000000) bis 127 (01111111). Dazu gehören Buchstaben des lateinischen Alphabets, Zahlen, Satzzeichen, Klammern und einige andere Symbole. Die verbleibenden 128 Codes, beginnend mit 128 (Binärcode 10000000) und endend mit 255 (11111111), werden verwendet, um Buchstaben nationaler Alphabete, pseudografischer und wissenschaftlicher Symbole zu codieren.

Kodierung grafischer Informationen.

Der Videospeicher enthält binäre Informationen über das auf dem Bildschirm angezeigte Bild. Fast alle Bilder, die mit einem Computer erstellt, verarbeitet oder angezeigt werden, können in zwei große Teile unterteilt werden - Raster- und Vektorgrafiken.

Rasterbilder sind ein einschichtiges Raster aus Punkten, die Pixel genannt werden (Pixel, vom englischen Bildelement). Der Pixelcode enthält Informationen über seine Farbe.

Bei einem Schwarz-Weiß-Bild (ohne Halbtöne) kann ein Pixel nur zwei Werte annehmen: weiß und schwarz (leuchtet – leuchtet nicht), und ein Bit Speicher reicht aus, um es zu codieren: 1 – weiß, 0 - Schwarz.

Ein Pixel auf einem Farbdisplay kann verschiedene Farben haben, daher reicht ein Bit pro Pixel nicht aus. Zwei Bits pro Pixel sind erforderlich, um ein 4-Farben-Bild zu codieren, da zwei Bits 4 verschiedene Zustände annehmen können. Beispielsweise kann diese Farbcodierungsoption verwendet werden: 00 - Schwarz, 10 - Grün, 01 - Rot, 11 - Braun.

Auf RGB-Monitoren wird die gesamte Farbvielfalt durch die Kombination der Grundfarben Rot (Rot), Grün (Grün), Blau (Blau) erreicht, aus denen Sie 8 Grundkombinationen erhalten können:

Wenn Sie die Intensität (Helligkeit) des Leuchtens der Grundfarben steuern können, erhöht sich natürlich die Anzahl der verschiedenen Kombinationsmöglichkeiten, die verschiedene Schattierungen erzeugen. Anzahl verschiedener Farben - ZU und die Anzahl der Bits, um sie zu codieren - n sind durch eine einfache Formel miteinander verbunden: 2 n = ZU.

Im Gegensatz zu Rastergrafiken Vektorbild geschichtet. Jedes Element eines Vektorbildes - eine Linie, ein Rechteck, ein Kreis oder ein Textfragment - befindet sich in einer eigenen Ebene, deren Pixel unabhängig von anderen Ebenen festgelegt werden. Jedes Element eines Vektorbildes ist ein Objekt, das mit einer speziellen Sprache beschrieben wird (mathematische Gleichungen von Linien, Bögen, Kreisen usw.) Komplexe Objekte (gestrichelte Linien, verschiedene geometrische Formen) werden als eine Menge elementarer grafischer Objekte dargestellt.

Vektorgrafiken können im Gegensatz zu Rastergrafiken ihre Größe ohne Qualitätsverlust verändern (beim Vergrößern Bitmap Granularität nimmt zu).

Toncodierung.

Wir kennen diesen Klang aus der Physik sind Luftschwingungen. Wenn Sie Ton in ein elektrisches Signal umwandeln (z. B. mit einem Mikrofon), können Sie eine Spannung sehen, die sich im Laufe der Zeit fließend ändert. Für die Computerverarbeitung muss ein solches analoges Signal irgendwie in eine Folge von Binärzahlen umgewandelt werden.

Dies geschieht beispielsweise so - die Spannung wird in regelmäßigen Abständen gemessen und die resultierenden Werte im Speicher des Computers aufgezeichnet. Dieser Vorgang wird als Abtasten (oder Digitalisieren) bezeichnet, und das Gerät, das ihn durchführt, wird als Analog-Digital-Wandler (ADC) bezeichnet.

Um den auf diese Weise codierten Ton wiederzugeben, müssen Sie die Rückwandlung durchführen (dazu wird ein Digital-Analog-Wandler verwendet). - DAC) und dann das resultierende Schrittsignal glätten.

Je höher die Samplingrate und je mehr Bits jedem Sample zugewiesen werden, desto genauer wird der Sound dargestellt, aber auch die Größe der Sounddatei nimmt zu. Daher werden je nach Art des Klangs, den Anforderungen an seine Qualität und der Menge des belegten Speichers einige Kompromisswerte gewählt.

Die beschriebene Methode zum Codieren von Toninformationen ist ziemlich universell. Sie ermöglicht es Ihnen, jeden Ton darzustellen und auf verschiedene Weise zu transformieren. Aber es gibt Zeiten, in denen es vorteilhafter ist, anders zu handeln.

Eine ziemlich kompakte Art, Musik darzustellen, wird seit langem verwendet - die Notenschrift. Es zeigt mit speziellen Symbolen an, wie hoch der Ton ist, auf welchem ​​Instrument und wie zu spielen ist. Tatsächlich kann es als ein Algorithmus für einen Musiker betrachtet werden, der in einer speziellen formalen Sprache geschrieben ist. 1983 entwickelten führende Hersteller von Computern und Musiksynthesizern einen Standard, der ein solches Codesystem definierte. Es heißt MIDI.

Natürlich können Sie mit einem solchen Codierungssystem nicht jeden Ton aufnehmen, es eignet sich nur für Instrumentalmusik. Aber es hat auch unbestreitbare Vorteile: eine äußerst kompakte Aufnahme, Natürlichkeit für einen Musiker (fast jeder MIDI-Editor ermöglicht es Ihnen, mit Musik in Form gewöhnlicher Noten zu arbeiten), ein einfacher Instrumentenwechsel, das Ändern des Tempos und der Tonart der Melodie.

Es gibt andere, reine Computer-Musikaufzeichnungsformate. Darunter ist das MP3-Format, mit dem Sie Musik mit sehr hoher Qualität und Komprimierung codieren können, während statt 18–20 Musikkompositionen etwa 200 auf einer Standard-CD (CDROM) gespeichert werden.Ein Lied belegt etwa 3,5 MB, was ermöglicht es Internetnutzern, Musikkompositionen auszutauschen.

Der Computer ist eine universelle Informationsmaschine.

Einer der Hauptzwecke eines Computers ist die Verarbeitung und Speicherung von Informationen. Mit dem Aufkommen von Computern wurde es möglich, mit zuvor undenkbaren Mengen an Informationen zu arbeiten. Bibliotheken mit wissenschaftlicher und belletristischer Literatur werden in elektronische Form gebracht. Alte Foto- und Filmarchive werden in digitaler Form zu neuem Leben erweckt.

Anna Tschugainowa

Der allgemeine Name „Dokumentation“, der manchmal als Synonym für den Begriff „I.“ dient. 1931 wurde das International Bibliographical Institute von P. Otlet, einem belgischen Anwalt und einer Persönlichkeit des öffentlichen Lebens, gegründet. La Fontaine wurde 1895 in International Documentation Institute umbenannt und 1938 in International Documentation Federation, die weiterhin die wichtigste internationale Organisation ist, die Spezialisten für . sowie Wissenschafts- und Informationsaktivitäten (siehe Dokumentation Internationale Föderation). 1945 veröffentlichte der amerikanische Wissenschaftler und Ingenieur W. Bush The Possible Mechanism of Our Thinking, in dem erstmals die Frage nach der Notwendigkeit einer Mechanisierung des Informationsabrufs auf breiter Ebene gestellt wurde. Internationale Konferenzen über wissenschaftliche Information (London, 1948; Washington, 1958) markierten die ersten Etappen in der Entwicklung von I. Die durchgeführte Untersuchung der Muster der Streuung wissenschaftlicher Veröffentlichungen war von großer Bedeutung. Bradford (Großbritannien, 1948). Bis Mitte der 60er Jahre. 20. Jahrhundert hauptsächlich wurden Prinzipien und Methoden der Informationsbeschaffung und technische Mittel zu ihrer Umsetzung entwickelt. W. Batten (Großbritannien), . Muer und. Taube (USA) legte den Grundstein für die Koordinatenerschließung; . Vicker, . Fosket (Großbritannien), J. Perry, A. Kent , J. Costello, . P.Lun, . Bernier (USA), . C. Garden (Frankreich) entwickelte die Grundlagen der Theorie und Methodik des Informationsabrufs; S. Cleverdon (Großbritannien) untersuchte Methoden zum Vergleich der technischen Leistungsfähigkeit von Informationsbeschaffungssystemen verschiedener Art; R. Shaw (USA) und J. Samin (Frankreich) schufen die ersten Informationsabrufgeräte auf Mikrofilmen und Diamikrokarten, die als Prototypen für viele spezielle Informationsmaschinen dienten; K. Muller und C. Carlson (USA) schlugen neue Methoden der Dokumentenreproduktion vor, die die Grundlage moderner Reprographietechniken bildeten. Die gegenwärtige Phase der Informationsentwicklung (die 1970er Jahre) ist gekennzeichnet durch ein tieferes Verständnis der allgemeinen wissenschaftlichen Bedeutung wissenschaftlicher Informationstätigkeit und der immer breiteren Verwendung elektronischer Computer darin. D. Price (USA) wies in Weiterentwicklung der Ideen von J. Bernal (Großbritannien) auf die Möglichkeit hin, die Entwicklungsprozesse der Wissenschaft mit Indikatoren und Mitteln von I. zu messen; . Garfield (USA) entwickelte und führte neue Methoden des wissenschaftlichen Informationsdienstes ein; G. Menzel und W. Garvey (USA) untersuchten den Informationsbedarf von Wissenschaftlern und Fachleuten, die Bedeutung verschiedener Prozesse der Wissenschaftskommunikation. Die allgemeine Theorie von I. im Ausland wird in den Arbeiten von A. Avramescu (Rumänien), A. Vysotsky und M. Dembovskaya (Polen), I. Koblitz (DDR), A. Merta (Tschechoslowakei), I. Polzovich (Ungarn), . Peach (Deutschland), A. Rees, R. Taylor, J. Shira (USA), R. Fairthorn (Großbritannien) ua In der UdSSR verlief die Entwicklung von Wissenschafts- und Informationsaktivitäten parallel zur Entwicklung der sowjetischen Wissenschaft und der Volkswirtschaft. In den 30er Jahren. 20. Jahrhundert Die Kommission für die Veröffentlichung von Indizes (Indizes) wissenschaftlicher Literatur arbeitete, abstrakte Zeitschriften der Akademie der Wissenschaften der UdSSR in den physikalischen und mathematischen Wissenschaften, der Chemie usw. begannen zu erscheinen (siehe Bibliographie). Besonders intensiv entwickelte sich diese Tätigkeit ab den 50er Jahren. Die Entstehung von I. als eigenständige wissenschaftliche Disziplin geht auf das Ende der 40er, Anfang der 50er Jahre zurück. In der UdSSR wurde Information 1952 institutionalisiert, als das Institut für wissenschaftliche Information der Akademie der Wissenschaften der UdSSR, heute das All-Union Scientific and Technical Institute of Information (VINITI), gegründet wurde. Seit 1959 hat der Ministerrat der UdSSR eine Reihe von Resolutionen angenommen, die auf die Verbesserung und Entwicklung eines einheitlichen landesweiten Systems wissenschaftlicher und technischer Informationen abzielen. Drei unionsweite Konferenzen über die automatisierte Verarbeitung wissenschaftlicher Informationen (1961, 1963 und 1966) waren wichtige Etappen in der Entwicklung der Informationstechnologie in der UdSSR. Von großer Bedeutung für die Entwicklung der Theorie von I. war das internationale Symposium der Mitgliedsländer des Rates für gegenseitige Wirtschaftshilfe und Jugoslawiens über theoretische Probleme der Informatik (Moskau, 1970), und für die Verbesserung der technischen Mittel von I - die internationalen Ausstellungen "Inforga-65" und "Interorgtekhnika-66", die die technischen Mittel der komplexen Mechanisierung und Automatisierung der Prozesse der Verarbeitung, Speicherung, Suche und Verbreitung wissenschaftlicher Informationen demonstrierten. Viele Studien des Russischen I. bildeten die Grundlage für seine weitere Entwicklung: im Bereich der allgemeinen Theorie von I. - die Arbeit von V. A. Uspensky, Yu. A. Shreider; Aufbau von Informationsabrufsystemen - G. E. Vladutsa, D. G. Lakhuti, E. . Skorokhodko, V. P. Cherenina; wissenschaftliche Probleme von I. - G. M. Dobrova, V. V. Nalimova; Dokumentarfilme - G. G. Vorobyova, K. R. Simona,. I. Shamurina; Erstellung von Geräten zum Abrufen von Informationen und anderen technischen Mitteln - . I. Gutenmakher, V. A. Kalmanson, B. M. Rakov u. a. I. gliedert sich in folgende Abschnitte: Theorie von I. (Gegenstand und Methoden, Inhalt, Struktur und Eigenschaften wissenschaftlicher Information), Wissenschaftliche Kommunikation (informelle und formelle Prozesse, wissenschaftliche Informationstätigkeit), Informationsbeschaffung, Verbreitung und Nutzung wissenschaftlicher Informationen, Organisation und Geschichte der wissenschaftlichen Informationstätigkeit. Die wichtigsten theoretischen Aufgaben bestehen darin, die allgemeinen Muster der Erstellung wissenschaftlicher Informationen, ihrer Umwandlung, Weitergabe und Verwendung in verschiedenen Bereichen menschlicher Tätigkeit aufzudecken. I. untersucht und entwickelt keine Kriterien zur Beurteilung der Wahrheit, Neuheit und Nützlichkeit wissenschaftlicher Informationen sowie Methoden zu ihrer logischen Verarbeitung, um neue Informationen zu erhalten. Die angewandten Aufgaben von I. bestehen darin, effektivere Methoden und Mittel zur Umsetzung von Informationsprozessen zu entwickeln, um die optimale Wissenschaftskommunikation sowohl innerhalb der Wissenschaft als auch zwischen Wissenschaft und Wirtschaft zu ermitteln. Für das Studium bestimmter Probleme und die Lösung angewandter Probleme der Informationstechnologie werden separate Methoden verwendet: Kybernetik (bei der Formalisierung der Prozesse der wissenschaftlichen Informationstätigkeit für ihre Automatisierung, beim Bau informationslogischer Maschinen usw.); mathematische Informationstheorie (bei der Untersuchung der allgemeinen Eigenschaften von Informationen, um ihre optimale Codierung, Langzeitspeicherung, Übertragung über eine Entfernung sicherzustellen); mathematische Logik (zur Formalisierung der Prozesse der logischen Inferenz, Entwicklung von Methoden zur Programmierung von Informationsalgorithmen usw.); Semiotik (beim Aufbau von Informationsabrufsystemen, beim Erstellen von Übersetzungsregeln von natürlichen Sprachen in künstliche und umgekehrt, beim Entwickeln von Indexierungsprinzipien, beim Studieren von Textstrukturtransformationen, die ihre Bedeutung nicht ändern usw.); Linguistik (bei der Entwicklung der Prinzipien der automatischen Übersetzung und der Sprachen für den Informationsabruf, der Indexierung und Zusammenfassung, der Methoden der Transkription und Transliteration, der Zusammenstellung von Thesauri, der Straffung der Terminologie); Psychologie (bei der Untersuchung der Denkprozesse bei der Erstellung und Verwendung wissenschaftlicher Informationen, der Art der Informationsbedürfnisse und ihrer Formulierung in Abfragen, bei der Entwicklung effektiver Lesemethoden, maschineller Informationsdienstsysteme, der Gestaltung von Informationsgeräten); Buchwissenschaft, Bibliothekswissenschaft, Bibliographie, Archivwissenschaft (bei der Entwicklung optimaler Formen eines wissenschaftlichen Dokuments, der Verbesserung der formalen Prozesse der wissenschaftlichen Kommunikation, des Systems der Zweitveröffentlichungen); Wissenschaftswissenschaft (bei der Untersuchung der informellen Prozesse der wissenschaftlichen Kommunikation, der Entwicklung der Organisationsprinzipien eines Informationsdienstsystems, der Prognose der Entwicklung der Wissenschaft, der Bewertung ihres Niveaus und Tempos, der Untersuchung verschiedener Kategorien von Verbrauchern wissenschaftlicher Informationen); technische Wissenschaften (zur Bereitstellung technischer Mittel für die Prozesse wissenschaftlicher und informationsbezogener Aktivitäten, deren Mechanisierung und Automatisierung). Einige I. Methoden wiederum finden Anwendung in der Bibliothekswissenschaft und Bibliographie (bei der Erstellung von Katalogen, Verzeichnissen etc.). Wissenschaftliche Informationen spiegeln die objektiven Gesetzmäßigkeiten von Natur, Gesellschaft und Denken adäquat dem aktuellen Stand der Wissenschaft wider und werden in der sozialgeschichtlichen Praxis genutzt. Da die Grundlage des Erkenntnisprozesses die soziale Praxis ist, ist die Quelle wissenschaftlicher Informationen nicht nur die wissenschaftliche Forschung, sondern auch alle Arten von energischen Aktivitäten von Menschen zur Transformation von Natur und Gesellschaft. Wissenschaftliche Informationen werden nach den Bereichen ihrer Aufnahme und Nutzung (biologische, politische, technische, chemische, wirtschaftliche usw.) und nach ihrem Zweck (Massen- und Spezialinformationen usw.) in Typen unterteilt. Hypothesen und Theorien, die sich später als irrig herausstellen, sind wissenschaftliche Informationen für die gesamte Zeit, in der sie systematisch studiert und ihre Bestimmungen in der Praxis überprüft werden. Das Kriterium des Gebrauchs in der sozialgeschichtlichen Praxis ermöglicht es, wissenschaftliche Informationen von bekannten oder überholten Wahrheiten, Science-Fiction-Ideen usw. zu unterscheiden. Die Gesamtheit der Prozesse des Präsentierens, Übermittelns und Empfangens wissenschaftlicher Informationen macht wissenschaftliche Kommunikation aus. An allen Prozessen der Wissenschaftskommunikation sind ausnahmslos Wissenschaftler oder Spezialisten beteiligt. Der Grad ihrer Beteiligung kann unterschiedlich sein und hängt von den Besonderheiten des Prozesses ab. Unterscheiden Sie zwischen „informellen“ und „formellen“ Verfahren. „Informell“ bezieht sich auf jene Prozesse, die hauptsächlich von Wissenschaftlern oder Spezialisten selbst durchgeführt werden: ein direkter Dialog zwischen ihnen über laufende Forschung oder Entwicklung, der Besuch des Labors ihrer Kollegen und wissenschaftlicher und technischer Ausstellungen, das Sprechen mit einem Publikum, der Austausch von Briefen und Nachdrucken Veröffentlichungen, Aufbereitung von Forschungsergebnissen oder Entwicklungen zur Veröffentlichung. Die "formellen" umfassen: Redaktions-, Veröffentlichungs- und Druckprozesse; Vertrieb von wissenschaftlichen Veröffentlichungen, einschließlich Buchhandel, Bibliotheks- und bibliografische Aktivitäten; wissenschaftliche Literaturaustauschprozesse; Archivierung; eigentlich wissenschaftliche und informative Tätigkeit. Alle „formalen“ Prozesse, mit Ausnahme des letzten, sind nicht spezifisch für die Wissenschaftskommunikation und gehören zum Bereich der Massenkommunikation, deren Hauptmedien Print, Radio, Fernsehen usw. sind. Die erhöhte Komplexität der wissenschaftlichen Arbeit und die Notwendigkeit, seine Effizienz zu steigern, führt zu seiner weiteren Aufteilung, die auf verschiedenen Ebenen stattfindet: auf theoretische und experimentelle Forschung, auf wissenschaftliche Forschung, wissenschaftliche Information und wissenschaftliche und organisatorische Aktivitäten. Den Informationsdiensten werden immer komplexere Aufgaben der Auswahl und Aufbereitung wissenschaftlicher Informationen übertragen, die nur unter gleichzeitiger Nutzung der Informationsleistungen sowie der Theorien und Methoden spezifischer Wissenschaftszweige gelöst werden können. Die wissenschaftliche Informationstätigkeit besteht in der Sammlung, Verarbeitung, Speicherung und Suche von in Dokumenten fixierten wissenschaftlichen Informationen sowie in ihrer Bereitstellung für Wissenschaftler und Fachleute, um die Effizienz von Forschung und Entwicklung zu steigern. Diese Tätigkeit wird zunehmend von integrierten Informationssystemen ausgeführt, die auf dem Prinzip einer einmaligen erschöpfenden Bearbeitung jedes wissenschaftlichen Dokuments durch hochqualifizierte Spezialisten beruhen, die Ergebnisse dieser Bearbeitung in einen Maschinenkomplex, bestehend aus einem Computer und einer Fotosatzmaschine, eingeben und wiederverwenden Ergebnisse zur Lösung verschiedener Informationsprobleme: Veröffentlichung von Abstract-Journalen , Bulletins mit Signalinformationen, analytische Überprüfungen, Sammlungen von Übersetzungen, zur Durchführung einer selektiven Verbreitung von Informationen (siehe Informationssprache), Referenz- und Informationsarbeit, Kopieren von Dokumenten und andere Arten von Informationsdiensten. Seit Mitte der 40er Jahre. 20. Jahrhundert die ersten großen Zeitschriften zu I. erscheinen in verschiedenen Ländern: das Journal of Documentation (L., seit 1945); "Tidskrift for Documentation" (Stockh., seit 1945); "American Documentation" (Wash., seit 1950, seit 1970 - "Journal of the American Society for Information Science"); "Nachrichten für Dokumentation" (Fr./M., seit 1950); "Dokumentation" (Lpz., seit 1953, seit 1969 - "Informatik"). Seit Oktober 1961 erscheint in der UdSSR die monatliche Sammlung Wissenschaftliche und Technische Informationen, die seit 1967 in zwei Reihen erschienen ist: Organisation und Methoden der Informationsarbeit und Informationsprozesse und -systeme. Seit 1963 veröffentlicht VINITI zunächst alle 2 Monate und seit 1966 monatlich die Abstract-Zeitschrift "Scientific and Technical Information", die seit 1970 unter dem Namen "Informatics" erscheint. Seit 1967 erscheint dieses Magazin auch in englischer Sprache. Die folgenden Abstract-Zeitschriften zu I. werden im Ausland veröffentlicht: in Großbritannien - "Library and Information Science Abstracts" (L., seit 1969; 1950-68 hieß es "Library Science Abstracts"), in den USA - "Information Science Abstracts" (Phil. , seit 1969; 1966-68 hieß es "Documentation Abstracts"), in Frankreich - "Bulletin signaletique. Information scientifique et technique“ (P., seit 1970). Seit 1964 erscheint die Express-Information "Theorie und Praxis wissenschaftlicher Information" und seit 1965 - Sammlungen von Übersetzungen ausländischer Publikationen zu I. Seit 1969 erscheint in Kiew die Zeitschriftensammlung „Wissenschaft und Informatik“. Die Ausbildung wissenschaftlicher Mitarbeiter in I. erfolgt seit 1959 durch die Graduiertenschule von VINITI, die Ausbildung von Personal für wissenschaftliche und informationstechnische Tätigkeiten - seit 1963 an den Fortbildungskursen für leitende Ingenieure und technisch-naturwissenschaftliche Mitarbeiter (seit 1972 - das Institute for Advanced Studies of Information Workers), die Ausbildung junger Wissenschaftler - zukünftiger Informationskonsumenten - seit 1964 an der Abteilung für wissenschaftliche Information der Staatlichen Universität Moskau. M. V. Lomonosov, Ingenieure für die Mechanisierung und Automatisierung von Informationsprozessen - in einer Reihe von Fachhochschulen und Maschinenbauinstituten. Im Ausland werden Informationswissenschaften an Universitäten und höheren Fachschulen gelehrt. Es besteht die Tendenz, in einer pädagogischen Spezialisierung einen Komplex von Problemen der Informatik und der Computertechnologie zu vereinen. Lit.: Mikhailov A. I., Cherny A. I., Gilyarevsky R. S., Fundamentals of Informatics, 2. Aufl., M., 1968; sie, Informationsprobleme in der modernen Wissenschaft, M., 1972; Theoretische Probleme der Informatik. Sa. Art., M., 1968; Internationales Forum für Informatik. Sa. Art., Bd. 1-2, M., 1969; Bush V., As we may think, Atlantic Monthly, 1945, Juli, p. 101-108; Jährliche Überprüfung der Informationswissenschaft und -technologie, v. 1-7, N.Y.-a. o., 1966-72; Dembowska M., Dokumentation und wissenschaftliche Information, Warschau, 1968. A. I. Mikhailov, A. I. Cherny, R. S. Gilyarevsky.

M.: FIZMATLIT, 2006. - 768 S.

Das enzyklopädische Referenzwörterbuch enthält mehr als 18.000 russische und englische Begriffe, die thematisch in die folgenden Hauptabschnitte systematisiert sind: I. Grundlagen der Informationstechnologie; II. Automatisierung von Informationsprozessen und automatisierten Systemen (AC); III. Technische Unterstützung der AU; IV. AS-Software; V. Multimedia, Hypermedia, virtuelle Realität, maschinelles Sehen; VI. Netzwerktechnologien zur Datenverarbeitung und -übertragung; VII. Computer- und Netzwerk-Slang; VIII. In E-Mails verwendete Piktogramme; IX. Abkürzungen von Wörtern und Ausdrücken, die im Internet verwendet werden.

Die Wörterbucheinträge sind erweiterter Natur und enthalten Referenzdaten zu den Beschreibungsobjekten sowie Links zu primären dokumentarischen Quellen für eine vollständigere Bekanntschaft mit ihnen für interessierte Benutzer.

Die Struktur und der Inhalt des Wörterbuchs ermöglichen es, es für ein systematisches Studium von Materialien zu den für den Leser interessanten thematischen Abschnitten und Unterabschnitten zu verwenden, um eine Vorstudie zu Entscheidungen im Zusammenhang mit der Gestaltung heterogener automatisierter Informations- und Telekommunikationssysteme durchzuführen , sowie die Dokumente auf ihrer Grundlage pädagogisch-methodisch vorzubereiten, zu rezensieren, nachzuschlagen usw.

Das Wörterbuch richtet sich an ein breites Spektrum von Nutzern, deren berufliche Tätigkeiten oder Interessen einen Bezug zu modernen Informationstechnologien haben.

Format: djvu

Größe: 7,1 MB

Herunterladen: yandex.disk

INHALT
Vorwort zur enzyklopädischen Ausgabe des Wörterbuchs ................................... 7
Vorwort zur dritten Auflage des Wörterbuchs, über das Referenzwörterbuch und seinen Autor ... 9
Vom Autor .......................................... ... .... elf
Über die Verwendung des Wörterbuchs .................................. 13
I. Grundlagen der Informationstechnik................................. 15
1.1. Daten, Informationen, Wissen, Logik....................................... 15
1.2. Informationsressourcen, Informationstheorie, Informatik 19
1.3. Datenträger, Dokumente, Dokumentationen, Veröffentlichungen ...................... 22
1.4. Prinzipien der strukturierten Darstellung von Dokumenten und Daten....... 27
1.4.1. Informationselemente und ihre Typen .................................. 27
1.4.2. Datensatz, Datei, Array, Schlüssel .................................... 30
1.4.3. Strukturen, Datenmodelle und verwandte Begriffe 34
1.4.4. Format, Datenfeld und verwandte Begriffe ......................... 45
1.5. Informationstechnologie................................................ 49
1.5.1. Allgemeine Konzepte und Begriffe................................ 49
1.5.2. Handhabung und Verarbeitung von Dokumenten und Daten................................. 52
1.5.3. Eingeben von Dokumenten und Daten in einen Computer ......................... 58
1.5.4. Informationsabruf ^ allgemeine Konzepte und Begriffe ......... 63
1.5.5. Indizierung, Suchbild von Dokumenten und Abfragen 66
1.6. Sicherheit der Informationstechnologie................................ 74
1.6.1. Allgemeine Konzepte und Begriffe................................. 74
1.6.2. Verschlüsseln und Entschlüsseln von Dokumenten und Daten................. 83
1.6.3. Kryptologie und verwandte Konzepte .......................... 87
II. Automatisierung von Informationsprozessen und automatisierten Informationssystemen 93
2.1. Allgemeine Konzepte und Begriffe .................................. 93
2.2. Automatisierung von Informations- und Bibliotheksprozessen................. 95
2.2.1. Begriffe im Zusammenhang mit der Automatisierung................. 95
2.3. Automatisierte Systeme................................. 98
2.3.1. Allgemeine Konzepte und Begriffe................. 98
2.3.2. Funktionsorientierte automatisierte Systeme..... 106
2.4. Sprach- und Informationsunterstützung automatisierter Systeme 117
2.4.1. Sprachliche Unterstützung ^ allgemeine Konzepte und Begriffe ......... 117
2.4.2. Informationsabrufsprachen und AIS-Wörterbücher ...... 119
2.4.3. AIS-Metadaten und -Formate 128
2.4.4. Informationsunterstützung von AIS .................................. 147
2.5. Personal und Benutzer von automatisierten Systemen .................... 153
2.5.1. AIS-Entwickler und -Personal ......................... 153
2.5.2. AIS-Benutzer ................................................... 157
2.5.3. Zertifizierung von Spezialisten für AIS .................................. 159
2.6. Prozesse der Erstellung und des Betriebs automatisierter Systeme .......... 162
2.6.1. Design automatisierter Systeme................................. 162
2.6.2. AIS-Lebenszyklus und Systemintegration................................. 165
III. Technischer Support von automatisierten Systemen .......... 169
3.1. Computer, ihre Typen und allgemeine Klassifizierung 169
3.2. Architektur, Konfiguration, Computerplattform....................... 175
3.3. Personalcomputer (PCs) .................................. 178
3.4. Tragbare PCs und eigenständige digitale Geräte für verschiedene Zwecke ... 185
3.4.1. Arten von Laptops .................................................. 185
3.4.2. Digitale Wiedergabe- und Aufnahmegeräte 188
3.5. Die Systemeinheit und ihre Konstruktionselemente .................... 191
3.5.1. Prozessoren, ihre Typen und verwandte Begriffe....... 192
3.5.2. Computerspeicher ^ Konzepte und Begriffe ......................... 202
3.5.3. Funktionale Geräte des Computerspeichers .................. 208
3.5.4. Adapter, Schnittstellen und verwandte Begriffe................. 216
3.5.5. Boards, Ports, Busse, Slots................................. 224
3.6. Periphere (externe) Computergeräte .................................... 233
3.6.1. Externer Computerspeicher, Laufwerke und verwandte Begriffe ..... 233
3.6.2. CDs und verwandte Begriffe................................. 251
3.6.3. Dateneingabegeräte, Manipulatoren .......................... 260
3.6.4. Ausgabegeräte................................................ 271
3.6.5. Modems, Encoder, Netzteile....................... 286
3.7. PC-Karten .................................................... ......... .. 289
3.8. Mikroelektronische Computerbasis .................................... 294
3.9. Optoelektronische Bauelemente................................ 299
IV. Software für automatisierte Systeme .......... 303
4.1. Algorithmen, Programme, Programmierung....................................... 303
4.1.1. Allgemeine Konzepte und Begriffe 303
4.1.2. Programmiersprachen .................................... 307
4.1.3. Programmierbezogene Begriffe................................. 319
4.2. Allgemeine Software................................ 327
4.2.1. Betriebssysteme ................................... 328
4.2.2. Allgemeine Software-Service-Tools 338
4.3. Anwendungssoftware für automatisierte Systeme....... 339
4.3.1. Allgemeine Konzepte und Begriffe ...................... 339
4.3.2. Anwendungsprogramme .................................... 342
4.3.3. Computerviren und Antivirenprogramme .......................... 346
4.4. Begriffe im Zusammenhang mit dem Betrieb von Softwaretools 350
4.4.1. Einige allgemeine Konzepte und Begriffe ...................... 350
4.4.2. Datensätze archivieren, komprimieren, wiederherstellen ......... 352
4.4.3. Zugang, Adresse und verwandte Begriffe................................. 364
V. Multimedia, Hypermedia, virtuelle Realität, maschinelles Sehen. 372
5.1. Multimediasysteme und verwandte Begriffe. ................. 372
5.2. Mittel zur musikalischen und sprachlichen Begleitung .......... 375
5.2.1. Allgemeine Konzepte und Begriffe................................. 375
5.2.2. Tondateien, ihre Standards und Formate ................................... 380
5.3. Maschinen-(Computer-)Grafik .................................. 389
5.3.1. Allgemeine Konzepte und Begriffe................................ 389
5.3.2. Grafikdateien und ihre Formate................................. 392
5.3.3. Computergraphiktechnologie................................ 400
5.4. Computervideo, digitales Fernsehen und Animation ................................ 408
5.4.1. Allgemeine Konzepte und Begriffe................................. 408
5.4.2. Videotechnik .................................................... 412
5.4.3. Animationstechnologie................................ 416
5.4.4. Digitalfernsehen 420
5.5. Virtuelle Realität, Parallelwelten. ...................... 424
5.6. Maschinelles Sehen................................................ 427
VI. Netzwerktechnologien. Mittel zur Verarbeitung und Übertragung von Informationen 430
6.1. Allgemeine Konzepte und Begriffe ...................... 430
6.2. Lokale Netzwerke................................................ 433
6.3. Verteilte Computernetzwerke................................. 441
6.3.1. Allgemeine Konzepte und Begriffe................................. 441
6.3.2. Intranet................................ 450
6.3.3. ETHERNET ......................... 455
6.4. Globale Datenverarbeitungsnetze, Internet ...................... 471
6.4.1. Allgemeine Konzepte und Begriffe................................. 471
6.4.2. Web-Technologie................................................ 482
6.4.3. Technologien für die Datenübertragung über Internetkanäle....................... 489
6.4.4. Dienste und Service-Tools im Internet................................. 499
6.4.5. Integrierte digitale Netzwerkdienste - ISDN .................................. 518
6.4.6. Mobilfunk und Computertelefonie .................................. 520
6.4.7. Fernmeldeanlagen von Gebäuden .................................. 526
6.4.8. Entwicklung technischer Mittel und Komplexe auf der Grundlage der Nutzung von Telekommunikationstechnologien 532
6.4.9. Themen des Rechtsverkehrs im Internet .................................. 533
6.5. Mittel und Technologien zum Schutz von Computernetzwerken................................. 536
6.6. Grundlegende Standards für Datennetze. ......................... 541
6.6.1. ISO-Normen ................................................ . 541
6.6.2. IEEE-Standards ................................ 543
6.6.3. ITU-T-Standards .................................................. 554
6.6.4. Andere Standards und Protokolle................................. 560
VII. Computer- und Netzwerk-Slang .................................. 565
VIII. E-Mail-Symbole und Emoticon-Symbole....... 592
IX. Abkürzungen von Wörtern und Ausdrücken, die im Internet verwendet werden ...... 594
Referenzen ................................................ 597
Englischer alphabetischer Index................................................. 644
Russischer alphabetischer Index................................................. ... 708

INFORMATION (englische Informatik), die Wissenschaft des Extrahierens von Informationen aus Nachrichten, Erstellen von Informationsressourcen, Programmieren des Verhaltens von Maschinen und anderen Entitäten im Zusammenhang mit der Konstruktion und Verwendung einer Mensch-Maschine-Umgebung zur Lösung von Problemen der Modellierung, des Designs, der Interaktion, des Lernens, usw. Es untersucht die Eigenschaften von Informationen, Methoden, um sie aus Nachrichten zu extrahieren und in einer bestimmten Form darzustellen; Eigenschaften, Methoden und Mittel der Informationsinteraktion; Eigenschaften von Informationsressourcen, Methoden und Mittel zu ihrer Erstellung, Darstellung, Speicherung, Sammlung, Suche, Übertragung und Sicherung; Eigenschaften, Methoden und Mittel zur Konstruktion und Verwendung programmierbarer Maschinen und Mensch-Maschine-Umgebungen zur Lösung von Problemen.

Wissenschaftliche Produktion von Informatik

Die wissenschaftliche Produktion von Informatik dient als methodische Grundlage für die Konstruktion einer Mensch-Maschine-Umgebung zur Lösung von Problemen (Abb. 1) in verschiedenen Tätigkeitsfeldern.

Die Ergebnisse der Untersuchung von Entitäten (in der Wissenschaft üblicherweise als Objekte bezeichnet) werden durch ihre symbolischen und/oder physikalischen Modelle repräsentiert. Symbolische Modelle sind Beschreibungen von erworbenem Wissen [vgl. Symbolische Modellierung(s-modeling)], und physische sind Prototypen der untersuchten Objekte, die ihre Eigenschaften, ihr Verhalten usw. widerspiegeln. Das wissenschaftliche Ergebnis ist ein Modell eines Wissenssystems (oder eine Komponente eines zuvor definierten und veröffentlichten Modells), das beschreibt eine Reihe von Objekten, einschließlich des zu untersuchenden Objekts, und die Beziehungen zwischen ihnen . Die Beschreibung des Modells wird in Form einer Nachricht präsentiert, die zur Anerkennung und Interpretation durch die wissenschaftliche Gemeinschaft bestimmt ist. Der Wert des Ergebnisses hängt von der Vorhersagekraft, Reproduzierbarkeit und Anwendbarkeit des Modells sowie von den Eigenschaften der Nachricht ab, die seine Beschreibung enthält.

Beispiele für Ergebnisse, die bei der methodischen Unterstützung des Aufbaus einer Mensch-Maschine-Umgebung zur Lösung von Problemen eine herausragende Rolle gespielt haben, können sein: das von J. von Neumann erfundene Modell einer digitalen elektronischen Maschine mit in einem gemeinsamen Speicher abgelegten Programmanweisungen und Daten [ bekannt als das von-Neumann-Modell] und die von-Neumann-Architektur] ; erfunden vom Schöpfer des Internets (vgl. Das Internet) T. Berner Lee HTTP-Protokoll(eng. Hypertext Transfer Protocol – Hypertext Transfer Protocol), das ein Protokoll auf Anwendungsebene ist, das die Regeln für die Übertragung von Nachrichten in Hypermedia- (siehe Multimedia-) Systemen definiert, und einen einheitlichen Ressourcenbezeichner URI (eng. Uniform Resource Identifier), der über zum Standard für die Aufzeichnung der Adresse einer im Internet gehosteten Ressource geworden. Es ist schwer, heute (2017) ein Betätigungsfeld zu finden, in dem die wissenschaftlichen Produkte der Informatik nicht angewendet werden. Darauf aufbauend wurden E-Mail, das Web, Suchmaschinen, IP-Telefonie, das Internet der Dinge und andere Internetdienste geschaffen (siehe Internet); digitale Ton-, Foto- und Videoaufzeichnung; Computergestützte Entwurfssysteme (CAD); Computersimulatoren und Roboter (vgl. Computermodellierung), digitale Kommunikationssysteme, Navigationssysteme, 3D-Drucker usw.

Grundlegendes Konzept

Die Weiterentwicklung der Informatik wird begleitet von der Entwicklung ihres Begriffsapparates und der Verfeinerung des Forschungsgegenstandes. 2006 wurde am Institut für Informatikprobleme der Russischen Akademie der Wissenschaften (IPI RAS) ein neuer Forschungsbereich geschaffen - symbolische Modellierung beliebiger Objekte in einer Mensch-Maschine-Umgebung (abgekürzt- von symbolische Simulation oder S-Simulation). Eines der ersten wissenschaftlichen Projekte in diesem Bereich widmete sich der Methodik zur Konstruktion eines symbolischen Modells des Informatik-Wissenssystems in einer Mensch-Maschine-Umgebung. . In der 2009 erstellten Theorie der symbolischen Modellierung (S-Modellierung) wurde die nächste Version des symbolischen Modells des Kerns des Systems der Informatikkonzepte vorgeschlagen, die die folgenden Konzepte enthält.

Nachricht(engl. message) wird als eine endliche geordnete Menge von Symbolen (visuell, akustisch usw.; siehe Symbol in der Informatik) oder deren Code (siehe Code in der Informatik) betrachtet, der das Interaktionsprotokoll zwischen Quelle und Empfänger erfüllt. Die Existenz einer Nachricht setzt die Existenz einer Nachrichtenquelle, eines Empfängers, eines Trägers, eines Übertragungsmediums, eines Zustellmittels und eines Protokolls für die Interaktion zwischen Quelle und Empfänger voraus. In der Mensch-Maschine-Umgebung zur Problemlösung (S-Environment) bilden Menschen mit Hilfe programmierbarer Maschinen (S-Maschinen) Nachrichten, präsentieren sie in Abfragesprachen, programmieren etc.; verschiedene Umwandlungen durchführen (z. B. von analog zu digital und umgekehrt; von unkomprimiert zu komprimiert und umgekehrt; von einer Form der Dokumentendarstellung zu einer anderen); erkennen, Nachrichten verwenden, um neue Nachrichten zu konstruieren (Programme, Dokumente usw.); Interpretieren auf Modellen von Konzeptsystemen (die im Gedächtnis des Interpreten auch in Form von Nachrichten gespeichert sind); Nachrichten über software- und hardwareimplementierte Regelsysteme (Netzwerkprotokolle, siehe unten) austauschen. Computernetzwerk); Nachrichten speichern und sammeln (durch Erstellen elektronischer Bibliotheken, Enzyklopädien und anderer Informationsressourcen), die Probleme beim Suchen und Schützen von Nachrichten lösen.

Nachrichteninterpreter wird als Erbauer der Ausgabenachricht gemäß der Eingabe gemäß dem gegebenen System von Interpretationsregeln untersucht. Eine notwendige Voraussetzung für die Konstruktion eines Nachrichteninterpreters ist die Existenz von Modellen der Eingabe- und Ausgabesprachen sowie von Modellen von Konzeptsystemen, auf denen in den Eingabe- und Ausgabesprachen geschriebene Nachrichten interpretiert werden sollen.

Daten(eng. Daten) - eine Nachricht, die zur Lösung eines bestimmten Problems oder einer Reihe von Problemen erforderlich ist und in einer Form präsentiert wird, die für die Erkennung, Transformation und Interpretation durch den Löser (Programm oder Person) bestimmt ist. Eine Person nimmt Daten (Text, Bilder usw.) in symbolischer Form wahr, und ein Computerprogramm bzw Computergerät(Smartphone, Digitalkamera usw.) - im Code.

Information(engl. information) wird als Ergebnis der Interpretation der Botschaft nach dem Vorbild des Begriffssystems untersucht [vgl. Symbolische Modellierung(S-Simulation)]. Um Informationen aus einer Nachricht zu extrahieren, ist es notwendig, dass die empfangene Nachricht in einer Form präsentiert wird, die dafür ausgelegt ist, vom Empfänger der Nachricht erkannt und interpretiert zu werden; Konzeptsystemmodelle, die im Speicher des Interpreters gespeichert sind, darunter dasjenige, das zum Interpretieren der empfangenen Nachricht notwendig ist; Mechanismen für die Suche nach dem erforderlichen Modell, die Interpretation der Nachricht, die Präsentation des Interpretationsergebnisses in einer für den Empfänger bestimmten Form (Abb. 2).

Beispielsweise ist das Ergebnis des Interpretierens der Nachricht ma, präsentiert in Sprache a, empfangen durch den Übersetzer (Mensch oder Roboter) in Form einer Nachricht mb in Sprache b, die aus der Nachricht ma extrahierte Information.

Programmierbare Aufgabe(s-problem) wird als Menge betrachtet (Formul , Rulsys , Alg , Prog ), wobei Formel die Problemstellung ist; Rulsys - eine Reihe von Systemen verbindlicher und orientierender Regeln zur Lösung eines Problems, die an der Formel ausgerichtet sind; Alg ist die Vereinigung von Sätzen von Algorithmen, von denen jeder einem Element aus Rulsys entspricht; Prog ist die Vereinigung von Programmmengen, von denen jede einem der Elemente von Alg zugeordnet ist. Jedes Element aus Rulsys , Alg und Prog muss mit einer Anwendungsbeschreibung versehen werden. Beschreibungen der Verwendung von Rulsys-Elementen umfassen die Spezifikation der Art des Problemlösers (autonome S-Maschine, Netzwerkkooperation von S-Maschinen, Mensch-Maschine-Kooperation usw.), Infousw. Betriebsmodi des Problemlösers ( automatisch lokal, automatisch verteilt, interaktiv lokal usw.), Anforderungen an das erzielte Ergebnis usw. Beschreibungen der Anwendung von Programmen enthalten Daten zu Implementierungssprachen, Betriebssystemen usw.

Algorithmus– eine formalisierte Beschreibung einer endlichen Menge von Schritten zur Lösung des Problems, die einem der Elemente von Rulsys entsprechen und eine Eins-zu-Eins-Korrespondenz zwischen einer gegebenen Menge von Eingabedaten und der resultierenden Menge von Ausgabedaten ermöglichen.

Programm– ein Algorithmus, der in einer höheren Programmiersprache, einer maschinenorientierten Sprache und/oder in einem System von Maschinenanweisungen implementiert ist. Präsentiert in Form einer Nachricht, die das Verhalten eines S-Maschinen-Problemlösers mit bestimmten Eigenschaften definiert. Existiert in Symbol-, Code- und Signalinkarnationen, die durch Übersetzungsbeziehungen verbunden sind (siehe Compiler in der Informatik).

Symbol(englisches Symbol) - ein Ersatz für ein natürliches oder erfundenes Objekt, das dieses Objekt bezeichnet und ein Element eines bestimmten Systems zum Erstellen symbolischer Botschaften (Texte, Musiknoten usw.) ist, das dazu bestimmt ist, von einer Person oder einem Roboter wahrgenommen zu werden. Das russische Alphabet ist beispielsweise ein System von Textsymbolen; der Buchstabe A in diesem System ist ein Symbol, das den entsprechenden Ton aus dem System der Sprachaudiosymbole der russischen Sprache ersetzt; Der Buchstabe A entspricht einem taktilen Textsymbol (erfasst durch Berührung mit den Fingern) in einem Textnachrichtensystem für Blinde, das als Braille bekannt ist (siehe Abb. Blindenschrift). Der Satz von visuellen, akustischen und anderen Symbolen, die ausgewählt wurden, um Nachrichten eines bestimmten Typs aufzubauen, wird als ein Satz von elementaren konstruktiven Objekten betrachtet, von denen jedes mit einem Satz von Attributen und einem Satz von erlaubten Operationen ausgestattet ist. Die Bildung von Strukturen aus den Elementen dieser Menge wird durch das Regelwerk zum Aufbau symbolischer Modelle bestimmt [näheres dazu im Artikel Symbol in der Informatik (s-Symbol)].

Der Code(englischer Code) - ein Ersatz für ein Symbol oder eine symbolische Nachricht, die verwendet wird, um sie in Computern, Smartphones und anderen programmierbaren Maschinen darzustellen und um symbolische Nachrichten zu erstellen, zu speichern, zu übertragen und zu interpretieren [weitere Einzelheiten finden Sie im Artikel Code in der Informatik ( S-Code)].

Signal(engl. Signal) ist eine optische, akustische oder andere Wirkung, die von den menschlichen Sinnen oder maschinellen Sensoren wahrgenommen wird, oder die Darstellung des Codes in Form einer elektromagnetischen Strahlungsfrequenz, Zusammensetzungen von elektrischen Spannungswerten oder anderen, die wahrgenommen werden sollen die Maschinenhardware (z. B. die Zentraleinheit eines Computers, Mikroprozessor Autonavigation). Symbole, Codes und Signale sind durch Transformationsbeziehungen miteinander verbunden. Jedem Symbol und jeder symbolischen Konstruktion, die für die Wahrnehmung durch einen Menschen oder einen Roboter entworfen wurden, kann eine Eins-zu-eins-Korrespondenz mit Codes zugewiesen werden, die dazu bestimmt sind, sie mit Hilfe von Computersoftware und Computergeräten zu manipulieren.

Konzeptsystemmodell. Das S-Modell Cons eines Konzeptsystems wird als Paar betrachtet (ConsSet , ConsRel ), wobei ConsSet eine Menge von Konzepten ist; ConsRel ist eine Familie von Beziehungen, die auf ConsSet definiert sind. Definition eines Begriffssystems - eine Beschreibung seines Modells, begleitet von einer Angabe des Umfangs. Die Beschreibung wird in Form einer Nachricht präsentiert, die zur Interpretation durch den Empfänger, zur Präsentation, Speicherung, Verteilung, Akkumulation und Suche in der Mensch-Maschine-Umgebung der intellektuellen Aktivität bestimmt ist. Ein System von Begriffen, die als definitiv angesehen werden, sollte keine Begriffe enthalten, die keine Definitionen haben (und gleichzeitig nicht mit Begriffsaxiomen verwandt sind). Bestimmung des Umfangs der Anwendbarkeit des Modells - Beschreibung der Arten von Korrespondenten (an die sich die Definition richtet), das Ziel im Prozess der Erreichung, das die Definition sinnvoll macht (Klassen von Aufgaben, für deren Studium die Definition nützlich sein kann), die Phase, in der es ratsam ist, die Definition zu verwenden (Konzept, Lösungsmethodik usw.) d.).

Wissenssystemmodell. Das Konzept des „Know“ in der S-Modellierung [vgl. Symbolische Modellierung(s-simulation)] ist definiert als der Zustand des Nachrichtenempfängers, wenn die aus der Interpretation der Eingangsnachricht resultierende Ausgangsnachricht als bereits bekannt erkannt wird und keine Änderungen in den im Gedächtnis der Nachricht gespeicherten Modellen von Konzeptsystemen erfordert Empfänger. Der Begriff "Wissen" ist definiert als eine komplexe Fähigkeit, Informationen aus Nachrichten zu extrahieren, die die Bedingungen von Aufgaben einer bestimmten Klasse enthalten (dies können Aufgaben der Mustererkennung, Übersetzung von einer Sprache in eine andere oder andere Klassen von Aufgaben sein). Das S-Modell des Wissenssystems wird als Triade (Cons, Lang, Interp) betrachtet, wobei Cons das S-Modell des Konzeptsystems ist; Lang ist das S-Modell des Satzes von Nachrichtensprachen, die auf Cons interpretiert werden; Interp ist das S-Modell der Sammlung von Dolmetschern über Cons von Nachrichten, die in Sprachen von Lang verfasst wurden.

Die Interpretation der Nachricht zum Cons-Modell umfasst:

1) Erstellen einer Ausgangsnachricht (Extraktion von Informationen) gemäß einer gegebenen Eingangsnachricht (Nachrichten werden in Sprachen aus dem Satz Lang präsentiert);

2) Analyse der Ausgabenachricht (ob Änderungen im Cons-Modell erforderlich sind);

3) falls erforderlich, dann das Cons-Modell ändern; wenn nicht, ende.

Beispielsweise ist das Gehirnzentrum eines modernen computergestützten Konstruktionssystems (CAD) das Wissenssystem. Die Produktivität des Designs hängt davon ab, wie gut es gebaut ist.

Programmierbare Maschine(s-machine) ist eine Software- und Hardwarestruktur zum Lösen von Problemen. Supercomputer, Mainframes, PCs, Laptops, Smartphones, Navigationsgeräte, Digitalkameras und Videokameras sind alle S-Autos. Tastaturen, Mäuse, Trackballs, Touchpads und andere Eingabegeräte sind Bestandteile von S-Maschinen, die Zeichen in Codes umwandeln, die von Treibern (siehe Treiber in der Informatik) der entsprechenden Geräte akzeptiert werden. Monitore von Personalcomputern, Displays von Laptops, Navigatoren usw. wandeln von Videocontrollern generierte Codes in symbolische Kompositionen um, die für den menschlichen visuellen Kanal bestimmt sind.

(s-environment) - eine Vereinigung von Computernetzwerken und einzelnen programmierbaren Maschinen, die zur Lösung verschiedener Probleme verwendet werden. Mittel zur Informatisierung verschiedener Arten von Aktivitäten. Die S-Umgebung muss die Darstellung digitaler Codes symbolischer Modelle und die Manipulation solcher Codes mit Hilfe von S-Maschinen ermöglichen. Im Zentrum der modernen digitalen Kommunikationstechnologien, des computergestützten Designs usw. steht eine Idee, die in Bezug auf die Konsequenzen ihrer Umsetzung bemerkenswert ist – alle symbolische Vielfalt auf digitale Codes [und jeden von ihnen auf einen einzigen Code] zu reduzieren (sie haben immer noch einen binären Code)] und weisen programmierbaren Maschinen die Arbeit mit Codes an, kombiniert in einer Mensch-Maschine-Umgebung zur Problemlösung.

Informationsinteraktion im S-Medium(Abb. 3) wird als eine Menge von Schnittstellen wie „Mensch – Mensch“, „Mensch – Programm“, „Mensch – Hardware einer programmierbaren Maschine“, „Programm – Programm“, „Programm – Hardware“ untersucht (siehe Schnittstelle Port in der Informatik). Ein Mensch nimmt analoge Eingangssignale (Licht, Ton usw.) mit Hilfe von visuellen, auditiven und anderen Eingabegeräten der Biointelligenz (einem biologischen System, das die Funktion des Intellekts gewährleistet) wahr. Er wandelt die ihn interessierenden Signale in symbolische visuelle, akustische und andere Konstruktionen um, die in Denkprozessen verwendet werden. Die Ausgangssignale der Biointelligenz werden durch Gesten (z. B. bei der Eingabe über Tastatur und Maus), Sprache usw. realisiert. Die Ein- und Ausgabe der Programme sind die Eingabedaten und Ergebniscodes (siehe Abb. Der Code in der Informatik) und die Ein- und Ausgabe der Hardware sind Signale. Analoge Eingangssignale werden mit in digitale Signale umgewandelt Analog-Digital-Wandler(ADC) und der Ausgang digital zu analog mit Digital-Analog-Wandler(DAC).

In der modernen (2017) s-Umgebung werden natürliche Mittel der menschlichen Signalwahrnehmung, -verarbeitung und -speicherung durch erfundene ergänzt: digitale Foto- und Videokameras, Smartphones usw. Ein bekannter Teil der Infowird durch die sich schnell entwickelnde repräsentiert Internet-Dienste. Wird verwendet, um mit Menschen zu interagieren E-Mail(englische E-Mail), verschiedene Arten von Internetverbindungen [ Internettelefonie(IP-Telefonie); beispielsweise implementiert im Internetdienst Skype; Boten (engl. messenger - connected); B. der Internetdienst Telegram), soziale Netzwerke (engl. social networks) usw. Für die Interaktion von Dingen, die von Menschen genutzt werden (Beleuchtungssysteme, Temperaturhaltung usw.) untereinander und mit der äußeren Umgebung, werden Informationstechnologien der „ Internet der Dinge“ verwendet werden (vgl. Internet).

Grundlegende Aufgabenklassen

Basierend auf der Untersuchung von Eigenschaften und Mustern Symbolische Modellierung(s-simulation) werden die folgenden Klassen grundlegender Informatikprobleme definiert.

Darstellung beliebiger Objektmodelle, konzipiert für die menschliche Wahrnehmung und programmierbare Maschinen, ist mit der Erfindung von Nachrichtensprachen verbunden, die bestimmte Anforderungen erfüllen. Diese Klasse untersucht die Symbol- und Codesysteme, die in menschen- und maschinenorientierten Sprachen verwendet werden. Die erste umfasst Sprachen der Spezifikation, Programmierung, Abfragen, die zweite - Systeme von Maschinenanweisungen. Diese Klasse umfasst auch Datenpräsentationsaufgaben. Es umfasst die Aufgaben der Darstellung von Modellen von Konzeptsystemen, auf denen Botschaften interpretiert werden. Auf der obersten Ebene der Aufgabenhierarchie dieser Klasse steht die Darstellung von Modellen von Wissenssystemen.

Konvertieren von Typen und Darstellungsformen symbolischer Modelle ermöglicht es Ihnen, eine Korrespondenz zwischen Modellen herzustellen. Die Aufgaben der Umwandlung von Typen (zB Sprache in Text und umgekehrt) und Formen (zB analog nach digital und umgekehrt; unkomprimiert nach komprimiert und umgekehrt; *.doc nach *.pdf) sind eine notwendige Ergänzung der Aufgaben der Darstellung von Modellen.

Nachrichtenerkennung impliziert die Notwendigkeit, sie in einem dem Empfänger bekannten Format zu präsentieren. Wenn diese Bedingung erfüllt ist, werden zum Erkennen der Nachricht die Aufgaben des Abgleichs mit Modellmodellen oder des Abgleichs der Eigenschaften des erkannten Modells mit den Eigenschaften von Modellmodellen gelöst. Beispielsweise werden bei der Aufgabe zur biometrischen Identifizierung einer Person ihre biometrischen Daten (Eingabenachricht) mit einem biometrischen Muster aus der Datenbank des biometrischen Systems verglichen.

Modellbau Konzeptsysteme, Wissenssysteme, Nachrichteninterpreter auf Modellen von Konzeptsystemen; Aufgabenmodelle, Programmiertechniken, Interaktion in der S-Umgebung; Architekturmodelle von S-Maschinen, Computernetzwerken, serviceorientierten Architekturen; Nachrichtenmodelle und Mittel ihrer Konstruktion, Dokumente und Arbeitsabläufe. Auf der obersten Ebene der Hierarchie dieser Klasse befinden sich die Aufgaben der Konstruktion von S-Umgebungsmodellen und symbolischen Modellierungstechnologien.

Nachrichteninterpretation(Informationsextraktion) setzt die Existenz der empfangenen Nachricht, das Modell des Begriffssystems, nach dem sie interpretiert werden soll, und den Interpretationsmechanismus voraus. Das Lösen von Problemen in der Mensch-Maschine-Umgebung ist die Interpretation der Ausgangsdaten (Eingangsnachricht) nach dem Modell des im Algorithmus vorgestellten Begriffssystems. Das Ergebnis der Lösung ist die Ausgangsnachricht (aus der Eingangsnachricht extrahierte Informationen). Wenn der Interpreter ein ausführbares Programm ist, dann werden die Ausgangsdaten, das Programm und das Ergebnis der Problemlösung durch die entsprechenden Codes dargestellt (siehe Code in der Informatik). Für den Mikroprozessor der programmierbaren Maschine werden die zu interpretierenden Nachrichten und die Ergebnisse der Interpretation durch Signale dargestellt, die Maschinenbefehlen und Datencodes entsprechen. Beispielsweise wirkt beim Fotografieren mit einer Digitalkamera eine Nachricht (in Form eines Lichtsignals) auf eine lichtempfindliche Matrix ein, wird von dieser erkannt und dann in einen digitalen Bildcode umgewandelt, der von einem bildverbessernden Programm interpretiert wird Qualität. Das resultierende Ergebnis wird umgewandelt und (auf dem eingebauten Speicher oder der Speicherkarte der Kamera) als Grafikdatei gespeichert.

Nachrichtenaustausch: die Aufgaben der Konstruktion von Schnittstellen vom Typ „Mensch – Mensch“, „Mensch – Programm“, „Mensch – Hardware einer programmierbaren Maschine“, „Programm – Programm“, „Programm – Hardware“ (siehe Schnittstelle in der Informatik), „ Hardware - Hardware“ (siehe Port in der Informatik); Aufgaben des Messaging in einer Mensch-Maschine-Umgebung zur Lösung von Problemen (mit Eingabe von Absendern und Empfängern; Mittel zum Senden, Senden und Empfangen von Nachrichten; Messaging-Umgebungen). Systeme von Nachrichtenaustauschregeln (Netzwerkprotokolle) werden erfunden; Netzwerkarchitekturen; Dokumentenmanagementsysteme. Beispielsweise werden Nachrichten zwischen Prozessen ausgetauscht Betriebssysteme(OS), S-Maschinenprogramme in einem Computernetzwerk, E-Mail-Benutzer usw.

Nachrichten speichern, sammeln und suchen: Gedächtnis- und Speichergeräte, ihre Kontrollmechanismen werden untersucht und typisiert; Formen der Konservierung und Akkumulation; Medien, Methoden der Erhaltung, Akkumulation und Suche; Datenbanken und Softwarebibliotheken. Modelle des Suchgegenstands (nach Modell, nach Merkmalen, nach Beschreibung von Eigenschaften) und Suchmethoden werden untersucht.

Informationsschutz: Die Probleme der Prävention und Erkennung von Schwachstellen, Zugriffskontrolle, Schutz vor Eindringlingen, Malware, Abfangen von Nachrichten und unbefugter Nutzung werden untersucht.

Forschungsgebiete

Die wichtigsten wissenschaftlichen Ideen, die die Entwicklung der Informatik beeinflussen, sind in der methodischen Unterstützung für die Konstruktion von Werkzeugen zur Unterstützung der Prozesse der Kognition, der Informationsinteraktion und der automatisierten Lösung verschiedener Probleme enthalten. In der gegenwärtigen Phase (2017) der Entwicklung der Informatik sind die folgenden miteinander verbundenen Komplexe von Forschungsgebieten relevant.

Automatisierung von Berechnungen(Rechnen mit Hilfe programmierbarer Maschinen): Modelle, Architekturen und Befehlssysteme programmierbarer Maschinen werden untersucht; Algorithmisierung programmierbarer Aufgaben [Algorithmen und Datenstrukturen, verteilte Algorithmen (Distributed Algorithms), randomisierte Algorithmen (Randomized Algorithms) etc.]; Verteiltes Rechnen (Verteiltes Rechnen), Cloud Computing(Cloud Computing); Komplexität und Ressourcenintensität von Berechnungen.

Programmierung: Systeme von Textsymbolen und Codes werden untersucht; Programmiersprachen und Aufgabenspezifikationen; Übersetzer; Programmbibliotheken; Systemprogrammierung; Betriebssysteme; Instrumentelle Programmiersysteme; Datenbankmanagementsystem; Programmiertechnologien; Online-Dienste zur Lösung von Problemen usw.

Mensch-Maschine-Umgebung zur Problemlösung(S-Umgebung): Modelle, Methoden und Werkzeuge zum Aufbau einer S-Umgebung, Computernetzwerke, digitale Kommunikationsnetzwerke, das Internet werden untersucht.

Wahrnehmung und Präsentation von Botschaften, Interaktion in der S-Umgebung: Modelle, Methoden und Mittel der Wahrnehmung und Präsentation von visuellen, akustischen, taktilen und anderen Botschaften werden untersucht; Computersehen, Hören und andere künstliche Sensoren; Bildung von akustischen, visuellen, taktilen und anderen Nachrichten (einschließlich kombinierter Nachrichten), die für eine Person und einen Partnerroboter bestimmt sind; Erkennung von akustischen, visuellen und anderen Nachrichten (Sprache, Gesten usw.); Bildverarbeitung, Computergrafik, Visualisierung etc.; Nachrichtenaustausch (Nachrichtenmodelle, Methoden und Mittel ihres Empfangs und ihrer Übermittlung); Schnittstellen des Benutzers, Programme, Hardware, Programme mit Hardware; Online-Interaktionsdienste (Messenger, soziale Netzwerke usw.).

Informationsquellen und Systeme zur Lösung von Problemen im S-Umfeld: Modelle, Methoden und Mittel zum Erstellen, Darstellen, Speichern, Sammeln, Suchen, Übertragen und Schützen von Informationsressourcen werden untersucht; Elektronische Dokumentenverwaltung; elektronische Bibliotheken und andere Informationssysteme; Web (vgl Das Internet).

Informationssicherheit und Kryptografie: Methoden zur Prävention und Erkennung von Schwachstellen werden untersucht; Zugangskontrolle; Schutz von Informationssystemen vor Eindringen, Malware, Abfangen von Nachrichten; unbefugte Nutzung von Informationsressourcen, Software und Hardware.

Künstliche Intelligenz: Modelle, Methoden und Werkzeuge zum Bau intelligenter Roboter, die als menschliche Partner (zur Lösung von Sicherheitsproblemen, Situationskontrolle usw.) eingesetzt werden, werden untersucht; Experten-Entscheidungsmethoden.

Symbolische Modellierung: Systeme von visuellen, akustischen, taktilen und anderen Symbolen werden untersucht, die als konstruktive Objekte für den Bau von Modellen beliebiger Entitäten betrachtet werden, die für eine Person entworfen wurden (Konzeptsysteme und Wissenssysteme, Umgebungsobjekte und von Menschen erfundene Objekte); Codesysteme, die mit Symbolsystemen in Übereinstimmung gebracht werden und zur Konstruktion von Codeäquivalenten symbolischer Modelle bestimmt sind, die für die Manipulation mit Hilfe von Programmen bestimmt sind; Sprachen zur Beschreibung symbolischer Modelle; Typisierung symbolischer Modelle und ihrer Code-Äquivalente; Methoden zur Konstruktion symbolischer Modelle von Konzeptsystemen und Wissenssystemen (einschließlich Wissenssystemen über programmierbare Aufgaben) [weitere Einzelheiten finden Sie im Artikel Symbolische Modellierung(S-Simulation)].

Die Entstehung der Informatik

Symbolische Modellierung von Untersuchungsobjekten dient seit langem als wichtigstes Instrument zur Präsentation von erworbenem Wissen. Die Erfindung von Symbolen (gestisch, graphisch usw.) und die daraus aufgebauten symbolischen Botschaftsmodelle, die Repräsentation und Akkumulation solcher Modelle in der äußeren Umgebung sind zu Schlüsselmitteln für die Bildung und Entwicklung intellektueller Fähigkeiten geworden. Die dominierende Rolle symbolischer Modelle in der intellektuellen Aktivität wird nicht nur durch ihre Kompaktheit und Ausdruckskraft bestimmt, sondern auch durch die Tatsache, dass es keine Beschränkungen hinsichtlich der Art der Medien gibt, in denen sie gespeichert werden. Die Medien können ein menschliches Gedächtnis, ein Blatt Papier, eine digitale Kameramatrix, ein digitaler Sprachaufzeichnungsspeicher oder etwas anderes sein. Die Kosten für das Bauen, Kopieren, Übertragen, Sichern und Sammeln von symbolischen Modellen sind unvergleichlich geringer als ähnliche Kosten, die mit nicht symbolischen Modellen (z. B. Modellen von Schiffen, Gebäuden usw.) verbunden sind. Ohne symbolische Modellierungswerkzeuge ist die Entwicklung von Wissenschaft, Technik und anderen Aktivitäten schwer vorstellbar.

In den frühen Stadien der Entwicklung der Modellierung war die Vielfalt der zu modellierenden Objekte auf das beschränkt, was allgemein als Umgebungsobjekte bezeichnet wird, und die Modelle dieser Objekte waren physisch. Die Entwicklung von Geräuschen, Gesten und anderen Mitteln der symbolischen Modellierung von Bedeutungen, die durch die Notwendigkeit der Meldung von Gefahren, die Platzierung von Jagdobjekten und anderen Beobachtungsobjekten verursacht wurden, trugen zur Verbesserung der Mechanismen der Wahrnehmung, des gegenseitigen Verständnisses und des Lernens bei. Nachrichtensprachen begannen sich zu bilden, einschließlich Ton- und Gestensymbolen. Der Wunsch, Verhalten (auch das eigene) zu modellieren, hat neue Herausforderungen mit sich gebracht. Es ist anzunehmen, dass dieser Wunsch zunächst mit der Vermittlung von rationalem Verhalten bei der Jagd, im Alltag, bei Naturkatastrophen verbunden war. Zu einem bestimmten Zeitpunkt dachten sie darüber nach, solche Modellierungswerkzeuge zu entwickeln, die es ermöglichen würden, Modelle zu erstellen, die ihre Speicherung, Kopie und Übertragung ermöglichen.

Der Wunsch, die Wirksamkeit der die Show begleitenden Erklärungen zu erhöhen, führte zur Verbesserung des konzeptionellen Apparats und der Mittel seiner sprachlichen Verkörperung. Die Entwicklung symbolischer Modelle in Form von grafischen Schemata und die Verbesserung der Sprache führten zu einem grafischen Sprachmodell. Schreiben entstand. Es ist nicht nur zu einer wichtigen Stufe in der Entwicklung der symbolischen Modellierung geworden, sondern auch zu einem mächtigen Werkzeug in der Entwicklung der intellektuellen Aktivität. Nun konnten Beschreibungen von Modellierungsobjekten und Beziehungen zwischen ihnen durch Zusammenstellungen von Texten, Diagrammen und Zeichnungen dargestellt werden. Es wurde ein Toolkit erstellt, um Beobachtungen, Überlegungen und Pläne in Form von symbolischen Modellen darzustellen, die gespeichert und übertragen werden konnten. Aktuell wurden die Aufgaben des Erfindens von Medien, Schreib- und Bildwerkzeugen, Färbemitteln etc. Dies waren die ersten Aufgaben auf dem Weg zum Aufbau einer symbolischen Modellierungsumgebung.

Eine wichtige Phase der grafischen Modellierung ist mit Modellen schematischer Bilder (den Vorläufern von Zeichnungen) verbunden - der Grundlage des Designs. Die Darstellung eines zu entwerfenden dreidimensionalen Objekts in drei zweidimensionalen Projektionen, die Abmessungen und Namen von Teilen zeigen, spielte eine entscheidende Rolle in der Entwicklung der Technik. Auf dem Weg von handgeschriebenen Texten, Zeichnungen und Diagrammen zu Typografie und grafischen Modellen im Design, von Tonaufnahmen, Fotografie und Radio zu Film und Fernsehen, von Computern und lokalen Netzwerken zu globales Netzwerk, virtuellen Labors und Fernunterricht wächst die Rolle von symbolischen Modellen, die ein Mensch mit Hilfe von Maschinen erstellt, ständig.

Die Produktivität von Problemlösern ist ein Schlüsselproblem der Produktivität intellektueller Tätigkeit, das ständig im Fokus der Erfinder steht. Der Bedarf an quantitativen Bewertungen materieller Objekte hat lange Zeit die Erfindung von Ton-, Gesten- und dann grafischen Symbolsystemen angeregt. Eine Zeitlang begnügten sie sich mit der Regel: Jeder Wert hat sein eigenes Symbol. Das Zählen mit Kieselsteinen, Stöcken und anderen Gegenständen (objektives Zählen) ging der Erfindung des symbolischen Zählens (basierend auf einer grafischen Darstellung von Mengen) voraus. Mit zunehmender Zahl der zu verwendenden Gegenstände wurde die Aufgabe der symbolischen Darstellung von Mengen immer dringlicher. Die Bildung des Begriffs "Zahlen" und die Idee, Symbole bei der Modellierung von Zahlen zu speichern, führten zur Erfindung von Zahlensystemen. Besondere Erwähnung verdient die Idee der Positionszahlensysteme, eines davon (binär) im 20. Jahrhundert. war dazu bestimmt, eine Schlüsselrolle bei der Erfindung von digitalen programmierbaren Maschinen zu spielen und digitale Kodierung Charaktermodelle. Das Ändern der Bedeutung eines Symbols durch eine Änderung seiner Position in der Symbolfolge ist eine sehr produktive Idee, die die Erfindung von Rechengeräten (vom Abakus bis zum Computer) vorangebracht hat.

Tools zur Steigerung der Produktivität von Problemlösern. In den Jahren 1622–33 schlug der englische Wissenschaftler William Otred eine Variante vor Rechenschieber, der zum Prototyp von Rechenschiebern wurde, die Ingenieure und Forscher auf der ganzen Welt seit mehr als 300 Jahren verwenden (bevor Personal Computer verfügbar wurden). 1642 erstellt B. Pascal, der versucht, seinem Vater bei den Berechnungen bei der Erhebung von Steuern zu helfen, ein fünfstelliges Addiergerät ("Pascaline"). ), aufgebaut auf der Basis von Zahnrädern. In den Folgejahren schuf er sechs- und achtstellige Geräte zum Addieren und Subtrahieren von Dezimalzahlen. 1672 entdeckte der deutsche Wissenschaftler G.W. Leibniz erstellt einen digitalen mechanischen Taschenrechner für arithmetische Operationen auf zwölfstelligen Dezimalzahlen. Es war der erste Taschenrechner, der alle arithmetischen Operationen durchführte. Der Mechanismus, der bis in die 1970er Jahre als "Leibniz-Rad" bezeichnet wurde. in verschiedenen Taschenrechnern reproduziert. 1821 begann die industrielle Fertigung von Rechenmaschinen. 1836–48 C. Babbage schloss das Projekt eines mechanischen Dezimalcomputers (von ihm Analytical Engine genannt) ab, der als mechanischer Prototyp zukünftiger Computer angesehen werden kann. Berechnungsprogramm, Daten und Ergebnis wurden auf Lochkarten festgehalten. Die automatische Ausführung des Programms wurde von der Steuereinrichtung bereitgestellt. Das Auto wurde nicht gebaut. 1934 - 38 K. Zuse erstellte einen mechanischen Binärcomputer (Wortlänge22 Binärziffern; Erinnerung64 Wörter; Gleitkommaoperationen). Anfangs wurden Programm und Daten manuell eingegeben. Ungefähr ein Jahr später (nach Beginn der Konstruktion) wurde ein Gerät zur Eingabe des Programms und der Daten aus einem perforierten Film hergestellt und die mechanische Recheneinheit (AU) durch eine auf Telefonrelais aufgebaute AU ersetzt. 1941 schuf Zuse unter Beteiligung des österreichischen Ingenieurs H. Schreier den weltweit ersten funktionierenden vollständig relaisgesteuerten Binärrechner mit Programmsteuerung (Z3). 1942 schuf Zuse auch den weltweit ersten digitalen Steuerungscomputer (S2), der zur Steuerung von Projektilflugzeugen verwendet wurde. Aufgrund der Geheimhaltung der von Zuse durchgeführten Arbeiten wurden ihre Ergebnisse erst nach Ende des 2. Weltkrieges bekannt. Die weltweit erste höhere Programmiersprache Plankalkül wurde 1943-45 von Zuse entwickelt und 1948 veröffentlicht. Die ersten digitalen elektronischen Computer, beginnend mit dem amerikanischen ENIAC-Computer [(ENIAC - Electronic Numerical Integrator and Computer - elektronischer numerischer Integrator und Rechner); Beginn der Entwicklung - 1943, der Öffentlichkeit vorgestellt 1946] wurden als Mittel zur Automatisierung mathematischer Berechnungen geschaffen.

Erstellen der Informatikwissenschaft mit programmierbaren Maschinen. Alle R. 20. Jahrhundert Die Produktion digitaler Computer begann, die in den USA und Großbritannien als Computer (Computer) und in der UdSSR als elektronische Computer (Computer) bezeichnet wurden. Seit den 1950er Jahren in Großbritannien und ab den 1960er Jahren in den USA begann sich die Wissenschaft des Rechnens mit Hilfe programmierbarer Maschinen zu entwickeln, genannt Computer Science (Informatik). 1953 Universität von Cambridge in der Fachrichtung Informatik wurde ein Studiengang gebildet; in den USA wurde 1962 ein ähnliches Programm an der Purdue University eingeführt.

In Deutschland hieß Informatik Informatik. In der UdSSR wurde das Gebiet der Forschung und Technik, das sich mit der Konstruktion und Anwendung programmierbarer Maschinen befasste, als "Computertechnologie" bezeichnet. Im Dezember 1948 erhielten I. S. Bruk und B. I. Rameev das erste Urheberrechtszertifikat in der UdSSR für die Erfindung eines digitalen Automaten. In den 1950er Jahren Die erste Generation von Haushaltscomputern wurde entwickelt (Elementbasis - Vakuumröhren): 1950 - MESM (der erste sowjetische elektronische Computer, entwickelt unter der Leitung von S.A. Lebedew ); 1952 - M-1, BESM (bis 1953 der schnellste Computer in Europa); 1953 - "Pfeil" (der erste massenproduzierte Computer in der UdSSR); 1955 - Ural-1 aus der Ural-Familie von Allzweck-Digitalcomputern (Chefdesigner B. I. Rameev).

Verbesserung der Methoden und Mittel der Automatisierung. Mit der zunehmenden Verfügbarkeit von Computern für Benutzer aus verschiedenen Tätigkeitsbereichen, die in den 1970er Jahren begann, nimmt der Anteil mathematischer Probleme, die mit Computern gelöst werden (ursprünglich als Mittel zur Automatisierung mathematischer Berechnungen geschaffen), ab und zu Anteil nichtmathematischer Probleme (Kommunikation, Suche etc.). .). Als in der zweiten Hälfte der 1960er Jahre. Computerterminals mit Bildschirmen wurden hergestellt, die Entwicklung von Bildschirmeditorprogrammen zum Eingeben, Speichern und Korrigieren von Text mit Anzeige Vollbild[einer der ersten Bildschirmeditoren war der O26, der 1967 für Konsolenbetreiber der Computer der CDC 6000-Serie entwickelt wurde; 1970 wurde vi entwickelt, der Standard-Bildschirmeditor für Unix- und Linux-Betriebssysteme]. Der Einsatz von Bildschirmeditoren steigerte nicht nur die Produktivität der Programmierer, sondern schuf auch die Voraussetzungen für wesentliche Änderungen in den Werkzeugen zur automatisierten Konstruktion symbolischer Modelle beliebiger Objekte. Zum Beispiel die Verwendung von Bildschirmeditoren zum Generieren von Texten für verschiedene Zwecke ( wissenschaftliche Artikel und Bücher, Handbücher etc.) bereits in den 1970er Jahren. ermöglicht, die Produktivität beim Erstellen von Textinformationsressourcen erheblich zu steigern. Im Juni 1975 hat der amerikanische Forscher Alan Kay [Schöpfer der objektorientierten Programmiersprache Smalltalk und einer der Autoren der Idee persönlicher Computer] im Personal Computing-Artikel (« Persönliche Computer» ) schrieb: „Stellen Sie sich vor, Sie wären der Besitzer einer autonomen Wissensmaschine in einem tragbaren Gehäuse, das die Größe und Form eines gewöhnlichen Notizbuchs hat. Wie würden Sie es verwenden, wenn seine Sensoren Ihrem Sehen und Hören überlegen wären und sein Speicher es Ihnen ermöglichen würde, Tausende von Seiten mit Referenzmaterialien, Gedichten, Briefen, Rezepten sowie Zeichnungen, Animationen und Musik zu speichern und bei Bedarf abzurufen? , Grafiken, dynamische Modelle und etwas anderes, das Sie erstellen, merken und ändern möchten? . Diese Aussage spiegelte die damalige Wende in der Herangehensweise an die Konstruktion und Anwendung programmierbarer Maschinen wider: von Automatisierungswerkzeugen, hauptsächlich mathematischen Berechnungen, zu Werkzeugen zur Lösung von Problemen aus verschiedenen Tätigkeitsbereichen. 1984 Kurzweil Music Systems (KMS), gegründet vom amerikanischen Erfinder Raymond Kurzweil, produzierte den weltweit ersten digitalen Musiksynthesizer, den Kurzweil 250. Es war der weltweit erste dedizierte Computer, der über die Tastatur eingegebene Gestenzeichen in musikalische Klänge umwandelte.

Verbesserung der Methoden und Mittel der Informationsinteraktion. 1962 veröffentlichten die amerikanischen Forscher J. Licklider und W. Clark einen Bericht über die Online-Mensch-Maschine-Interaktion. Der Bericht enthielt eine Begründung für die Zweckmäßigkeit des Aufbaus eines globalen Netzwerks als Infrastrukturplattform, die Zugriff auf Informationsressourcen bietet, die auf Computern gehostet werden, die mit diesem Netzwerk verbunden sind. Die theoretische Begründung der Paketvermittlung bei der Übertragung von Nachrichten in Computernetzen wurde in einem 1961 veröffentlichten Artikel des amerikanischen Wissenschaftlers L. Kleinrock gegeben.1971 erfand R. Tomlinson (USA) E-Mail, 1972 wurde dieser Dienst implementiert. Das Schlüsselereignis in der Entstehungsgeschichte des Internets war die Erfindung des Übertragungskontrollprotokolls TCP im Jahr 1973 durch die amerikanischen Ingenieure V. Cerf und R. Kahn. 1976 demonstrierten sie die Übertragung Netzwerkpaketüber das TCP-Protokoll. 1983 wurde die TCP/IP-Protokollfamilie standardisiert. 1984 wurde das Domain Name System (DNS) geschaffen (vgl. Domain in Informatik). 1988 wurde das Chat-Protokoll [Internet Real Time Text Messaging Service (IRC - Internet Relay Chat)] entwickelt. 1989 wurde das Webprojekt implementiert (vgl. Das Internet) entwickelt von T. Berner Lee. 6.6.2012 - ein bedeutender Tag in der Geschichte des Internets: große Internetprovider, Gerätehersteller z Computernetzwerke und Internetunternehmen begannen, das IPv6-Protokoll (zusammen mit dem IPv4-Protokoll) zu verwenden, wodurch das Problem der Knappheit von IP-Adressen praktisch gelöst wurde (siehe Internet). Das hohe Entwicklungstempo des Internets wird dadurch begünstigt, dass seit seiner Entstehung Fachleute, die mit den wissenschaftlichen und technischen Aufgaben des Aufbaus des Internets befasst sind, Ideen und Lösungen unter Nutzung seiner Möglichkeiten ohne Verzögerung austauschen. Das Internet ist zu einer infrastrukturellen Plattform für eine Mensch-Maschine-Umgebung zur Lösung von Problemen geworden. Es dient als Kommunikationsinfrastruktur Email, Web, Suchmaschinen, Internettelefonie(IP-Telefonie) und andere Internetdienste zur Informatisierung von Bildung, Wissenschaft, Wirtschaft, öffentlicher Verwaltung und anderen Aktivitäten. Созданные на основе Интернета электронные сервисы сделали возможным успешное функционирование разнообразных коммерческих и некоммерческих интернет-образований: интернет-магазинов, социальных сетей [Фейсбук (Facebook), ВКонтакте, Твиттер (Twitter) и др.], поисковых систем [Гугл (Google), Яндекс (Yandex) и др.], энциклопедических веб-ресурсов [Википедия (Wikipedia), Webopedia и др.], электронных библиотек [Всемирная цифровая библиотека (World Digital Library), Научная электронная библиотека eLibrary и др.], корпоративных и государственных информационных порталов usw.

Seit den 2000er Jahren wächst die Zahl der Internetlösungen rasant – ​​“ vernetztes Haus"(Smart House), "Smart Power System" (Smart Grid) usw., die das Konzept des "Internet of Things" (The Internet of Things) verkörpern. M2M-Lösungen (M2M - Machine-to-Machine), die auf Informationstechnologien der Maschine-zu-Maschine-Interaktion basieren und zur Überwachung von Temperatursensoren, Stromzählern, Wasserzählern usw. entwickelt werden, entwickeln sich erfolgreich; Verfolgen der Position von sich bewegenden Objekten basierend auf GLONASS- und GPS-Systemen (vgl. Satellitenortungssystem); Zugangskontrolle zu geschützten Objekten usw.

Offizielle Registrierung der Informatik in der UdSSR. Die Informatik wurde in der UdSSR 1983 offiziell formalisiert, als die Abteilung für Informatik, Computertechnik und Automatisierung als Teil der Akademie der Wissenschaften der UdSSR gegründet wurde. Es umfasste das im selben Jahr gegründete Institut für Informatikprobleme der Akademie der Wissenschaften der UdSSR sowie das Institut für Angewandte Mathematik der Akademie der Wissenschaften der UdSSR, das Rechenzentrum der Akademie der Wissenschaften der UdSSR und das Institut für Informationsübertragung Probleme der Akademie der Wissenschaften der UdSSR und einer Reihe anderer Institute. In der ersten Phase wurde die Forschung auf dem Gebiet der Hardware und Software von Massencomputergeräten und darauf basierenden Systemen als die Hauptforschung angesehen. Die erzielten Ergebnisse sollten die Grundlage für die Schaffung einer Familie von Heimcomputern (PC) und ihre Anwendung für die Informatisierung wissenschaftlicher, pädagogischer und anderer relevanter Aktivitäten werden.

Probleme und Perspektiven

Methodische Unterstützung beim Aufbau einer persönlichen S-Umgebung. In den kommenden Jahren wird einer der aktuellen Bereiche der methodischen Unterstützung zur Verbesserung der S-Umgebung mit der Erstellung personalisierter Problemlösungssysteme verbunden sein, deren Hardware in den Geräten des Benutzers platziert wird. Die Geschwindigkeiten fortschrittlicher drahtloser Technologien reichen bereits aus, um viele Probleme auf der Grundlage von Internetdiensten zu lösen. Es wird erwartet, dass die Geschwindigkeit und Verbreitung drahtloser Kommunikationstechnologien bis 2025 ein Niveau erreichen wird, bei dem ein Teil der heutigen kabelgebundenen Schnittstellen durch drahtlose ersetzt wird. Die Senkung der Preise für Internetdienste wird auch zur Förderung von Technologien zur Personalisierung der S-Umgebung des Benutzers beitragen. Tatsächliche Probleme, die mit der Personalisierung der S-Umgebung verbunden sind, sind: die Schaffung fortschrittlicherer Symbol- und Codierungssysteme; Hardware-Software-Konvertierung von Audio- und taktilen Nachrichten, die von einer Person gesendet werden, in Grafiken, dargestellt durch eine Kombination aus Text, Hypertext, Sonderzeichen und Bildern; technologische Verbesserung und Vereinheitlichung von drahtlosen Schnittstellen [primär Videoschnittstellen (Ausgabe nach Wahl des Benutzers: auf speziellen Brillen, Bildschirmen, Fernseher oder anderen Videoausgabegeräten)].

Methodische Unterstützung für den Aufbau einer persönlichen S-Umgebung sollte auf den Forschungsergebnissen auf dem Gebiet der künstliche Intelligenz darauf abzielt, keinen maschinellen Simulator menschlicher Intelligenz zu bauen, sondern einen intelligenten Partner, der von einem Menschen gesteuert wird. Die Entwicklung von Technologien zum Aufbau einer persönlichen S-Umgebung beinhaltet die Verbesserung von Methoden für Fernunterricht, Interaktion usw.

Liste der Artikel

1. Informationsmessung – alphabetischer Ansatz

2. Informationen messen – ein sinnvoller Ansatz

3. Informationsprozesse

4. Informationen

5. Kybernetik

6. Codierungsinformationen

7. Informationsverarbeitung

8. Übermittlung von Informationen

9. Darstellung von Zahlen

10. Zahlensysteme

11. Informationsspeicherung

Die Hauptstudienobjekte der Wissenschaft der Informatik sind Information Und Informationsprozesse. Die Informatik als eigenständige Wissenschaft entstand Mitte des 20. Jahrhunderts, das wissenschaftliche Interesse an Information und Forschung in diesem Bereich trat jedoch früher auf.

Zu Beginn des zwanzigsten Jahrhunderts entwickelten sich technische Kommunikationsmittel (Telefon, Telegraf, Radio) aktiv.
In diesem Zusammenhang erscheint die wissenschaftliche Richtung „Theorie der Kommunikation“. Ihre Entwicklung führte zur Codierungs- und Informationstheorie, deren Begründer der amerikanische Wissenschaftler C. Shannon war. Die Informationstheorie löste das Problem Messungen Informationüber Kommunikationskanäle übertragen. Es gibt zwei Ansätze zur Messung von Informationen: sinnvoll Und alphabetisch.

Die wichtigste kommunikationstheoretische Aufgabe ist der Kampf gegen den Informationsverlust auf Datenübertragungswegen. Im Zuge der Lösung dieses Problems wurde eine Theorie gebildet Kodierung , in deren Rahmen Methoden zur Darstellung von Informationen erfunden wurden, die es ermöglichten, den Inhalt der Nachricht auch bei Verlusten im übertragenen Code unverzerrt an den Adressaten zu übermitteln. Diese wissenschaftlichen Ergebnisse sind auch heute noch von großer Bedeutung, da das Volumen der Informationsflüsse in technischen Kommunikationskanälen um viele Größenordnungen gewachsen ist.

Der Vorläufer der modernen Informatik war die Wissenschaft der "Kybernetik", die Ende der 1940er - Anfang der 50er Jahre durch die Arbeiten von N. Wiener begründet wurde. In der Kybernetik es gab eine vertiefung des informationsbegriffs, es wurde der ort der information in steuerungssystemen lebender organismen, in sozialen und technischen systemen bestimmt. Die Kybernetik erforschte die Prinzipien der Programmsteuerung. Zeitgleich mit dem Aufkommen der ersten Computer legte die Kybernetik die wissenschaftlichen Grundlagen sowohl für ihre konstruktive Entwicklung als auch für zahlreiche Anwendungen.

EVM (Computer) - automatisches Gerät zur Lösung von Informationsproblemen durch die Implementierung von Informationsprozessen: Lager, wird bearbeitet Und Übermittlung von Informationen. Die Beschreibung der Grundprinzipien und Muster von Informationsprozessen bezieht sich auch auf die theoretischen Grundlagen der Informatik.

Der Computer arbeitet nicht mit Informationsinhalten, die nur ein Mensch wahrnehmen kann, sondern mit Daten, die Informationen darstellen. Daher ist die wichtigste Aufgabe für die Computertechnik Präsentation von Informationen in Form von Daten, die für ihre Verarbeitung geeignet sind. Daten und Programme sind binär kodiert. Die Verarbeitung jeglicher Art von Daten in einem Computer reduziert sich auf Berechnungen mit binären Zahlen. Deshalb wird die Computertechnik auch als digital bezeichnet. Das Konzept der Zahlensysteme, ca Darstellung von Zahlen im Computer gehören zu den Grundkonzepten der Informatik.

Der Begriff „Sprache“ stammt aus der Linguistik. Sprache - Das System der symbolischen Darstellung von Informationen, die zu ihrer Speicherung und Übertragung verwendet werden. Der Sprachbegriff ist einer der Grundbegriffe der Informatik, da sowohl Daten als auch Programme in einem Computer als symbolische Strukturen dargestellt werden. Die Kommunikationssprache zwischen Computer und Mensch nähert sich zunehmend den Formen der natürlichen Sprache an.

Die Theorie der Algorithmen gehört zu den fundamentalen Grundlagen der Informatik. Konzept Algorithmus vorgestellt im Artikel „Informationsverarbeitung“. Dieses Thema wird im fünften Abschnitt der Enzyklopädie ausführlich behandelt.

1. Informationsmessung. Alphabetischer Ansatz

Zur Messung wird der alphabetische Ansatz verwendet Menge an Informationen in einem Text, der als Folge von Zeichen eines Alphabets dargestellt wird. Diese Herangehensweise hat nichts mit dem Inhalt des Textes zu tun. Die Informationsmenge wird in diesem Fall genannt Informationsumfang des Textes, die proportional zur Größe des Textes ist - die Anzahl der Zeichen, aus denen der Text besteht. Manchmal wird dieser Ansatz zur Messung von Informationen als volumetrischer Ansatz bezeichnet.

Jedes Zeichen des Textes enthält eine bestimmte Menge an Informationen. Er heißt Gewicht der Symbolinformationen. Daher ist das Informationsvolumen des Textes gleich der Summe der Informationsgewichte aller Zeichen, aus denen der Text besteht.

Hier wird angenommen, dass der Text eine fortlaufende Folge von nummerierten Zeichen ist. In Formel (1) ich 1 bezeichnet das Informationsgewicht des ersten Zeichens des Textes, ich 2 - das Informationsgewicht des zweiten Zeichens des Textes usw.; K- Textgröße, d. h. die Gesamtzahl der Zeichen im Text.

Die Gesamtheit der verschiedenen Zeichen, die zum Schreiben von Texten verwendet werden, wird als bezeichnet alphabetisch. Die Größe des Alphabets wird als Ganzzahl bezeichnet die Macht des Alphabets. Zu beachten ist, dass das Alphabet nicht nur die Buchstaben einer bestimmten Sprache umfasst, sondern auch alle anderen Zeichen, die im Text verwendet werden können: Zahlen, Satzzeichen, diverse Klammern, Leerzeichen etc.

Die Bestimmung der Informationsgewichte von Symbolen kann in zwei Näherungen erfolgen:

1) unter der Annahme gleicher Wahrscheinlichkeit (gleiche Häufigkeit des Auftretens) jedes Zeichens im Text;

2) Berücksichtigung der unterschiedlichen Wahrscheinlichkeit (unterschiedliche Häufigkeit des Auftretens) verschiedener Zeichen im Text.

Näherung der gleichen Wahrscheinlichkeit von Zeichen in einem Text

Wenn wir davon ausgehen, dass alle Buchstaben des Alphabets in jedem Text mit der gleichen Häufigkeit vorkommen, dann ist das Informationsgewicht aller Buchstaben gleich. Lassen n- Macht des Alphabets. Dann ist der Anteil eines beliebigen Zeichens im Text 1/ n Teil des Textes. Nach der Definition der Wahrscheinlichkeit (vgl. „Messung von Informationen. Inhaltlicher Ansatz“) entspricht dieser Wert der Wahrscheinlichkeit des Auftretens eines Zeichens an jeder Position des Textes:

Nach der Formel von K. Shannon (vgl. „Messung von Informationen. Inhaltlicher Ansatz“) wird die Menge an Informationen, die ein Symbol trägt, wie folgt berechnet:

i = log2(1/ P) = log2 n(bisschen) (2)

Daher ist das Informationsgewicht des Symbols ( ich) und die Kardinalität des Alphabets ( n) sind durch die Hartley-Formel miteinander verbunden (siehe „ Messung von Informationen. Inhaltlicher Ansatz“ )

2 ich = N.

Das Informationsgewicht eines Zeichens kennen ( ich) und die Größe des Textes, ausgedrückt als Anzahl der Zeichen ( K) können Sie das Informationsvolumen des Textes mit der Formel berechnen:

Ich= K · ich (3)

Diese Formel ist eine spezielle Version von Formel (1), falls alle Symbole das gleiche Informationsgewicht haben.

Aus Formel (2) folgt, dass at n= 2 (binäres Alphabet) ist das Informationsgewicht eines Zeichens 1 Bit.

Vom Standpunkt des alphabetischen Ansatzes zur Messung von Informationen 1 bisschen -ist das Informationsgewicht eines Zeichens aus dem binären Alphabet.

Eine größere Informationseinheit ist Byte.

1 Byte -ist das Informationsgewicht eines Zeichens aus einem Alphabet mit einer Potenz von 256.

Seit 256 \u003d 2 8 folgt die Verbindung zwischen einem Bit und einem Byte aus der Hartley-Formel:

2 ich = 256 = 2 8

Von hier: ich= 8 Bit = 1 Byte

Zur Darstellung von Texten, die in einem Computer gespeichert und verarbeitet werden, wird am häufigsten ein Alphabet mit einer Kapazität von 256 Zeichen verwendet. Folglich,
1 Zeichen eines solchen Textes "wiegt" 1 Byte.

Neben Bit und Byte werden auch größere Einheiten zur Messung von Informationen verwendet:

1 KB (Kilobyte) = 2 10 Bytes = 1024 Bytes,

1 MB (Megabyte) = 2 10 KB = 1024 KB,

1 GB (Gigabyte) = 2 10 MB = 1024 MB.

Annäherung unterschiedlicher Auftrittswahrscheinlichkeiten von Zeichen im Text

Diese Näherung berücksichtigt, dass in einem realen Text unterschiedliche Zeichen mit unterschiedlicher Häufigkeit vorkommen. Daraus folgt, dass die Eintrittswahrscheinlichkeiten verschiedene Charaktere an einer bestimmten Stelle des Textes sind unterschiedlich und haben daher unterschiedliche Informationsgewichte.

Die statistische Analyse russischer Texte zeigt, dass die Häufigkeit des Buchstabens „o“ 0,09 beträgt. Das bedeutet, dass auf 100 Zeichen der Buchstabe „o“ durchschnittlich 9 Mal vorkommt. Dieselbe Zahl gibt die Wahrscheinlichkeit an, dass der Buchstabe „o“ an einer bestimmten Stelle des Textes erscheint: P o = 0,09. Daraus folgt, dass das Informationsgewicht des Buchstabens „o“ im russischen Text gleich ist:

Der seltenste Buchstabe in den Texten ist der Buchstabe „f“. Seine Frequenz beträgt 0,002. Von hier:

Daraus folgt eine qualitative Schlussfolgerung: Das Informationsgewicht seltener Buchstaben ist größer als das Gewicht häufig vorkommender Buchstaben.

Wie berechnet man das Informationsvolumen des Textes unter Berücksichtigung der unterschiedlichen Informationsgewichte der Symbole des Alphabets? Dies geschieht nach folgender Formel:

Hier n- Größe (Macht) des Alphabets; NJ- Anzahl der Wiederholungen der Zeichennummer J im Text; ich j- Informationsgewicht der Symbolnummer J.

Alphabetischer Ansatz im Informatik-Studium bei der Gründung der Schule

Im Informatikunterricht der Grundschule erfolgt die Bekanntschaft der Schüler mit der alphabetischen Herangehensweise an die Messung von Informationen am häufigsten im Zusammenhang mit der Computerrepräsentation von Informationen. Die Hauptaussage lautet wie folgt:

Die Menge an Informationen bemisst sich an der Größe des Binärcodes, mit dem diese Informationen dargestellt werden.

Da jede Art von Information im Computerspeicher in Form eines Binärcodes dargestellt wird, ist diese Definition universell. Sie gilt für symbolische, numerische, grafische und akustische Informationen.

Ein Zeichen ( Entladung)Binärcode trägt 1wenig Informationen.

Bei der Erläuterung der Methode zur Messung des Informationsumfangs eines Textes im Grundstudium Informatik wird diese Problematik durch folgende Begriffsfolge deutlich: Alphabet-Größe des Binärcodes der Zeichen-Informationsumfang des Textes.

Die Logik des Denkens entfaltet sich von einzelnen Beispielen bis hin zur Gewinnung einer allgemeinen Regel. Lassen Sie es nur 4 Zeichen im Alphabet einer Sprache geben. Nennen wir sie: , , , . Diese Zeichen können mit vier Zwei-Bit-Binärcodes codiert werden: - 00, - 01, - 10, - 11. Hier werden alle Platzierungsmöglichkeiten von zwei Zeichen in zwei verwendet, deren Anzahl 2 2 = 4 ist Das 4-Zeichen-Alphabet entspricht zwei Bits.

Der nächste Sonderfall ist ein 8-Zeichen-Alphabet, bei dem jedes Zeichen mit einem 3-Bit-Binärcode codiert werden kann, da die Anzahl der Platzierungen von zwei Zeichen in 3er-Gruppen 2 3 = 8 beträgt. Daher ist das Informationsgewicht von ein Zeichen aus einem 8-Zeichen-Alphabet hat 3 Bits. Usw.

Durch die Verallgemeinerung bestimmter Beispiele erhalten wir eine allgemeine Regel: using B- Bit-Binärcode, können Sie ein Alphabet bestehend aus codieren n = 2 B- Zeichen.

Beispiel 1. Um den Text zu schreiben, werden nur Kleinbuchstaben des russischen Alphabets verwendet und ein „Leerzeichen“ wird verwendet, um Wörter zu trennen. Welchen Informationsumfang hat ein Text mit 2000 Zeichen (eine Druckseite)?

Lösung. Es gibt 33 Buchstaben im russischen Alphabet. Wenn wir es um zwei Buchstaben reduzieren (z. B. „ё“ und „й“) und ein Leerzeichen eingeben, erhalten wir eine sehr praktische Anzahl von Zeichen - 32. Unter Verwendung der Annäherung an die gleiche Wahrscheinlichkeit von Zeichen schreiben wir die Hartley-Formel:

2ich= 32 = 2 5

Von hier: ich= 5 Bits - Informationsgewicht jedes Zeichens des russischen Alphabets. Dann ist das Informationsvolumen des gesamten Textes gleich:

Ich = 2000 5 = 10.000 bisschen

Beispiel 2. Berechnen Sie das Informationsvolumen eines Textes mit einer Größe von 2000 Zeichen, in dessen Aufzeichnung das Alphabet der Computerdarstellung von Texten mit einer Kapazität von 256 verwendet wird.

Lösung. In diesem Alphabet beträgt das Informationsgewicht jedes Zeichens 1 Byte (8 Bit). Das Informationsvolumen des Textes beträgt also 2000 Bytes.

In praktischen Aufgaben zu diesem Thema ist es wichtig, die Fähigkeiten der Schüler zu entwickeln, die Menge an Informationen in verschiedene Einheiten umzurechnen: Bits - Bytes - Kilobytes - Megabytes - Gigabytes. Rechnen wir die Informationsmenge des Textes aus Beispiel 2 in Kilobyte um, erhalten wir:

2000 Byte = 2000/1024 1,9531 KB

Beispiel 3. Das Volumen einer Nachricht mit 2048 Zeichen betrug 1/512 Megabyte. Wie groß ist das Alphabet, mit dem die Nachricht geschrieben wird?

Lösung. Lassen Sie uns das Informationsvolumen der Nachricht von Megabyte in Bit übersetzen. Dazu multiplizieren wir diesen Wert zweimal mit 1024 (wir bekommen Bytes) und einmal mit 8:

I = 1/512 1024 1024 8 = 16384 Bit.

Da diese Informationsmenge von 1024 Zeichen getragen wird ( ZU), dann macht ein Zeichen aus:

ich = ich/K= 16 384/1024 = 16 Bit.

Daraus folgt, dass die Größe (Potenz) des verwendeten Alphabets 2 16 = 65 536 Zeichen beträgt.

Volumetrischer Ansatz im Studiengang Informatik im Gymnasium

Mit dem Studium der Informatik in den Klassen 10–11 auf allgemeinbildender Basisstufe können die Studierenden ihr Wissen über den volumetrischen Ansatz zur Informationsmessung auf dem gleichen Niveau wie oben beschrieben verlassen, d.h. im Zusammenhang mit der Menge an binärem Computercode.

Beim Studium der Informatik auf Profilebene sollte der volumetrische Ansatz von allgemeineren mathematischen Standpunkten aus betrachtet werden, indem Vorstellungen über die Häufigkeit von Zeichen in einem Text, über Wahrscheinlichkeiten und das Verhältnis von Wahrscheinlichkeiten zu den Informationsgewichten von Symbolen verwendet werden.

Die Kenntnis dieser Probleme ist wichtig für ein tieferes Verständnis des Unterschieds in der Verwendung von einheitlicher und nicht einheitlicher Binärcodierung (siehe. „Informationsverschlüsselung“), um einige Datenkomprimierungstechniken zu verstehen (siehe. "Datenkompression") und kryptografische Algorithmen (vgl "Kryptographie" ).

Beispiel 4. Im Alphabet des MUMU-Stammes gibt es nur 4 Buchstaben (A, U, M, K), ein Satzzeichen (Punkt) und ein Leerzeichen wird verwendet, um Wörter zu trennen. Es wurde berechnet, dass der beliebte Roman "Mumuka" nur 10.000 Zeichen enthält, davon: Buchstaben A - 4000, Buchstaben U - 1000, Buchstaben M - 2000, Buchstaben K - 1500, Punkte - 500, Leerzeichen - 1000. Wie viele Informationen enthält Buchen?

Lösung. Da der Umfang des Buches recht groß ist, kann davon ausgegangen werden, dass die Häufigkeit des Vorkommens jedes der daraus errechneten Symbole des Alphabets im Text typisch für jeden Text in der MUMU-Sprache ist. Lassen Sie uns die Häufigkeit des Auftretens jedes Zeichens im gesamten Text des Buches (d. h. die Wahrscheinlichkeit) und die Informationsgewichte der Zeichen berechnen

Die Gesamtmenge an Informationen im Buch errechnet sich aus der Summe der Produkte aus dem Informationsgewicht jedes Symbols und der Anzahl der Wiederholungen dieses Symbols im Buch:

2. Informationsmessung. Inhaltlicher Ansatz

1) eine Person erhält eine Nachricht über ein Ereignis; während es im Voraus bekannt ist Unsicherheit des Wissens Person über das erwartete Ereignis. Die Wissensunsicherheit kann entweder durch die Anzahl möglicher Varianten des Ereignisses oder durch die Wahrscheinlichkeit der erwarteten Varianten des Ereignisses ausgedrückt werden;

2) als Ergebnis des Empfangs der Nachricht wird die Wissensunsicherheit beseitigt: aus einer bestimmten möglichen Anzahl von Optionen wurde eine ausgewählt;

3) Die Formel berechnet die Informationsmenge in der empfangenen Nachricht, ausgedrückt in Bits.

Die zur Berechnung der Informationsmenge verwendete Formel hängt von Situationen ab, die zwei sein können:

1. Alle möglichen Varianten des Ereignisses sind gleich wahrscheinlich. Ihre Anzahl ist endlich und gleich n.

2. Wahrscheinlichkeiten ( P) mögliche Varianten der Veranstaltung sind unterschiedlich und sie sind im Voraus bekannt:

(pi), ich = 1.. n. Hier ist noch n- die Anzahl der möglichen Varianten der Veranstaltung.

Unglaubliche Ereignisse. Wenn gekennzeichnet durch ich die Menge an Informationen in der Nachricht, die einer der n gleichwahrscheinliche Ereignisse, dann die Mengen ich Und n sind durch die Hartley-Formel miteinander verbunden:

2ich=n (1)

Wert ich in Bits gemessen. Daraus folgt die Schlussfolgerung:

1 Bit ist die Informationsmenge in der Nachricht über eines von zwei gleich wahrscheinlichen Ereignissen.

Die Formel von Hartley ist eine Exponentialgleichung. Wenn ich eine unbekannte Größe ist, dann lautet die Lösung von Gleichung (1):

i = log 2 n (2)

Die Formeln (1) und (2) sind identisch. In der Literatur wird manchmal die Hartley-Formel (2) genannt.

Beispiel 1. Wie viele Informationen enthält die Nachricht, dass die Pik-Dame aus einem Kartenspiel genommen wurde?

Es gibt 32 Karten in einem Deck. In einem gemischten Deck ist der Verlust einer Karte ein gleichwahrscheinliches Ereignis. Wenn ich- die Informationsmenge in der Nachricht, dass eine bestimmte Karte gefallen ist (z. B. die Pik-Dame), dann aus der Hartley-Gleichung:

2 ich = 32 = 2 5

Von hier: ich= 5 Bit.

Beispiel 2. Wie viele Informationen enthält die Nachricht über das Rollen einer Seite mit der Zahl 3 auf einem sechsseitigen Würfel?

Betrachten wir den Verlust eines Gesichts als ein ebenso wahrscheinliches Ereignis, schreiben wir die Hartley-Formel: 2 ich= 6. Also: ich= log 2 6 = 2,58496 bisschen.

Unwahrscheinliche Ereignisse (probabilistischer Ansatz)

Wenn die Wahrscheinlichkeit eines Ereignisses ist P, aber ich(Bit) ist die Menge an Informationen in der Nachricht, dass dieses Ereignis aufgetreten ist, dann sind diese Werte durch die Formel verknüpft:

2 ich = 1/P (3)

Lösen der Exponentialgleichung (3) bzgl ich, wir bekommen:

i = log 2 (1/ P) (4)

Formel (4) wurde von K. Shannon vorgeschlagen, daher wird sie Shannon-Formel genannt.

Die Diskussion des Zusammenhangs zwischen der Informationsmenge einer Nachricht und ihrem Inhalt kann auf unterschiedlichen Tiefenstufen stattfinden.

Qualitativer Ansatz

Qualitativer Ansatz, die auf der Ebene Propädeutik des Grundstudiums Informatik (Klasse 5–7) oder im Grundstudium (Klasse 8–9) eingesetzt werden kann.

Auf der gegebenes Niveau Studie wird folgende Begriffskette diskutiert: Information - Nachricht - Aussagekraft der Nachricht.

Originalverpackung: Information- Dies ist das Wissen von Menschen, die sie aus verschiedenen Nachrichten erhalten haben. Die nächste Frage ist: Was ist eine Nachricht? Nachricht- Dies ist ein Informationsfluss (Datenfluss), der bei der Übermittlung von Informationen zum empfangenden Subjekt gelangt. Die Botschaft ist sowohl die Sprache, die wir hören (ein Funkspruch, die Erklärung eines Lehrers), als auch die visuellen Bilder, die wir wahrnehmen (ein Film im Fernsehen, eine Ampel), und der Text des Buches, das wir lesen usw.

Frage über informative Nachricht Ich sollte die Beispiele besprechen, die der Lehrer und die Schüler anbieten. Regel: informativLass uns anrufenBotschaft, das menschliches Wissen ergänzt, d.h. trägt Informationen für ihn. Für verschiedene Personen kann die gleiche Nachricht in Bezug auf ihren Informationsgehalt unterschiedlich sein. Sind die Informationen „alt“, d.h. eine Person dies bereits weiß oder der Inhalt der Nachricht einer Person nicht klar ist, dann ist diese Nachricht für sie nicht informativ. Informativ ist die Nachricht, die enthält neu und verständlich Intelligenz.

Beispiele für nicht informative Nachrichten für einen Schüler der 8. Klasse:

1) „Die Hauptstadt von Frankreich - Paris“ (nicht neu);

2) „Die Kolloidchemie untersucht die Dispersionszustände von Systemen mit einem hohen Grad an Fragmentierung“ (nicht klar).

Ein Beispiel für eine informative Nachricht (für diejenigen, die es nicht wussten): „Der Eiffelturm hat eine Höhe von 300 Metern und ein Gewicht von 9000 Tonnen.“

Die Einführung des Konzepts der „Informativität einer Nachricht“ ist der erste Ansatz, um die Frage der Informationsmessung innerhalb des Inhaltskonzepts zu untersuchen. Wenn die Nachricht für eine Person nicht informativ ist, ist die darin enthaltene Informationsmenge aus Sicht dieser Person gleich Null. Die Informationsmenge in der informativen Nachricht ist größer als Null.

Quantitativer Ansatz in der Äquiwahrscheinlichkeitsnäherung

Dieser Ansatz kann entweder in der Aufbaustufe des Grundkurses an der Grundschule oder im Rahmen des Informatikstudiums in den Klassen 10–11 auf Grundstufe erlernt werden.

Folgende Begriffskette wird betrachtet: gleichwahrscheinliche Ereignisse - Wissensunsicherheit - Bit als Informationseinheit - Hartleys Formel - Lösung der Exponentialgleichung für N gleich ganzzahligen Zweierpotenzen.

Das Konzept aufdecken Gleichwahrscheinlichkeit, man sollte auf der intuitiven Darstellung von Kindern aufbauen und sie mit Beispielen untermauern. Ereignisse sind gleich wahrscheinlichwenn keiner von ihnen einen Vorteil gegenüber den anderen hat.

Nachdem die oben gegebene besondere Definition eines Bits eingeführt wurde, sollte sie dann verallgemeinert werden:

Eine Botschaft, die die Unsicherheit des Wissens um den Faktor 2 reduziert, trägt 1 bisschenInformation.

Diese Definition wird durch Beispiele von Nachrichten über ein Ereignis von vier (2 Bits), von acht (3 Bits) und so weiter unterstützt.

Auf dieser Ebene können Sie keine Optionen für Werte diskutieren n, ungleich ganzzahligen Zweierpotenzen, um nicht auf das Problem der Berechnung von Logarithmen zu stoßen, die in der Mathematik noch nicht untersucht wurden. Wenn Kinder Fragen haben, zum Beispiel: „Wie viele Informationen enthält die Nachricht über das Ergebnis eines sechsseitigen Würfelwurfs“, dann kann die Erklärung wie folgt aufgebaut werden. Aus Hartleys Gleichung: 2 ich= 6. Seit 2 2< 6 < 2 3 , следовательно, 2 < ich < 3. Затем сообщить более точное значение (с точностью до пяти знаков после запятой), что ich= 2,58496 Bit. Beachten Sie, dass bei diesem Ansatz die Informationsmenge als Bruchwert ausgedrückt werden kann.

Probabilistischer Ansatz zur Messung von Informationen

Es kann in den Klassen 10–11 im Rahmen eines allgemeinbildenden Studiengangs auf Vertiefungsniveau oder im Wahlpflichtfach Mathematische Grundlagen der Informatik studiert werden. Hier muss eine mathematisch korrekte Definition der Wahrscheinlichkeit eingeführt werden. Außerdem sollen die Studierenden die Logarithmusfunktion und ihre Eigenschaften kennen, Exponentialgleichungen lösen können.

Bei der Einführung des Konzepts der Wahrscheinlichkeit sollte berichtet werden, dass die Wahrscheinlichkeit eines Ereignisses ein Wert ist, der Werte von null bis eins annehmen kann. Die Wahrscheinlichkeit eines unmöglichen Ereignisses ist null(zum Beispiel: „Morgen wird die Sonne nicht über dem Horizont aufgehen“), die Wahrscheinlichkeit für ein bestimmtes Ereignis ist gleich eins(zum Beispiel: „Morgen wird die Sonne über dem Horizont aufgehen“).

Die folgende Bestimmung: Die Wahrscheinlichkeit eines Ereignisses wird durch mehrere Beobachtungen (Messungen, Tests) bestimmt. Solche Messungen werden statistisch genannt. Und je mehr Messungen gemacht werden, desto genauer wird die Wahrscheinlichkeit eines Ereignisses bestimmt.

Die mathematische Definition der Wahrscheinlichkeit lautet: Wahrscheinlichkeitist gleich dem Verhältnis der Anzahl der Ergebnisse, die dieses Ereignis begünstigen, zur Gesamtzahl der gleichermaßen möglichen Ergebnisse.

Beispiel 3. Zwei Buslinien halten an einer Bushaltestelle: Nr. 5 und Nr. 7. Der Schüler erhält die Aufgabe: zu bestimmen, wie viele und wie viele Informationen in der Meldung enthalten sind, dass Bus Nr. 5 sich der Haltestelle nähert In der Nachricht steht die Information, dass sich Bus Nr. 5 der Nummer 7 nähert.

Der Student hat recherchiert. Während des gesamten Arbeitstages, so rechnete er vor, fuhren die Busse 100 Mal an die Bushaltestelle heran. Davon näherte sich Bus Nr. 5 25 Mal und Bus Nr. 7 75 Mal. Unter der Annahme, dass Busse an anderen Tagen mit der gleichen Frequenz verkehren, berechnete der Student die Wahrscheinlichkeit, dass Bus Nr. 5 an der Haltestelle ankommt: P 5 = 25/100 = 1/4, und die Wahrscheinlichkeit, dass Bus Nr. 7 spawnt, ist: P 7 = 75/100 = 3/4.

Daher ist die Informationsmenge in der Nachricht über Bus Nummer 5: ich 5 = log 2 4 = 2 Bit. Die Informationsmenge in der Nachricht über Bus Nummer 7 ist:

i 7 \u003d log 2 (4/3) \u003d log 2 4 - log 2 3 \u003d 2 - 1,58496 \u003d 0,41504 bisschen.

Beachten Sie die folgende qualitative Ausgabe: Je geringer die Wahrscheinlichkeit eines Ereignisses ist, desto mehr Informationen enthält die Nachricht darüber. Die Informationsmenge über ein bestimmtes Ereignis ist null. Beispielsweise ist die Nachricht „Morgen früh wird kommen“ zuverlässig und ihre Wahrscheinlichkeit ist gleich eins. Aus Formel (3) folgt: 2 ich= 1/1 = 1. Daher gilt ich= 0 Bit.

Die Hartley-Formel (1) ist ein Sonderfall der Formel (3). Wenn verfügbar n gleich wahrscheinliche Ereignisse (das Ergebnis des Werfens einer Münze, eines Würfels usw.), dann ist die Wahrscheinlichkeit jeder möglichen Variante gleich P = 1/n. Durch Einsetzen in (3) erhalten wir wieder die Hartley-Formel: 2 ich = N. Wenn in Beispiel 3 die Busse Nr. 5 und Nr. 7 je 50 Mal 100 Mal anhalten würden, dann wäre die Wahrscheinlichkeit, dass sie jeweils erscheinen, gleich 1/2. Daher ist die Informationsmenge in der Nachricht über die Ankunft des jeweiligen Busses ich= log 2 2 = 1 Bit. Wir kamen zu der bekannten Variante des Informationsgehalts der Nachricht über eines von zwei gleich wahrscheinlichen Ereignissen.

Beispiel 4. Betrachten Sie eine andere Version des Busproblems. An der Haltestelle halten die Busse Nr. 5 und Nr. 7. Die Meldung, dass sich der Bus Nr. 5 der Haltestelle nähert, enthält 4 Informationsbits. Die Wahrscheinlichkeit, dass der Bus Nr. 7 an der Haltestelle erscheint, ist zweimal geringer als die Wahrscheinlichkeit, dass der Bus Nr. 5 erscheint. Wie viele Informationsbits enthält die Nachricht über das Erscheinen des Busses Nr. 7 an der Haltestelle?

Wir schreiben die Bedingung des Problems in der folgenden Form:

i 5 = 4 Bit, P 5 = 2 P 7

Erinnern Sie sich an die Beziehung zwischen Wahrscheinlichkeit und Informationsmenge: 2 ich = 1/P

Von hier: P = 2 –ich

Durch Einsetzen in Gleichheit aus der Bedingung des Problems erhalten wir:

Aus dem erhaltenen Ergebnis folgt die Schlussfolgerung: Eine Verringerung der Wahrscheinlichkeit eines Ereignisses um das Zweifache erhöht den Informationsgehalt der Nachricht darüber um 1 Bit. Auch die umgekehrte Regel liegt auf der Hand: Eine Erhöhung der Wahrscheinlichkeit eines Ereignisses um das 2-fache reduziert den Informationsgehalt der Nachricht darüber um 1 Bit. Mit Kenntnis dieser Regeln konnte das vorherige Problem „im Kopf“ gelöst werden.

3. Informationsprozesse

Das Studienfach der Informatik ist Information Und Informationsprozesse. Da es keine allgemein anerkannte Definition von Information gibt (vgl. "Information") ist auch die Auslegung des Begriffs „Informationsprozesse“ uneinheitlich.

Nähern wir uns dem Verständnis dieses Konzepts von einer terminologischen Position aus. Wort Prozess steht für ein Ereignis, das in der Zeit auftritt: Rechtsstreit, Produktionsprozess, Bildungsprozess, Wachstumsprozess lebender Organismen, Ölraffinationsprozess, Kraftstoffverbrennungsprozess, Raumfahrzeugflugprozess usw. Jeder Prozess ist mit einigen verbunden Aktionen durch Menschen, Naturgewalten, technische Geräte sowie durch deren Zusammenwirken.

Jeder Prozess hat Objekt der Beeinflussung Schlüsselwörter: Angeklagter, Studenten, Öl, Treibstoff, Raumschiff. Ist der Vorgang mit der zweckgebundenen Tätigkeit einer Person verbunden, so kann eine solche Person angerufen werden Prozessausführer: Richter, Lehrer, Astronaut. Wenn der Prozess mit Hilfe eines Automaten durchgeführt wird, dann ist es der Ausführende des Prozesses: ein chemischer Reaktor, eine automatische Raumstation.

Offensichtlich in Informationsprozessen Gegenstand der Beeinflussung sind Informationen. Im Lehrbuch S.A. Beschenkowa, E.A. Rakitina gibt die folgende Definition: „In den meisten Gesamtansicht Der Informationsprozess ist definiert als eine Reihe aufeinanderfolgender Aktionen (Operationen), die an Informationen (in Form von Daten, Informationen, Fakten, Ideen, Hypothesen, Theorien usw.) durchgeführt werden, um ein Ergebnis (Erreichung eines Ziels) zu erzielen.

Die weitere Analyse des Begriffs „Informationsprozesse“ hängt von der Herangehensweise an den Informationsbegriff ab, von der Antwort auf die Frage: „Was ist Information?“. Wenn akzeptieren attributiv Sicht auf Informationen (vgl. "Information"), dann sollte anerkannt werden, dass Informationsprozesse sowohl in der belebten als auch in der unbelebten Natur ablaufen. Zum Beispiel durch physikalische Wechselwirkungen zwischen Erde und Sonne, zwischen Elektronen und Atomkern, zwischen Ozean und Atmosphäre. Von der Stelle funktionell Begriff Informationsprozesse finden in lebenden Organismen (Pflanzen, Tiere) und in deren Interaktion statt.

VON anthropozentrisch Sichtweise ist der Ausführende von Informationsprozessen eine Person. Informationsprozesse sind eine Funktion des menschlichen Bewusstseins (Denken, Intellekt). Eine Person kann sie sowohl selbstständig als auch mit Hilfe der von ihr erstellten Instrumente der Informationsaktivität durchführen.

Jede beliebig komplexe Informationstätigkeit einer Person wird auf drei Hauptarten von Handlungen mit Informationen reduziert: Speichern, Empfangen/Übermitteln, Verarbeiten. Anstelle von „Empfang-Übertragung“ sagen sie normalerweise einfach „Übertragung“ und verstehen diesen Prozess als einen zweiseitigen Prozess: Übertragung von der Quelle zum Empfänger (gleichbedeutend mit „Transport“).

Speicherung, Übertragung und Verarbeitung von Informationen sind die Hauptarten von Informationsprozessen.

Die Umsetzung dieser Aktionen mit Informationen ist mit ihrer Präsentation in Form von Daten verbunden. Zur Speicherung, Verarbeitung und Übertragung werden alle Arten von Werkzeugen menschlicher Informationstätigkeit (zB: Papier und Stift, technische Kommunikationswege, Computergeräte etc.) verwendet Daten.

Wenn wir die Aktivitäten einer Organisation (Personalabteilung eines Unternehmens, Buchhaltung, wissenschaftliches Labor) analysieren, die mit Informationen „auf altmodische Weise“ ohne den Einsatz von Computern arbeitet, sind drei Arten von Mitteln erforderlich, um dies sicherzustellen Aktivitäten:

Papier- und Schreibinstrumente (Kugelschreiber, Schreibmaschinen, Zeicheninstrumente) zum Fixieren von Informationen zum Zwecke der Speicherung;

Kommunikationseinrichtungen (Kurierdienste, Telefone, Post) zum Empfangen und Übermitteln von Informationen;

Computerwerkzeuge (Konten, Taschenrechner) für die Informationsverarbeitung.

Heutzutage werden alle diese Arten von Informationsaktivitäten mithilfe von Computertechnologie durchgeführt: Daten werden auf digitalen Medien gespeichert, die Übertragung erfolgt über E-Mail und andere Computernetzwerkdienste, Berechnungen und andere Arten der Verarbeitung werden auf einem Computer durchgeführt.

Die Zusammensetzung der Hauptgeräte eines Computers wird genau dadurch bestimmt, dass der Computer ausgeführt werden soll Lager, wird bearbeitet Und Datenübertragung. Dazu gehören Speicher, Prozessor, interne Kanäle und externe Ein-/Ausgabegeräte (vgl. "Computer").

Um die Prozesse der Arbeit mit Informationen, die im menschlichen Geist stattfinden, und die Prozesse der Arbeit mit Daten, die in Computersystemen stattfinden, terminologisch zu trennen, hat A.Ya. Friedland schlägt vor, sie anders zu benennen: der erste - Informationsprozesse, der zweite - Informationsprozesse.

Einen weiteren Ansatz zur Interpretation von Informationsprozessen bietet die Kybernetik. Informationsprozesse finden statt in verschiedene Systeme Kontrollen, die in Wildtieren, im menschlichen Körper, in sozialen Systemen, in technischen Systemen (einschließlich eines Computers) stattfinden. Der kybernetische Ansatz findet beispielsweise Anwendung in der Neurophysiologie (vgl. "Information"), wo die Verwaltung physiologischer Prozesse im Körper eines Tieres und einer Person, die auf einer unbewussten Ebene stattfinden, als Informationsprozess betrachtet wird. In Neuronen (Gehirnzellen) gelagert Und verarbeitet Informationen werden entlang der Nervenfasern transportiert Übertragung Informationen in Form von Signalen elektrochemischer Natur. Die Genetik hat diese Erbinformation festgestellt gelagert in den DNA-Molekülen, aus denen die Kerne lebender Zellen bestehen. Es bestimmt das Programm für die Entwicklung des Organismus (d. h. steuert diesen Prozess), das auf einer unbewussten Ebene verwirklicht wird.

So werden Informationsprozesse in der kybernetischen Interpretation auf die Speicherung, Übertragung und Verarbeitung von Informationen reduziert, die in Form von Signalen, Codes unterschiedlicher Art präsentiert werden.

Auf jeder Stufe des schulischen Informatikstudiums kommt den Vorstellungen von Informationsprozessen eine systematisierende methodische Funktion zu. Durch das Studium des Geräts eines Computers sollten die Schüler ein klares Verständnis dafür bekommen, welche Geräte zum Speichern, Verarbeiten und Übertragen von Daten verwendet werden. Beim Studium der Programmierung sollten die Schüler darauf achten, dass das Programm mit Daten arbeitet, die im Speicher des Computers gespeichert sind (wie das Programm selbst), dass die Programmanweisungen die Aktionen des Prozessors zur Verarbeitung von Daten und die Aktion von Eingabe-Ausgabe-Geräten bestimmen zum Empfangen und Senden von Daten. Bei der Beherrschung von Informationstechnologien sollte darauf geachtet werden, dass diese Technologien auch auf die Speicherung, Verarbeitung und Übertragung von Informationen ausgerichtet sind.

Siehe Artikel „ Datenspeicher”, “Datenverarbeitung”, “Übertragung von Informationen” 2.

4. Informationen

Herkunft des Begriffs „Informationen“

Das Wort „Informationen“ stammt aus dem Lateinischen Information, was übersetzt Klarstellung, Präsentation bedeutet. Im erklärenden Wörterbuch von V.I. Dahl kennt das Wort „Information“ nicht. Der Begriff „Information“ wurde in der russischen Sprache ab Mitte des 20. Jahrhunderts verwendet.

Der Informationsbegriff verdankt seine Verbreitung im Wesentlichen zwei wissenschaftlichen Bereichen: Kommunikationstheorie Und Kybernetik. Das Ergebnis der Entwicklung der Kommunikationstheorie war Informationstheorie gegründet von Claude Shannon. K. Shannon hat jedoch keine Definition von Information gegeben und gleichzeitig definiert Menge an Informationen. Die Informationstheorie widmet sich der Lösung des Problems der Informationsmessung.

In der Wissenschaft Kybernetik von Norbert Wiener gegründet, steht der Informationsbegriff im Mittelpunkt (vgl. "Kybernetik" 2). Es ist allgemein anerkannt, dass es N. Wiener war, der den Informationsbegriff in den wissenschaftlichen Gebrauch eingeführt hat. Dennoch definiert N. Wiener in seinem ersten Buch über Kybernetik Information nicht. „ Information ist Information, nicht Materie oder Energie“, schrieb Wiener. Damit steht der Informationsbegriff einerseits den Begriffen Materie und Energie gegenüber, andererseits wird er diesen Begriffen im Grad ihrer Allgemeingültigkeit und Fundamentalität gleichgestellt. Damit ist zumindest klar, dass Information etwas ist, das weder Materie noch Energie zugeordnet werden kann.

Informationen in der Philosophie

Die Wissenschaft der Philosophie befasst sich mit dem Verständnis von Information als grundlegendem Konzept. Nach einem der philosophischen Konzepte Information ist eine Eigenschaft von allem, alle materiellen Gegenstände der Welt. Dieses Informationskonzept heißt attributiv (Information ist ein Attribut aller materiellen Objekte). Informationen in der Welt entstanden zusammen mit dem Universum. In diesem Sinne Information ist ein Maß für Ordnung, Strukturiertheit jedes materiellen Systems. Die Entwicklungsprozesse der Welt vom anfänglichen Chaos nach dem "Urknall" über die Bildung anorganischer Systeme bis hin zu organischen (lebenden) Systemen sind mit dem Wachstum des Informationsgehalts verbunden. Dieser Inhalt ist objektiv, unabhängig vom menschlichen Bewusstsein. Ein Stück Kohle enthält Informationen über Ereignisse, die in der Antike stattfanden. Allerdings kann nur ein neugieriger Geist diese Informationen extrahieren.

Ein anderer philosophischer Begriff der Information heißt funktionell. Nach dem funktionalen Ansatz Informationen erschienen mit der Entstehung des Lebens, da sie mit dem Funktionieren komplexer selbstorganisierender Systeme verbunden sind, zu denen lebende Organismen und die menschliche Gesellschaft gehören. Man kann auch sagen: Information ist ein Attribut, das nur der belebten Natur innewohnt. Dies ist eines der wesentlichen Merkmale, die das Lebende vom Unbelebten in der Natur trennen.

Der dritte philosophische Informationsbegriff ist anthropozentrisch, wonach Informationen existieren nur im menschlichen Bewusstsein, in der menschlichen Wahrnehmung. Die Informationsaktivität ist nur dem Menschen eigen und findet in sozialen Systemen statt. Durch die Schaffung von Informationstechnologie schafft eine Person Werkzeuge für ihre Informationstätigkeit.

Wir können sagen, dass die Verwendung des Begriffs „Information“ im Alltag in einem anthropozentrischen Kontext erfolgt. Es ist für jeden von uns ganz natürlich, Informationen als Nachrichten wahrzunehmen, die zwischen Menschen ausgetauscht werden. Zum Beispiel Massenmedien – Massenmedien sind darauf ausgelegt, Nachrichten, Neuigkeiten in der Bevölkerung zu verbreiten.

Informationen in der Biologie

Im 20. Jahrhundert durchdringt der Informationsbegriff die Wissenschaft überall. Informationsprozesse in der belebten Natur werden von der Biologie untersucht. Die Neurophysiologie (Teilbereich Biologie) untersucht die Mechanismen der Nerventätigkeit von Tieren und Menschen. Diese Wissenschaft baut ein Modell der im Körper ablaufenden Informationsprozesse auf. Die von außen kommenden Informationen werden in Signale elektrochemischer Natur umgewandelt, die von den Sinnesorganen entlang der Nervenfasern zu den Neuronen (Nervenzellen) des Gehirns weitergeleitet werden. Das Gehirn überträgt Steuerinformationen in Form gleichartiger Signale an das Muskelgewebe und steuert so die Bewegungsorgane. Der beschriebene Mechanismus stimmt gut mit dem kybernetischen Modell von N. Wiener überein (vgl. "Kybernetik" 2).

In einer anderen biologischen Wissenschaft - der Genetik - wird das Konzept der Erbinformation verwendet, die in die Struktur von DNA-Molekülen eingebettet ist, die in den Kernen von Zellen lebender Organismen (Pflanzen, Tiere) vorhanden sind. Die Genetik hat bewiesen, dass diese Struktur eine Art Code ist, der das Funktionieren des gesamten Organismus bestimmt: sein Wachstum, seine Entwicklung, seine Pathologien usw. Durch DNA-Moleküle werden Erbinformationen von Generation zu Generation weitergegeben.

Beim Studium der Informatik an der Grundschule (Grundkurs) sollte man sich nicht mit der Komplexität des Problems der Informationsermittlung beschäftigen. Der Begriff der Information wird in einem sinnvollen Zusammenhang gegeben:

Information - Dies ist die Bedeutung, der Inhalt von Nachrichten, die eine Person von der Außenwelt durch ihre Sinne erhält.

Das Konzept der Information wird durch die Kette offenbart:

Botschaft – Bedeutung – Information – Wissen

Ein Mensch nimmt Botschaften mit Hilfe seiner Sinne (meistens durch Sehen und Hören) wahr. Wenn eine Person versteht Bedeutung einer Botschaft eingeschlossen, dann können wir sagen, dass diese Botschaft eine Person trägt Information. Beispielsweise enthält eine Nachricht in einer fremden Sprache keine Informationen für eine bestimmte Person, aber eine Nachricht in einer Muttersprache ist verständlich und daher informativ. Wahrgenommene und im Gedächtnis gespeicherte Informationen werden wieder aufgefüllt Wissen Person. Unsere Wissen- Dies ist eine systematisierte (verwandte) Information in unserem Gedächtnis.

Bei der Offenlegung des Informationskonzepts aus der Sicht eines sinnvollen Ansatzes sollte man von den intuitiven Vorstellungen über Informationen ausgehen, die Kinder haben. Es ist ratsam, ein Gespräch in Form eines Dialogs zu führen und den Schülern Fragen zu stellen, die sie beantworten können. Fragen können beispielsweise in der folgenden Reihenfolge gestellt werden.

Sagen Sie uns, woher Sie Ihre Informationen beziehen?

Sie werden wahrscheinlich zurück hören:

Aus Büchern, Radio- und Fernsehsendungen .

Am Morgen hörte ich die Wettervorhersage im Radio .

Der Lehrer greift diese Antwort auf und führt die Schüler zu der endgültigen Schlussfolgerung:

Also wusstest du zuerst nicht, wie das Wetter sein würde, aber nachdem du Radio gehört hattest, begannst du es zu wissen. Nachdem Sie Informationen erhalten haben, haben Sie also neues Wissen erhalten!

So kommt der Lehrer zusammen mit den Schülern zu der Definition: Informationfür eine Person sind dies Informationen, die das Wissen einer Person ergänzen, das sie aus verschiedenen Quellen erhält. Darüber hinaus sollte diese Definition an zahlreichen Beispielen, die Kindern bekannt sind, festgelegt werden.

Hat man eine Verbindung zwischen Informationen und dem Wissen der Menschen hergestellt, kommt man unweigerlich zu dem Schluss, dass Informationen der Inhalt unseres Gedächtnisses sind, denn das menschliche Gedächtnis ist das Mittel, um Wissen zu speichern. Es ist vernünftig, solche Informationen interne, betriebliche Informationen zu nennen, die eine Person besitzt. Menschen speichern Informationen jedoch nicht nur in ihrem eigenen Gedächtnis, sondern auch in Aufzeichnungen auf Papier, auf Magnetmedien usw. Solche Informationen können als extern (in Bezug auf eine Person) bezeichnet werden. Damit eine Person es verwenden kann (z. B. um ein Gericht nach einem Rezept zuzubereiten), muss er es zuerst lesen, d. H. wandeln Sie es in ein internes Formular um und führen Sie dann einige Aktionen aus.

Die Frage der Klassifikation von Wissen (und damit Information) ist sehr komplex. In der Wissenschaft gibt es dazu unterschiedliche Herangehensweisen. Mit diesem Thema beschäftigen sich insbesondere Spezialisten aus dem Bereich der künstlichen Intelligenz. Im Rahmen des Grundkurses genügt es, sich auf die Einteilung des Wissens zu beschränken deklarativ Und prozedural. Die Beschreibung des deklarativen Wissens kann mit den Worten beginnen: „Ich weiß, dass …“. Beschreibung von prozeduralem Wissen - mit den Worten: "Ich weiß wie ...". Es ist einfach, Beispiele für beide Arten von Wissen zu geben und die Kinder einzuladen, ihre eigenen Beispiele zu finden.

Der Lehrer sollte sich der propädeutischen Bedeutung der Erörterung dieser Fragen für das spätere Kennenlernen des Geräts und der Bedienung des Computers durch die Schüler bewusst sein. Ein Computer hat wie ein Mensch ein internes – operatives – Gedächtnis und ein externes – Langzeitgedächtnis. Die Aufteilung des Wissens in deklarative und prozedurale Informationen kann zukünftig mit der Aufteilung von Computerinformationen in Daten – deklarative Informationen und Programme – prozedurale Informationen verknüpft werden. Die Verwendung der didaktischen Analogie zwischen der Informationsfunktion einer Person und eines Computers ermöglicht es den Schülern, die Essenz des Designs und der Funktionsweise eines Computers besser zu verstehen.

Basierend auf der Position „menschliches Wissen ist gespeicherte Information“ informiert der Lehrer die Schüler darüber, dass Gerüche, Geschmäcker und taktile (taktile) Empfindungen auch Informationen zu einer Person tragen. Der Grund dafür ist sehr einfach: Da wir uns an vertraute Gerüche und Geschmäcker erinnern, erkennen wir vertraute Objekte durch Berührung, dann werden diese Empfindungen in unserem Gedächtnis gespeichert und sind daher Informationen. Daher die Schlussfolgerung: Mit Hilfe aller Sinne erhält ein Mensch Informationen von der Außenwelt.

Sowohl aus inhaltlicher als auch aus methodischer Sicht ist es sehr wichtig, zwischen der Bedeutung der Begriffe „ Information" Und " Daten”. Zur Darstellung von Informationen in beliebigen Zeichensystemen(einschließlich der in Computern verwendeten) Begriff verwendet werden sollDaten". ABER Information- Das die in den Daten enthaltene Bedeutung, die von einer Person in sie eingebettet und nur für eine Person verständlich ist.

Ein Computer arbeitet mit Daten: Er empfängt Eingabedaten, verarbeitet sie und übermittelt Ausgabedaten an eine Person - Ergebnisse. Die semantische Interpretation der Daten erfolgt durch eine Person. Trotzdem wird in der Umgangssprache, in der Literatur oft gesagt und geschrieben, dass ein Computer Informationen speichert, verarbeitet, übermittelt und empfängt. Dies gilt, wenn der Computer nicht von der Person getrennt ist, sondern als Werkzeug betrachtet wird, mit dem eine Person Informationsprozesse durchführt.

5. Kybernetik

Das Wort „Kybernetik“ ist griechischen Ursprungs und bedeutet wörtlich die Kunst der Kontrolle.

Im IV Jahrhundert v. In den Schriften von Platon wurde dieser Begriff verwendet, um Management im allgemeinen Sinne zu bezeichnen. Im 19. Jahrhundert schlug A. Ampère vor, die Kybernetik als Wissenschaft der Verwaltung der menschlichen Gesellschaft zu bezeichnen.

In moderner Interpretation Kybernetik- eine Wissenschaft, die die allgemeinen Gesetze der Kontrolle und Beziehungen in organisierten Systemen (Maschinen, lebende Organismen, in der Gesellschaft) untersucht.

Die Entstehung der Kybernetik als eigenständige Wissenschaft ist mit der Veröffentlichung der Bücher des amerikanischen Wissenschaftlers Norbert Wiener „Cybernetics, or Control and Communication in Animal and Machine“ im Jahr 1948 und „Cybernetics and Society“ im Jahr 1954 verbunden.

Die wichtigste wissenschaftliche Entdeckung der Kybernetik war die Rechtfertigung Einheit der Steuergesetze in natürlichen und künstlichen Systemen. Zu diesem Schluss kam N. Wiener durch den Aufbau eines Informationsmodells von Managementprozessen.

Norbert Wiener (1894–1964), USA

Ein ähnliches Schema war in der Theorie der automatischen Steuerung bekannt. Wiener verallgemeinerte es auf alle Arten von Systemen, abstrahiert von spezifischen Kommunikationsmechanismen und betrachtete diese Verbindung als informativ.

Feedback-Kontrollschema

Der direkte Kommunikationskanal überträgt Steuerinformationen – Steuerbefehle. Der Rückkanal überträgt Informationen über den Zustand des gesteuerten Objekts, über seine Reaktion auf die Steueraktion sowie über den Zustand der externen Umgebung, was oft ein wesentlicher Faktor für das Management ist.

Die Kybernetik entwickelt das Konzept der Information als Inhalt von Signalen, die über Kommunikationskanäle übertragen werden. Die Kybernetik entwickelt das Konzept eines Algorithmus als Steuerinformation, die ein Steuerobjekt haben muss, um seine Arbeit auszuführen.

Die Entstehung der Kybernetik erfolgt gleichzeitig mit der Entwicklung elektronischer Computer. Die Verbindung zwischen Computern und Kybernetik ist so eng, dass diese Konzepte oft in den 1950er Jahren identifiziert wurden. Computer wurden kybernetische Maschinen genannt.

Die Verbindung zwischen Computern und Kybernetik besteht in zwei Aspekten. Erstens ist ein Computer ein selbstgesteuerter Automat, bei dem die Rolle eines Managers von einem Steuergerät gespielt wird, das Teil des Prozessors ist, und alle anderen Geräte sind Steuerobjekte. Direkt- und Feedback-Kommunikation erfolgt über Informationskanäle, und der Algorithmus wird in Form eines Programms in Maschinensprache (einer für den Prozessor „verständlichen“ Sprache) präsentiert, das im Computerspeicher gespeichert ist.

Zweitens eröffnete sich mit der Erfindung des Computers die Perspektive, die Maschine als Steuerungsobjekt in einer Vielzahl von Systemen einzusetzen. Es wird möglich zu erschaffen komplexe Systeme mit Programmsteuerung, Übertragung an automatische Geräte vieler Arten menschlicher Aktivitäten.

Die Entwicklung der Sparte „Kybernetik – Computer“ führte in den 1960er Jahren zur Entstehung der Wissenschaft Informatik mit einem weiter entwickelten System von Konzepten, die sich auf das Studium von Informationen und Informationsprozessen beziehen.

Gegenwärtig gewinnen die allgemeinen Bestimmungen der theoretischen Kybernetik in stärkerem Maße eine philosophische Bedeutung. Gleichzeitig entwickeln sich angewandte Bereiche der Kybernetik aktiv, die sich auf das Studium und die Schaffung von Kontrollsystemen in verschiedenen Fachgebieten beziehen: technische Kybernetik, biomedizinische Kybernetik, wirtschaftliche Kybernetik. Mit der Entwicklung von Computerlernsystemen können wir von der Entstehung der pädagogischen Kybernetik sprechen.

Es gibt verschiedene Möglichkeiten, Fragen der Kybernetik in das allgemeinbildende Studium aufzunehmen. Ein Weg führt über die Algorithmisierungslinie. Algorithmus betrachtet als Steuerinformationen im kybernetischen Modell des Steuersystems. In diesem Zusammenhang wird das Thema Kybernetik aufgedeckt.

Eine andere Möglichkeit besteht darin, das Thema Kybernetik in die sinnvolle Linie der Modellierung einzubeziehen. Durch Überarbeitung verwaltungs Prozess als komplexer Informationsprozess gibt eine Vorstellung davon N. Wieners Schema wie Modelle eines solchen Prozesses. In der Fassung des Bildungsstandards für die Grundschule (2004) ist dieses Thema im Kontext der Modellierung präsent: „kybernetisches Modell von Managementprozessen“.

In der Arbeit von A.A. Kuznetsova, S.A. Beshenkova et al., „Kontinuierlicher Informatikkurs“ nannten drei Hauptbereiche des Schulinformatikkurses: Informationsmodellierung, Informationsprozesse Und Informationsgrundlagen des Managements. Inhaltslinien sind die Detaillierung der Hauptrichtungen. Damit wird dem kybernetischen Thema – dem Thema Management – ​​eine noch gewichtigere Bedeutung beigemessen als der inhaltlichen Linie. Dies ist ein facettenreiches Thema, bei dem Sie folgende Punkte ansprechen können:

Elemente der theoretischen Kybernetik: Kybernetisches Modell der Rückkopplungskontrolle;

Elemente der angewandten Kybernetik: Aufbau von Computersystemen automatischer Steuerung (Systeme mit Programmsteuerung); Ernennung von automatisierten Kontrollsystemen;

Grundlagen der Theorie der Algorithmen.

Elemente der theoretischen Kybernetik

Wenn der Lehrer über das kybernetische Steuerungsmodell spricht, sollte er es mit Beispielen veranschaulichen, die den Schülern vertraut und verständlich sind. In diesem Fall sollten die Hauptelemente des kybernetischen Steuersystems hervorgehoben werden: Kontrollobjekt, verwaltetes Objekt, Direkt- und Feedbackkanäle.

Beginnen wir mit offensichtlichen Beispielen. Zum Beispiel ein Fahrer und ein Auto. Der Fahrer ist der Manager, das Auto das kontrollierte Objekt. Direkter Kommunikationskanal - Autosteuerungssystem: Pedale, Lenkrad, Hebel, Schlüssel usw. Rückkopplungskanäle: Instrumente auf dem Bedienfeld, Blick aus den Fenstern, Gehör des Fahrers. Jede Aktion an den Steuerungen kann als übertragene Information angesehen werden: „Geschwindigkeit erhöhen“, „langsamer“, „rechts abbiegen“ usw. Auch Informationen, die über Feedback-Kanäle übermittelt werden, sind für eine erfolgreiche Führung notwendig. Bieten Sie Studierenden eine Aufgabe: Was passiert, wenn einer der direkten oder Feedback-Kanäle abgeschaltet wird? Die Diskussion solcher Situationen ist meist sehr lebhaft.

Rückkopplungskontrolle wird aufgerufen adaptive Steuerung. Die Aktionen des Managers werden an den Zustand des Steuerungsobjekts, der Umgebung, angepasst (d. h. angepasst).

Das nächste Beispiel für Studenten des Managements in einem sozialen System: ein Lehrer, der den Lernprozess im Klassenzimmer verwaltet. Diskutieren Sie verschiedene Formen der Kontrolle des Lehrers über die Schüler: Sprache, Gestik, Mimik, Notizen an der Tafel. Lassen Sie die Schüler verschiedene Formen des Feedbacks auflisten; Erklären Sie, wie der Lehrer den Unterrichtsverlauf auf der Grundlage der Ergebnisse des Feedbacks anpasst, geben Sie Beispiele für eine solche Anpassung. Zum Beispiel haben die Schüler die vorgeschlagene Aufgabe nicht bewältigt - der Lehrer ist gezwungen, die Erklärung zu wiederholen.

Wenn man dieses Thema in der High School studiert, kann man die Art und Weise des Managements in großen sozialen Systemen berücksichtigen: Management eines Unternehmens durch die Verwaltung, Management des Landes durch staatliche Stellen usw. Hier ist es sinnvoll, Material aus dem Studium der Sozialkunde zu verwenden. Wenn Sie die Mechanismen von Feed-Forward und Feedback in solchen Systemen analysieren, lenken Sie die Aufmerksamkeit der Schüler auf die Tatsache, dass es in den meisten Fällen viele Feed-Forward- und Feedback-Kanäle gibt. Sie werden dupliziert, um die Zuverlässigkeit des Steuerungssystems zu erhöhen.

Algorithmen und Kontrolle

In diesem Thema können Sie das Konzept eines Algorithmus aus kybernetischer Sicht aufzeigen. Die Erweiterungslogik ist wie folgt. Management ist ein zielgerichteter Prozess. Es muss ein bestimmtes Verhalten des Steuerungsobjekts das Erreichen eines bestimmten Ziels ermöglichen. Und dafür muss es einen Managementplan geben. Dieser Plan wird durch eine Folge von Steuerbefehlen implementiert, die über eine direkte Verbindung übertragen werden. Eine solche Folge von Befehlen wird als Steueralgorithmus bezeichnet.

Steueralgorithmus ist eine Informationskomponente des Managementsystems. Beispielsweise erteilt ein Lehrer eine Unterrichtsstunde nach einem vorgegebenen Plan. Der Fahrer fährt das Auto entlang einer vorgegebenen Route.

In Kontrollsystemen, in denen die Rolle des Managers von einer Person wahrgenommen wird, kann sich der Kontrollalgorithmus im Laufe der Arbeit ändern und verfeinern. Der Fahrer kann nicht jede seiner Aktionen während der Fahrt im Voraus planen; Der Lehrer passt den Unterrichtsplan laufend an. Wenn der Prozess von einer automatischen Vorrichtung gesteuert wird, muss ein detaillierter Steueralgorithmus im Voraus in irgendeiner formalisierten Form darin eingebettet werden. In diesem Fall heißt es Verwaltungsprogramm. Um das Programm zu speichern, muss die automatische Steuereinrichtung vorhanden sein Programmspeicher.

Dieses Thema sollte das Konzept untersuchen selbstverwaltetes System. Dies ist ein einzelnes Objekt, ein Organismus, in dem alle oben genannten Komponenten von Steuersystemen vorhanden sind: Steuerung und gesteuerte Teile (Organe), direkte und rückgekoppelte Informationen, Steuerinformationen - Algorithmen, Programme und Speicher für deren Speicherung. Solche Systeme sind lebende Organismen. Der vollkommenste von ihnen ist der Mensch. Der Mensch beherrscht sich selbst. Das wichtigste Kontrollorgan ist das menschliche Gehirn, kontrolliert - alle Teile des Körpers. Es gibt bewusstes Management(Ich mache was ich will) und esse Unterbewusstsein(Management physiologischer Prozesse). Ähnliche Prozesse laufen bei Tieren ab. Allerdings ist der Anteil der bewussten Kontrolle bei Tieren geringer als beim Menschen, was auf eine höhere intellektuelle Entwicklung des Menschen zurückzuführen ist.

Die Schaffung künstlicher Selbstverwaltungssysteme ist eine der schwierigsten Aufgaben von Wissenschaft und Technik. Die Robotik ist ein Beispiel für eine solche wissenschaftlich-technische Richtung. Es vereint viele Bereiche der Wissenschaft: Kybernetik, künstliche Intelligenz, Medizin, mathematische Modellierung usw.

Elemente der angewandten Kybernetik

Dieses Thema kann entweder in einer vertiefenden Version des Studiums des Grundstudiums Informatik oder auf der Profilebene im Gymnasium vermittelt werden.

Zu Aufgaben Technische Kybernetik umfasst die Entwicklung und Erstellung technischer Steuerungssysteme in produzierenden Unternehmen, in Forschungslabors, im Transportwesen usw. Solche Systeme werden genannt Systeme mit automatische Kontrolle - ACS . Als Steuerungsgerät im ACS werden Computer oder spezialisierte Steuerungen verwendet.

Das kybernetische Steuerungsmodell in Bezug auf das ACS ist in der Figur gezeigt.

Schema des automatischen Steuersystems

Dabei handelt es sich um ein geschlossenes technisches System, das ohne menschliches Zutun funktioniert. Eine Person (Programmierer) bereitete ein Steuerprogramm vor und gab es in den Speicher des Computers ein. Dann arbeitet das System automatisch.

Bei dieser Thematik sollten die Studierenden darauf achten, dass sie die Umwandlung von Informationen von analog nach digital und umgekehrt (DAC - ADC Wandlung) bereits in anderen Themen kennengelernt haben bzw. wieder treffen werden. Nach dem gleichen Prinzip funktioniert ein Modem in Computernetzwerken, eine Soundkarte bei der Eingabe / Ausgabe von Ton (siehe. „ Sound-Präsentation“ 2).In diesem System geht ein analoges elektrisches Signal durch den Rückkopplungskanal von den Sensoren des gesteuerten Geräts mit der Hilfe Analog-Digital-Wandler(ADC), verwandelt sich in diskrete digitale Daten, Eingabe des Computers. Arbeitet auf direktem Weg DAC - Digital-Analog-Wandler, was die führt umkehren Umwandlung - digitale Daten, die vom Computer kommen, in ein analoges elektrisches Signal, das an die Eingangsknoten des gesteuerten Geräts geliefert wird.

Eine andere Richtung der angewandten Kybernetik: automatisierte Kontrollsysteme (ACS). ACS ist ein Mensch-Maschine-System. In der Regel konzentrieren sich automatisierte Kontrollsysteme auf die Verwaltung der Aktivitäten von Produktionsteams und Unternehmen. Dies sind Systeme zur Computererfassung, Speicherung und Verarbeitung verschiedener Informationen, die für den Betrieb des Unternehmens erforderlich sind. Zum Beispiel Daten zu Finanzströmen, Verfügbarkeit von Rohstoffen, Mengen an Fertigprodukten, Personalinformationen usw. usw. Der Hauptzweck solcher Systeme besteht darin, den Managern des Unternehmens schnell und genau die erforderlichen Informationen zum Treffen von Managemententscheidungen bereitzustellen.

Zum Bereich gehören die Aufgabenstellungen, die mittels automatisierter Steuerungssysteme gelöst werden Ökonomische Kybernetik. Technische Basis solcher Systeme sind in der Regel lokale Computernetzwerke. ACS verwendet eine Vielzahl von Informationstechnologien: Datenbanken, Computergrafik, Computermodellierung, Expertensysteme usw.

6. Codierungsinformationen

Der Code -ein System herkömmlicher Zeichen (Symbole) zur Übermittlung, Verarbeitung und Speicherung von Informationen (Nachrichten).

Kodierung - der Prozess der Darstellung von Informationen (Nachrichten) in Form eines Codes.

Der gesamte für die Codierung verwendete Zeichensatz wird aufgerufen Kodierungsalphabet. Beispielsweise werden im Speicher eines Computers alle Informationen mit einem binären Alphabet codiert, das nur zwei Zeichen enthält: 0 und 1.

Die wissenschaftlichen Grundlagen der Kodierung wurden von K. Shannon beschrieben, der die Prozesse der Informationsübertragung über technische Kommunikationskanäle untersuchte ( Kommunikationstheorie, Kodiertheorie). Mit diesem Ansatz Kodierung im engeren Sinne verstanden: Übergang von der Darstellung von Informationen in einem Symbolsystem zur Darstellung in einem anderen Symbolsystem. Zum Beispiel die Umwandlung eines geschriebenen russischen Textes in Morsezeichen für die Übertragung per Telegraf oder Funk. Eine solche Kodierung ist mit der Notwendigkeit verbunden, den Kode an die technischen Mittel des Umgangs mit den verwendeten Informationen anzupassen (siehe „ Übermittlung von Informationen“ 2).

Dekodierung - der Prozess der Konvertierung von Code zurück in die Form des ursprünglichen Zeichensystems, d.h. erhalten Sie die ursprüngliche Nachricht. Zum Beispiel: Übersetzung aus dem Morsecode in einen geschriebenen Text auf Russisch.

Im weiteren Sinne ist die Decodierung der Prozess der Wiederherstellung des Inhalts einer codierten Nachricht. Bei diesem Ansatz kann das Schreiben von Text mit dem russischen Alphabet als Codierung und das Lesen als Decodierung betrachtet werden.

Zwecke der Codierung und Methoden der Codierung

Die Codierung derselben Nachricht kann unterschiedlich sein. Zum Beispiel sind wir es gewohnt, russische Texte mit dem russischen Alphabet zu schreiben. Aber das gleiche kann mit dem englischen Alphabet gemacht werden. Manchmal müssen Sie dies tun, indem Sie eine SMS auf ein Mobiltelefon ohne russische Buchstaben senden oder eine E-Mail auf Russisch aus dem Ausland senden, wenn sich keine russifizierte Software auf dem Computer befindet. Zum Beispiel der Satz: „Hallo, liebe Sascha!“ Ich muss so schreiben: „Zdravstvui, lieber Sasha!“.

Es gibt andere Möglichkeiten, Sprache zu codieren. Zum Beispiel, Kurzschrift - schnelle Möglichkeit, gesprochene Sprache aufzunehmen. Es gehört nur wenigen speziell ausgebildeten Personen - Stenographen. Dem Stenographen gelingt es, den Text synchron zur Rede der sprechenden Person niederzuschreiben. In der Abschrift bezeichnete ein Symbol ein ganzes Wort oder einen ganzen Satz. Nur ein Stenograph kann eine Abschrift entziffern (dekodieren).

Die angeführten Beispiele veranschaulichen die folgende wichtige Regel: es können verschiedene Wege verwendet werden, um dieselben Informationen zu codieren; Ihre Wahl hängt von einer Reihe von Faktoren ab: Zweck der Kodierung, Bedingungen, verfügbare Mittel. Wenn Sie den Text im Sprechtempo aufschreiben müssen, verwenden wir die Kurzschrift; wenn es notwendig ist, den Text ins Ausland zu übertragen - verwenden wir das englische Alphabet; Wenn es notwendig ist, den Text in einer für einen gebildeten russischen Person verständlichen Form darzustellen, schreiben wir ihn nach den Regeln der Grammatik der russischen Sprache auf.

Ein weiterer wichtiger Umstand: Die Wahl, wie Informationen kodiert werden, kann mit der beabsichtigten Art der Verarbeitung zusammenhängen. Zeigen wir es am Beispiel der Zahlendarstellung – der quantitativen Information. Mit dem russischen Alphabet können Sie die Zahl "fünfunddreißig" schreiben. Mit dem Alphabet des arabischen Dezimalzahlensystems schreiben wir: „35“. Die zweite Methode ist nicht nur kürzer als die erste, sondern auch bequemer für die Durchführung von Berechnungen. Welcher Eintrag ist für Berechnungen bequemer: „fünfunddreißig mal einhundertsiebenundzwanzig“ oder „35 x 127“? Offensichtlich das Zweite.

Wenn es jedoch wichtig ist, die Nummer unverfälscht zu halten, ist es besser, sie in Textform zu schreiben. In Gelddokumenten wird der Betrag beispielsweise häufig in Textform geschrieben: „dreihundertfünfundsiebzig Rubel“. statt "375 Rubel". Im zweiten Fall ändert die Verzerrung einer Ziffer den gesamten Wert. Bei Verwendung der Textform dürfen auch Grammatikfehler nichts an der Bedeutung ändern. Ein Analphabet schrieb zum Beispiel: „Dreihundertfünfundsiebzig Rubel.“ Die Bedeutung ist jedoch erhalten geblieben.

In manchen Fällen ist es notwendig, den Text einer Nachricht oder eines Dokuments so zu klassifizieren, dass er von Unbefugten nicht gelesen werden kann. Das heißt Schutz vor unbefugtem Zugriff. In diesem Fall wird der geheime Text verschlüsselt. In der Antike wurde Verschlüsselung als Kryptografie bezeichnet. Verschlüsselung ist der Prozess der Umwandlung von Klartext in Chiffretext, und Entschlüsselung- der Prozess der inversen Transformation, bei dem der ursprüngliche Text wiederhergestellt wird. Verschlüsselung ist auch Verschlüsselung, aber mit einem geheimen Verfahren, das nur Quelle und Empfänger bekannt ist. Verschlüsselungsmethoden werden von einer Wissenschaft namens behandelt Kryptographie(cm . "Kryptographie" 2).

Geschichte der technischen Möglichkeiten der Verschlüsselung von Informationen

Mit dem Aufkommen technischer Mittel zum Speichern und Übertragen von Informationen sind neue Ideen und Codierungstechniken entstanden. Das erste technische Mittel zur Übertragung von Informationen über große Entfernungen war der 1837 von dem Amerikaner Samuel Morse erfundene Telegraf. Eine Telegrafennachricht ist eine Folge von elektrischen Signalen, die von einem Telegrafengerät über Drähte zu einem anderen Telegrafengerät übertragen werden. Diese technischen Umstände führten S. Morse auf die Idee, nur zwei Arten von Signalen – kurz und lang – zu verwenden, um eine über Telegrafenleitungen übertragene Nachricht zu verschlüsseln.

Samuel Finley Breeze Morse (1791–1872), USA

Diese Kodierungsmethode wird Morsecode genannt. Darin wird jeder Buchstabe des Alphabets durch eine Folge von kurzen Signalen (Punkten) und langen Signalen (Strichen) kodiert. Die Buchstaben sind durch Pausen voneinander getrennt - das Fehlen von Signalen.

Die bekannteste Telegrafennachricht ist das SOS-Notsignal ( S Ave Ö du S Seelen- Rettet unsere Seelen). So sieht es im Morsecode aus, der auf das englische Alphabet angewendet wird:

–––

Drei Punkte (Buchstabe S), drei Striche (Buchstabe O), drei Punkte (Buchstabe S). Zwei Pausen trennen die Buchstaben voneinander.

Die Abbildung zeigt den Morsecode in Bezug auf das russische Alphabet. Es gab keine besonderen Satzzeichen. Sie wurden mit den Worten notiert: „Punkt“ - ein Punkt, „spt“ - ein Komma usw.

charakteristisches Merkmal Morsecode ist Code mit variabler Länge aus verschiedenen Buchstaben, so heißt Morsezeichen ungerader Code. Buchstaben, die häufiger im Text vorkommen, haben einen kürzeren Code als seltene Buchstaben. Der Code für den Buchstaben „E“ ist beispielsweise ein Punkt, und der Code für ein ausgefülltes Zeichen besteht aus sechs Zeichen. Dies geschieht, um die Länge der gesamten Nachricht zu verkürzen. Aber wegen der variablen Länge des Buchstabencodes gibt es ein Problem, Buchstaben im Text voneinander zu trennen. Daher ist es notwendig, eine Pause (Skip) zur Trennung zu verwenden. Daher ist das Morse-Telegrafenalphabet ternär, da Es verwendet drei Zeichen: Punkt, Bindestrich, Leerzeichen.

Der einheitliche Telegrafencode wurde Ende des 19. Jahrhunderts von dem Franzosen Jean Maurice Baudot erfunden. Es wurden nur zwei verschiedene Arten von Signalen verwendet. Es spielt keine Rolle, wie Sie sie nennen: Punkt und Strich, Plus und Minus, Null und Eins. Dies sind zwei verschiedene elektrische Signale. Die Länge des Codes aller Zeichen ist gleich und ist gleich fünf. In diesem Fall tritt das Problem der Trennung von Buchstaben nicht auf: Jeweils fünf Signale sind ein Textzeichen. Ein Pass ist daher nicht erforderlich.

Jean Maurice Emile Baudot (1845–1903), Frankreich

Der Baudot-Code ist die erste Methode in der Geschichte der Technologie, um Informationen binär zu codieren.. Dank dieser Idee war es möglich, einen direkt druckenden Telegraphen zu schaffen, der wie eine Schreibmaschine aussieht. Das Drücken einer Taste mit einem bestimmten Buchstaben erzeugt das entsprechende fünfpulsige Signal, das über die Kommunikationsleitung übertragen wird. Die empfangende Maschine druckt unter dem Einfluss dieses Signals denselben Buchstaben auf ein Papierband.

Auch moderne Computer verwenden zur Codierung von Texten einen einheitlichen Binärcode (siehe „ Textcodierungssysteme“ 2).

Das Thema Informationscodierung kann in allen Stufen des Informatikstudiums in den Lehrplan aufgenommen werden.

In einem Propädeutikum werden Studierenden oft Aufgaben angeboten, die nichts mit Computerdatencodierung zu tun haben und gewissermaßen eine Spielform darstellen. Beispielsweise ist es auf der Grundlage der Morsecode-Codetabelle möglich, sowohl Codieraufgaben (Codieren von russischem Text mit Morsecode) als auch Decodieraufgaben (Entschlüsseln von mit Morsecode codiertem Text) vorzuschlagen.

Die Ausführung solcher Aufgaben kann als die Arbeit eines Kryptographen interpretiert werden, der verschiedene einfache Verschlüsselungsschlüssel anbietet. Zum Beispiel alphanumerisch, wobei jeder Buchstabe durch seine Ordnungszahl im Alphabet ersetzt wird. Außerdem sollten dem Alphabet Satzzeichen und andere Symbole hinzugefügt werden, um den Text vollständig zu codieren. Lassen Sie die Schüler einen Weg finden, um zwischen Klein- und Großbuchstaben zu unterscheiden.

Bei der Durchführung solcher Aufgaben sollten die Schüler darauf achten, dass ein Trennzeichen erforderlich ist - ein Leerzeichen, da sich herausstellt, dass es sich um einen Code handelt uneben: manche Buchstaben sind mit einer Ziffer verschlüsselt, manche mit zwei.

Fordern Sie die Schüler auf, darüber nachzudenken, wie sie ohne die Trennung von Buchstaben im Code auskommen können. Diese Überlegungen sollten zu der Idee eines einheitlichen Codes führen, bei dem jedes Zeichen durch zwei Dezimalziffern codiert wird: A - 01, B - 02 usw.

Sammlungen von Aufgaben zum Kodieren und Verschlüsseln von Informationen sind in einer Reihe von Lehrbüchern für die Schule verfügbar.

Im Grundkurs Informatik für die Hauptschule wird das Thema Codieren eher mit dem Thema der Darstellung verschiedener Arten von Daten in einem Computer verbunden: Zahlen, Texte, Bilder, Töne (siehe „ Informationstechnologie” 2).

In der Oberstufe können sich die Inhalte eines allgemeinbildenden oder Wahlfachs vertieft mit Fragestellungen der von K. Shannon im Rahmen der Informationstheorie entwickelten Kodierungstheorie befassen. Hier gibt es eine Reihe interessanter Aufgabenstellungen, deren Verständnis eine erhöhte mathematische und programmiertechnische Ausbildung der Studierenden erfordert. Dies sind die Probleme der ökonomischen Codierung, des universellen Codieralgorithmus, der Fehlerkorrekturcodierung. Viele dieser Fragen werden im Lehrbuch „Mathematische Grundlagen der Informatik“ ausführlich behandelt.

7. Informationsverarbeitung

Datenverarbeitung - der Prozess der systematischen Änderung des Inhalts oder der Form der Informationsdarstellung.

Die Informationsverarbeitung erfolgt nach bestimmten Regeln durch ein Subjekt oder Objekt (z. B. eine Person oder ein automatisches Gerät). Wir werden ihn anrufen Ausführender der Informationsverarbeitung.

Der verarbeitende Performer, der mit der externen Umgebung interagiert, empfängt von ihr Eingabeinformationen was bearbeitet wird. Das Ergebnis der Verarbeitung ist Impressum an die äußere Umgebung übertragen. Somit fungiert die externe Umgebung als Quelle von Eingangsinformationen und Verbraucher von Ausgangsinformationen.

Die Informationsverarbeitung erfolgt nach bestimmten Regeln, die dem Ausführenden bekannt sind. Als Infowerden Verarbeitungsregeln bezeichnet, die eine Beschreibung der Abfolge einzelner Verarbeitungsschritte darstellen.

Der Verarbeitungsausführer muss eine Verarbeitungseinheit, die wir Prozessor nennen werden, und einen Speicherblock enthalten, in dem sowohl die verarbeiteten Informationen als auch die Verarbeitungsregeln (Algorithmus) gespeichert werden. All dies ist schematisch in der Figur gezeigt.

Informationsverarbeitungsschema

Beispiel. Der Schüler, der das Problem im Unterricht löst, führt die Verarbeitung von Informationen durch. Die äußere Umgebung ist für ihn die Atmosphäre des Unterrichts. Die Eingangsinformation ist der Zustand der Aufgabe, der von der unterrichtsleitenden Lehrkraft gemeldet wird. Der Schüler merkt sich den Zustand des Problems. Um das Auswendiglernen zu erleichtern, kann er Notizen in einem Notizbuch verwenden - einem externen Speicher. Aus der Erklärung des Lehrers lernte (erinnerte) er sich an die Lösung des Problems. Der Prozessor ist der mentale Apparat des Schülers, mit dem er zur Lösung des Problems eine Antwort erhält - Ausgabeinformationen.

Das in der Abbildung gezeigte Schema ist ein allgemeines Informationsverarbeitungsschema, das nicht davon abhängt, wer (oder was) der Ausführende der Verarbeitung ist: ein lebender Organismus oder ein technisches System. Dieses Schema wird durch technische Mittel in einem Computer implementiert. Daher können wir sagen, dass ein Computer ein technisches Modell eines „lebenden“ Informationsverarbeitungssystems ist. Es umfasst alle Hauptkomponenten des Verarbeitungssystems: Prozessor, Speicher, Eingabegeräte, Ausgabegeräte (siehe „ Computergerät“ 2).

In symbolischer Form (Zeichen, Buchstaben, Zahlen, Signale) dargestellte Eingabeinformationen werden aufgerufen Eingabedaten. Als Ergebnis der Verarbeitung durch den Darsteller, Ausgang. Eingabe- und Ausgabedaten können eine Reihe von Werten sein - einzelne Datenelemente. Wenn die Verarbeitung in mathematischen Berechnungen besteht, dann sind die Eingangs- und Ausgangsdaten Mengen von Zahlen. Die folgende Abbildung x: {x 1, x 2, …, xn) bezeichnet den Satz von Eingabedaten, und Y: {j 1, j 2, …, ym) - Satz Ausgangsdaten:

Datenverarbeitungsschema

Die Verarbeitung besteht darin, die Menge zu transformieren x in die Menge Y:

P( x) Y

Hier R bezeichnet die vom Ausführenden verwendeten Verarbeitungsregeln. Wenn der Ausführende der Informationsverarbeitung eine Person ist, dann sind die Verarbeitungsregeln, nach denen er handelt, nicht immer formal und eindeutig. Eine Person handelt oft kreativ, nicht formell. Auch die gleichen mathematischen Probleme können auf unterschiedliche Weise gelöst werden. Die Arbeit eines Journalisten, Wissenschaftlers, Übersetzers und anderer Fachleute ist eine kreative Arbeit mit Informationen, die sich nicht an formale Regeln hält.

Um formalisierte Regeln zu benennen, die die Abfolge von Inbestimmen, verwendet die Informatik das Konzept eines Algorithmus (siehe „ Algorithmus" 2). Das Konzept eines Algorithmus in der Mathematik ist mit einer bekannten Methode zur Berechnung des größten gemeinsamen Teilers (ggT) zweier natürlicher Zahlen verbunden, die als euklidischer Algorithmus bezeichnet wird. In verbaler Form kann es wie folgt beschrieben werden:

1. Wenn zwei Zahlen gleich sind, nehmen Sie ihren gemeinsamen Wert als GCD, andernfalls fahren Sie mit Schritt 2 fort.

2. Wenn die Zahlen unterschiedlich sind, ersetzen Sie die größere durch die Differenz zwischen der größeren und der kleineren Zahl. Zurück zu Schritt 1.

Hier sind die Eingabe zwei natürliche Zahlen - x 1 und x 2. Ergebnis Y ist ihr größter gemeinsamer Teiler. Regel ( R) ist Euklids Algorithmus:

Euklids Algorithmus ( x 1, x 2) Y

Ein solcher formalisierter Algorithmus ist für einen modernen Computer einfach zu programmieren. Der Computer ist der universelle Vollstrecker der Datenverarbeitung. Der formalisierte Verarbeitungsalgorithmus wird in Form eines im Computerspeicher platzierten Programms präsentiert. Für einen Computer werden Verarbeitungsregeln ( R) - Dieses Programm.

Richtlinien

Zur Erläuterung des Themas „Informationsverarbeitung“ sollten Beispiele für die Verarbeitung gegeben werden, sowohl in Bezug auf die Gewinnung neuer Informationen als auch in Bezug auf die Änderung der Form der Informationspräsentation.

Die erste Art der Verarbeitung: Verarbeitung im Zusammenhang mit der Gewinnung neuer Informationen, neuer Wissensinhalte. Diese Art der Verarbeitung beinhaltet die Lösung mathematischer Probleme. Die gleiche Art der Informationsverarbeitung beinhaltet die Lösung verschiedener Probleme durch Anwendung logischen Denkens. Beispielsweise findet der Ermittler anhand eines bestimmten Beweismaterials einen Verbrecher; eine Person, die die Umstände analysiert, trifft eine Entscheidung über ihre weiteren Handlungen; Ein Wissenschaftler löst das Geheimnis alter Manuskripte usw.

Die zweite Art der Verarbeitung: Verarbeitung im Zusammenhang mit der Änderung der Form, aber ohne Änderung des Inhalts. Zu dieser Art der Informationsverarbeitung gehört beispielsweise die Übersetzung von Texten von einer Sprache in eine andere: Die Form ändert sich, der Inhalt muss erhalten bleiben. Eine wichtige Art der Verarbeitung für die Informatik ist das Codieren. Kodierung- Das Umwandlung von Informationen in eine symbolische Form, die für ihre Speicherung, Übertragung und Verarbeitung geeignet ist(cm. " Kodierung” 2).

Als zweite Verarbeitungsart kann auch die Datenstrukturierung eingeordnet werden. Strukturierung ist mit der Einführung einer bestimmten Ordnung, einer bestimmten Organisation in die Informationsspeicherung verbunden. Die Anordnung von Daten in alphabetischer Reihenfolge, die Gruppierung nach einigen Klassifizierungskriterien, die Verwendung einer tabellarischen oder grafischen Darstellung sind alles Beispiele für die Strukturierung.

Eine besondere Art der Informationsverarbeitung ist Suche. Die Suchaufgabe wird normalerweise wie folgt formuliert: Es gibt eine Speicherung von Informationen - Informationsfeld(Telefonbuch, Wörterbuch, Zugfahrplan usw.), müssen Sie die erforderlichen Informationen darin finden, die bestimmte Anforderungen erfüllen Suchbegriffe(Telefonnummer dieser Organisation, Übersetzung dieses Wortes ins Englische, Abfahrtszeit dieses Zuges). Der Suchalgorithmus hängt davon ab, wie Informationen organisiert sind. Wenn die Informationen strukturiert sind, dann ist die Suche schneller, sie kann optimiert werden (siehe „ Datensuche“ 2).

In einem propädeutischen Informatikkurs sind „Black Box“-Aufgaben beliebt. Der Verarbeiter wird als „Black Box“ betrachtet, d.h. System, dessen interne Organisation und Mechanismen wir nicht kennen. Die Aufgabe besteht darin, die Datenverarbeitungsregel (P) zu erraten, die der Ausführende implementiert.

Der verarbeitende Executor berechnet den Durchschnittswert der Eingabewerte: Y = (x 1 + x 2)/2

Am Eingang - ein Wort auf Russisch, am Ausgang - die Anzahl der Vokale.

Die tiefste Beherrschung von Fragen der Informationsverarbeitung erfolgt beim Studium von Algorithmen für die Arbeit mit Mengen und Programmierung (in der Grund- und Oberstufe). Der Ausführende der Informationsverarbeitung ist in diesem Fall ein Computer, und alle Verarbeitungsfähigkeiten sind in die Programmiersprache eingebettet. Programmierung Essen Beschreibung der Regeln für die Verarbeitung von Eingabedaten, um Ausgabedaten zu erhalten.

Den Schülern sollten zwei Arten von Aufgaben gestellt werden:

Direkte Aufgabe: Erstellen eines Algorithmus (Programm) zur Lösung des Problems;

Umgekehrtes Problem: Bei einem gegebenen Algorithmus muss das Ergebnis seiner Ausführung bestimmt werden, indem der Algorithmus verfolgt wird.

Beim Lösen eines inversen Problems versetzt sich der Schüler in die Lage eines Verarbeitungsperformers, der Schritt für Schritt den Algorithmus ausführt. Die Ergebnisse der Ausführung bei jedem Schritt sollten in der Ablaufverfolgungstabelle widergespiegelt werden.

8. Übermittlung von Informationen

Komponenten des Informationsübertragungsprozesses

Die Übertragung von Informationen erfolgt von der Quelle zum Empfänger (Empfänger) von Informationen. Quelle Information kann alles sein: jedes Objekt oder Phänomen lebender oder unbelebter Natur. Der Prozess der Informationsübertragung findet in einer materiellen Umgebung statt, die Quelle und Empfänger von Informationen trennt, was als bezeichnet wird Kanal Übertragung von Informationen. Informationen werden über einen Kanal in Form einer bestimmten Folge von Signalen, Symbolen, Zeichen übertragen, die aufgerufen werden Botschaft. Empfänger Information ist ein Objekt, das eine Nachricht empfängt, wodurch bestimmte Zustandsänderungen auftreten. All dies ist schematisch in der Figur gezeigt.

Übertragung von Informationen

Eine Person erhält Informationen von allem, was sie umgibt, durch die Sinne: Hören, Sehen, Riechen, Berühren, Schmecken. Eine Person erhält die größte Menge an Informationen durch Hören und Sehen. Tonbotschaften werden vom Ohr wahrgenommen - akustische Signale in einem kontinuierlichen Medium (meistens in der Luft). Vision nimmt Lichtsignale wahr, die das Bild von Objekten tragen.

Nicht jede Nachricht ist für eine Person informativ. Beispielsweise enthält eine Nachricht in einer unverständlichen Sprache, obwohl sie an eine Person übermittelt wird, keine Informationen für sie und kann keine angemessenen Änderungen ihres Zustands bewirken (siehe „ Information").

Ein Informationskanal kann entweder natürlicher Natur sein (atmosphärische Luft, durch die Schallwellen übertragen werden, Sonnenlicht, das von beobachteten Objekten reflektiert wird) oder künstlich geschaffen werden. Im letzteren Fall sprechen wir von technischen Kommunikationsmitteln.

Technische Informationsübertragungssysteme

Das erste technische Mittel zur Übertragung von Informationen über große Entfernungen war der 1837 von dem Amerikaner Samuel Morse erfundene Telegraf. 1876 ​​erfindet der Amerikaner A. Bell das Telefon. Basierend auf der Entdeckung elektromagnetischer Wellen durch den deutschen Physiker Heinrich Hertz (1886), A.S. Popov in Russland im Jahr 1895 und fast gleichzeitig mit ihm im Jahr 1896 G. Marconi in Italien, wurde das Radio erfunden. Fernsehen und Internet erschienen im zwanzigsten Jahrhundert.

Alle aufgeführten technischen Verfahren der Informationskommunikation basieren auf der Übertragung eines physikalischen (elektrischen oder elektromagnetischen) Signals über eine Distanz und unterliegen bestimmten allgemeinen Gesetzmäßigkeiten. Das Studium dieser Gesetze ist Kommunikationstheorie die in den 1920er Jahren entstanden. Mathematischer Apparat der Kommunikationstheorie - Mathematische Theorie der Kommunikation, entwickelt vom amerikanischen Wissenschaftler Claude Shannon.

Claude Elwood Shannon (1916–2001), USA

Claude Shannon schlug ein Modell für den Prozess der Informationsübertragung über technische Kommunikationskanäle vor, dargestellt durch ein Diagramm.

Übertragungssystem für technische Informationen

Kodierung bedeutet hier jede Umwandlung von Informationen, die von einer Quelle kommen, in eine Form, die für ihre Übertragung über einen Kommunikationskanal geeignet ist. Dekodierung - Rücktransformation der Signalfolge.

Die Funktionsweise eines solchen Schemas kann durch den bekannten Vorgang des Telefonierens erklärt werden. Die Informationsquelle ist die sprechende Person. Ein Encoder ist ein Hörermikrofon, das Schallwellen (Sprache) in elektrische Signale umwandelt. Der Kommunikationskanal ist das Telefonnetz (Drähte, Schalter von Telefonknoten, durch die das Signal läuft). Das Decodiergerät ist ein Hörer (Kopfhörer) der zuhörenden Person - des Empfängers von Informationen. Hier wird das eingehende elektrische Signal in Schall umgewandelt.

Moderne Computersysteme zur Übertragung von Informationen – Computernetzwerke – arbeiten nach dem gleichen Prinzip. Es gibt einen Verschlüsselungsprozess, der einen binären Computercode in ein physikalisches Signal des Typs umwandelt, der über einen Kommunikationskanal übertragen wird. Dekodierung ist die Rücktransformation des übertragenen Signals in Computercode. Wenn beispielsweise Telefonleitungen in Computernetzwerken verwendet werden, werden die Funktionen des Codierens und Decodierens von einem als Modem bezeichneten Gerät ausgeführt.

Kanalkapazität und Informationsübertragungsrate

Entwickler von technischen Informationsübertragungssystemen müssen zwei miteinander verbundene Aufgaben lösen: Wie kann die höchste Geschwindigkeit der Informationsübertragung sichergestellt werden und wie kann der Informationsverlust während der Übertragung reduziert werden. Claude Shannon war der erste Wissenschaftler, der sich der Lösung dieser Probleme annahm und für die damalige Zeit eine neue Wissenschaft schuf - Informationstheorie.

K.Shannon bestimmte die Methode zur Messung der über Kommunikationskanäle übertragenen Informationsmenge. Sie stellten das Konzept vor Kanalbandbreite,als maximal mögliche Informationsübertragungsrate. Diese Geschwindigkeit wird in Bit pro Sekunde (sowie Kilobit pro Sekunde, Megabit pro Sekunde) gemessen.

Der Durchsatz eines Kommunikationskanals hängt von seiner technischen Implementierung ab. Beispielsweise verwenden Computernetzwerke die folgenden Kommunikationsmittel:

Telefonleitungen,

Elektrokabelanschluss,

Glasfaserverkabelung,

Funkkommunikation.

Durchsatz von Telefonleitungen - Dutzende, Hunderte von Kbps; Der Durchsatz von Glasfaserleitungen und Funkkommunikationsleitungen wird in Dutzenden und Hunderten von Mbit / s gemessen.

Lärm, Lärmschutz

Der Begriff „Rauschen“ bezieht sich auf verschiedene Arten von Interferenzen, die das übertragene Signal verzerren und zu Informationsverlust führen. Solche Störungen treten hauptsächlich aus technischen Gründen auf: schlechte Qualität der Kommunikationsleitungen, gegenseitige Unsicherheit verschiedener Informationsflüsse, die über dieselben Kanäle übertragen werden. Manchmal hören wir beim Telefonieren Geräusche, Knistern, die es schwierig machen, den Gesprächspartner zu verstehen, oder das Gespräch ganz anderer Personen wird unserem Gespräch überlagert.

Das Vorhandensein von Rauschen führt zum Verlust übertragener Informationen. In solchen Fällen ist Lärmschutz erforderlich.

Zunächst werden Kommunikationswege durch technische Maßnahmen vor Lärmeinwirkungen geschützt. Verwenden Sie beispielsweise abgeschirmtes Kabel anstelle von blankem Draht; die Verwendung verschiedener Arten von Filtern, die das Nutzsignal vom Rauschen trennen usw.

Claude Shannon entwickelt Kodiertheorie, die Methoden für den Umgang mit Rauschen angibt. Eine der wichtigen Ideen dieser Theorie ist, dass der Code, der über die Kommunikationsleitung übertragen werden muss, sein muss überflüssig. Dadurch kann der Verlust eines Teils der Informationen während der Übertragung kompensiert werden. Wenn Sie beispielsweise beim Telefonieren schlecht zu verstehen sind, haben Sie durch zweimaliges Wiederholen jedes Wortes eine bessere Chance, dass der Gesprächspartner Sie richtig versteht.

Allerdings darf man die Redundanz nicht zu groß machen. Dies führt zu Verzögerungen und höheren Kommunikationskosten. Die Codierungstheorie ermöglicht es Ihnen, einen optimalen Code zu erhalten. In diesem Fall ist die Redundanz der übertragenen Informationen minimal und die Zuverlässigkeit der empfangenen Informationen maximal.

In modernen digitalen Kommunikationssystemen wird oft die folgende Technik verwendet, um den Informationsverlust während der Übertragung zu bekämpfen. Die gesamte Nachricht ist in Portionen unterteilt - Pakete. Für jedes Paket wird berechnet Prüfsumme(Summe der Binärziffern), die mit diesem Paket übertragen wird. Am Empfangsort wird die Prüfsumme des empfangenen Pakets neu berechnet und, falls sie nicht mit der ursprünglichen Summe übereinstimmt, die Übertragung dieses Pakets wiederholt. Dies wird bis zum Anfangs- und Endspiel fortgesetzt Prüfsummen wird nicht passen.

Richtlinien

Betrachtet man die Informationsvermittlung in propädeutischen und grundständigen Informatikkursen, so sollte diese Thematik zunächst aus der Position einer Person als Informationsempfänger diskutiert werden. Die Fähigkeit, Informationen aus der Umwelt zu erhalten, ist die wichtigste Voraussetzung für die menschliche Existenz. Die menschlichen Sinnesorgane sind die Informationskanäle des menschlichen Körpers, die die Verbindung einer Person mit der äußeren Umgebung herstellen. Auf dieser Grundlage werden Informationen in visuelle, auditive, olfaktorische, taktile und gustatorische unterteilt. Der Grund dafür, dass Geschmack, Geruch und Berührung Informationen zu einer Person tragen, ist wie folgt: Wir erinnern uns an die Gerüche vertrauter Gegenstände, den Geschmack vertrauter Speisen, wir erkennen vertraute Gegenstände durch Berührung. Und der Inhalt unseres Gedächtnisses sind gespeicherte Informationen.

Den Schülern sollte vermittelt werden, dass die Informationsfunktion der Sinne in der Tierwelt eine andere ist als die des Menschen. Der Geruchssinn erfüllt für Tiere eine wichtige Informationsfunktion. Der erhöhte Geruchssinn von Diensthunden wird von Strafverfolgungsbehörden genutzt, um nach Verbrechern zu suchen, Drogen aufzuspüren usw. Die visuelle und akustische Wahrnehmung von Tieren unterscheidet sich von der des Menschen. Zum Beispiel sind Fledermäuse dafür bekannt, Ultraschall zu hören, und Katzen sind dafür bekannt, im Dunkeln zu sehen (aus menschlicher Sicht).

Im Rahmen dieses Themas sollen die Studierenden in der Lage sein, konkrete Beispiele für den Vorgang der Informationsübermittlung zu nennen, für diese Beispiele die Quelle, den Empfänger der Information und die Kanäle der Informationsübermittlung zu bestimmen.

Beim Studium der Informatik an der Oberstufe sollen die Schüler in die Grundbestimmungen der technischen Theorie der Kommunikation eingeführt werden: die Konzepte der Codierung, Decodierung, Informationsübertragungsrate, Kanalkapazität, Rauschen, Lärmschutz. Diese Fragestellungen können im Rahmen des Themas „Technische Mittel von Rechnernetzen“ betrachtet werden.

9. Darstellung von Zahlen

Zahlen in der Mathematik

Die Zahl ist das wichtigste Konzept der Mathematik, das sich über einen langen Zeitraum der Menschheitsgeschichte entwickelt und entwickelt hat. Seit der Antike arbeiten Menschen mit Zahlen. Anfangs hat man nur mit positiven ganzen Zahlen gearbeitet, die man natürliche Zahlen nennt: 1, 2, 3, 4, ... Lange Zeit gab es die Meinung, dass es die größte Zahl gibt, „mehr als das der menschliche Verstand kann verstehen“ (wie sie in den altslawischen mathematischen Abhandlungen schrieben) .

Die Entwicklung der mathematischen Wissenschaft hat zu dem Schluss geführt, dass es keine größte Zahl gibt. Aus mathematischer Sicht ist die Reihe der natürlichen Zahlen unendlich, d.h. ist nicht begrenzt. Mit dem Aufkommen des Konzepts einer negativen Zahl in der Mathematik (R. Descartes, 17. Jahrhundert in Europa; in Indien viel früher) stellte sich heraus, dass die Menge der ganzen Zahlen sowohl „links“ als auch „rechts“ unbegrenzt ist. Die mathematische Menge ganzer Zahlen ist diskret und unbegrenzt (unendlich).

Das Konzept einer reellen (oder reellen) Zahl wurde im 18. Jahrhundert von Isaac Newton in die Mathematik eingeführt. Aus mathematischer Sicht die Menge der reellen Zahlen ist unendlich und stetig. Es enthält viele ganze Zahlen und eine unendliche Anzahl von Nicht-Ganzzahlen. Zwischen zwei beliebigen Punkten auf der Zahlenachse liegt eine unendliche Menge reeller Zahlen. Das Konzept einer reellen Zahl ist mit der Idee einer kontinuierlichen numerischen Achse verbunden, deren jeder Punkt einer reellen Zahl entspricht.

Ganzzahlige Darstellung

Im Computerspeicher Zahlen werden im binären Zahlensystem gespeichert(cm. " Zahlensysteme“ 2). Es gibt zwei Arten der Darstellung von Ganzzahlen in einem Computer: Ganzzahlen ohne Vorzeichen und Ganzzahlen mit Vorzeichen.

Ganzzahlen ohne Vorzeichen - Das die Menge positiver Zahlen im Bereich, wo k- Dies ist die Bittiefe der Speicherzelle, die der Nummer zugeordnet ist. Wenn zum Beispiel eine Speicherzelle mit 16 Bit (2 Byte) einer ganzen Zahl zugewiesen wird, dann ist die größte Zahl:

In Dezimalform entspricht dies: 2 16 - 1 \u003d 65 535

Wenn alle Ziffern der Zelle Nullen sind, dann ist es Null. Somit werden 2 16 = 65 536 ganze Zahlen in eine 16-Bit-Zelle platziert.

Vorzeichenbehaftete Ganzzahlen ist die Menge positiver und negativer Zahlen im Bereich[–2 k–1 , 2 k-elf]. Wann zum Beispiel k= 16 ganzzahliger Darstellungsbereich: [–32768, 32767]. Die höhere Ordnung der Speicherzelle speichert das Vorzeichen der Zahl: 0 - positive Zahl, 1 - negative Zahl. Die größte positive Zahl 32.767 hat folgende Darstellung:

Beispielsweise hat die Dezimalzahl 255, nachdem sie in eine Binärzahl umgewandelt und in eine 16-Bit-Speicherzelle eingefügt wurde, die folgende interne Darstellung:

Negative ganze Zahlen werden im Zweierkomplement dargestellt. Zusätzlicher Code positive Zahl n- Das ist seine binäre Darstellung, die, wenn sie zum Zahlencode hinzugefügt wird n gibt Wert 2 k. Hier k- die Anzahl der Bits in der Speicherzelle. Der Zusatzcode für die Zahl 255 wäre beispielsweise:

Dies ist die Darstellung der negativen Zahl -255. Fügen wir die Codes der Nummern 255 und -255 hinzu:

Derjenige mit der höchsten Ordnung „fiel“ aus der Zelle heraus, sodass sich die Summe als Null herausstellte. Aber so soll es sein: n + (–n) = 0. Der Computerprozessor führt die Subtraktionsoperation als Addition mit dem zusätzlichen Code der subtrahierten Zahl durch. In diesem Fall führt der Überlauf der Zelle (das Überschreiten der Grenzwerte) nicht zur Unterbrechung der Programmausführung. Diesen Umstand muss der Programmierer kennen und berücksichtigen!

Das Format zur Darstellung reeller Zahlen in einem Computer heißt Gleitkommaformat. reelle Zahl R als Produkt der Mantisse dargestellt m nach dem Zahlensystem n bis zu einem gewissen Grad P, die als Reihenfolge bezeichnet wird: R= m ? np.

Die Darstellung einer Zahl in Fließkommaform ist mehrdeutig. Für die Dezimalzahl 25.324 gelten beispielsweise die folgenden Gleichheiten:

25,324 = 2,5324? 10 1 = 0,0025324? 10 4 \u003d 2532,4? 10 -2 usw.

Um Unklarheiten zu vermeiden, einigten wir uns darauf, den Computer zu benutzen eine normalisierte Darstellung einer Zahl in Fließkommaform. Mantisse in der normierten Darstellung muss die Bedingung erfüllen: 0,1 nm < 1 n. Mit anderen Worten, die Mantisse ist kleiner als eins und die erste signifikante Stelle ist nicht Null. In einigen Fällen wird die Normalisierungsbedingung wie folgt angenommen: 1 n m < 10 n .

IN Computerspeicher Mantisse als Ganzzahl dargestellt, die nur signifikante Ziffern enthält(0 Ganzzahlen und Kommas werden nicht gespeichert). Daher wird die interne Darstellung einer reellen Zahl auf die Darstellung eines Paars ganzer Zahlen reduziert: Mantisse und Exponent.

Verschiedene Arten von Computern verwenden unterschiedliche Methoden zur Darstellung von Zahlen in Fließkommaform. Betrachten Sie eine der Varianten der internen Darstellung einer reellen Zahl in einer 4-Byte-Speicherzelle.

Die Zelle muss die folgenden Informationen über die Zahl enthalten: das Vorzeichen der Zahl, den Exponenten und die signifikanten Stellen der Mantisse.

Das Vorzeichen der Zahl wird im höchstwertigen Bit des 1. Bytes gespeichert: 0 bedeutet Plus, 1 bedeutet Minus. Die restlichen 7 Bits des ersten Bytes enthalten Maschinenbestellung. Die nächsten drei Bytes speichern die signifikanten Ziffern der Mantisse (24 Bit).

Binärzahlen im Bereich von 0000000 bis 1111111 werden in sieben Binärstellen gestellt, dh die Maschinenordnung variiert im Bereich von 0 bis 127 (im dezimalen Zahlensystem). Insgesamt gibt es 128 Werte. Die Reihenfolge kann offensichtlich entweder positiv oder negativ sein. Es ist sinnvoll, diese 128 Werte gleichmäßig auf positive und negative Ordnungswerte aufzuteilen: von -64 bis 63.

Maschinenbestellung gegenüber dem Mathematischen voreingenommen und hat nur positive Werte. Der Offset wird so gewählt, dass der rechnerische Mindestwert der Ordnung Null entspricht.

Die Beziehung zwischen maschineller Ordnung (Mp) und mathematischer Ordnung (p) im betrachteten Fall wird durch die Formel ausgedrückt: Mp = p + 64.

Die resultierende Formel wird im Dezimalsystem geschrieben. In binärer Form sieht die Formel so aus: Mp 2 = p 2 + 100 0000 2 .

Um die interne Darstellung einer reellen Zahl zu schreiben, müssen Sie:

1) Übersetze den Modulus einer gegebenen Zahl in ein binäres Zahlensystem mit 24 signifikanten Stellen,

2) eine Binärzahl normalisieren,

3) Finden Sie die Maschinenreihenfolge im Binärsystem,

4) Schreiben Sie unter Berücksichtigung des Vorzeichens der Zahl ihre Darstellung in ein Vier-Byte-Maschinenwort.

Beispiel. Schreiben Sie die interne Darstellung der Zahl 250,1875 in Fließkommaform.

1. Übersetzen wir es in ein binäres Zahlensystem mit 24 signifikanten Stellen:

250,1875 10 = 11111010,0011000000000000 2 .

2. Schreiben wir in Form einer normalisierten binären Gleitkommazahl:

0,11111010001100000000000 H 10 2 1000 .

Hier ist die Mantisse, die Basis des Zahlensystems
(2 10 \u003d 10 2) und die Reihenfolge (8 10 \u003d 1000 2) werden binär geschrieben.

3. Berechnen Sie die Maschinenordnung im Binärsystem:

MP2 = 1000 + 100 0000 = 100 1000.

4. Schreiben wir die Darstellung der Zahl unter Berücksichtigung des Vorzeichens der Zahl in eine 4-Byte-Speicherzelle

Hexadezimalform: 48FA3000.

Der Bereich der reellen Zahlen ist viel größer als der Bereich der ganzen Zahlen. Positive und negative Zahlen sind symmetrisch um Null angeordnet. Daher sind die maximalen und minimalen Zahlen im Absolutwert gleich.

Die kleinste absolute Zahl ist Null. Die größte Gleitkommazahl im Absolutwert ist die Zahl mit der größten Mantisse und dem größten Exponenten.

Für ein Vier-Byte-Maschinenwort wäre diese Nummer:

0,11111111111111111111111 10 2 1111111 .

Nach Umrechnung in das dezimale Zahlensystem erhalten wir:

MAX = (1 - 2 -24) 2 63 10 19 .

Wenn bei Berechnungen mit reellen Zahlen das Ergebnis außerhalb des zulässigen Bereichs liegt, wird die Programmausführung unterbrochen. Das passiert zum Beispiel beim Teilen durch Null oder durch eine sehr kleine Zahl nahe Null.

Reelle Zahlen, deren Mantissen-Bitlänge die Anzahl der für die Mantisse in einer Speicherzelle zugewiesenen Bits überschreitet, werden im Computer näherungsweise (mit einer "abgeschnittenen" Mantisse) dargestellt. Beispielsweise wird die rationale Dezimalzahl 0,1 in einem Computer ungefähr (gerundet) dargestellt, da ihre Mantisse im Binärsystem unendlich viele Stellen hat. Die Folge dieser Annäherung ist der Fehler von Maschinenrechnungen mit reellen Zahlen.

Der Computer führt ungefähr Berechnungen mit reellen Zahlen durch. Der Fehler solcher Berechnungen heißt Rundungsfehler der Maschine.

Die Menge der reellen Zahlen, die im Computerspeicher exakt in Fließkommaform dargestellt werden können, ist begrenzt und diskret. Diskretion ist eine Folge der begrenzten Anzahl von Ziffern der Mantisse, wie oben diskutiert.

Die Anzahl der reellen Zahlen, die im Computerspeicher genau dargestellt werden können, kann mit der folgenden Formel berechnet werden: n = 2 T · ( UL+ 1) + 1. Hier T- die Anzahl der Binärstellen der Mantisse; U- der Höchstwert der mathematischen Ordnung; L- Mindestbestellwert. Für die oben betrachtete Darstellungsmöglichkeit ( T = 24, U = 63,
L
= -64) stellt sich heraus: n = 2 146 683 548.

Richtlinien

Das Thema der Darstellung numerischer Informationen in einem Computer ist sowohl im Standard für die Grundschule als auch für das Gymnasium präsent.

In der Grundschule (Grundkurs) genügt es, sich mit der Darstellung ganzer Zahlen in einem Computer zu befassen. Das Studium dieses Themas ist erst möglich, nachdem Sie sich mit dem Thema „Zahlensysteme“ vertraut gemacht haben. Darüber hinaus sollten sich die Schüler aus den Prinzipien der Computerarchitektur bewusst sein, dass ein Computer mit einem binären Zahlensystem arbeitet.

Bei der Darstellung von ganzen Zahlen sollte das Hauptaugenmerk auf den begrenzten Bereich von ganzen Zahlen gelegt werden, auf die Verbindung dieses Bereichs mit der Kapazität der zugeordneten Speicherzelle - k. Für positive Zahlen (vorzeichenlos): , für positive und negative Zahlen (vorzeichenbehaftet): [–2 k–1 , 2 k–1 – 1].

Die Erlangung der internen Darstellung von Zahlen soll anhand von Beispielen analysiert werden. Danach sollten die Schüler analog solche Probleme selbstständig lösen.

Beispiel 1 Holen Sie sich die vorzeichenbehaftete interne Darstellung der Ganzzahl 1607 in einem Zwei-Byte-Speicherort.

1) Wandeln Sie die Zahl in das Binärsystem um: 1607 10 = 11001000111 2 .

2) Wenn wir links zu 16 Ziffern Nullen hinzufügen, erhalten wir die interne Darstellung dieser Zahl in der Zelle:

Es ist wünschenswert zu zeigen, wie die hexadezimale Form für die komprimierte Form dieses Codes verwendet wird, der erhalten wird, indem jeweils vier Binärziffern durch eine hexadezimale Ziffer ersetzt werden: 0647 (siehe „ Zahlensysteme” 2).

Schwieriger ist das Problem, die interne Darstellung einer negativen ganzen Zahl (– n) - zusätzlicher Code. Sie müssen den Schülern den Algorithmus dieses Verfahrens zeigen:

1) Holen Sie sich die interne Darstellung einer positiven Zahl n;

2) Holen Sie sich den Rückgabecode dieser Nummer, indem Sie 0 durch 1 und 1 durch 0 ersetzen;

3) Addiere 1 zur resultierenden Zahl.

Beispiel 2. Holen Sie sich die interne Darstellung einer negativen Ganzzahl -1607 in einem Zwei-Byte-Speicherort.

Es ist nützlich, den Schülern zu zeigen, wie die interne Darstellung der kleinsten negativen Zahl aussieht. In einer Zwei-Byte-Zelle ist dies -32.768.

1) Es ist einfach, die Zahl 32 768 in das binäre Zahlensystem umzuwandeln, da 32 768 = 2 15. Daher ist es in Binärform:

1000000000000000

2) Schreiben Sie den umgekehrten Code:

0111111111111111

3) Fügen Sie dieser Binärzahl eins hinzu, wir erhalten

Die Eins im ersten Bit bedeutet das Minuszeichen. Sie müssen nicht denken, dass der empfangene Code minus Null ist. Dies ist -32.768 im Zweierkomplement. Dies sind die Regeln für die maschinelle Darstellung von ganzen Zahlen.

Lassen Sie die Schüler nach dem Zeigen dieses Beispiels selbst beweisen, dass die Addition der Zahlencodes 32767 + (-32768) den Zahlencode -1 ergibt.

Laut Standard sollte die Darstellung reeller Zahlen in der High School studiert werden. Beim Informatikstudium in den Klassen 10–11 auf der Grundstufe reicht es aus, den Schülern die Hauptmerkmale eines Computers mit reellen Zahlen zu erklären: über die begrenzte Reichweite und das Unterbrechen des Programms, wenn es darüber hinausgeht; über den Fehler von Maschinenrechnungen mit reellen Zahlen, dass der Computer Berechnungen mit reellen Zahlen langsamer durchführt als mit ganzen Zahlen.

Das Studium auf Profilebene erfordert eine detaillierte Analyse der Darstellung reeller Zahlen im Gleitkommaformat, eine Analyse der Merkmale der Durchführung von Berechnungen auf einem Computer mit reellen Zahlen. Ein sehr wichtiges Problem hierbei ist die Auswertung des Rechenfehlers, die Vermeidung von Wertverlust, der Programmunterbrechung. Ausführliches Material zu diesen Themen finden Sie im Schulungshandbuch.

10. Zahlensystem

Zahlensystem - dies ist eine Art, Zahlen darzustellen, und die entsprechenden Regeln für die Operation mit Zahlen. Die verschiedenen Zahlensysteme, die früher existierten und heute verwendet werden, können unterteilt werden nicht positionell Und positionell. Zeichen, die beim Schreiben von Zahlen verwendet werden, werden genannt Zahlen.

IN Nicht-Positionszahlensysteme Der Wert einer Ziffer hängt nicht von ihrer Position in der Zahl ab.

Ein Beispiel für ein nicht-positionelles Zahlensystem ist das römische System (römische Ziffern). Im römischen System werden lateinische Buchstaben als Zahlen verwendet:

Beispiel 1. Die Zahl CCXXXII besteht aus zweihundert, drei Zehnern und zwei Einheiten und ist gleich zweihundertzweiunddreißig.

Römische Zahlen werden von links nach rechts in absteigender Reihenfolge geschrieben. In diesem Fall werden ihre Werte addiert. Wenn links eine kleinere Zahl und rechts eine große Zahl geschrieben wird, werden ihre Werte subtrahiert.

VI = 5 + 1 = 6; IV \u003d 5 - 1 \u003d 4.

MCMXCVIII = 1000 + (-100 + 1000) +

+ (–10 + 100) + 5 + 1 + 1 + 1 = 1998.

IN Positionsnummernsysteme Der Wert, der durch eine Ziffer in einem Zahleneintrag angegeben wird, hängt von ihrer Position ab. Die Anzahl der verwendeten Ziffern wird als Basis des Positionsnummernsystems bezeichnet.

Das in der modernen Mathematik verwendete Zahlensystem ist positionelles Dezimalsystem. Seine Basis ist zehn, weil Alle Zahlen werden mit zehn Ziffern geschrieben:

0, 1, 2, 3, 4, 5, 6, 7, 8, 9.

Die Positionsnatur dieses Systems ist am Beispiel einer beliebigen mehrstelligen Zahl leicht verständlich. Zum Beispiel bedeuten in der Zahl 333 die ersten drei dreihundert, die zweite - drei Zehner, die dritte - drei Einheiten.

Zahlen in einem Positionssystem mit Basis schreiben n Haben müssen Alphabet von n Ziffern. Normalerweise dafür n < 10 используют n erste arabische Ziffern und n> 10 Buchstaben werden zu zehn arabischen Ziffern hinzugefügt. Hier sind Beispiele für Alphabete aus mehreren Systemen:

Wenn es erforderlich ist, die Basis des Systems anzugeben, zu dem die Nummer gehört, wird dieser Nummer ein tiefgestellter Index zugewiesen. Zum Beispiel:

1011012, 36718, 3B8F16.

Im Basiszahlensystem Q (Q-äres Zahlensystem) Zifferneinheiten sind aufeinanderfolgende Potenzen einer Zahl Q. Q Einheiten einer beliebigen Kategorie bilden die Einheit der nächsten Kategorie. Um eine Nummer zu schreiben Q-äres Zahlensystem erforderlich Q verschiedene Zeichen (Zahlen), die die Zahlen 0, 1, ... darstellen, Q– 1. Schreiben einer Zahl Q in Q-äre Zahlensystem hat die Form 10.

Erweiterte Schreibweise einer Zahl

Lassen Aq- Nummer im Basissystem Q, ai - Ziffern eines bestimmten Zahlensystems, die in der Notation einer Zahl vorhanden sind EIN, n+ 1 - die Anzahl der Ziffern des ganzzahligen Teils der Zahl, m- die Anzahl der Ziffern des Bruchteils der Zahl:

Erweiterte Form einer Zahl ABER heißt ein Datensatz in der Form:

Beispiel für eine Dezimalzahl:

Die folgenden Beispiele zeigen die erweiterte Form von Hexadezimal- und Binärzahlen:

In jedem Zahlensystem wird seine Basis als 10 geschrieben.

Wenn alle Terme in der erweiterten Form einer Nichtdezimalzahl im Dezimalsystem dargestellt werden und der resultierende Ausdruck nach den Regeln der Dezimalarithmetik berechnet wird, wird eine Zahl im Dezimalsystem erhalten, die der angegebenen entspricht. Nach diesem Prinzip erfolgt eine Umrechnung von einem Nichtdezimalsystem in ein Dezimalsystem. Die Umrechnung in das Dezimalsystem der oben geschriebenen Zahlen erfolgt beispielsweise so:

Umrechnung von Dezimalzahlen in andere Zahlensysteme

Ganzzahlige Übersetzung

Ganzzahlige Dezimalzahl x muss auf ein System mit Sockel übertragen werden Q: x = (ein n ein n-1 ein 1 ein 0) q. Finde die signifikanten Stellen einer Zahl: . Stellen wir die Zahl in erweiterter Form dar und führen die identische Transformation durch:

Ab hier ist das klar ein 0 ist der Rest nach dem Teilen der Zahl x pro Zahl Q. Der Ausdruck in Klammern ist der ganzzahlige Quotient dieser Division. Bezeichnen wir es als x 1. Durch ähnliche Transformationen erhalten wir:

Folglich, ein 1 ist der Rest der Division x 1 an Q. Wenn wir die Division mit einem Rest fortsetzen, erhalten wir eine Ziffernfolge der gewünschten Zahl. Anzahl ein In dieser Kette von Abteilungen wird der letzte Privatmann kleiner sein Q.

Formulieren wir die resultierende Regel: dafür Um eine ganze Dezimalzahl in ein Zahlensystem mit einer anderen Basis umzuwandeln, benötigen Sie:

1) die Basis des neuen Zahlensystems im Dezimalzahlensystem ausdrücken und alle nachfolgenden Aktionen nach den Regeln der Dezimalarithmetik ausführen;

2) dividiere nacheinander die gegebene Zahl und die resultierenden partiellen Quotienten durch die Basis des neuen Zahlensystems, bis wir einen unvollständigen Quotienten kleiner als den Divisor erhalten;

3) die resultierenden Reste, die die Ziffern der Zahl in sind neues System Kalkül, an das Alphabet des neuen Zahlensystems anpassen;

4) erstelle eine Nummer im neuen Nummernsystem und schreibe sie ab der letzten Privatnummer auf.

Beispiel 1. Wandeln Sie die Zahl 37 10 in das Binärsystem um.

Um Zahlen in der Notation einer Zahl zu bezeichnen, verwenden wir Symbolik: ein 5 ein 4 ein 3 ein 2 ein 1 ein 0

Also: 37 10 = l00l0l 2

Beispiel 2. Wandeln Sie die Dezimalzahl 315 in Oktal- und Hexadezimalsysteme um:

Daraus folgt: 315 10 = 473 8 = 13B 16. Denken Sie daran, dass 11 10 = B 16 .

Dezimal x < 1 требуется перевести в систему с основанием Q: x = (0, ein –1 ein –2 … ein–m+1 ein–m) q . Finde die signifikanten Stellen einer Zahl: ein –1 ,ein –2 , …, ein-m. Wir stellen die Zahl in erweiterter Form dar und multiplizieren sie mit Q:

Ab hier ist das klar ein–1 x pro Zahl Q. Bezeichne mit x 1 Bruchteil des Produkts und multipliziere es mit Q:

Folglich, ein –2 Es ist ein ganzer Teil der Arbeit x 1 pro Zahl Q. Wenn wir die Multiplikation fortsetzen, erhalten wir eine Ziffernfolge. Nun formulieren wir die Regel: Um einen Dezimalbruch in ein Zahlensystem mit einer anderen Basis umzuwandeln, benötigen Sie:

1) sukzessive die gegebene Zahl und die resultierenden Bruchteile der Produkte mit der Basis des neuen Systems multiplizieren, bis der Bruchteil des Produkts gleich Null wird oder die erforderliche Genauigkeit der Darstellung der Zahl im neuen Zahlensystem erreicht ist;

2) die resultierenden ganzzahligen Teile der Produkte, die die Ziffern einer Zahl im neuen Zahlensystem sind, bringen sie mit dem Alphabet des neuen Zahlensystems in Einklang;

3) den Bruchteil der Zahl im neuen Zahlensystem bilden, beginnend mit dem ganzzahligen Teil des ersten Produkts.

Beispiel 3. Wandeln Sie dezimal 0,1875 in binär, oktal und hexadezimal um.

Hier befindet sich der ganzzahlige Teil der Zahlen in der linken Spalte und der Bruchteil in der rechten Spalte.

Also: 0,1875 10 = 0,0011 2 = 0,14 8 = 0,3 16

Die Übersetzung von gemischten Zahlen, die ganze und gebrochene Teile enthalten, wird in zwei Schritten durchgeführt. Die ganzzahligen und gebrochenen Teile der ursprünglichen Zahl werden gemäß den entsprechenden Algorithmen separat übersetzt. Im letzten Satz einer Zahl im neuen Zahlensystem wird der ganzzahlige Teil vom Nachkomma (Punkt) getrennt.

Richtlinien

Das Thema „Zahlensysteme“ steht in direktem Zusammenhang mit der mathematischen Zahlentheorie. Im Schulfach Mathematik wird es jedoch in der Regel nicht studiert. Die Notwendigkeit, dieses Thema in einem Informatikkurs zu studieren, hängt mit der Tatsache zusammen, dass Zahlen im Computerspeicher in einem binären Zahlensystem dargestellt werden und Hexadezimal- oder Oktalsysteme verwendet werden, um den Inhalt des Speichers, Speicheradressen, extern darzustellen. Das ist eines der klassischen Themen eines Informatik- oder Programmierstudiums. Durch den Bezug zur Mathematik trägt dieses Thema auch zur mathematischen Grundbildung von Schülerinnen und Schülern bei.

Für ein Informatikstudium ist das Hauptinteresse die Vertrautheit mit dem binären Zahlensystem. Die Verwendung des binären Zahlensystems in einem Computer kann unter zwei Aspekten betrachtet werden: 1) binäre Nummerierung, 2) binäre Arithmetik, d.h. arithmetische Berechnungen mit Binärzahlen durchführen.

Binäre Nummerierung

Mit binärer Nummerierung begegnen sich die Studierenden im Thema „Text im Computerspeicher darstellen“. Beim Sprechen über die Kodiertabelle muss der Lehrer die Schüler darüber informieren, dass der interne Binärcode eines Zeichens seine fortlaufende Nummer im binären Zahlensystem ist. Beispielsweise ist die Zahl des Buchstabens S in der ASCII-Tabelle 83. Der achtstellige Binärcode des Buchstabens S entspricht dem Wert dieser Zahl im Binärsystem: 01010011.

Binäres Rechnen

Nach dem Prinzip von John von Neumann führt der Computer Berechnungen im Binärsystem durch. Im Rahmen des Grundkurses genügt es, sich auf Berechnungen mit binären ganzen Zahlen zu beschränken. Um Berechnungen mit mehrstelligen Zahlen durchführen zu können, müssen Sie die Regeln für die Addition und die Regeln für die Multiplikation von einstelligen Zahlen kennen. Hier sind die Regeln:

Das Prinzip der Permutation von Addition und Multiplikation funktioniert in allen Zahlensystemen. Techniken zum Durchführen von Berechnungen mit mehrstelligen Zahlen im Binärsystem ähneln der Dezimalzahl. Mit anderen Worten, die Verfahren zum Addieren, Subtrahieren und Multiplizieren mit einer „Spalte“ und zum Dividieren mit einer „Ecke“ im Binärsystem werden auf die gleiche Weise ausgeführt wie im Dezimalsystem.

Beachten Sie die Regeln zum Subtrahieren und Dividieren von Binärzahlen. Die Subtraktionsoperation ist die Umkehrung der Addition. Aus der obigen Additionstabelle folgen die Subtraktionsregeln:

0 - 0 = 0; 1 - 0 = 1; 10 - 1 = 1.

Hier ist ein Beispiel für eine mehrstellige Subtraktion:

Das erhaltene Ergebnis kann überprüft werden, indem die Differenz mit dem Subtrahend addiert wird. Es sollte eine abnehmende Zahl sein.

Die Division ist die Umkehroperation der Multiplikation.
In jedem Zahlensystem darf nicht durch 0 geteilt werden. Das Ergebnis der Division durch 1 ist gleich dem Dividenden. Die Division einer Binärzahl durch 102 verschiebt den Dezimalpunkt um eine Stelle nach links, genau wie bei der Dezimaldivision durch zehn. Zum Beispiel:

Eine Division durch 100 verschiebt das Komma um 2 Stellen nach links usw. Im Grundkurs können Sie keine komplexen Beispiele für die Division mehrwertiger Binärzahlen berücksichtigen. Obwohl fähige Schüler damit umgehen können, nachdem sie die allgemeinen Prinzipien verstanden haben.

Die Darstellung von im Computerspeicher gespeicherten Informationen in ihrer echten binären Form ist aufgrund der großen Anzahl von Ziffern sehr umständlich. Darunter versteht man die Aufzeichnung solcher Informationen auf Papier oder die Darstellung auf dem Bildschirm. Üblicherweise werden für diese Zwecke gemischte binär-oktale oder binär-hexadezimale Systeme verwendet.

Es gibt eine einfache Beziehung zwischen der binären und der hexadezimalen Darstellung einer Zahl. Bei der Übersetzung einer Zahl von einem System in ein anderes entspricht eine Hexadezimalziffer einem 4-Bit-Binärcode. Diese Entsprechung spiegelt sich in der Binär-Hexadezimal-Tabelle wider:

Binäre Hexadezimaltabelle

Eine solche Beziehung basiert auf der Tatsache, dass 16 = 2 4 und die Anzahl der verschiedenen vierstelligen Kombinationen der Ziffern 0 und 1 16 beträgt: von 0000 bis 1111. Also Die Konvertierung von Hexadezimalzahlen in Binärzahlen und umgekehrt erfolgt durch formale Konvertierung durch Binär-Hexadezimal-Tabelle.

Hier ist ein Beispiel für die Übersetzung eines 32-Bit-Binärcodes in ein Hexadezimalsystem:

1011 1100 0001 0110 1011 1111 0010 1010 BC16BF2A

Wenn eine hexadezimale Darstellung der internen Informationen angegeben ist, ist es einfach, sie in Binärcode zu übersetzen. Der Vorteil der hexadezimalen Darstellung ist, dass sie 4-mal kürzer ist als die binäre. Es ist wünschenswert, dass die Schüler die Binär-Hexadezimal-Tabelle auswendig lernen. Dann wird für sie tatsächlich die hexadezimale Darstellung der binären gleichwertig.

Bei Binär-Oktal entspricht jede Oktalziffer einer Triade von Binärziffern. Mit diesem System können Sie den Binärcode um das Dreifache reduzieren.

11. Informationsspeicherung

Eine Person speichert Informationen in ihrem eigenen Gedächtnis sowie in Form von Aufzeichnungen auf verschiedenen externen (in Bezug auf eine Person) Medien: auf Stein, Papyrus, Papier, magnetischen und optischen Medien usw. Dank solcher Aufzeichnungen sind Informationen nicht nur im Raum (von Mensch zu Mensch), sondern auch in der Zeit - von Generation zu Generation - übertragen.

Vielzahl von Speichermedien

Informationen können in verschiedenen Formen gespeichert werden: in Form von Texten, in Form von Abbildungen, Diagrammen, Zeichnungen; in Form von Fotografien, in Form von Tonaufnahmen, in Form von Film- oder Videoaufnahmen. Es werden jeweils deren Träger verwendet. Träger - Das das materielle Medium, das zum Aufzeichnen und Speichern von Informationen verwendet wird.

Zu den Hauptmerkmalen von Informationsträgern gehören: Informationsvolumen bzw. Dichte der Informationsspeicherung, Zuverlässigkeit (Dauerhaftigkeit) der Speicherung.

Papiermedien

Der Träger mit der massivsten Nutzung ist immer noch Papier. Erfunden im 2. Jahrhundert n. Chr. in China dient Papier den Menschen seit 19 Jahrhunderten.

Um die Informationsmengen auf verschiedenen Medien zu vergleichen, verwenden wir eine universelle Einheit - Byte, unter der Annahme, dass ein Zeichen des Textes 1 Byte "wiegt". Ein Buch mit 300 Seiten und einer Textgröße von ca. 2000 Zeichen pro Seite hat ein Informationsvolumen von 600.000 Bytes oder 586 KB. Der Informationsumfang der Sekundarschulbibliothek, deren Bestand 5000 Bände beträgt, entspricht etwa 2861 MB = 2,8 GB.

Die Haltbarkeit von Dokumenten, Büchern und anderen Papierprodukten hängt stark von der Qualität des Papiers, den zum Schreiben des Textes verwendeten Farbstoffen und den Lagerbedingungen ab. Interessanterweise wurde bis Mitte des 19. Jahrhunderts (seitdem Holz als Papierrohstoff verwendet wurde) Papier aus Baumwolle und Textilabfällen - Lumpen - hergestellt. Die Tinten waren natürliche Farbstoffe. Die Qualität der handschriftlichen Dokumente dieser Zeit war ziemlich hoch und sie konnten Tausende von Jahren aufbewahrt werden. Mit dem Übergang zu einer Holzbasis, mit der Verbreitung von Schreib- und Kopierwerkzeugen, mit der Verwendung synthetischer Farbstoffe hat sich die Haltbarkeit gedruckter Dokumente auf 200–300 Jahre verringert.

Magnetische Medien

Die Magnetaufzeichnung wurde im 19. Jahrhundert erfunden. Ursprünglich wurde die Magnetaufzeichnung nur zur Tonkonservierung verwendet. Der allererste magnetische Aufzeichnungsträger war ein Stahldraht mit einem Durchmesser von bis zu 1 mm. Zu Beginn des 20. Jahrhunderts wurde für diese Zwecke auch gewalztes Stahlband verwendet. Die Qualitätsmerkmale all dieser Träger waren sehr gering. Die Produktion einer 14-stündigen Magnetaufzeichnung mündlicher Vorträge auf dem Internationalen Kongress in Kopenhagen im Jahr 1908 erforderte 2.500 km oder etwa 100 kg Draht.

In den 1920er Jahren erschien Magnetband zuerst auf Papier und später auf synthetischer (Lavsan) Basis, auf deren Oberfläche eine dünne Schicht aus ferromagnetischem Pulver aufgetragen wird. In der zweiten Hälfte des 20. Jahrhunderts lernten sie, wie man ein Bild auf Magnetband aufzeichnet, Videokameras und Videorecorder tauchten auf.

Auf Computern der ersten und zweiten Generation wurden Magnetbänder als einzige Art von Wechselmedien für externe Speichergeräte verwendet. Auf einer Magnetbandspule, die in den Bandlaufwerken der ersten Computer verwendet wurde, wurden etwa 500 Kb an Informationen gespeichert.

Seit Anfang der 1960er Jahre Computer Magnetplatten: eine Aluminium- oder Kunststoffscheibe, die mit einer dünnen Schicht Magnetpulver von wenigen Mikrometern Dicke beschichtet ist. Informationen auf einer Platte sind entlang kreisförmiger konzentrischer Spuren angeordnet. Magnetplatten sind hart und flexibel, entfernbar und in ein Computerlaufwerk eingebaut. Letztere werden traditionell als Festplatten bezeichnet, und Wechseldisketten werden als Disketten bezeichnet.

Die Festplatte eines Computers ist ein Paket von Magnetplatten, die auf einer gemeinsamen Achse angeordnet sind. Die Informationskapazität moderner Festplatten wird in Gigabyte gemessen - Dutzende und Hunderte von GB. Der gebräuchlichste Diskettentyp mit einem Durchmesser von 3,5 Zoll fasst 2 MB Daten. Disketten werden seit kurzem nicht mehr verwendet.

Plastikkarten sind im Bankensystem weit verbreitet. Sie nutzen auch das magnetische Prinzip der Aufzeichnung von Informationen, mit dem Geldautomaten und Registrierkassen arbeiten, verbunden mit dem Informationsbanksystem.

Optische Medien

Die Verwendung der optischen oder Lasermethode zur Aufzeichnung von Informationen beginnt in den 1980er Jahren. Sein Erscheinen ist mit der Erfindung eines Quantengenerators verbunden - eines Lasers, einer Quelle eines sehr dünnen (Dicke in der Größenordnung eines Mikrometers) Strahls hoher Energie. Der Strahl ist in der Lage, einen binären Datencode mit einer sehr hohen Dichte auf die Oberfläche eines schmelzbaren Materials zu brennen. Das Lesen erfolgt durch Reflexion eines Laserstrahls mit geringerer Energie („kalter“ Strahl) an einer solchen „perforierten“ Oberfläche. Aufgrund der hohen Aufzeichnungsdichte haben optische Platten ein viel größeres Informationsvolumen als magnetische Einzelplattenmedien. Die Informationskapazität einer optischen Platte beträgt 190 bis 700 MB. Optische Datenträger werden als CDs bezeichnet.

In der zweiten Hälfte der 1990er Jahre erschienen Digital Versatile Video Discs (DVD). D Digital v vielseitig D frage) mit großer Kapazität, gemessen in Gigabyte (bis zu 17 GB). Die Erhöhung ihrer Kapazität im Vergleich zu CDs ist auf die Verwendung eines Laserstrahls mit kleinerem Durchmesser sowie auf zweischichtige und zweiseitige Aufzeichnung zurückzuführen. Denken Sie an das Beispiel der Schulbibliothek zurück. Ihr gesamter Buchfundus lässt sich auf einer DVD unterbringen.

Gegenwärtig sind optische Platten (CD – DVD) die zuverlässigsten Materialträger von digital aufgezeichneten Informationen. Diese Arten von Medien sind entweder einmal beschreibbar – nur lesbar oder wiederbeschreibbar – schreibgeschützt.

Flash-Speicher

In letzter Zeit sind viele mobile digitale Geräte erschienen: Digitalkameras und Videokameras, MP3-Player, PDAs, Mobiltelefone, Lesegeräte. E-Books, GPS-Navigatoren und vieles mehr. Alle diese Geräte benötigen tragbare Speichermedien. Da aber alle mobilen Geräte recht klein sind, stellen sie auch besondere Anforderungen an Speichermedien. Sie müssen kompakt sein Energieeffizient während des Betriebs und nichtflüchtig während der Lagerung, haben eine große Kapazität, hohe Schreib- und Lesegeschwindigkeiten und eine lange Lebensdauer. All diese Anforderungen werden erfüllt Flash-Karten Erinnerung. Das Informationsvolumen einer Flashkarte kann mehrere Gigabyte betragen.

Als externes Medium für einen Computer waren Flash-Schlüsselanhänger („Flash-Laufwerke“ - sie werden umgangssprachlich genannt), deren Veröffentlichung im Jahr 2001 begann, weit verbreitet. Eine große Menge an Informationen, Kompaktheit, hohe Lese-Schreib-Geschwindigkeit und Benutzerfreundlichkeit sind die Hauptvorteile dieser Geräte. Der Flash-Schlüsselanhänger wird an den USB-Anschluss eines Computers angeschlossen und ermöglicht das Herunterladen von Daten mit einer Geschwindigkeit von etwa 10 MB pro Sekunde.

„Nanoträger“

In den letzten Jahren wurde aktiv daran gearbeitet, noch kompaktere Informationsträger unter Verwendung der sogenannten „Nanotechnologien“ zu schaffen, die auf der Ebene von Atomen und Molekülen der Materie arbeiten. Infolgedessen kann eine einzelne CD, die mit Nanotechnologie hergestellt wurde, Tausende von Laserdiscs ersetzen. Experten zufolge wird die Informationsspeicherdichte in etwa 20 Jahren so zunehmen, dass jede Sekunde eines Menschenlebens auf einem Medium mit einem Volumen von etwa einem Kubikzentimeter aufgezeichnet werden kann.

Organisation von Informationsspeichern

Informationen werden auf Medien gespeichert, damit sie angezeigt, nach den erforderlichen Informationen und erforderlichen Dokumenten gesucht, ergänzt und geändert, Daten gelöscht werden können, die ihre Relevanz verloren haben. Mit anderen Worten, die gespeicherte Information wird von einer Person benötigt, um damit zu arbeiten. Die Bequemlichkeit der Arbeit mit solchen Informationsspeichern hängt stark davon ab, wie die Informationen organisiert sind.

Zwei Situationen sind möglich: Entweder sind die Daten in keiner Weise organisiert (diese Situation wird manchmal als Heap bezeichnet) oder die Daten strukturiert. Mit zunehmender Informationsmenge wird die „Heap“-Option aufgrund der Komplexität ihrer praktischen Nutzung (Suche, Aktualisierung etc.) immer weniger akzeptabel.

Die Worte „Daten sind strukturiert“ bedeuten das Vorhandensein einer bestimmten Ordnung von Daten in ihrer Speicherung: in einem Wörterbuch, Zeitplan, Archiv, Computerdatenbank. Nachschlagewerke, Wörterbücher, Enzyklopädien verwenden normalerweise das lineare alphabetische Prinzip zum Organisieren (Strukturieren) von Daten.

Bibliotheken sind die größte Informationsquelle. Erwähnungen der ersten Bibliotheken stammen aus dem 7. Jahrhundert v. Mit der Erfindung des Buchdrucks im 15. Jahrhundert begannen sich Bibliotheken auf der ganzen Welt auszubreiten. Das Bibliothekswesen verfügt über jahrhundertelange Erfahrung in der Organisation von Informationen.

Um Bücher in Bibliotheken zu organisieren und zu suchen, werden Kataloge erstellt: Verzeichnisse des Buchbestands. Der erste Bibliothekskatalog wurde im 3. Jahrhundert v. Chr. in der berühmten Bibliothek von Alexandria erstellt. Mit Hilfe des Katalogs ermittelt der Leser die Verfügbarkeit des von ihm benötigten Buches in der Bibliothek und der Bibliothekar findet es im Buchdepot. Bei der Verwendung von Papiertechnologie ist ein Katalog ein organisierter Satz von Kartonkarten mit Informationen zu Büchern.

Es gibt alphabetische und systematische Kataloge. IN alphabetisch Kataloge sind die Karten alphabetisch nach Autorennamen und Form geordnet linear(einstufig)Datenstruktur. IN systematisch Katalogkarten sind nach Inhalt der Bücher und Form systematisiert Hierarchische Datenstruktur. Zum Beispiel sind alle Bücher in Kunst, Bildung und Wissenschaft unterteilt. Pädagogische Literatur ist in Schule und Universität unterteilt. Bücher für die Schule sind in Klassen unterteilt usw.

In modernen Bibliotheken werden Papierkataloge durch elektronische ersetzt. Die Suche nach Büchern wird in diesem Fall automatisch vom Informationssystem der Bibliothek durchgeführt.

Auf Computermedien (Festplatten) gespeicherte Daten haben eine Dateiorganisation. Eine Datei ist wie ein Buch in einer Bibliothek. Wie ein Bibliotheksverzeichnis erstellt das Betriebssystem ein Verzeichnis auf der Festplatte, das auf dedizierten Spuren gespeichert wird. Der Benutzer sucht gewünschte Datei, Durchsuchen des Verzeichnisses, woraufhin das Betriebssystem diese Datei auf der Festplatte findet und sie dem Benutzer zur Verfügung stellt. Die ersten Plattenmedien mit geringer Kapazität verwendeten eine einstufige Dateispeicherstruktur. Mit dem Aufkommen von Festplatten mit großer Kapazität begann man, eine hierarchische Dateiorganisationsstruktur zu verwenden. Zusammen mit dem Konzept „Datei“ tauchte das Konzept eines Ordners auf (siehe „ Dateien u Dateisystem ” 2).

Ein flexibleres System zum Organisieren von Datenspeicherung und -abruf sind Computerdatenbanken (vgl . Datenbank” 2).

Zuverlässigkeit der Informationsspeicherung

Das Problem der Zuverlässigkeit der Informationsspeicherung ist mit zwei Arten von Bedrohungen für gespeicherte Informationen verbunden: Zerstörung (Verlust) von Informationen und Diebstahl oder Verlust vertraulicher Informationen. Papierarchive und Bibliotheken waren schon immer vom physischen Aussterben bedroht. Die oben erwähnte Zerstörung der Bibliothek von Alexandria im 1. Jahrhundert v. Chr. brachte der Zivilisation großen Schaden, da die meisten Bücher darin in einer einzigen Kopie existierten.

Die wichtigste Möglichkeit, Informationen in Papierdokumenten vor Verlust zu schützen, ist ihre Vervielfältigung. Die Verwendung elektronischer Medien macht die Vervielfältigung einfacher und billiger. Der Übergang zu neuen (digitalen) Informationstechnologien hat jedoch neue Probleme der Informationssicherheit geschaffen. Siehe den Artikel „ Datenschutz” 2.

Im Verlauf des Studiums des Informatik-Studiengangs erwerben die Studierenden bestimmte Kenntnisse und Fähigkeiten im Zusammenhang mit der Speicherung von Informationen.

Die Studierenden lernen, mit traditionellen (Papier-)Informationsquellen zu arbeiten. Der Standard für die Grundschule stellt fest, dass die Schüler lernen müssen, mit Nicht-Computer-Informationsquellen zu arbeiten: Nachschlagewerke, Wörterbücher, Bibliothekskataloge. Dazu sollten sie mit den Prinzipien der Organisation dieser Quellen und mit den Methoden der optimalen Suche in ihnen vertraut gemacht werden. Da diese Kenntnisse und Fähigkeiten von großer allgemeinbildender Bedeutung sind, ist es wünschenswert, sie den Studierenden möglichst früh zu vermitteln. In einigen Studiengängen des Propädeutik-Informatik-Studiums wird diesem Thema viel Aufmerksamkeit geschenkt.

Die Studierenden müssen die Techniken des Arbeitens mit Wechseldatenträgern von Computern beherrschen. In den letzten Jahren wurden immer seltener Magnetdisketten verwendet, die durch geräumige und schnelle Flash-Medien ersetzt wurden. Die Studierenden sollen in der Lage sein, die Informationskapazität der Medien und den freien Speicherplatz zu bestimmen und die Menge der gespeicherten Dateien damit zu vergleichen. Die Schüler sollten verstehen, dass optische Datenträger das am besten geeignete Medium für die Langzeitspeicherung großer Datenmengen sind. Wenn Sie einen CD-Brenner haben, bringen Sie ihm bei, wie man Dateien schreibt.

Ein wichtiger Schulungspunkt ist die Erklärung der Gefahren, denen Computerinformationen durch bösartige Programme – Computerviren – ausgesetzt sind. Kindern sollten die Grundregeln der "Computerhygiene" beigebracht werden: eine Antivirenkontrolle aller neu ankommenden Dateien durchzuführen; Antiviren-Datenbanken regelmäßig aktualisieren.

12. Sprachen

Definition und Klassifikation von Sprachen

Sprache - Das ein bestimmtes System der symbolischen Darstellung von Informationen. In dem von A.P. Ershov wird die folgende Definition gegeben: „ Sprache- eine Reihe von Symbolen und eine Reihe von Regeln, die bestimmen, wie sinnvolle Nachrichten aus diesen Symbolen zusammengesetzt werden". Da eine sinnvolle Nachricht als Information verstanden wird, stimmt diese Definition im Wesentlichen mit der ersten überein.

Sprachen werden in zwei Gruppen eingeteilt: natürliche und formale. natürliche Sprachen- Das historisch entstandene Sprachen der Volkssprache. Die meisten modernen Sprachen sind durch das Vorhandensein mündlicher und schriftlicher Redeformen gekennzeichnet. Die Analyse natürlicher Sprachen ist meist Gegenstand der philologischen Wissenschaften, insbesondere der Linguistik. In der Informatik wird die Analyse natürlicher Sprachen von Spezialisten auf dem Gebiet der künstlichen Intelligenz durchgeführt. Eines der Ziele der Entwicklung des Computerprojekts der fünften Generation ist es, dem Computer beizubringen, natürliche Sprachen zu verstehen.

Formale Sprachen sind künstlich geschaffene Sprachen für den professionellen Einsatz. Sie sind in der Regel international ausgerichtet und haben eine schriftliche Form. Beispiele für solche Sprachen sind die Sprache der Mathematik, die Sprache der chemischen Formeln, die Notenschrift - die Sprache der Musik usw.

Die folgenden Konzepte sind mit jeder Sprache verbunden: Alphabet - viele Symbole verwendet; Syntax- Regeln zum Schreiben von Sprachkonstrukten(Text in Sprache); Semantik - semantische Seite sprachlicher Konstruktionen; Pragmatik - praktische Folgen der Verwendung von Text in einer bestimmten Sprache.

Zum formale Sprachen gekennzeichnet durch die Zugehörigkeit zu einer begrenzten Fachrichtung(Mathematik, Chemie, Musik etc.). Zweck der formalen Sprache - eine adäquate Beschreibung des Systems von Begriffen und Beziehungen, die einem bestimmten Fachgebiet innewohnen. Daher sind alle oben genannten Bestandteile der Sprache (Alphabet, Syntax usw.) auf die Besonderheiten des Fachgebiets ausgerichtet. Eine Sprache kann sich mit der Entwicklung ihres Fachgebiets entwickeln, verändern und ergänzen.

Natürliche Sprachen sind in ihrer Anwendung nicht beschränkt, in diesem Sinne können sie als universell bezeichnet werden. Es ist jedoch nicht immer bequem, in hochspezialisierten Bereichen nur natürliche Sprache zu verwenden. In solchen Fällen greift man auf die Hilfe formaler Sprachen zurück.

Es gibt bekannte Beispiele für Sprachen, die sich in einem Zwischenzustand zwischen natürlich und formal befinden. Sprache Esperanto wurde künstlich für die Kommunikation zwischen Menschen verschiedener Nationalitäten geschaffen. ABER Latein, die in der Antike von den Bewohnern des Römischen Reiches gesprochen wurde, ist in unserer Zeit zur formalen Sprache der Medizin und Pharmakologie geworden und hat die Funktion einer gesprochenen Sprache verloren.

Sprachen der Informatik

In einem Computer zirkulierende Informationen werden in zwei Arten unterteilt: verarbeitete Informationen (Daten) und Informationen, die den Betrieb des Computers steuern (Befehle, Programme, Operatoren).

Informationen, die in einer Form dargestellt werden, die für die Speicherung, Übertragung und Verarbeitung durch einen Computer geeignet ist, werden genannt Daten. Datenbeispiele: Zahlen beim Lösen einer mathematischen Aufgabe; Zeichenfolgen in der Textverarbeitung; ein Bild, das durch Scannen in einen Computer eingegeben wird, um verarbeitet zu werden. Die Art und Weise, wie Daten in einem Computer dargestellt werden, wird als bezeichnet Sprache der Datenpräsentation.

Jeder Datentyp hat eine andere externe und interne Datendarstellung. Sicht eines Aussentstehenden menschenorientiert, bestimmt die Art der Daten auf Ausgabegeräten: auf dem Bildschirm, auf dem Ausdruck. Interne Vertretung- Das Darstellung auf Speichermedien in einem Computer, d.h. im Gedächtnis, in den Linien der Informationsübertragung. Der Computer arbeitet direkt mit den Informationen in der internen Darstellung, und die externe Darstellung wird verwendet, um mit der Person zu kommunizieren.

Im allgemeinsten Sinne können wir sagen, dass die Sprache zur Darstellung von Computerdaten ist binäre Codesprache. Aus der Sicht der oben genannten Eigenschaften, die jede Sprache haben sollte: Alphabet, Syntax, Semantik, Pragmatik, kann man jedoch nicht von einer gemeinsamen Sprache der Binärcodes sprechen. Die einzige Gemeinsamkeit ist das binäre Alphabet: 0 und 1. Aber für verschiedene Datentypen unterscheiden sich die Regeln der Syntax und Semantik der internen Repräsentationssprache. Die gleiche Folge von Binärziffern für verschiedene Datentypen hat eine völlig unterschiedliche Bedeutung. Beispielsweise bezeichnet der Binärcode „0100000100101011“ in der ganzzahligen Darstellungssprache die Dezimalzahl 16683 und in der Zeichendatendarstellungssprache zwei Zeichen – „A+“. Auf diese Weise, Unterschiedliche Datentypen verwenden unterschiedliche interne Darstellungssprachen. Alle haben ein binäres Alphabet, unterscheiden sich aber in der Interpretation von Zeichenfolgen.

Externe Datendarstellungssprachen sind in der Regel nah an der dem Menschen vertrauten Form: Zahlen werden im Dezimalsystem dargestellt, beim Schreiben von Texten werden natürliche Alphabete, traditionelle mathematische Symbole usw. verwendet.Bei der Darstellung von Datenstrukturen eine bequeme Tabellenform verwendet (relationale Datenbanken). Aber auch in diesem Fall gibt es immer bestimmte Regeln der Syntax und Semantik der Sprache, es wird eine begrenzte Menge gültiger Symbole verwendet.

Die interne Sprache zur Darstellung von Aktionen auf Daten (die Sprache zur Verwaltung des Computerbetriebs) ist Befehlssprache für Computerprozessoren. Externe Sprachen zur Darstellung von Aktionen auf Daten umfassen Programmiersprachen auf hohem Niveau, Eingabesprachen von Anwendungspaketen, Befehlssprachen des Betriebssystems, Datenmanipulationssprachen in DBMS usw.

Jede höhere Programmiersprache enthält sowohl Mittel zur Darstellung von Daten – den Datenabschnitt – als auch Mittel zur Darstellung von Aktionen auf Daten – den Operatorabschnitt (siehe „ Programmiersprachen“ 2). Gleiches gilt für die anderen oben aufgeführten Arten von Computersprachen.

Unter den formalen Wissenschaftssprachen ist die Sprache der Mathematik der Informatik am nächsten.
Von den vielen mathematischen Disziplinen haben Zahlentheorie und mathematische Logik wiederum die größte Anwendung in der Informatik.
In diesem Zusammenhang können wir sagen, dass die Themen Zahlensysteme (die Sprache zur Darstellung von Zahlen) und die Grundlagen der mathematischen Logik (die Sprache der Logik) mit den grundlegenden Grundlagen der Informatik verwandt sind (siehe „ Zahlensysteme" Und " Boolesche Ausdrücke” 2).

Richtlinien

In propädeutischen und grundständigen Informatikkursen ist ein Gespräch über Sprachen in Bezug auf eine Person von großer pädagogischer Bedeutung. Der den Schülern vertraute Begriff „Sprache“ bekommt in ihren Köpfen eine neue Bedeutung. Um diesen Begriff herum baut sich ein ganzes System wissenschaftlicher Konzepte auf. Der Sprachbegriff ist einer der wichtigsten Grundbegriffe des Informatikstudiums.

Beim Studium jedes neuen IKT-Tools sollten die Schüler darauf hingewiesen werden, dass der Benutzer, um damit arbeiten zu können, eine bestimmte formalisierte Sprache beherrschen muss, dass seine Verwendung die strikte Einhaltung der Regeln der Sprache erfordert: Kenntnis des Alphabets, Syntax , Semantik und Pragmatik. Diese Strenge ist darauf zurückzuführen, dass formalisierte Sprachen in der Regel keine Redundanz aufweisen. Daher führt jeder Verstoß gegen die Regeln (Verwendung eines Zeichens, das nicht im Alphabet enthalten ist, falsche Verwendung von Trennzeichen, z. B. Komma statt Punkt usw.) zu einem Fehler.

Die Schüler sollten auf die Gemeinsamkeit einiger Sprachkonstrukte achten, die in verschiedenen Technologien verwendet werden. Beispielsweise sind die Regeln zum Schreiben von Formeln in Tabellenkalkulationen und arithmetischen Ausdrücken in Programmiersprachen fast gleich. Es gibt auch Unterschiede, auf die Sie ebenfalls achten sollten. Beispielsweise sind logische Verknüpfungen (NOT, AND, OR) in Programmiersprachen Zeichen von Operationen und in Tabellenkalkulationen Funktionsnamen.

Um die Arbeit des Benutzers in moderner Software zu vereinfachen, werden häufig verschiedene Arten von Shells verwendet, um eine komfortable Benutzeroberfläche bereitzustellen. Den Studierenden soll erklärt werden, dass sich hinter diesen Hüllen in der Regel eine bestimmte formalisierte Sprache verbirgt. Beispielsweise verbirgt sich hinter der grafischen Hülle des Windows-Betriebssystems die OS-Befehlssprache. Ein weiteres Beispiel: MS Access DBMS bietet dem Benutzer die Möglichkeit, den Tabellendesigner zum Erstellen einer Datenbank und den Abfragedesigner zum Erstellen von Abfragen zu verwenden. Hinter diesen High-Level-Tools ist jedoch SQL „versteckt“ – eine universelle Sprache zur Beschreibung von Daten und zur Bearbeitung von Daten. Indem Sie in den entsprechenden Modus wechseln, können Sie zeigen, wie die durch die Arbeit mit dem Konstruktor generierten SQL-Befehle aussehen.

Literaturverzeichnis für den Abschnitt „Theoretische Informationen“

1. Andreeva E.IN.,Bossova L.L.,Falina I.h. Mathematische Grundlagen der Informatik. Wahlfach. M.: Binom. Wissenslabor, 2005.

2. Beschenkow S.ABER.,Rakitina E.ABER. Informatik. Systematischer Kurs. Lehrbuch für die 10. Klasse. Moskau: Basic Knowledge Laboratory, 2001, 57 p.

3.WienerN. Kybernetik oder Kontrolle und Kommunikation im Tier und in der Maschine. Moskau: Sowjetischer Rundfunk, 1968, 201 S.

4. Informatik. Aufgabenheft-Workshop in 2 Bänden / Ed. ICH G. Semakina, E.K. Henner. T. 1. M.: BINOM. Wissenslabor, 2005.

5. Kuznetsov A.A., Beshenkov S.A., Rakitina E.A., Matveeva N.V., Milokhina L.V. Kontinuierlicher Studiengang Informatik (Konzept, Modulsystem, Modellprogramm). Informatik und Bildung, Nr. 1, 2005.

6. Mathematisches Lexikon. Abschnitt: "Wörterbuch der Schulinformatik". M.: Sowjetische Enzyklopädie, 1988.

7.Friedland A.ich. Informatik: Prozesse, Systeme, Ressourcen. M.: Binom. Wissenslabor, 2003.

Fortsetzung des Themas:
Smart-TV

Die Hochfrequenzeinheit enthält eine Wandlerstufe, Eingangs- und Überlagerungsschaltungen. In Empfängern der ersten und höchsten Klasse, sowie im UKW-Bereich vor dem Konverter ...