Informationstechnologien in den beruflichen Aktivitäten des Ökonomens: Eine IT-Überprüfung, die zur operativen und analytischen Datenverarbeitung bestimmt ist. Offene Bibliothek - offene Bildungsbibliothek

Wissen Sie, Was ist die Falschheit des Konzepts des "physischen Vakuums"?

Körperliches Vakuum - das Konzept der relativistischen Quantenphysik ist darunter ein niedrigerer (basischer) Energiezustand des quantisierten Felds, der Nullimpuls, Moment des Moments und anderer Quantenzahlen aufweist. Die physik-Vakuum-relativistischen Theoretiker nennen einen völlig freien Substanzraum, der mit acktbarer und daher nur ein imaginäres Feld gefüllt ist. Dieser Zustand ist in der Stellungnahme von Relativisten keine absolute Leere, sondern der Raum, der mit bestimmten Phantom-Partikeln (virtuelle) Partikel gefüllt ist. Die relativistische Quantenfeldtheorie behauptet, dass im Einvernehmen mit dem Prinzip der Unsicherheit von Heisenberg, virtuell virtuell ständig in physischem Vakuum geboren und verschwindet, das heißt scheinbar (wer scheint?), Partikel: Sogenannte Nullfeldschwankungen treten auf. Virtuelle Partikel des physischen Vakuums, und deshalb hat er selbst per Definition kein Referenzsystem, da sonst das Prinzip der Relativitätstheanlage von Einstein, das auf der Relativitätstheorie basiert (dh es wäre ein mögliches absolutes Messsystem Von den Partikeln des physikalischen Vakuums lesen, was wiederum das Prinzip der Relativitätstheorie auf welcher Servicestation widerstreben würde). Somit sind das physikalische Vakuum und seine Partikel keine Elemente der physischen Welt, sondern nur die Elemente der Relativitätstheorie, die nicht in der realen Welt existieren, sondern nur in relativistischen Formeln, stört das Grundsatz der Kausalität (entstehen und verschwindet unnötig) Das Prinzip der Objektivität (virtuelle Partikel, die angesehen werden kann, kann von dem Wunsch des theoretisten oder bestehenden oder nicht vorhandenen Wünschens angewiesen sein, das Prinzip der tatsächlichen Messbarkeit (nicht beobachtet, hat nicht seine ISO).

Wenn ein bestimmter Physiker das Konzept des "physischen Vakuums" verwendet, versteht er entweder die Absurdität dieses Begriffs oder Lukuvit, ist ein verborgener oder offensichtlicher Anhänger der relativistischen Ideologie.

Verstehen Sie die Absurdität dieses Konzepts leichter, die Ursprünge ihres Vorkommens zu kontaktieren. Es wurde geboren Es war in den 1930er Jahren ein Dirac-Feld, als klar wurde, dass die Ablehnung des Äthers in seiner reinen Form war, als der große Mathematiker, aber der mittelmäßige Physiker war bereits. Zu viele Fakten widersprechen diesem.

Um den Relativismus zu schützen, führte Paul Dirac ein Insektions- und analoge Konzept der negativen Energie ein, und dann das Vorhandensein des "Meeres" von zwei Energien, die sich gegenseitig in vakuumspositem und negativem, sowie das "Meer" der Partikel kompensieren für einander - virtuelle (dh scheinbare) Elektronen und Positionen im Vakuum.

Fragen an die staatliche Prüfung

    Lebenszyklus Kis. Stadien des Lebenszyklus KIS

    Lebenszyklus-Systemmodelle (Geschäftsanwendungen)

    Technologische Prozesse der Schaffung von Kitty

    Fallwerkzeuge zur Unterstützung des Lebenszyklus KIS

    Methoden und Mittel der Struktursystemanalyse und -design

    Die wichtigsten Elemente der Systemarchitektur des Unternehmens: Unternehmensarchitektur, Information Architektur, Anwendungsarchitektur, technologische Architektur

    Unternehmensinformationssysteme. Ihre Struktur. Beispiele für Kisa.

    Information Architecture Kis. Termin und Zusammensetzung. Methoden und Datenarchitekturbeschreibungen

    Toolkit zur Gestaltung, Entwicklung und Aufrechterhaltung der Informationsarchitektur des Unternehmens

    Architekturvorlagen (OLTP, OLAP - Systeme) in der Informationsarchitektur des Unternehmens

OLAP-Systeme

OLAP (ENG. Online-Analytische Verarbeitung, Echtzeit-Analyseverarbeitung) - Datenverarbeitungstechnologie, die bei der Erstellung von Gesamt- (aggregierten) Informationen basiert, die auf großen Datenanordnungen basieren, die durch ein Multidimensionsprinzip strukturiert sind. OLAP-Technologie-Implementierungen sind Bestandteile der Business Intelligence-Softwarelösungen.

Der Gründer des Begriffs Olap - Edgar Codd, der 1993 "12 Gesetze der Analytische Verarbeitung in Echtzeit" vorgeschlagen wurde.

Oft in Unternehmen gibt es mehrere informationssysteme - Warehouse-Rechnungslegungssysteme, Rechnungslegungssysteme, ERP-Systeme zur Automatisierung einzelner Produktionsprozesse, Berichtssysteme mit Unternehmensbereiche sowie viele Dateien, die über Computercomputer zerstreut sind.

So viele unterschiedliche Informationsquellen haben, ist es oft sehr schwierig, Antworten auf wichtige Fragen der Aktivitäten des Unternehmens zu erhalten und das Gesamtbild zu sehen. Und wenn sich die gewünschten Informationen noch in einem der verwendeten Systeme befinden oder lokal DateiEs erweist sich oft als veraltet oder widerspricht der von einem anderen System erhaltenen Informationen.

Dieses Problem wird effektiv mit Hilfe von Informationen und analytischen Systemen gelöst, die auf der Grundlage von OLAP-Technologien (andere Namen: OLAP-System, Business Intelligence-System, Business Intelligence) erstellt wurden. OLAP-Systeme integrieren bereits bestehende Rechnungslegungssysteme, sodass die Benutzerwerkzeuge zur Analyse großer Mengen von Echtzeitdaten, dynamischen Berichten, Überwachen und Vorhersagen der wichtigsten Business-Indikatoren bereitgestellt werden.

Vorteile von OLAP-Systemen

Die Schlüsselrolle bei der Verwaltung des Unternehmens spielt Informationen. In der Regel verwenden selbst kleine Unternehmen mehrere Informationssysteme, um verschiedene Tätigkeitsbereiche zu automatisieren. Erhalten analytische Berichte in Informationssystemen, die auf herkömmlichen Datenbanken basieren, ist mit einer Reihe von Einschränkungen verbunden:

Die Entwicklung jedes Berichts erfordert die Arbeit eines Programmierers.

Berichte werden sehr langsam (oft einige Stunden) gebildet, wodurch die Arbeit des gesamten Informationssystems verlangsamt wird.

Die Daten, die aus verschiedenen strukturellen Elementen des Unternehmens erhalten wurden, sind nicht einheitlich und häufig widersprüchlich.

OLAP-Systeme, die Ideologie ihrer Konstruktion, sollen große Informationen analysieren, ermöglichen es Ihnen, die Einschränkungen traditioneller Informationssysteme zu überwinden.

Das Erstellen eines OLAP-Systems im Unternehmen erlaubt:

    Integrieren Sie Daten aus verschiedenen Informationssystemen, indem Sie eine einzelne Version der Wahrheit erstellen

    Entwerfen Sie neue Berichte mit mehreren Mausklicks ohne Programmierer.

    Echtzeit analysieren Daten auf jeglichen Kategorien und Geschäftsindikatoren auf einem beliebigen Detailniveau.

Überwachung und Vorhersage der wichtigsten Geschäftsindikatoren

Bei der Arbeit mit dem OLAP-System können Sie immer schnell Antworten, auf aufstrebende Fragen finden, das Bild insgesamt sehen, um eine ständige Überwachung des Geschäftsstands durchzuführen. Gleichzeitig können Sie sicher sein, dass Sie nur relevante Informationen verwenden.

Ergebnisse der Implementierung des OLAP-Systems

Das Management erhält eine vollständige klare Sicht der Situation und einen einzelnen Mechanismus der Buchhaltung, Kontrolle und Analyse.

Aufgrund der Automatisierung interner Geschäftsprozesse und Verbesserung der Mitarbeiterproduktivität wird die Notwendigkeit der Humanressourcen reduziert.

OLAP-Action

Der Grund für die Verwendung von OLAP zur Abfrageverarbeitung ist die Geschwindigkeit. Relationale Datenbanken speichern Entitäten in getrennten Tischen, die normalerweise gut normalisiert sind. Diese Struktur ist für die Betriebsdatenbank (OLTP-Systeme) bequem, aber komplexe Multi-Clock-Anforderungen darin sind relativ langsam.

Die aus Arbeitsdaten erstellten OLAP-Struktur wird als OLAP CUBE bezeichnet. Der Cube wird aus der Tabellenverbindung mit dem Stern- oder Schneeflockenschema erstellt. In der Mitte des Sternschemas ist eine Tatsache, die wichtige Fakten enthält, für die Anfragen erstellt werden. Mehrere Messtische sind an der Tatsachentabelle angeschlossen. Diese Tabellen zeigen, wie aggregierte relationale Daten analysiert werden können. Die Anzahl der möglichen Aggregationen wird durch die Anzahl der Methoden bestimmt, in denen die anfänglichen Daten hierarchisch angezeigt werden können.

Zum Beispiel können alle Kunden von Städten oder nach Regionen des Landes (West-, Osten, Norden usw.) gruppiert werden. Kunden können auch in Bezug auf Produkte kombiniert werden. Wenn es 250 Artikel in zwei Kategorien, 3 Produktgruppen und 3 Produktionseinheiten gibt, beträgt die Anzahl der Aggregate 16.560. Beim Hinzufügen von Messungen an das Schema erreicht die Anzahl der möglichen Optionen schnell dutzte Millionen oder mehr.

OLAP CUBE enthält grundlegende Daten- und Messinformationen (Aggregate). Der Cube enthält möglicherweise alle Informationen, die möglicherweise für Antworten auf Anforderungen erforderlich sind. Aufgrund der enormen Anzahl von Aggregaten kommt es häufig nur für einige Messungen, für den Rest, "auf Bedarf", für den Rest gemacht.

Zusammen mit dem Grundkonzept gibt es drei Arten von OLAP:

OLAP mit vielen Messungen (mehrdimensionales OLAP - MOLAP);

relational Olap (ROLAP);

hybrid-OLAP (Hybrid Olap - Holap).

Molap ist eine klassische OLAP-Form, so dass es oft einfach nur OLAP bezeichnet wird. Es verwendet eine summierende Datenbank, eine spezielle Version des räumlichen Datenbankprozessors und erstellt das erforderliche räumliche Datenschema mit dem Speichern von Basisdaten und Aggregaten.

ROLAP arbeitet direkt mit relativer Lagerung, Fakten und Messtischen in relationalen Tabellen, und zusätzliche relationale Tabellen werden zum Speichern von Einheiten erstellt.

Holap verwendet relationale Tabellen zum Speichern von Basisdaten und mehrdimensionalen Tabellen für Aggregate.

Ein Sonderfall von ROLAP ist ROLAP Echtzeit (Echtzeit Rolap - R-ROLAP). Im Gegensatz zu ROLAP in R-ROLAP werden keine zusätzlichen relationalen Tabellen zum Speichern von Aggregaten erstellt, und die Einheiten werden zum Zeitpunkt der Anforderung berechnet. In diesem Fall wird die multidimensionale Anforderung an das OLAP-System automatisch in eine SQL-Anforderung in relationale Daten umgewandelt.

Jede Art von Lagerung hat bestimmte Vorteile, obwohl es in ihrer Bewertung von verschiedenen Herstellern Unstimmigkeiten gibt. Molap eignet sich am besten für kleine Datensätze, es berechnet schnell die Aggregate und gibt die Antworten schnell zurück, aber die riesigen Datenvolumina werden erzeugt. ROLAP wird als skalierbare Lösung geschätzt, die den kleinsten möglichen Raum verwendet. In diesem Fall wird die Verarbeitungsgeschwindigkeit erheblich reduziert. Holap ist inmitten dieser beiden Ansätze inmitten dieser beiden Ansätze, es ist ziemlich gut skaliert und wird schnell verarbeitet. Die R-ROLAP-Architektur ermöglicht eine mehrdimensionale OLTP-Datenanalyse in Echtzeit.

Die Komplexität in der Anwendung von OLAP besteht darin, Anfragen, die Wahl der Basisdaten und die Entwicklung des Systems zu erstellen, mit dem Ergebnis, dass die meisten modernen OLAP-Produkte mit einer großen Anzahl von vorkonfigurierten Abfragen geliefert werden. Ein weiteres Problem ist in grundlegenden Daten. Sie müssen vollständig und konsistent sein

Verkauf OLAP.

Historisch ist das erste multidimensionale Datenbankmanagementsystem im Wesentlichen die OLAP-Implementierung, das 1970 von IRI entwickelte Express-System (später das Recht auf das Produkt wurde von Oracle Corporation erworben und wurde in eine OLAP-Option für Oracle-Datenbank umgewandelt. Der Begriff OLAP führte 1993 in der Veröffentlichung in der Veröffentlichung in der Veröffentlichung in der Veröffentlichung in der Computerwelt ein, in der er 12 der Prinzipien der analytischen Verarbeitung vorschlug, in Analogie mit 12 Regeln für relationale Datenbanken, die von dem Jahrzehnt zuvor formuliert wurden, zuvor als Referenzprodukt, das die vorgeschlagenen Erfüllung erfüllt Prinzipien, der Code, der das Essbase-System der Laube (1997 von Hyperion absorbiert, der 1997 von Hyperion absorbiert wurde, der wiederum im Jahr 2007 gekauft wurde). Es ist bemerkenswert, dass anschließend die Veröffentlichung aufgrund eines möglichen Interessenkonflikts aus dem Computerworld-Archiv zurückgezogen wurde, da der Code später Beratungsleistungen für die Laube erhielt.

Andere berühmte OLAP-Produkte: Microsoft Analysis Services (zuvor genannt OLAP-Dienste, Teil SQL Server), SAS OLAP-Server, TM1, Powerplay, SAP BW, MicroStrategy Ingelligence Server, Mondrian, Analytical Complex Prognose.

C Die Implementierungspunkte ist in "physisches OLAP" und "Virtual" (relationales, englisches Relational Olap, Rolap) unterteilt. "Physisch" ist wiederum, abhängig von der Implementierung, in mehrdimensionales (dgl. Multidimensionales OLAP, MOLAP) und Hybrid - (ENG. Hybrid Olap, Holap) unterteilt.

Im ersten Fall gibt es ein Programm an der Vorladestufe in OLAP aus Quellen, die eine vorläufige Berechnung der Aggregate durchführt (Berechnungen auf mehreren Quellwerten, zum Beispiel "in einem Monat"), die dann in einem gespeichert werden Spezielle multidimensionale Datenbank, die eine schnelle Extraktion und kostengünstige Speicherung bietet. Beispiele für solche Produkte sind Microsoft Analysis Services, Oracle OLAP-Option, Essbase, SAS OLAP-Server, TM1, Powerplay.

Hybrid-OLAP ist eine Kombination. Die Daten selbst werden in der relationalen Datenbank gespeichert, und die Aggregate sind in multidimensional.

In ROLAP-Implementierungen werden alle Daten gespeichert und von relationalen Datenbankverwaltungssystemen verarbeitet, und die Einheiten sind möglicherweise überhaupt nicht vorhanden oder erstellen in der ersten Anforderung in der DBMS oder dem Cache der analytischen Software. Beispiele für solche Produkte - SAP BW, MicroStrategy Intelligence Server, Mondrian.

Aus Sicht des Benutzers sehen alle Optionen wie Funktionen aus. Die größte Verwendung von OLAP findet in Produkten für Finanzplanung, Data Warehouses, Business Intelligence Class-Lösungen.

OldT.P-System (Transaktionsverarbeitungssysteme)

OLTP (Online-Transaktionsverarbeitung), Transaktionssystem - Echtzeit-Transaktionsverarbeitung. Die Methode zur Organisation einer Datenbank, in der das System mit kleinen Transaktionen in der Größe arbeitet, jedoch in den großen Strom geht, und gleichzeitig ist der Client mit dem System die minimale Antwortzeit erforderlich.

Der Begriff OLTP gilt auch für Systeme (Anwendungen). Das OLTP-System ist so konzipiert, dass er in Echtzeit, strukturierte Speicherung und Verarbeitung von Informationen (Operationen, Dokumente) eingeht.

Das Problem der Integrität besteht darin, jederzeit die Richtigkeit der Datenbankdaten sicherzustellen. Es kann in einen Pfad gebrochen werden: 1. Wenn Sie eingeben und aktualisieren, wenn falsche Informationen angewendet werden. 2. Wenn die Daten gleichzeitig mehrere Benutzer verwenden. 3. In einem APS-Versagen.

Die Lösung von Integritätsproblemen sollte von einer Software- und organisatorischen Sicht betrachtet werden. Für Herausforderungen 1. Es ist notwendig, eine Reihe von Veranstaltungsorganisator (wie folgt), Benutzer sollte die Regeln von Input und Beschränkungen kennen. Für Probleme 2-3 - Standard bedeutet DBMS oder spezielle Softwaremodule. DBMS - 2 grundlegende Integritätsbeschränkungen: 1. Strukturbeschränkungen (definiert durch Funktionsanleihen und werden durch Überprüfung der Gleichheit der Datenbankwerte) 2. Einschränkungen für reale Werte. Erfordert, dass die Feldwerte zu einem bestimmten Bereich gehören, oder diese Beziehung zwischen den Werten einiger Felder. (Datentypen und Eingabemasken). Einschränkungen können jederzeit nach AD eingestellt werden, aber die DBMS akzeptiert möglicherweise nicht die Einschränkung (wenn viele Datensätze nicht mehr zufrieden sind), wenn es eine Compliance gibt - wird in das Wörterbuch geschrieben und verwendet. Einschränkungen unterscheiden sich in Bezug auf die Komplexität:

2. Einschränkungen für den Satz von Attributen der Zeichenfolge. (Positionsentladungsraten, Kanten - Städte).

3. Einschränkungen gleichzeitig auf viele Zeilen.

Alle diese statistischen Einschränkungen, aber beim Umschalten der Datenbank von 1 staatlich zum anderen ist es erforderlich, Integritätsbeschränkungen vor allen Änderungen und nach dem Ende von allen zu erfüllen, und nicht alle. Solche Einschränkungen werden aufgeschoben genannt und relativ zu ihnen eingeführt das Konzept der Transaktionen. Transaktion - Abgeschlossen aus Sicht der USSer-Aktion in der Datenbank. Gleichzeitig ist dies eine logische Einheit des Systems. Die Transaktion implementiert einige Anwendungsfunktionen, z. B. das Übertragen von Geld von einem Konto an einen anderen im Bankensystem.

Muss 4 Eigenschaften haben: 1. Atomizität (Unentschieden): Es wird als einzelner Betrieb des Zugriffs auf die Datenbank durchgeführt, muss überhaupt vollständig ausgeführt werden. 2. Konsistenz - garantiert die Integrität der gegenseitigen Datenintegrität nach dem Ende der Transaktionsabwicklung. 3. Isolation (jede Transaktion kann dies ändern, was vorübergehend im inkonsistenten Zustand ist). In diesem Fall ist der Zugriff anderer Transaktionen auf diese Daten verboten, bis die Transaktion abgeschlossen ist. 4. Haltbarkeit - Wenn die Transaktion erfolgreich ist, gehen die Änderungen nicht verloren. Das Ergebnis der Transaktion kann seine Fixierung sein (Aktion beim Fixieren von Änderungen in der Datenbank) oder des Rollbacks (Stornierung der Transaktion und der Rückgabe der Datenbank in den Zustand, bevor es gestartet wurde). Der Fixiermechanismus und das Rollback basieren auf der Verwendung eines Transaktionsprotokolls, in dem der Zustand vor (in mehreren Iterationen) und danach erhalten bleibt. Einige SQL-Dialekte umfassen Zwischenfixierungsbediener (Rollback von Punkt zu Punkt).

Transaktionsverarbeitungsmonitorüberwacher (TPM) ist Softwaresysteme (siehe Vermittler- oder Zwischensoftware), wodurch die Aufgabe der effektiven Verwaltung von Informations- und Rechenressourcen in einem verteilten System gelöst wird. Sie sind ein flexibles, offenes Umfeld zum Entwickeln und Verwalten von mobilen Anwendungen, die sich auf die operative Verarbeitung verteilter Transaktionen konzentrieren. Zu den wichtigsten Merkmalen der TPM-Skalierbarkeit, Unterstützung der funktionalen Vollständigkeit und Integrität der Anwendungen, die maximale Leistung bei der Verarbeitung von Daten bei niedrigen Kostenindikatoren, der Datenintegrität in einer heterogenen Umgebung unterstützt. TPM verlassen sich auf das Dreisitzmodell "Client-Server"

Auf dem derzeitigen Markt der Transaktionsmonitore sind die wichtigsten "Handelspersonen" wie ACMS (DEC), CICS (IBM), Top-End (NCR), Tuxedo Sytem (Novell).

Daten teilen.

Bei der Implementierung von Transaktionen erfolgt das Problem: Der Verlust von Updates (nur Änderungen in einem Benutzer werden in der Datenbank aufgezeichnet, der Rest ist verloren). Und 2 Problem - Lesen entriegelte Daten. Zur Lösung - spezielle Transaktionsbearbeitungsmechanismen. Prinzipien: 1. Die Transaktion hat keinen Zugriff auf ungefiltrierte Daten. 2. Das Ergebnis der gemeinsamen Durchführung von Transaktionen entspricht ihrer neuesten Erfüllung. Dieser Mechanismus wird über das Blockiersystem implementiert: Die DBMS blockiert einen Teil der Datenbank, an den die Transaktion bis zum Moment seiner Fixierung gezogen wird, d. H. Die 2. Transaktion muss in einer Warteschlange sein. Je größer der blockierbare Gegenstand ist, desto langsamer wird die Transaktion verarbeitet. In den OLTP-Systemen wird normalerweise eine Zeichenfolge blockiert, während Transaktionen in die Situation der gegenseitigen Blockierung eintreten können. Um zu verhindern, dass die DBMS regelmäßig gesperrt ist, und wenn dies der Fall ist, wird eines der Transaktionen unterbrochen. Für einen komfortableren Betrieb ist das Blockieren der Datenfreigabe zulässig: Parallel zum Arbeits-USRA sind verboten, die Daten zu ändern, aber ihre Probe ist erlaubt. Dieser Ansatz ist nicht der einzige, beispielsweise mit der Datenreplikation in Systemen mit Verteilungssystemen. Diese Technologie impliziert eine Ablehnung der Datenverteilung und in jedem Knoten - seine eigene Kopie der Datenbank. Bedeutet, dass dies bereitgestellt werden muss, um einen konsistenten Datenbankzustand mit dem Kopierwechsel aufrechtzuerhalten. Der Prozess der Übertragung von Änderungen in der anfänglichen Datenbank in der Datenbank einzelner Knoten wird als Datenreplikation bezeichnet. Diese Funktionen führen ein bestimmtes Modul aus (Serverkreislauf / Replikator). Das Schema seiner Arbeit ist es, den Inhalt der Datenbank auf abzuschließen remote-Server (Regelung mit voller Aktualisierung) oder Aktualisierung nur Ändern von Daten (Kurzaktualisierungsschema) Wenn die Daten nicht ständig aktualisiert werden müssen, setzt der Replikator Änderungen und Kopien zur richtigen Zeit an.

OLTP - operative Transaktionsverarbeitungssysteme zeichnen sich durch eine große Anzahl von Änderungen aus, die gleichzeitig auf eine Vielzahl von Benutzern auf dieselben Daten verweisen, um verschiedene Operationen auszuführen - Lesen, Schreiben, Löschen oder Ändern von Daten. Für den normalen Betrieb einer Vielzahl von Benutzern werden Blockaden und Transaktionen verwendet. Effektive Transaktionsverarbeitung und Blockunterstützung gehören zu den wichtigsten Anforderungen an Transaktionsverarbeitungssysteme.

Die moderne Datenbanktechnologie steigt bestimmte Anforderungen auf das Feld der Architektur. Bis vor kurzem wurden drei Klassen von Aufgaben zugewiesen:

    aufgaben der operativen Transaktionsabwicklung;

    paketverarbeitungsaufgaben;

    entscheidungsaufgaben

OLTP-Systeme - Transaktionsbetriebssysteme. Die Hauptfunktion solcher Systeme ist gleichzeitig die Ausführung. große Zahl Kurze Transaktionen von einer großen Anzahl von Benutzern. Die Transaktion selbst sieht beispielsweise relativ einfach aus, zum Beispiel "Um den Geldbetrag aus dem Konto A zu entfernen, fügen Sie diesen Betrag dem Konto hinzu." In der Vergangenheit entstanden solche Systeme zunächst, da sie den Bedarf an Rechnungswesen, Servicegeschwindigkeiten, Datenerfassung usw. implementiert haben.

OLTP-Systeme zeichnen sich aus:

    unterstützung für eine große Anzahl von Benutzern;

    kleine Antwortzeit zu Anfrage;

    relativ kurze Abfragen;

    kurze Transaktionen;

    teilnahme an den Anfragen einer kleinen Anzahl von Tabellen.

Fast alle Anfragen in der Datenbank in OLTP-Systemen bestehen aus der Einfügung, Aktualisierung, Löschung. Abfragen für die Probe sind hauptsächlich so konzipiert, dass Benutzer die Möglichkeit bieten, aus verschiedenen Referenzbüchern zu wählen. Die meisten Anfragen sind somit im Voraus in der Designstufe des Systems bekannt. Somit ist kritisch für OLTP-Anwendungen die Geschwindigkeit und Zuverlässigkeit der Implementierung kurzer Datenaktualisierungsvorgänge.

Der Transaktionsbedienungsserver basiert auf:

    OLTP-Operationen unterstützen eine große Anzahl von Benutzern;

    die am häufigsten verwendeten kurzen einfachen Transaktionen;

    typischerweise verwenden Transaktionen nicht die gleichen Daten;

    betreiber wirken sich normalerweise auf eine kleine Anzahl von Reihen aus;

    reaktionszeit - ein Split-Sekunden;

    nur wenige Tische haben große größen. Oder Änderungen vorbehalten.

Die Implementierung eines solchen Servers basiert auf:

    physische Methoden zum Schneiden von Festplattenvorgängen;

    verarbeitung kleiner Mengen an Daten im Speicher;

    primitiver Abfrageoptimierer;

die Anwendungsanforderung besteht darin, Wettbewerbe bei der Verwendung von Ressourcen und Daten zu beseitigen.

    Data Warehouse und Data Mining

Data Mining wird als "Mining" oder "Datenausgrabung" übersetzt. Oft neben dem Data Mining gibt es Wörter "Wissen über Wissen in Datenbanken" und "intelligente Datenanalyse". Sie können auch mit dem Data Mining betrachtet werden. Die Entstehung all dieser Bedingungen ist mit der neuen Wende in der Entwicklung von Fonds und Datenverarbeitungsmethoden verbunden.

Bis Anfang der 1990er Jahre schien es, dass es keine besondere Notwendigkeit gab, die Situation in diesem Bereich zu überdenken. Alles ging als eine Frau als Teil der Richtung, die angewandte Statistiken genannt wurde (siehe zum Beispiel). Die Theoretik führte Konferenzen und Seminare durch, schrieb beeindruckende Artikel und Monographien, die von analytischen Berechnungen angrenzt.

Gleichzeitig wussten die Praktizierenden immer, dass Versuche, theoretische Übungen anzusetzen, um echte Probleme in den meisten Fällen zu lösen, in den meisten Fällen erweisen sich als fruchtlos. Aber auf das Sorge der Praktizierenden vorerst war es möglich, nicht besondere Aufmerksamkeit zu zahlen - sie lösten ihre privaten Probleme, kleine lokale Datenbanken zu verarbeiten.

Und der Anruf klingelte. Im Zusammenhang mit der Verbesserung der Technologien zur Aufzeichnung und Speicherung von Daten auf Personen waren kolossale Informationsflüsse auf verschiedene Felder kopsseitig. Die Tätigkeit eines Unternehmens (kommerziell, industriell, medizinisch, wissenschaftlich usw.) wird nun von der Registrierung und Aufzeichnung aller Details seiner Aktivitäten begleitet. Was tun mit diesen Informationen? Es wurde klar, dass ohne produktive Verarbeitung die Flüsse der Rohdaten einen Niemand bildeten, der keine Mülldeponie bildete.

Die Spezifität moderner Anforderungen an dieses Recycling lauten wie folgt:

    Daten haben ein unbegrenztes Volumen

    Daten sind heterogen (quantitativ, hochwertig, textend)

    Die Ergebnisse müssen spezifisch und verständlich sein.

    Werkzeuge zur Verarbeitung von Rohdaten sollten einfach zu bedienen sein.

Traditionelle mathematische Statistiken, die seit langem das Hauptwerkzeug für die Analyse von Daten behaupten, ehrlich gesagt angesichts der auftretenden Probleme. Der Hauptgrund ist das Konzept der Mittelung an der Probe, was zu Operationen über fiktive Werte führt (wie die Durchschnittstemperatur der Patienten im Krankenhaus, der mittleren Höhe des Hauses auf der Straße, bestehend aus Palästen und Hütten usw.) . Methoden der mathematischen Statistiken waren hauptsächlich nützlich, um die vorformulierten Hypothesen (überprüftgesteuerte Data Mining) und für die "Grob" Explorationsanalyse, die die Grundlage der operativen Analysedatenverarbeitung (Online-Analytische Verarbeitung, OLAP) darstellt, zu überprüfen.

Die Basis des modernen Technologiendatenabbaus (Discovery-Driven-Data-Mining) basiert auf dem Konzept von Vorlagen (Muster), die Fragmente mit mehreren Maßnahmen in Daten reflektieren. Diese Vorlagen sind in Bezug auf Unterabschnittsdaten, die in einem klaren Handbuch kompakt ausgedrückt werden können, inhärt. Die Suche nach Vorlagen erfolgt durch Methoden, die nicht auf den Rahmen einer Priori-Annahmen über die Struktur der Probe und der Form der Werte der Werte der analysierten Indikatoren beschränkt sind. Beispiele für Aufgaben für eine solche Suche, wenn der Datenabbau verwendet wird, sind in der Tabelle angegeben. einer.

Eine wichtige Position des Data Mining ist die Nicht-Trivialität der gewünschten Vorlagen. Dies bedeutet, dass die gefundenen Vorlagen nicht offensichtliche, unerwartete (unerwartete) Regelmäßigkeit in den Daten widerspiegeln sollten, die das sogenannte verborgene Wissen (verborgenes Wissen) bilden. Die Gesellschaft ist gekommen, um zu verstehen, dass Rohdaten (Rohdaten) eine tiefe Wissensschicht, mit einem kompetenten Ausgrabungen, von denen echte Nuggets erkannt werden können (Abb. 1).

Abbildung 1. Wissensniveaus, die aus den Daten abgerufen werden

Im Allgemeinen datentechnologie Der Bergbau bestimmt definitiv Grigory Piatetsky-Shapiro - einer der Gründer dieser Richtung:

Data Mining ist ein Erkennungsprozess in Rohdaten zuvor unbekannter, nicht trivialer, praktisch nützlicher und erschwinglicher Interpretation des Wissens, das zur Entscheidung in verschiedenen Bereichen der menschlichen Tätigkeit erforderlich ist.

2. Wer braucht es?

Der Umfang des Data Mining ist nicht auf irgendetwas beschränkt - es ist überall, wo es Daten gibt. Zunächst einmal sind die Data Mining-Methoden heute, um es milde, faszinierende kommerzielle Unternehmen zu setzen, um Projekte bereitzustellen, die auf Datengewölben (Data Warehouse) basieren. Die Erfahrung vieler dieser Unternehmen zeigt, dass die Rendite der Verwendung von Data Mining 1000% erreichen kann. Beispielsweise gibt es Berichte über den wirtschaftlichen Effekt, 10-70-mal die ursprünglichen Kosten von 350 bis 750 Tausend Dollar. . Es gibt Informationen über den Entwurf von 20 Millionen Dollar, der in nur 4 Monaten ausgezahlt wurde. Ein anderes Beispiel ist die jährliche Einsparung von 700 Tausend Dollar. Durch die Implementierung von Data Mining im Universen-Netzwerk in Großbritannien.

Data Mining ist für Führungskräfte und Analysten in ihren täglichen Aktivitäten von großem Wert. Geschäftsleute erkannten, dass sie mit Hilfe von Data Mining-Methoden an einem Wettbewerbskampf profitierbare Vorteile erhalten können. Beschreiben Sie kurz einige mögliche Geschäftsanwendungen Data Mining.

ODER

WasDaten.Bergbau.

Eine Unternehmensdatenbank eines modernen Unternehmens enthält in der Regel eine Reihe von Tabellen, die Aufnahmen über bestimmte Fakten oder Objekte (z. B. über Waren, Vertrieb, Kunden, Konten) speichern. In der Regel beschreibt jeder Eintrag in einer ähnlichen Tabelle ein bestimmtes Objekt oder eine bestimmte Tatsache. Beispielsweise spiegelt ein Rekord in der Vertriebstabelle die Tatsache wider, dass ein solches Produkt an einen solchen Kunde verkauft wird, dann etwas wie ein Manager, und durch und groß, nur diese Informationen enthalten nicht. Die Gesamtzahl solcher Datensätze, die über mehrere Jahre akkumuliert wurden, kann jedoch eine Quelle zusätzlicher, wesentlich wertvollerer Informationen sein, die auf der Grundlage eines bestimmten Datensatzes nicht erhalten werden können, nämlich Informationen zu Mustern, Trends oder Interdependenzen zwischen allen Daten. Beispiele für solche Informationen sind Informationen darüber, wie der Verkauf eines bestimmten Produkts vom Wochentag, der Tageszeit oder der Saison abhängig ist, wobei die Kategorien der Käufer am häufigsten ein oder ein anderes Produkt erwerben, welcher Teil der Käufer eines bestimmten Teils Das Produkt erwirbt ein weiteres spezifisches Produkt, das die Kategorie der Kunden am häufigsten nicht rechtzeitig darstellt.

Solche Informationen werden üblicherweise zur Vorhersage, strategischer Planung, Risikomanalyse verwendet, und der Wert für das Unternehmen ist sehr hoch. Anscheinend ist der Prozess seiner Suche und erhielt den Namen Data Mining (Mining auf Englisch "Mining Mining", und die Suche nach Regelmäßigkeiten in einem riesigen Satz von tatsächlichen Daten ist dies wahrhaft). Der Begriff Data Mining bedeutet nicht so viel eine bestimmte Technologie, um Korrelationen, Trends, Beziehungen und Muster durch verschiedene mathematische und statistische Algorithmen zu finden: Clustering, Erstellen von Sub-Discovery, Regression und Korrelationsanalyse. Der Zweck dieser Suche besteht darin, Daten in Form einer eindeutig reflektierenden Geschäftsprozesse einzureichen, sowie ein Modell aufbauen, mit dem Sie Prozesse vorhersagen können, die für die Geschäftsplanung kritisch (z. B. die Dynamik der Nachfrage nach bestimmten Waren oder Dienstleistungen) oder die Abhängigkeit ihrer Erwerb von jeglichen Verbrauchereigenschaften).

Beachten Sie, dass traditionelle mathematische Statistiken, eine lange Zeit das Haupt-Datenanalyse-Tool sowie die operativen analytischen Datenverarbeitungs-Tools (Online-Analytische Verarbeitung, OLAP), die wir wiederholt geschrieben haben (siehe Material auf diesem Thema auf unserer CD), es Es ist nicht immer möglich, erfolgreich, um solche Aufgaben zu lösen. Typischerweise werden statistische Methoden und OLAP verwendet, um vorab formulierte Hypothesen zu überprüfen. Es ist jedoch häufig, dass das Wortlaut der Hypothese jedoch genau die schwierigste Aufgabe bei der Implementierung der Geschäftsanalyse für die nachfolgende Entscheidungsfindung ist, da weit von allen Mustern in den Daten auf einen Blick offensichtlich sind.

OLTP- und OLAP-Systeme. Data Mining.

Einige Informationssysteme können unterschieden werden, für die normalisierte Datenmodelle immer schwach sind.

Stark normalisierte Datenmodelle eignen sich gut für die sogenannten OLTP-Systeme (Online-Transaktionsverarbeitung - betriebsabwicklung von Transaktionen).

Typische Beispiele für OLTP-Systeme sind Lagerbuchungssysteme, Ticketsysteme, Banksysteme, die Transaktionen für die Übertragung von Geld usw. durchführen usw. Die Hauptfunktion solcher Systeme besteht darin, eine große Anzahl von kurzer Anzahl auszuführen transaktionen. Der Transaktionsmechanismus wird in den detaillierten Vorträgen 16 betrachtet, um die Prinzipien der Arbeit zu verstehen OLTP-Systemees reicht aus, um eine Transaktion als atomare Aktion darzustellen, die den Datenbankzustand ändert.

Transaktionen in OLTP. - das System ist beispielsweise relativ einfach, zum Beispiel ", um den Geldbetrag aus dem Konto zu entfernen und diesen Betrag dem Konto hinzuzufügen." Das Problem ist, dass es zuerst viele Transaktionen gibt, zweitens, wenn sie gleichzeitig durchgeführt werden (mehrere tausend gleichzeitig bedienende Benutzer können an das System angeschlossen werden), drittens, wenn ein Fehler auftritt, muss die Transaktion vollständig zurückrollen und geben Sie das System an den Zustand zurück, der vor Beginn der Transaktion war (es sollte keine Situation geben, wenn das Geld aus dem Konto eingereicht wurde, aber nicht auf dem Konto ankamen b).

Fast alle Anfragen in der Datenbank in OLTP-Anwendungen bestehen aus Befehlen einfügen, aktualisiert, delete. Abfragen für die Probe sind hauptsächlich so konzipiert, dass Benutzer die Möglichkeit bieten, aus verschiedenen Referenzbüchern zu wählen. Die meisten Anfragen sind im Voraus im Systemdesign bekannt. Somit ist kritisch für OLTP-Anwendungen die Geschwindigkeit und Zuverlässigkeit der Implementierung kurzer Datenaktualisierungsvorgänge.

Die Datenbank, mit der die OLTP-Anwendungen funktioniert, wird in Verbindung mit diesem ständig aktualisiert, wird in der Regel aufgerufen betriebsdatenbank. Je höher der Normalisierungsniveau der Operationsdatenbank, desto schneller und bedient die OLTP-Anwendungen. Die Retreats aus dieser Regel können auftreten, wenn einige häufig entstehende Anfragen vorhanden sind, die den Anschluss an Beziehungen und den Betrieb von Anwendungen auf die Entwicklung der Einstellungen der Anwendungen erfordern. In diesem Fall können Sie in der Datenbank bewusst eine Redundanz in der Datenbank vornehmen, um die Ausführung solcher Anforderungen zu beschleunigen.

Eine andere Art von Informationssystemen sind die sogenannten OLAP-Systeme (Online-Analitale Bearbeitung - betriebsanalytische Datenverarbeitung). OLAP wird verwendet, um Führungslösungen zu akzeptieren, sodass Systeme mit der OLAP-Technologie mitgerufen werden entscheidungsunterstützungssysteme. (System zur Entscheidungsfindung - Dss).

Das OLAP-Konzept wurde 1993 von Edgar Coddo, dem Autor des relationalen Datenmodells, beschrieben.

1995 wurde basierend auf den vom Code festgelegten Anforderungen von dem sogenannten Formular formuliert test Fasmi (schnelle Analyse der gemeinsam genutzten multidimensionalen Informationen - eine schnelle Analyse von gemeinsam genutzten multidimensionalen Informationen), die folgende Anforderungen an mehrdimensionale Anwendungen beinhaltet:

· Bereitstellen des Benutzers den Ergebnissen der Analyse für eine akzeptable Zeit (in der Regel nicht länger als 5 Sekunden), auch wenn mindestens weniger detaillierte Analyse;

· Die Fähigkeit, jegliche logische und statistische Analysen, die für diese Anwendung charakteristisch ist, und das Sparen in einer benutzerfreundlichen Form;

· Multi-User-Datenzugriff mit der Unterstützung der entsprechenden Blockiermechanismen und autorisierten Zubehör;

· Multidimensionale konzeptionelle Präsentation von Daten, einschließlich der vollen Unterstützung für Hierarchien und mehrere Hierarchien (dies ist der Schlüsselanforderungs-OLAP);

· Die Fähigkeit, auf alle erforderlichen Informationen zu verweisen, unabhängig von der Lautstärke- und Speicherort.

OLAP-Anwendungen arbeiten mit großen Datenarrays, die bereits in OLTP-OLTP-Operationsdatenbanken angesammelt wurden, von Tabellenkalkulationen oder aus anderen Datenquellen aufgenommen. Solche Systeme zeichnen sich durch folgende Funktionen aus:

· Das Hinzufügen neuer Daten an das System ist relativ selten große Blöcke (z. B. werden Daten aus dem vierteljährlichen Verkauf des OLTP-Systems heruntergeladen.

· Die dem System hinzugefügten Daten werden normalerweise nie gelöscht und ändern sich nicht.

· Vor dem Laden von Daten werden verschiedene "Reinigungsverfahren vorbeizählen, die mit der Tatsache verbunden sind, dass Daten aus vielen Quellen, die unterschiedliche Einreichungsformate aufweisen, in einem System enthalten sein können, Daten sind möglicherweise falsch, fehlerhaft.

· Systemanfragen werden nicht gewählt und in der Regel ziemlich kompliziert. Ein sehr oft ein neuer Antrag wird von einem Analytiker formuliert, um das Ergebnis zu klären, das infolge der vorherigen Anfrage erhalten wird.

· Die Geschwindigkeit der Durchführung von Anfragen ist wichtig, aber nicht kritisch.

Basierend auf den aufgelisteten Merkmalen von OLAP-Systemen kann geschlossen werden, dass die Datenbank eines solchen Systems weitgehend anormalisiert werden kann. Da der Haupttyp der Datenbankabfragen abfragen sollen, können die positiven Momente der Normalisierung nicht verwendet werden, und die Verringerung der Verbindungsvorgänge in den Anforderungen ist sehr nützlich.

IM in letzter Zeit Eine andere Richtung der analytischen Datenverarbeitung entwickelt sich aktiv. Data Mining (Datenverständnis, manchmal sagen "Datenausgrabung"). Diese Richtung zielt darauf ab, nach versteckten Mustern in Daten zu suchen und Prognose-Aufgaben zu lösen. Datamining-Anwendungen ändern auch nicht die Daten, mit denen sie funktionieren, so dass die benachteiligte Datenbank stärker bevorzugt ist.

Um einen besonderen Weg zu betonen, Daten zu organisieren, die effektiv zur Analyse von OLAP- und Data Mining-Anwendungen verwendet werden können, verwenden sie ihnen einen besonderen Begriff. "Data Warehouse" (DataWare House). Es ist wichtig zu beachten, dass Data Warehouses im Gegensatz zur operativen Datenbank historische Daten, d. H. Spiegeln die Tatsachen aus den Tätigkeiten des bereits aufgetretenen Unternehmens wider, daher kann daher in einer konstanten Form gespeichert werden ("Die Geschichte wird nicht umgeschrieben)) und sich seit Jahren ansammeln, und daher kann ihre Größe sehr beeindruckend werden. Nach dem Pumpen von Daten im Repository werden sie normalerweise aus der operativen Datenbank entfernt, wodurch die Größe seine Dimensionen aufrechterhält.

In dem vorherigen Unterabschnitt wurde festgestellt, dass für die angemessene Darstellung des Themasbereichs die Vereinfachung der Entwicklung und der Wartung der Datenbank die Beziehung auf die dritte Normalform (es gibt keine Normalisierung und höhere Aufträge, sondern In der Praxis sind sie ziemlich selten verwendet), das heißt stark normalisiert. Gleichzeitig haben schwach normalisierte Beziehungen auch ihre Vorteile, deren Haupttage ist, wenn die Datenbank hauptsächlich nur mit Anfragen und Modifikationen anwendet und Daten zum Verhalten hinzufügt, um sehr selten zu leiten, dann wird ihre Probe viel schneller gemacht. Dies wird dadurch erläutert, dass es in der schwach normalisierten Beziehung bereits eine Kombination aus ihrer Kombination gibt, und dies ist keine verbrauchte Prozessorzeit. Zwei Systeme von Systemen werden unterschieden, für die normalisierte Beziehungen ausreichend und schwach sind.

Stark normalisierte Datenmodelle eignen sich gut für OLTP-Anwendungen - Online-Transaktionsverarbeitung (OLTP) - Anwendungstransaktionsanwendungen. Typische Beispiele für OLTP-Anwendungen sind Lagerbuchungssysteme, Betriebsbankensysteme und andere. Die Hauptfunktion solcher Systeme besteht darin, eine große Anzahl von kurzen Transaktionen durchzuführen. Die Transaktion selbst sind ziemlich einfach, aber die Probleme sind, dass es sehr viele solcher Transaktionen gibt, sie werden gleichzeitig durchgeführt, und wenn die Transaktion auftritt, muss die Transaktion zurückrollen und das System in einen Zustand zurückgeben, in dem dies vor der Transaktion war. Fast alle Datenbankanfragen in OLTP-Anwendungen bestehen aus dem Einfügen, Aktualisieren und Löschen von Befehlen. Sampling-Anforderungen sollen hauptsächlich Benutzerentnahmebenutzer aus verschiedenen Arten von Referenzbüchern bereitstellen. ᴀᴋᴎᴍᴀᴋᴎᴍ ᴏϭᴩᴀᴈᴏᴍ, die meisten Anfragen sind im Voraus im Systemdesign bekannt. Für OLTP-Anwendungen kritisch ist die Geschwindigkeit und Zuverlässigkeit der Implementierung kurzer Datenaktualisierungsvorgänge. Je höher der Normalisierung der Daten in OLTP-Anwendungen, desto schneller und zuverlässiger. Rückzugsvorortungen aus dieser Regel können auftreten, wenn einige häufig entstehende Anforderungen erfordern, die eine Kombination von Beziehungen und den Betrieb von Anwendungen auf der Entwicklung dieser Regel erfordern.

Eine andere Art von Anwendungen sind OLAP-Anwendungen - Online-Analitale Bearbeitung (OLAP) - Anwendung der operativen analytischen Datenverarbeitung. Dies ist ein verallgemeinerter Begriff, der die Prinzipien für den Bau von Entscheidungshilfssystemen - Entscheidungsunterstützungssystem (DSS), Data Warehouses - Data Warehouse, Data Intelligent Systems - Data Mining. Solche Systeme sind so konzipiert, dass sie Abhängigkeiten zwischen Daten finden, um die dynamische Analyse auf dem Prinzip von "What if ..." und den Wahrscheinlichkeiten zu finden. OLAP-Anwendungen arbeiten mit großen Datenanordnungen, die sich im Unternehmen angesammelt oder aus anderen Quellen entnommen. Solche Systeme zeichnen sich durch folgende Funktionen aus:

Das Hinzufügen des Systems neuer Daten erfolgt relativ selten große Blöcke, zum Beispiel einmal im Monat oder ein Viertel;

Die dem System hinzugefügten Daten werden normalerweise nie gelöscht.

vor dem Herunterladen werden Daten verschiedene vorbereitende Prozeduren unterzogen, die mit den zu definierten Formaten verbunden sind.

Systemanfragen sind nicht gewählt und recht komplex;

die Geschwindigkeit der Abfragen ist wichtig, aber nicht kritisch.

Base data OLAP.- Anwendungen werden in der Regel als ein oder mehrere Hypercubes dargestellt, deren Messungen Referenzdaten sind, und in den Zellen des Hypercube selbst werden die Werte dieser Daten gespeichert. Physisch kann Hypercube auf der Grundlage eines speziellen multidimensionalen Datenmodells errichtet werden - Multidimensionales OLAP. (MOLAP) oder wird durch ein relationales Datenmodell dargestellt - Relational Olap. (ROLAP).

In OLAP-Systemen mit einem relationalen Datenmodell sollen die Daten als schlecht normalisierte Beziehungen gespeichert werden, die vorberechnete große endgültige Daten enthalten. Die Redundanz der Daten und die damit verbundenen Probleme sind hier nicht schrecklich, da ihr Update selten recht selten ist und die Ergebnisse zusammen mit dem Datenaktualisierung neu berechnet werden.


  • - Möglichkeiten, um die Zuverlässigkeit des Wasserversorgungssystems sicherzustellen

    Sicherstellung der Zuverlässigkeit des Wasserversorgungssystems sowie anderer Systeme massendienstist eine der Hauptaufgaben, wenn sie Design sind. Das System muss so gestaltet und gebaut sein, dass er in dem Betriebsprozess seine Funktionen von der angegebenen ... [mehr lesen]


  • - I. Schutzsystem Sicherheitskonzept

    Das Konzept der Sicherheit des entwickelten Systems ist "Diese Reihe von Gesetzen, Regeln und Normen des Verhaltens, die festlegen, wie die Organisation Informationen verarbeitet, schützt und vertreibt. Insbesondere bestimmen die Regeln, in welchen Fällen der Benutzer das Recht hat, mit ... [mehr lesen]


  • - Nach den Hauptentscheidungen über das Design des Heizsystems

    Entwerfen des Wasserheizungssystems. Untersuchen Sie die Wärmeknotenschemata beim Anschließen des Heizsystems durch offene und geschlossene Schaltungen. Fragen zum Selbsttest mit der Wärmeversorgung mehrerer Gebäude. Pumps und andere Geräte werden installiert ... [mehr lesen]


  • - Brandschutzanforderungen des Brandschutzsystems.

    Grundlagen zur Gewährleistung der Brandschutzsicherheit technologischer Prozesse. Frage 2. Die fremde Prävention des Objekts (25min) Die Brandschutzbestimmung umfasst einen Komplex von organisatorischen und technischen Maßnahmen, um die Sicherheit der Menschen zu gewährleisten ... [mehr lesen]


  • - Gewebe und Organe von Tierorganen

    Tierstoffe. Tiere unterscheiden auch mehrere Gewebesorten. Das Wichtigste von ihnen ist der folgende. Epitheliale Naturbänder sind Grenzstoffe, die den Körper draußen bedecken, die inneren Hohlräume und Organe, die Teil der Leber, Lunge, Drüsen sind ... [mehr lesen]

    In den Genomen höherer Eukaryoten gibt es zahlreiche wiederholte DNA-Sequenzen. Beim Menschen, zum Beispiel, besetzen solche Wiederholungen mehr als 40% des gesamten Genoms. Und dies impliziert, dass beim Bilden einer DSBs die Wahrscheinlichkeit einer gleichzeitigen Bildung von mehreren Lücken von ... [mehr lesen]


  • - Definition von Blutgruppen des Systems von AVO ZOLLONI Anti-A, Anti-V und Anti-AV

    Definition von Blutgruppen Gemäß dieser Regel können alle Patienten überfliegen (1) der Gruppe, da sie kein Agglutinogen enthält, und die Gruppen anderer Gruppen können die Bänder anderer Gruppen überschreiten, da es nicht enthält Agglutinogen. Daher werden die Konzepte eingeführt ...

  • Nachteile
    OLTP-Systeme sind für kleine diskrete Transaktionen optimiert. Berücksichtigt jedoch um umfassende Informationen (z. B. die vierteljährliche Dynamik der Umsatzvolumina auf einem bestimmten Warenmodell in einem bestimmten Zweig), charakteristisch für analytische Anwendungen (OLAP), züchtet komplexe Tabellenverbindungen und Ansichtstabellen vollständig. Eine solche Anforderung dauert viel Zeit- und Computerressourcen, wodurch die Verarbeitung aktueller Transaktionen verlangsamt wird.

    Transaktionskraft (englische Transaktion) ist eine Gruppe von aufeinanderfolgenden Operationen, die eine logische Arbeitseinheit mit Daten ist. Die Transaktion kann entweder vollständig und erfolgreich durchgeführt werden, wobei die Integrität der Daten und unabhängig von der Parallelerreichung anderer Transaktionen beobachtet oder überhaupt nicht erfüllt ist, und dann sollte es keinen Effekt machen. Transaktionen werden durch Transaktionssysteme verarbeitet, während der Betrieb der Transaktionen geschaffen wird.

    Es gibt sequentielle (gewöhnliche), parallele und verteilte Transaktionen. Distributed-Transaktionen beinhalten die Verwendung von mehr als einem Transaktionssystem und erfordern eine viel komplexere Logik (z. B. zweiphasige Commit ist ein Zwei-Phasen-Transaktions-Fixierungsprotokoll). Bei einigen systemen autonomen Transaktionen oder Unter-Transaktionen, die ein autonomer Teil der übergeordneten Transaktion sind.

    Beispiel: Sie müssen von einem Bankkontonummer 5 auf die Kontonummer 7 des Betrags in 10 Währungseinheiten übersetzen. Dies kann beispielsweise eine gegebene Folge von Aktionen erreicht werden:
    Beginnen Sie eine Transaktion
    lesen Sie den Bilanzkontonummer 5
    reduzieren Sie das Gleichgewicht für 10 Geldeinheiten
    speichern Sie den neuen Kontostand Nr. 5
    lesen Sie die Bilanzkontonummer 7
    erhöhen Sie den Restbetrag für 10 Geldeinheiten
    speichern Sie den neuen Kontostand Nr. 7

    Endtransaktion.
    Diese Aktionen sind eine logische Arbeitseinheit "Übersetzung des Betrags zwischen Konten" und somit eine Transaktion. Wenn Sie diese Transaktion beispielsweise in der Mitte unterbrechen, und nicht alle Änderungen abbrechen, ist es einfach, den Kontobesitzer Nummer 5 ohne 10 Einheiten zu verlassen, während der Kontoinhaber Nummer 7 sie nicht empfängt.

    OLTP Transaction Operational Bearbeitungsmodus

    Der OLTP-Transaktionsbetriebsmodus (Online-Transaktionsverarbeitung) wird in Organisationsmanagement-Informationssystemen verwendet, um den aktuellen Zustand des Subjektbereichs jederzeit wiederzugeben, und die Batch-Verarbeitung belegt eine sehr begrenzte Nische.
    OLTP.

    Normalerweise sind die analytischen Fähigkeiten der OLTP-Systeme stark begrenzt, sie werden verwendet, um die täglichen Aktivitäten der Gesellschaft zu erleichtern, und basierend auf den aktuell aktuellen Daten. OLTP-Klasseninformationssysteme sollen zum Sammeln, Registrieren, Eingangsquelldaten zusammenhängen, die sich auf einen bestimmten Fachbereich, Primärdatenverarbeitung, Speicher, ausreichende Visualisierung, Such-, Referenz- und Berichtsmaterialien beziehen. Die primäre Verarbeitung beinhaltet die Überprüfung der Richtigkeit der Eingabedaten und deren Übereinstimmung von Integritätsbeschränkungen, Identifizieren von Objekten, die von diesen Daten, Codieren, Datenübertragung durch horizontale und vertikale Verbindungen beschrieben werden. Daten in dem Informationssystem werden entweder aus einem Dokument eingeführt, das über eine bestimmte rechtliche Kraft oder direkt aus dem Auftreten von Daten verfügt. Im letzteren Fall wird ein Dokument, das die eingegebenen Daten enthält, vom System gedruckt und die Rechtskraft angehängt.

    In den OLTP-Systemen über den Zieldatenbanken werden Zieltransaktionen ausgeführt (z. B. die Verbesserung der Aufzeichnungstabelle mit den Parametern der Rechnung, der gutgeschriebenen oder anderen Tatsache), die den Status der Datenbank ändern und sie in Übereinstimmung mit dem aktuellen Zustand führen des realen Weltfragments, das die Datenbank modelliert. Somit ist der Hauptzweck der Zieldatenbank die Verarbeitung von Transaktionen.

    Solche Systeme sollen in Echtzeit eintreten, strukturierte Speicher- und Informationsverarbeitung eingeben. OLTP-Systeme ermöglichen es, Abfragetyp zu formulieren: Wie viel, wo usw. Durch die Bereitstellung von Daten aus ständig synchronisierten Datenbanken (aktualisierte) Datenbanken, die Betriebssysteme nicht die Dynamik der Änderungen der Prozesse in hohen Zeitintervallen verfolgen, erzeugt praktisch keine Datenverarbeitung (mit Ausnahme bestimmter Berechnungen) und bilden sich am wichtigsten nicht Schlussfolgerungen zu den verfügbaren Daten, die diese Funktion verlassen, um die Entscheidung zu entscheiden.

    OLTP.- Wir sind in vielen Branchen durch eine Vielzahl von Aufgaben gedeckt - Automatisierung von Rechnungswesen- und Lagerbuchhaltung und Rechnungslegung von Dokumenten usw.

    Die Hauptfunktion solcher Systeme besteht darin, gleichzeitig eine große Anzahl von kurzen Transaktionen aus einer großen Anzahl von Benutzern durchzuführen. Die Transaktion selbst sieht beispielsweise relativ einfach aus, zum Beispiel "Um den Geldbetrag aus dem Konto A zu entfernen, fügen Sie diesen Betrag dem Konto hinzu."

    Informationssysteme Die OLTP-Klasse zeichnet sich durch folgende Funktionen aus.
    IP-Merkmale - Informationssysteme - OLTP-Klasse
    -drowoch algorithmische Einfachheit,
    -die Dynamik in Bezug auf die Nomenklatur und Struktur der verarbeiteten Dokumente, die mit der unmittelbaren Nähe dieser Systeme in den Subjektbereich verbunden ist,
    -Mavity und territoriale Verteilung von Quelldaten-Sammelstellen,
    -Wellische Anforderungen an die Genauigkeit und Relevanz der Eingabedaten,
    -Mavity, ausreichend häufige Veränderlichkeit und relativ geringe Computerqualifikationen von Personal (Benutzer).
    - Unterstützung einer großen Anzahl von Benutzern;
    -male Reaktionszeit auf Anfrage;
    - relevante kurze Anfragen;
    -pinition in Abfragen einer kleinen Anzahl von Tabellen.

    Historisch Solche Systeme entstand in erster Linie, weil sie die Notwendigkeit von Buchhaltung, Servicegeschwindigkeiten, Datenerfassung usw. implementiert haben. Es ist jedoch bald zu verstehen, dass die Datenerhebung kein Ende an sich ist und die angesammelten Daten nützlich sein können: Informationen können sein: Informationen können sein aus den Daten gelernt.
    Systementwicklungsstrategie
    Seit langem wird Folgendes als Strategie zur Entwicklung solcher Systeme verwendet:
    bau eines individuellen AWP, der zur Verarbeitung von Gruppen funktional verwandter Dokumente bestimmt ist und den fertigen Arm repliziert
    bau von voll ausgestatteten parametrisierten Systemen mit Replikation und Einstellung an Orten. Das durch dieses Verfahren erhaltene System hatte jedoch geringe Anpassungsfähigkeiten, um die Dynamik von wesentlichen Regionen zu überwinden. Sie präsentierten hohe Anforderungen an das operative Personal und forderten einen großen Aufwand für die Unterstützung.
    In letzter Zeit wird eine neue, dritte Strategie für die Entwicklung von Informationssystemenklasse OLTP angewendet. Seine Essenz ist wie folgt: Nicht fertiggestellte Systeme werden repliziert, und einige Billets und technologische Tools, die das System direkt an Ort stellen können, um das System mit der erforderlichen Funktionalität schnell und weiter mit demselben Werkzeug zu erstellen / abzuschließen, um sie gemäß der Dynamik zu ändern des Themenbereichs.

    Transaktionen sind Aktionen, die entweder vollständig oder überhaupt nicht ausgeführt werden. Wenn während der Ausführung der Transaktion eine Verletzung des Systems vorliegt, kehrt die Datenbank in seinen ursprünglichen Zustand zurück, der vor der Transaktion (Rollback) war. Alle ausgeführten Transaktionen sind im Transaktionsprotokoll registriert. Die Transaktion wird als abgeschlossen angesehen, wenn ein entsprechender Transaktionsdatensatz im Protokoll angezeigt wird.

    OLTP-Technologie

    In der Praxis der Kommunikation mit Vertretern von Unternehmensinformationsdiensten ist es oft notwendig, mit schwerwiegenden Missverständnissen in den Möglichkeiten, Ernennung und Rolle der Technologien zu befassen, die zur Erfassung von Informationen - OLTP-Systemen (Online-Transaktionsabwicklung) und Informationsanalyse-Technologien vorgesehen sind. Inzwischen unterscheiden sie sich wesentlich in der Funktionalität, und jeder von ihnen ist für seinen Bereich im Informationssystem verantwortlich.
    OLTP-Systemaufgaben - Dies ist eine kurze Sammlung und die optimalste Platzierung von Informationen in der Datenbank sowie der Sicherstellung der Vollständigkeit, Relevanz und Konsistenz. Solche Systeme sind jedoch nicht für die effizienteste, schnelle und mehrdimensionale Analyse vorgesehen.
    Selbstverständlich ist es nach den gesammelten Daten möglich, Berichte zu erstellen, sondern erfordert eine Geschäftsanalyse oder eine dauerhafte Interaktion mit dem IT-Spezialisten oder spezielle Schulung auf dem Gebiet der Programmier- und Computertechnologie.
    Wie dauert der traditionelle Entscheidungsprozess in der russischen Firma, der das auf der OLTP-Technologie erstellte Informationssystem verwendet?
    Der Manager weist einen Spezialisten der Informationsabteilung gemäß seinem Verständnis des Problems zu. Ein Spezialist der Informationsabteilung, auf seine eigene Art und Weise, die Aufgabe realisiert, baut eine Anforderung an das Betriebssystem, erhält einen elektronischen Bericht und bringt es auf die Aufmerksamkeit des Kopfes. Ein solches Schema für kritische Entscheidungen hat das folgende Wesentliche nachteile:
    - verwendete eine unbedeutende Datenmenge;
    -Prozess dauert lange, da die Zusammenstellung von Anfragen und Interpretation des elektronischen Berichts - die Vorgänge eher visuell sind, während der Manager möglicherweise sofort eine Entscheidung treffen muss;
    - Erstellt eine Zykluswiederholung, wenn Sie Daten oder Berücksichtigung von Daten in einem anderen Kontext sowie mit zusätzlichen Problemen klären müssen. Darüber hinaus muss dieser langsame Zyklus wiederholt und in der Regel wiederholt gleichzeitig die Zeitanalyse noch mehr ausgegeben werden.
    der Unterschied in der Berufsausbildung und der Tätigkeitsbereiche eines Fachkennteils in der Informationstechnologie und des Managers betrifft die Berufsausbildung und Regionen der Aktivitäten eines Informationstechnologiespezialisten. Oft denken sie verschiedene Kategorien und verstehen sich als Ergebnis nicht;
    eine nachteilige Aktion hat einen solchen Faktor wie die Komplexität elektronischer Berichte zur Wahrnehmung. Der Manager hat keine Zeit, die Zinsnummern aus dem Bericht zu wählen, zumal sie zu viel sein können. Es ist klar, dass die Arbeit an der Vorbereitung der Daten häufig auf die Spezialisten der Informationsabteilungen fällt. Infolgedessen wird ein kompetenter Spezialist von routinemäßiger und unwirksamer Arbeit an der Herstellung von Tabellen, Diagrammen usw. abgelenkt, was natürlich nicht zur Erhöhung seiner Qualifikationen beiträgt.
    Die Ausgabe aus dieser Situation ist eine, und es wird von Bill Gates als Ausdruck formuliert: "Informationen zu den Tipps der Finger." Erstinformationen sollten seiner direkten Verbraucheranalytik zur Verfügung stehen. Es ist direkt verfügbar (!). Und die Aufgabe des Personalabteilungspersonals besteht darin, ein System zum Sammeln, Akkumulieren, Speicher, Schutz von Informationen zu erstellen und seine Zugänglichkeit an Analysten sicherzustellen.

    Der Anwendungsbereich ist der Anwendungsbereich, Rechnungswesen, Reservierung von Orten, Banken und Aktienbetrieb.

    OLTP-SystemeAls äußerst effizientes Mittel zur Durchführung der Betriebsbehandlung stellte sich heraus, dass sie wenig für Aufgaben der analytischen Verarbeitung geeignet war. Dies wird durch Folgendes verursacht:
    1. Fonds von traditionellen OLTP-Systemen können einen analytischen Bericht und sogar die Prognose der Komplexität aufbauen, jedoch im Voraus reguliert. Jeder Schritt zur Seite, erfordert in der Regel ein nicht entzündeter Endbenutzeranforderung, erfordert Kenntnis der Datenstruktur und eine ausreichend hohe Qualifikation des Programmierers;
    2. Viele funktionale Funktionen, die für operative Systeme erforderlich sind, sind für analytische Aufgaben überflüssig und spiegeln gleichzeitig den Objektbereich wider. Um die meisten analytischen Aufgaben zu lösen, ist die Verwendung von externen spezialisierten Instrumentalreservoirs zur Analyse, Vorhersage und Modellierung erforderlich. Die harte Struktur der Basis erlaubt es nicht, bei komplexen Proben und Sortieren eine akzeptable Leistung zu erreichen, und erfordert daher hohe Zeitkosten für die Organisation von Gateways.
    3. Im Gegensatz zu Transaktionssystemen sind analytische Systeme nicht erforderlich und dementsprechend nicht für das entwickelte Mittel zur Sicherstellung der Integrität der Daten, ihrer Reservierung und der Erholung vorgesehen. Dadurch kann nicht nur das Implementierungsmittel vereinfacht werden, sondern auch den inneren Overhead reduzieren und daher die Produktivität beim Auswählen von Daten erhöhen.

    Der von jedem der Systeme effektiv gelösten Aufgaben definieren wir auf der Grundlage der Vergleichsmerkmale der OLTP- und OLAP-Systeme

    Daten in OLTP-Systemen sind hauptsächlich organisiert, um solche Transaktionen zu unterstützen, als:

    Registrierung einer von dem Cash-Terminal oder durch einen Netzknoten eingeführten Reihenfolge;

    Platzierung einer Bestellung für Komponenten, wenn ihre Zahl im Lager weniger als eine bestimmte Anzahl wird;

    Verfolgung von Komponenten während der Montage des Endprodukts in der Produktion;

    Registrierung von Informationen über Mitarbeiter;

    Die Registrierung von Identitätsdaten von Lizenzinhabern wie Restaurantbesitzern oder Treibern.

    Separate Transaktionen, die sich auf eine relativ kleine Menge an Daten beziehen, werden schnell abgeschlossen. OLTP-Systeme werden zur gleichzeitigen Verarbeitung von Hunderten und Tausenden von Transaktionen erstellt und optimiert.

    Das OLTP-System zeichnet hervorragend die erforderlichen Daten auf, um den täglichen Betrieb zu unterstützen. Die Daten in ihnen werden jedoch anders organisiert, als es erforderlich ist, wenn die Informationen für Führungskräfte bestimmt sind, um die Arbeit ihrer Organisationen zu planen. Manager benötigen häufig endgültige Informationen - zum Analysieren von Trends, die die von ihnen anvertraute Organisation betreffen.

    Moderne Data Warehousing-Aufgaben
    Datenabscheidung mit bestimmten Zielen

    Die Entwicklung der Data Warehouse-Technologie begann mit der Notwendigkeit, die Daten, die für Vorgänge und Daten, die für analytische Zwecke verwendet werden, aufzuteilen. Das Repository bietet den meist anpassenden Funktionen für die Berichterstattung. Darüber hinaus kann die Division der Benutzer Transaktionen durchführen und Benutzer, deren nicht gewählte Anfragen die Effizienz der operativen Systeme negativ beeinflussen kann, eine optimale Verwendung von Dateninfrastrukturressourcen sicherstellen.
    Temporärer Wert der Daten

    Und obwohl die Speicherorganisationen eine hervorragende Berichterstattung und Analyseplattform geben, in der Echtzeit sie in der Regel nicht arbeiten, atmen nicht, indem sie durch das Zeitalter der verfügbaren Daten urteilen. Aufgrund technologischer Einschränkungen wird das Repository in der Regel nachts mit Batch-Daten aufgefüllt. Verwenden Sie dazu ein Batch-Programm, das das vertikale Lesen der gesamten Basis auf der Suche nach Änderungen ausführt. Die Daten, die das Repository mit einem solchen ETL-Ansatz betreten, ist immer veraltet (in der Regel pro Tag).

    Da das zu verarbeitende Datenvolumen sowie die Anzahl der Anzahl und der Vielfalt der Datenverarbeitungssysteme erhöht, steigt die Zeit und die Komplexität des Speicherfüllungsprozesses an. Gleichzeitig führt die Globalisierung, wachsende Dauer des Betriebs von Systemen, die begrenzten Serviceverträge dazu, den Batch-Betrieb zu reduzieren. Die Kombination von mehr Daten und Wettbewerbsdruck schafft ernsthafte Probleme für die IT-Organisation.

    Entscheidungen, die auf der Grundlage von gesterner Daten ergriffen wurden, hören auf, um die meisten Organisationen zu erfüllen. Echtzeitentscheidungen erfordert Echtzeitdaten, dass sie besondere Anforderungen für die Integration der Daten für das Repository auferlegt.

    Darüber hinaus müssen analytische Operationen, die im Repository ausgeführt werden, erneut an das OLTP-System übermittelt werden, von denen Daten stammen. Somit ist die analytische Verarbeitung zentralisiert und die Übertragung von Lösungen, die auf aggregierten Daten in das Repository angenommen wurden, garantiert den entsprechenden OLTP-Systemen.

    Diese Trends werden wie folgt implementiert:
    Integration von Echtzeitdaten für Data Warehouse. Erhalten und Übertragen von Echtzeitdaten von Betriebssystemen in ein Repository, wodurch Daten zur Analyse verfügbar sind.
    Aktive Data Warehouse. CD in Echtzeit, ergänzt durch Business Intelligenz der Verarbeitung und Durchführung von Geschäftslösungen. Lösungen werden automatisch an das OLTP-System übertragen. Infolgedessen wird ein geschlossener Verarbeitungszyklus gebildet.

    In dem Wunsch, das Funktionieren des Repositorys in Echtzeit zu erreichen, hängt der Erfolg oft von der zuständigen Auswahl des Integrationsinstruments und der Datenerfassung ab, was die Möglichkeit gewährleistet, die Qualität und Aktualität der Information zu verbessern.
    Integration von Daten für Repository in Echtzeit

    Um die Echtzeitintegration zu unterstützen, muss ein Batch-Ansatz für die Extraktion von Betriebsdaten durch Prozesse ersetzt werden, die den Status der Quellsysteme ständig überwachen, Änderungen an den Daten aufnehmen, wie sie auftreten, und laden Sie sie dann in das Repository in Modus so nah wie möglich an Echtzeit. Mit einer permanenten Datenerfassung können Sie Gewinne und Preiselemente in einem beliebigen Zeitrahmen analysieren. Trends können mit einer ausgewählten Periodizität und ohne Verzögerung analysiert werden.

    ETL ist eine ideale Lösung für die Aufgabe einer ähnlichen Belastung großer Datenmengen im Repository und bietet auch umfangreiche Datenkonvertierungsoptionen. ETL-Vorgänge werden jedoch in der Regel zum Zeitpunkt der Pausen durchgeführt, um das Quellsystem zu aktualisieren, um sicherzustellen, dass sich die Quelle zum Zeitpunkt der Empfangsdaten nicht ändert. Dies führt wiederum zu Inkonsistenzen zwischen OLTP-Systemen und Lagerung. Daher stehen Daten und Anwendungen nicht immer den Geschäftsbenutzern zur Verfügung.

    EAI-Lösungen, die zuvor dazu gedacht waren, Anwendungen heute integrieren, konkurrieren oder koexistieren sich häufig mit ETL-Technologien, was das Integrationsmittel darstellt und Echtzeitdaten empfangen. EAI-Lösungen übertragen Informationen zwischen Quell- und Zielsystemen, garantieren die Datenlieferung, bieten einen erweiterten Stream-Support und vereinfachen die grundlegenden Umwandlungselemente.

    Die EAI-Technologie verleiht jedoch Einschränkungen des Volumens, da das anfängliche Senden dieser Methode die Integration der Anwendungen (und nicht nicht Daten) und das Wesen davon bei der Einführung von Anwendungen und Senden von Anweisungen und -nachrichten war. Die Fähigkeit, Echtzeitinformationen zu verschieben und seine Integrität im Integrationsprozess in einigen Fällen aufrechtzuerhalten, ist in einigen Fällen die EAI-Technologie für den Austausch zwischen Betriebssystemen und aktiven Speicher.

    Ein weiterer Ansatz zur Echtzeit-Datenintegration ist die Transaktionsdatenmanagement-Technologie (Transaktionsdatenmanagement - TDM), die zum Erhalten, Transaktionen, Transformationen, Versorgung und Überprüfung von Transaktionsdaten in einem heterogenen Medium in echten Zeitpunkten, das auf ausgeführten Transaktionen ist, entwickelt wurde. TDM-Funktion bei ausgeführten Transaktionen: wählt aus: Sie gilt aus dem OLTP-System die grundlegenden Konvertierungsmethoden und überträgt sie an den Speicher. Laut seiner Architektur, der Asynchronne-Technologie, bietet aber synchrones Verhalten mit einer Verzögerung bei einem Bruchteil einer Sekunde, wobei die Integrität der Daten in der Transaktion aufrechterhalten wird.

    EAI und TDM sind so konzipiert, dass Änderungen und Datenaktualisierungen anstelle von integrierten Datenproben übertragen. Keiner noch der andere erfordert die Aussetzung der Quellsysteme, da diese Technologien die Integrität der Datenmanipulationssprache (DML) unterstützen. Aufgrund dessen wird das Volumen der erforderlichen Datenbewegungen erheblich reduziert. Wenn ETLs hauptsächlich für Quellendownload- und Datenkonvertierung ausgelegt sind, eignen sich EAI und TDM eher für die permanente Datenerfassung.

    Eine zunehmende Anzahl von Unternehmen nutzt die TDM-Technologie, um Daten für das Repository zu sammeln. TDMs werden erfasst, gesendet, gesendet, geliefert und prüfen, mit Daten in der heterogenen Datenbankumgebung mit einer Verzögerung in einem Sekundenzeigersinn.

    Die Übertragung von modifizierten Daten auf der Transaktionsebene ermöglicht es dem System, gleichzeitig mit der Repository-Füllung im aktiven Modus und den Prozessbetrieb zu arbeiten. In diesem Fall wird die Abhängigkeit des Batch-Verarbeitungsintervalls vollständig beseitigt und die Integrität jeder Transaktion bleibt erhalten.

    Die Integration des Repositorys und des OLTP-Systems beinhaltet den Empfang und Übertragen von Transaktionsdaten gleichzeitig mit der Übertragung von Daten auf empfangene Lösungen auf der Grundlage von Datendaten in einem oder mehreren Betriebssystemen. Ein solcher geschlossener Arbeitszyklus wird auch von TDM bereitgestellt.
    Hauptmerkmale und Möglichkeiten zur Integration

    TDM-Integrations-Tools haben eine Reihe wichtiger Funktionsmerkmale.

    Datensammlung

    Datenerfassungsmodule werden in der Quelldatenbank installiert und überwachen ständig alle neu eingehenden Transaktionen. Dies wird erreicht, indem große Datenmengen von den Betriebsprotokollen zum Zeitpunkt der Durchführung von Transaktionen gelesen werden, in denen noch Transaktionen ausgeführt werden und in der Regel im Speicher sind. Die Daten werden auf der Transaktionsebene verarbeitet, und nur die ausgeführten Vorgänge werden an den Speicher gesendet.

    Strichdaten

    Alle neuen Daten werden auf den Zwischenbereich der Lagerung von HD übermittelt, während die Zeitverzögerung ein Bruchteil einer Sekunde ist. Die relevantesten Daten sind also immer für die fortschrittlichsten Business Intelligence-Methoden sowie für die Berichterstattung und Entscheidungsfindung verfügbar. Da kleinere Datenproben für einen bestimmten Zeitraum übertragen werden (als bei einer Paketübertragung), erscheint die zusätzliche Belastung des OLTP-Systems als sehr unbedeutend.

    Heterogenität

    Das Data Warehouse funktioniert nicht unbedingt innerhalb desselben Betriebssystems oder Datenbank als OLTP-System. Darüber hinaus gibt es oft Situationen, wenn Sie Daten von mehreren Sammeln sammeln müssen betriebssysteme und Basen. Infolgedessen müssen Integrationswerkzeuge eine breite Palette von DBMS sowie Plattformen unterstützen, die die Anforderungen auch für die heterogenen IT-Infrastrukturen vereinfachen. Die Organisation kann also die Wahl der Plattform auf der Grundlage von Unternehmensnormen und -einstellungen sowie mit minimalem Einfluss auf die fertige HD-Lösung treffen.

    Die vom Integrationstool gesammelten Daten werden in das Plattform- und dbms-unabhängige Format konvertiert. Somit wird die Heterogenität aufrechterhalten, und das Risiko eines Verlusts oder der Gefahr des Verlusts oder der Beschädigung der Daten wird im Falle einer Unterbrechung im Betrieb des Quell- oder Zielsystems eliminiert.

    Selektivität der Daten

    Integrationstools übertragen nur die im Repository erforderlichen Daten. Im üblichen OLTP-System befinden sich Felder, die sich nur auf die Anwendung beziehen, die der Datenbank dient. Im Repository sind nicht alle diese Parameter erforderlich. Das Integrationstool sollte sicherstellen, dass die Identifizierung von Spalten, die aus den Datenbanken entfernt werden sollen, und übertragen in das Repository.

    Abhängig von den Benutzerkriterien können auch bestimmte Zeilen von der Basis des Quellsystems ausgewählt werden. Um Daten auf geografischer Basis zu trennen oder Produkte auszuwählen, die nur dem Ziel-Repository zusammenhängt.

    Datenkonvertierung

    Die Selektivität in der Datenübertragung ist jedoch wichtig, die Aufgabe der Umwandlung, Normalisierung oder die Denormalisierung von Daten bleibt jedoch abhängig vom Zielsystem. Aufgrund der verschiedenen Datenmodelle und den Strukturen von Objekten zwischen der OLTP-Basis und dem Speicher können die Spalten und das Quellsystem so konvertiert werden, dass sie mit den Spalten im Zielsystem entsprechen. In einigen Fällen ist es erforderlich, mehrere Säulen aus verschiedenen Quellreihen in eine einzige Zeichenfolge zu verschmelzen und umgekehrt. Für komplexe Datentransformationen wird vorgeschlagen, Punkte auf das Anwenderprogramm auszugeben, um alle für diese Organisation spezifischen CD-Füllregeln zu implementieren.

    Flexibilität

    Die Fähigkeit, schnell und einfach neue Quellen von Datenbanken oder Zielsystemen einzubeziehen, einschließlich der Prozesse der Erfassung und Bereitstellung von Daten, spielt eine wichtige Rolle.

    Dynamische Definition von Tabellen

    Um die Arbeit des Repositorys nicht zu unterbrechen, ist es mit der Möglichkeit einer schnellen Anpassung an mögliche Änderungen in der Datenbank entworfen. Die Definitionen der Original- und Zieltabellen werden entweder mit dem Erscheinungsbild von neuen Versionen von Software oder mit einer Änderung der Anforderungen an den Speicher geändert. Die dynamische Aufgabe der Tabellenkreise ist mit den parametrischen Dateien möglich. Auf diese Weise können Sie Änderungen an den Original- oder Zieltabellen vornehmen, um schnell Änderungen vorzunehmen, ohne Software- oder Obseligungssysteme aufzurufen.

    Rückkopplung

    Der aktive Speicher überträgt Daten, wenn bestimmte Bedingungen oder Regeln ausgeführt werden. Eine schwierige Operation kann Aktualisierungssätze in OLTP enthalten. Beispielsweise kann ein Betrugserkennungssystem verdächtige Vorgänge hervorheben und den Status des Benutzerkontos im Repository ändern. Eine solche Statusänderung kann durch das Integrationswerkzeug überwacht und an das entsprechende System der operativen Transaktionsverarbeitung übertragen werden. Die Renditeübertragung von Informationen im OLTP-System ist für jede Anwendung eines geschlossenen Zyklus sehr wichtig und gleichzeitig Informationen in der Berichtsumgebung, Data WareHouses, backups oder andere Zielsysteme.
    Technologien kombinieren.

    Die Aufgabe der Integration DW und OLTP ist möglich, TDM- und ETL-Prozesse zu kombinieren. Mit der Prozessdaten in Echtzeit, konstante Erfassung und Entnahme von Daten auf dem Transaktionspegel. TDM-Tools können Echtzeitdaten in den Zwischenspeicherniveau der Zieldatenbank übertragen, wobei der ETL-Server die Daten abfängt und mit der Umwandlung mithilfe der Umwandlung auf den Speicher heruntergeladen wird. Dieser Ansatz hat Mängel (insbesondere zusätzliche Verzögerung und die Notwendigkeit, den ETL-Server zu unterstützen), sind jedoch gerechtfertigt, wenn die Datenkonvertierungsanforderungen zu komplex sind.

    Die Vorteile sind, dass neue Transaktionsdaten sofort mit einem sehr kleinen Leistung auf das OLTP-System (im Vergleich zum üblichen ETL-Prozess) erfasst werden.
    usw.................

    Fortsetzung des Themas:
    W-lan

    Zu wissen, warum das Telefon erhitzt wird, kann der Benutzer versuchen, seine Temperatur zu reduzieren. Dies wird dazu beitragen, eines der häufigsten Probleme zu lösen - obwohl er damit konfrontiert ist ...