Drosselung der Bandbreite mit QoS. So verwenden Sie QoS, um QoS und Modems für einen hochwertigen Internetzugriff bereitzustellen

Die Bandbreite des lokalen Netzes ist ein Thema, das mit der Verbreitung des Highspeed-Internets immer relevanter wird. Jedes Mal, wenn wir versuchen, mehr und mehr Geräte an den Router anzuschließen, kann die Standardsoftware nicht immer alle davon bewältigen. In diesem Fall hilft das Festlegen der Prioritäten von QoS-Paketen der Bandbreite des lokalen Netzwerks am Router. Es weist der Ausführung bestimmter Aufgaben Priorität zu, die im Moment am wichtigsten sind, und ist nicht nur auf Top-End-Mikrotik- oder Cisco-Routern verfügbar, sondern auch auf jedem preiswerten Modell von TP-Link, Asus, Zyxel Keenetic, D-Link.

QoS – Was steckt im Router?

Die meisten modernen Router verfügen über eine eingebaute Fähigkeit, den Internet-Verkehrsfluss innerhalb eines lokalen Netzwerks zu steuern und eine Priorität zuzuweisen, wenn eine Anwendung ausgeführt wird. Nun, zum Beispiel spielen Sie ein Online-Spiel oder surfen auf den Seiten Ihrer Lieblingsseiten. Und gleichzeitig laden Sie einen interessanten Film über Torrent herunter. In diesem Fall wird das Spiel langsamer und die Datei schwingt kaum. Was zu tun ist?

Sie müssen entscheiden, welche Aktion für Sie im Moment wichtiger ist. Es ist wahrscheinlich schließlich ein Online-Spiel. Daher können wir durch die Konfiguration des QoS-Paketplaners die Ausführung von Spielaufgaben vor dem Herunterladen von Dateien priorisieren.

Aber die Bandbreite des lokalen Netzwerks und des Internetkanals ist begrenzt. Der erste sind die Fähigkeiten des Routers. Denken Sie daran, wir haben darüber gesprochen?.

Der zweite ist Ihr Tarifplan vom Anbieter. Wie teilt sich dies die Priorität für diese gleichzeitigen Aufgaben auf?

In der Regel wird dem Websurfen, also der Bedienung Ihres Browsers, standardmäßig die höchste Priorität eingeräumt. Aber wenn Sie gerade einen Artikel geöffnet haben und lesen und gleichzeitig den Film so schnell wie möglich herunterladen möchten, dann wäre es logischer, dem Dateiladeprogramm den Vorrang zu geben und nicht dem Browser.

Aus diesem Grund bieten Router die Möglichkeit, die Netzwerkbandbreite manuell zu konfigurieren. Nämlich, um die Priorität so zu verteilen, wie Sie sie benötigen. Diese Funktion wird QoS (Quality of Service) genannt. Das heißt, die Technologie zum Bereitstellen von Dienstprioritäten für verschiedene Verkehrsklassen.

Asus Router Traffic Manager

Bei verschiedenen Modellen kann diese Einstellung unter verschiedenen Namen im Menüpunkt versteckt sein. Ich habe jetzt einen Asus-Router mit der neuen Firmware laufen - ich zeige ihn auf RT-N10U Version B1. Und hier wird der QoS-Scheduler im Abschnitt "Traffic Manager" konfiguriert.

Zuerst müssen Sie den standardmäßig aktivierten Automatikmodus auf einen von zwei ändern. „Benutzerdefinierte QoS-Regeln“ oder „Benutzerdefinierte Priorität“

Benutzerdefinierte QoS-Paket-Scheduler-Regeln

Mit dieser Einstellung können Sie die Priorität für die bereits in der Router-Software vorinstallierten Programme aus verschiedenen „Gewichtsklassen“ einstellen. Gleichzeitig müssen Sie sich nicht mit verschiedenen Formeln herumschlagen und die Netzwerkbandbreite berechnen. Alles ist schon vor uns erfunden worden. Ohne Screenshot ist es etwas unklar, daher zitiere ich es:

So ist nun auf "Web Serf", also bei Verbindungen durch den Browser über den dafür verwendeten Port 80, die "Höchste" Priorität eingestellt. Durch Klicken auf die Dropdown-Liste können wir eine andere aus der vorgeschlagenen Liste auswählen. Gleichzeitig ist es das kleinste für File Transfer, also für Dateilader. Indem wir diese Parameter an einigen Stellen ändern, erhalten wir den Effekt, dass beim gleichzeitigen Herunterladen einer Datei von einer Site und beim Anzeigen einer HTML-Seite dem ersten Prozess eine höhere Geschwindigkeit verliehen wird.

Aber das ist nicht alles. Für P2P-Dateiübertragungsprogramme (wie BitTorrent) oder Online-Spiele sowie viele andere Anwendungen können Sie Ihre Prioritätswerte festlegen. Dies geschieht durch Hinzufügen einer neuen Regel zu den bestehenden.

Klicken Sie zum Erstellen auf den Punkt „Auswählen“ und wählen Sie aus der Drop-Down-Liste die Art der Datenübertragung, die uns interessiert, oder Voreinstellungen für eine bestimmte Anwendung. Sie können beispielsweise die Priorität der Netzwerkbandbreite für Mailanwendungen wie Outlook oder TheBat (Element SMTP, POP3 ...) oder für FTP-Clients (FTP, SFTP, WLM ...) festlegen. Es gibt auch eine große Liste beliebter Spiele wie Counter Strike und Filesharing-Programme wie BitTorrent, eDonkey usw.

Wählen wir einen Schaukelstuhl Torrent. Die von diesem Programm standardmäßig verwendeten Ports werden automatisch hinzugefügt.
Aber es ist besser, den Worten des Routers nicht zu glauben und sie selbst zu überprüfen. Öffnen wir das Programm (ich habe uTorrent) und gehen Sie zu "Einstellungen> Programmeinstellungen> Verbindungen". Mal sehen, welcher Port für dieses Programm eingestellt ist.

Wenn es sich von denen unterscheidet, die standardmäßig in den Routereinstellungen registriert wurden, ändern Sie es. Entweder dort oder hier, Hauptsache, sie sind gleich. Wir speichern die Einstellungen im Programm und kehren zum Admin-Panel des Routers zurück und wenden die Parameter an. Sie werden nach dem Neustart des Geräts aktiviert.

Benutzerdefinierte Priorität von QoS-Paketen

Dies ist die zweite Einstellung für die manuelle Bandbreitensteuerung, mit der Sie die im vorherigen Abschnitt eingestellten Parameter konfigurieren können. Nämlich, um zu bestimmen, welche Geschwindigkeit als Prozentsatz jedem der Prioritätsparameter zugewiesen wird.

Zum Beispiel habe ich für ausgehenden Verkehr im Moment standardmäßig auf "Höchste" gesetzt, 80 % - den Mindestwert und 100 - das Maximum. Das bedeutet, dass diejenigen mit der höchsten Priorität mindestens 80% der Bandbreite erhalten. Unabhängig davon, wie viele gleichzeitige Prozesse ausgehende Verbindungen zum Internet herstellen. Diejenigen mit der Priorität "Hoch" - mindestens 10%. Und so weiter – ich denke, Sie verstehen, worauf es ankommt. Durch Bearbeiten dieser Werte können Sie die Download- und Upload-Geschwindigkeit für verschiedene Kategorien von laufenden Programmen im Detail steuern.

Jetzt schlage ich vor, ein detailliertes Video-Tutorial zum Einrichten von QoS auf Cisco-Routern anzusehen

Konfigurieren des QoS-Paketplaners auf dem TP-Link-Router

Im Folgenden werde ich der Einfachheit halber mehrere Screenshots der Administratorbereiche für die Verwaltung der Bandbreite von Modellen anderer Unternehmen geben. Auf TP-Link-Router befindet sich der QoS Packet Scheduler im Abschnitt Bandwidth Control des Menüs. Um es zu aktivieren, setzen Sie ein Häkchen bei "Bandbreitenkontrolle aktivieren" und stellen Sie die maximale Geschwindigkeit für ein- und ausgehenden Datenverkehr ein.

Durch Klicken auf die Schaltfläche "Hinzufügen" können Sie für einen oder mehrere Computer eine neue Prioritätsregel hinzufügen. Dazu müssen Sie deren IP-Adresse oder Adressbereich eingeben. Geben Sie außerdem die Ports und die Art des Paketaustauschs an, für die diese Regel gelten soll.

TP-Link hat seit kurzem eine neue Visualisierung des Admin-Panels, die auf allen neuen Modellen installiert ist. Darin befindet sich der QoS-Scheduler in den „Zusätzlichen Einstellungen“ im Abschnitt „Datenpriorisierung“. Wir schalten es mit einem Häkchen ein und passen die drei Arten von Prioritäten mit den Schiebereglern an:

  • groß
  • Mitte
  • Niedrig

Um einen Filter hinzuzufügen, klicken Sie in einem der drei Fenster der Voreinstellungen auf die Schaltfläche "Hinzufügen".



Eine Liste der mit dem Router verbundenen Clients wird geöffnet - wählen Sie den gewünschten aus und klicken Sie auf den Link "Auswählen" und dann auf "OK".


IntelliQoS-Netzwerkbandbreite auf Zyxel Keenetic

Bei Keenetic-Routern heißt die Funktion zur Steuerung der Netzwerkbandbreite IntelliQoS. Dieses Modul ist zunächst nicht in der Firmware vorhanden. Zusätzliches IntelliQoS ist im entsprechenden Abschnitt des Admin-Panels erforderlich. Danach erscheint im Menü „Meine Netzwerke und WLAN“ ein eigener gleichnamiger Eintrag.


Um den Verkehrskontrollmodus zu aktivieren, schalten Sie diesen Dienst ein und geben Sie die maximale Internetgeschwindigkeit an, die im Tarifplan des Anbieters vorgesehen ist. Für eine genauere Bestimmung können Sie einen Online-Geschwindigkeitstest durchführen, der mit diesem tatsächlichen Wert beginnt.

Konfigurieren der Netzwerkbandbreite auf einem D-Link-Router

Für den D-Link-Router im DIR-620-Modell haben die Entwickler aus irgendeinem Grund die Möglichkeit implementiert, QOS-Geschwindigkeitsbegrenzungen nur auf Computern festzulegen, die per Kabel an einen der LAN-Ports angeschlossen sind. Diese Einstellung befindet sich im Abschnitt "Erweitert - Bandbreitenkontrolle"

Wählen Sie eine davon aus, schalten Sie die Begrenzung ein und stellen Sie die Geschwindigkeit ein

Das war's für den Moment - experimentieren Sie mit der Bandbreite des lokalen Netzwerks, damit der Router die Arbeit der Programme nicht verlangsamt, von denen Sie im Moment die maximale Rendite erwarten.

Video zum Einrichten von QoS auf einem Router

Danke! Hat nicht geholfen

In diesem Artikel sehen wir uns an, wie Sie die reservierte Bandbreite in Windows 10 konfigurieren. Standardmäßig reserviert Windows 20 % der gesamten Internetbandbreite.

Ja, ja, das Betriebssystem Windows 10 reserviert einen bestimmten Prozentsatz Ihrer Internetverbindungsbandbreite für die Dienstgüte (QoS).

Laut Microsoft:

QoS kann kritische Systemvorgänge umfassen, wie das Aktualisieren des Windows-Systems, das Verwalten des Lizenzierungsstatus usw. Das Konzept der reservierten Bandbreite gilt für alle Programme, die auf dem System ausgeführt werden. Normalerweise begrenzt der Paketplaner das System auf 80 % der Konnektivitätsbandbreite. Das bedeutet, dass Windows 20 % Ihrer Internetbandbreite ausschließlich für QoS reserviert.

Falls Sie diesen reservierten Prozentsatz der Bandbreite erhalten möchten, ist dieser Artikel für Sie. Im Folgenden finden Sie zwei Möglichkeiten, die reservierte Bandbreite im Betriebssystem Windows 10 zu konfigurieren.

HINWEIS: Wenn Sie die gesamte reservierte Bandbreite für Ihr System deaktivieren, dh auf 0 % setzen, wirkt sich dies auf die Aktionen des Betriebssystems aus, insbesondere auf automatische Updates.

Verantwortungsverweigerung: weitere Schritte umfassen das Bearbeiten der Registrierung. Fehler beim Bearbeiten der Registrierung können Ihr System beeinträchtigen. Seien Sie daher beim Bearbeiten von Registrierungseinträgen vorsichtig und erstellen Sie zuerst einen Systemwiederherstellungspunkt.

Schritt 1: Registrierungseditor öffnen(Wenn Sie mit dem Registrierungseditor nicht vertraut sind, klicken Sie auf).

Schritt 2: Navigieren Sie im linken Bereich des Registrierungs-Editor-Fensters zum folgenden Abschnitt:

HKEY_LOCAL_MACHINE \ SOFTWARE \ Richtlinien \ Microsoft \ Windows \ Psched

Hinweis: Wenn der Abschnitt und der Parameter " NonBestEffortLimit„Existiere nicht, erschaffe sie einfach.

Schritt 3: Jetzt im rechten Bereich des Registrierungsschlüssels "Psched" finde den DWORD (32 Bit) Parameter namens NonBestEffortLimit... Doppelklicken Sie darauf, um seine Werte zu ändern:

Standardmäßig ist der Parameter auf set eingestellt 50 in hexadezimal oder 80 in Dezimalschreibweise.

Schritt 4: Wählen Sie das Dezimalsystem und stellen Sie den Wert gleich dem Prozentsatz der erforderlichen reservierten Bandbreite ein.

Beispielsweise wenn Sie den Wert auf setzen 0 , wird die reservierte Bandbreite für Ihr Windows-Betriebssystem vollständig deaktiviert, d. h. gleich 0%. Drück den Knopf "OK" und schließen Sie den Registrierungseditor.

Schritt 5: Starten Sie Ihren PC neu, damit die Änderungen wirksam werden.

Wenn Sie die reservierte Bandbreite auf mehreren Computern in Ihrer Organisation / Ihrem Arbeitsplatz konfigurieren oder begrenzen möchten, können Sie die entsprechende Einstellung im GPO bereitstellen.

Schritt 1:Öffnen Sie den Editor für lokale Gruppenrichtlinien

Schritt 2: Gehen Sie zum Abschnitt: Computerkonfiguration → Administrative Vorlagen → Netzwerk → Qos Package Scheduler


Schritt 3: Doppelklicken Sie im rechten Fenster auf die Richtlinie.

Standardmäßig ist diese Richtlinie nicht festgelegt und das System reserviert 20% Bandbreite der Internetverbindung. Sie müssen es aktivieren, den Parameter einstellen "Beschränken Sie die reservierte Bandbreite" Wert "Inbegriffen".

Einer der beliebtesten Bereiche in der heutigen Vernetzung ist die Mischung von Sprache und Video über traditionelle Datennetze. Ein Problem bei dieser Art von Informationen besteht darin, dass Video- und Audiodatenpakete schnell und zuverlässig, ohne Unterbrechungen oder zu lange Verzögerungen an den Empfänger übertragen werden müssen, damit sie richtig funktionieren. Gleichzeitig sollte diese Art von Verkehr jedoch die Übertragung traditionellerer Datenpakete nicht behindern.

Eine mögliche Lösung für dieses Problem ist QoS. QoS oder Quality of Service ist eine Technologie zur Priorisierung von Datenpaketen. QoS ermöglicht Ihnen, zeitkritische Pakete mit einer höheren Priorität als andere Pakete zu übertragen.

QoS ist ein Industriestandard, kein Microsoft-Standard. Microsoft hat diesen QoS-Standard jedoch erstmals in Windows 2000 eingeführt. Microsofts Version von QoS hat sich seitdem ziemlich weiterentwickelt, entspricht aber immer noch den Industriestandards.

In Windows XP Professional fungiert QoS in erster Linie als Bandbreitenreservierungsmechanismus. Wenn QoS aktiviert ist, darf die Anwendung bis zu 20 % der gesamten Netzwerkbandbreite reservieren, die von der NIC jeder Maschine bereitgestellt wird. Die Menge der von der Anwendung reservierten Netzwerkbandbreite ist jedoch konfigurierbar. In Teil 3 zeige ich Ihnen, wie Sie die reservierte Bandbreite ändern können.

Um zu sehen, wie die freie Bandbreite verwendet wird, nehmen Sie an, Sie haben eine Videokonferenzanwendung, die eine priorisierte Bandbreite benötigt, um richtig zu funktionieren. Unter der Annahme, dass QoS für diese Anwendung aktiviert ist, können wir sagen, dass sie 20 % der Gesamtbandbreite des Computers reserviert und 80 % der Bandbreite für den Rest des Netzwerkverkehrs übrig lässt.

Alle Anwendungen, mit Ausnahme von Videokonferenzanwendungen, verwenden eine Technologie namens Best Effort Delivery. Dies bedeutet, dass Pakete mit der gleichen First-Delivered-First-Served-Priorität gesendet werden. Andererseits wird der Datenverkehr von Videokonferenzanwendungen immer gegenüber anderem Datenverkehr priorisiert, aber die Anwendung darf nie mehr als 20 % der gesamten Bandbreite verbrauchen.

Nur weil Windows XP einen Teil der Bandbreite für priorisierten Datenverkehr reserviert, bedeutet dies jedoch nicht, dass Anwendungen mit normaler Priorität die freie Bandbreite nicht nutzen können. Obwohl Videokonferenzanwendungen die reservierte Bandbreite mit höherer Priorität nutzen, sind die Chancen, dass solche Anwendungen ständig verwendet werden, sehr gering. In diesem Fall erlaubt Windows anderen Anwendungen, die freie und nicht freie Bandbreite für die bestmögliche Bereitstellung zu verwenden, solange die Anwendungen, für die ein Teil der Netzwerkbandbreite reserviert ist, nicht verwendet werden.

Sobald die Videokonferenzanwendung gestartet wird, beginnt Windows mit der Durchsetzung der Reservierung. Trotzdem ist die Reservierung nicht absolut. Angenommen, Windows hat 20 % der Netzwerkbandbreite für eine Videokonferenzanwendung reserviert, diese Anwendung benötigt jedoch nicht alle 20 %. In diesen Fällen erlaubt Windows anderen Anwendungen, die verbleibende Bandbreite zu verwenden, überwacht jedoch kontinuierlich die Anforderungen der Anwendung mit höherer Priorität. Falls die Anwendung mehr Bandbreite benötigt, wird ihr die Bandbreite bis zu einem maximalen Wert von 20 % zugewiesen.

Wie ich bereits sagte, ist QoS ein Industriestandard, keine Microsoft-Technologie. Daher wird QoS von Windows verwendet, aber Windows kann die Aufgabe nicht alleine erledigen. Damit QoS funktioniert, muss jedes Gerät zwischen Sender und Empfänger QoS unterstützen. Dies bedeutet, dass Netzwerkadapter, Switches, Router und alle anderen verwendeten Geräte über QoS sowie die Betriebssysteme des Empfängers und des Senders Bescheid wissen müssen.

Wenn Sie neugierig sind, müssen Sie keine verrückte exotische Netzwerkinfrastruktur installieren, um QoS zu verwenden. Der Asynchronous Transfer Mode (ATM) ist eine ausgezeichnete Netzwerktechnologie für die Verwendung von QoS, da es sich um eine verbindungsorientierte Technologie handelt. Sie können QoS jedoch mit anderen Technologien wie Frame Relay, Ethernet und sogar Wi-FI (802.11 x) verwenden.

Der Grund, warum ATM eine so ideale Wahl für QoS ist, liegt darin, dass es in der Lage ist, Bandbreitenreservierung und Ressourcenzuweisung auf Hardwareebene zu implementieren. Diese Art der Verteilung geht über die Fähigkeiten von Ethernet und ähnlichen Netzwerktechnologien hinaus. Dies bedeutet nicht, dass QoS nicht verwendet werden kann. Es bedeutet nur, dass QoS anders als ATM angewendet werden sollte.

In einer ATM-Umgebung werden Ressourcen sofort auf der Ebene der physischen Geräte zugewiesen. Da Ethernet und andere ähnliche Technologien auf diese Weise keine Ressourcen zuweisen können, basiert diese Art von Technologie eher auf einer Priorisierung als auf einer echten Ressourcenzuweisung. Dies bedeutet, dass Bandbreitenreservierungen auf der höheren Schicht des OSI-Modells auftreten. Nachdem die Bandbreite reserviert wurde, werden die Pakete mit höherer Priorität zuerst gesendet.

Ein zu berücksichtigender Punkt, wenn Sie QoS über Ethernet, Wi-Fi oder andere ähnliche Technologien anwenden, ist, dass diese Technologien nicht verbunden sind. Dies bedeutet, dass der Sender keine Möglichkeit hat, den Status des Empfängers oder den Status des Netzwerks zwischen Sender und Empfänger zu überprüfen. Dies wiederum bedeutet, dass der Sender zwar garantieren kann, dass die Pakete mit höherer Priorität zuerst gesendet werden, aber nicht garantieren kann, dass diese Pakete innerhalb eines bestimmten Zeitrahmens zugestellt werden. Andererseits ist QoS in der Lage, diese Art von Sicherheit in ATM-Netzwerken bereitzustellen, da ATM eine verbindungsorientierte Technologie ist.

Windows 2000 vs. Windows Server 2003

Zuvor habe ich darüber gesprochen, wie Microsoft QoS zum ersten Mal in Windows 2000 eingeführt hat und dass sich diese Anwendung von QoS seit dieser Zeit erheblich weiterentwickelt hat. Daher möchte ich ein wenig über die Unterschiede zwischen QoS in Windows 2000 und in Windows XP und Windows Server 2003 (in denen dieser Standard in etwa gleich verwendet wird) sprechen.

In Windows 2000 basierte QoS auf der Intserv-Architektur, die in Windows XP oder Windows Server 2003 nicht unterstützt wird Rahmen.

Einige Organisationen verwenden immer noch Windows 2000, daher habe ich beschlossen, Ihnen einige Informationen zur Funktionsweise der Windows 2000-QoS-Architektur zu geben. Windows 2000 verwendet ein Protokoll namens RSVP, um Bandbreitenressourcen zu reservieren. Wenn Bandbreite angefordert wird, muss Windows ermitteln, wann Pakete gesendet werden können. Dazu verwendet Windows 2000 ein Signalisierungsprotokoll namens SBM (Sunbelt Bandwidth Manager), um dem Absender mitzuteilen, dass er bereit ist, Pakete zu empfangen. Der Admission Control Service (ACS) überprüft, ob die effektive Bandbreite verfügbar ist, und gewährt oder verweigert dann die Bandbreitenanforderung.

Traffic-Management-API

Eines der Hauptprobleme bei der Priorisierung des Netzwerkverkehrs besteht darin, dass Sie den Datenverkehr nicht basierend auf dem Computer priorisieren können, der ihn generiert. Es ist üblich, dass einzelne Computer mehrere Anwendungen verwenden und für jede Anwendung (und jedes Betriebssystem) einen separaten Datenverkehrsstrom erstellen. In diesem Fall muss jeder Verkehrsstrom einzeln priorisiert werden. Schließlich benötigt eine Anwendung möglicherweise freie Bandbreite, während die beste Bereitstellung für eine andere Anwendung ideal ist.

Hier kommt die Traffic Control API (Traffic Control Programming Interface) ins Spiel. Die Traffic Control API ist eine Anwendungsprogrammierschnittstelle, mit der Sie QoS-Parameter auf einzelne Pakete anwenden können. Die Traffic Control API funktioniert, indem sie einzelne Traffic-Streams definiert und verschiedene QoS-Steuerungsmethoden auf diese Streams anwendet.

Das erste, was die Traffic Control API tut, ist das Erstellen einer so genannten Filterspec. Filterspec ist im Wesentlichen ein Filter, der definiert, was es bedeutet, dass ein Paket zu einem bestimmten Stream gehört. Einige der von der Filterspezifikation verwendeten Attribute umfassen die Quell- und Ziel-IP-Adresse des Pakets und die Portnummer.

Nachdem die Filterspezifikation definiert wurde, können Sie mit der API eine Flussspezifikation erstellen. Flowspec definiert die QoS-Parameter, die auf die Paketfolge angewendet werden. Einige der durch die Flussspezifikation definierten Parameter umfassen die Übertragungsrate (akzeptable Übertragungsrate) und die Art des Dienstes.

Das dritte von der Traffic Control API definierte Konzept ist das Flow-Konzept. Ein Fluss ist eine einfache Folge von Paketen, die derselben Flussspezifikation unterliegen. Einfach ausgedrückt definiert die Filterspezifikation, welche Pakete in die Flowspec aufgenommen werden. Flowspec bestimmt, ob Pakete mit höheren Prioritäten verarbeitet werden, und Flow ist die tatsächliche Übertragung von Paketen, die von der Flowspec verarbeitet werden. Alle Pakete im Stream werden gleich verarbeitet.

Es sollte erwähnt werden, dass einer der Vorteile der Traffic Control API gegenüber der generischen QoS-API, die in Windows 2000 verwendet wird, die Möglichkeit der Aggregation ist. Wenn ein Knoten mehrere Anwendungen hat, die mehrere Datenströme an ein gemeinsames Ziel übertragen, können diese Pakete zu einem gemeinsamen Strom kombiniert werden. Dies gilt auch dann, wenn die Anwendungen unterschiedliche Portnummern verwenden, vorausgesetzt, die Quell- und Ziel-IP-Adressen sind gleich.

Generischer Paketklassifizierer

Im vorherigen Abschnitt habe ich die Beziehung zwischen flowspec, filterspec und flow besprochen. Es ist jedoch wichtig, sich daran zu erinnern, dass die Traffic Control API lediglich eine Anist. Als solche besteht seine Aufgabe darin, Verkehrsflüsse zu definieren und zu priorisieren, und nicht, diese Flüsse zu erstellen.

Der Generic Packet Classifier ist für die Erzeugung von Streams verantwortlich. Wie Sie sich aus dem vorherigen Abschnitt erinnern, war eines der in der Flowspec definierten Attribute der Servicetyp. Der Diensttyp bestimmt im Wesentlichen die Priorität des Threads. Der Generic Packet Classifier ist dafür verantwortlich, den Typ des Dienstes zu bestimmen, der der Flowspec zugewiesen wurde, wonach er die zugehörigen Pakete entsprechend dem Typ des Dienstes in eine Warteschlange stellt. Jeder Thread wird in eine separate Warteschlange gestellt.

QoS-Paketplaner

Die dritte QoS-Komponente, die Sie beachten müssen, ist der QoS-Paketplaner. Einfach ausgedrückt ist die Hauptaufgabe eines QoS-Paketplaners die Verkehrsgestaltung. Dazu empfängt der Paket-Scheduler Pakete aus verschiedenen Warteschlangen und markiert diese Pakete dann mit Prioritäten und Flussraten.

Wie ich im ersten Teil dieser Artikelserie besprochen habe, müssen die verschiedenen Komponenten, die sich zwischen der Quelle der Pakete und ihrem Ziel befinden, QoS unterstützen (d. h. bewusst sein), damit QoS korrekt funktioniert. Diese Geräte müssen zwar wissen, wie sie mit QoS umgehen, aber sie müssen auch wissen, wie sie normalen Datenverkehr ohne Prioritäten handhaben. Um dies zu ermöglichen, verwendet QoS eine Technologie namens Tagging.

Tatsächlich gibt es hier zwei Arten von Markierungen. Der QoS Packet Scheduler verwendet Diffserv-Tagging, das von Layer-3-Geräten erkannt wird, und 802.1p-Tagging, das von Layer-2-Geräten erkannt wird.

Konfigurieren des QoS-Paketplaners

Bevor ich Ihnen zeige, wie das Tagging funktioniert, sollten Sie beachten, dass Sie den QoS-Paketplaner konfigurieren müssen, damit alles funktioniert. In Windows Server 2003 ist der QoS-Paketplaner eine optionale Netzwerkkomponente, genau wie der Client für Microsoft-Netzwerke oder das TCP/IP-Protokoll. Um den QoS-Paketplaner zu aktivieren, öffnen Sie die Eigenschaftenseite der Netzwerkverbindung Ihres Servers und aktivieren Sie das Kontrollkästchen neben QoS-Paketplaner, wie in Abbildung A gezeigt. Wenn der QoS-Paketplaner nicht aufgeführt ist, klicken Sie auf die Schaltfläche Installieren und befolgen Sie die Anweisungen.

Abbildung A: QoS Packet Scheduler muss aktiviert sein, bevor Sie QoS verwenden können

Eine andere Sache, die Sie über den QoS Packet Scheduler wissen müssen, ist, dass Ihr Netzwerkadapter 802.1p-Tagging unterstützen muss, damit er ordnungsgemäß funktioniert. Um Ihren Adapter zu testen, klicken Sie auf die Schaltfläche Konfigurieren, Abbildung A, und Windows zeigt die Eigenschaften Ihres Netzwerkadapters an. Wenn Sie sich die Registerkarte Erweitert auf der Eigenschaftenseite ansehen, sehen Sie die verschiedenen Eigenschaften, die Ihr Netzwerkadapter unterstützt.

Wenn Sie sich Abbildung B ansehen, können Sie sehen, dass 802.1Q / 1P VLAN Tagging eine der aufgeführten Eigenschaften ist. Sie können auch sehen, dass diese Eigenschaft standardmäßig deaktiviert ist. Um das 802.1p-Tagging zu aktivieren, aktivieren Sie einfach diese Eigenschaft und klicken Sie auf OK.

Abbildung B: Sie müssen 802.1Q / 1P VLAN Tagging aktivieren

Möglicherweise haben Sie in Abbildung B bemerkt, dass die von Ihnen aktivierte Funktion VLAN-Tagging und nicht Paket-Tagging ist. Dies liegt daran, dass in VLAN-Tags Prioritätsmarkierungen enthalten sind. Der 802.1Q-Standard definiert VLANs und VLAN-Tags. Tatsächlich reserviert dieser Standard drei Bits im VLAN-Paket, die verwendet werden, um den Prioritätscode zu schreiben. Leider legt der 802.1Q-Standard nie fest, wie diese Prioritätscodes aussehen sollen.

Der 802.1P-Standard wurde erstellt, um 802.1Q zu ergänzen. 802.1P definiert das Priority-Tagging, das in ein VLAN-Tag eingeschlossen werden kann.

802.1P-Signal

Wie ich im vorherigen Teil sagte, wird die 802.1p-Signalisierung auf der zweiten Schicht des OSI-Modells ausgeführt. Diese Schicht wird von physischen Geräten wie Switches verwendet. Layer-2-Geräte, die 802.1p unterstützen, können die Prioritätsmarkierungen anzeigen, die Paketen zugewiesen sind, und diese Pakete dann in separate Verkehrsklassen gruppieren.

In Ethernet-Netzwerken ist die Prioritätsmarkierung in VLAN-Tags enthalten. VLANs und VLAN-Tags werden durch den 802.1Q-Standard definiert, der ein Drei-Bit-Prioritätsfeld definiert, aber nicht wirklich definiert, wie dieses Prioritätsfeld verwendet werden soll. Hier kommt der 802.1P-Standard ins Spiel.

802.1P definiert verschiedene Prioritätsklassen, die in Verbindung mit dem 802.1Q-Standard verwendet werden können. Letztendlich überlässt 802.1Q es dem Administrator, die Prioritätsmarkierung zu wählen, technisch gesehen müssen Sie also nicht den Richtlinien von 802.1P folgen, aber 802.1P scheint diejenige zu sein, die jeder wählt.

Während die Idee, 802.1P-Standards für die Layer-2-Markierung zu verwenden, wahrscheinlich nach reiner Theorie klingt, kann sie tatsächlich über Gruppenrichtlinieneinstellungen definiert werden. Der 802.1P-Standard bietet acht verschiedene Prioritätsklassen (von 0 bis 7). Pakete mit höherer Priorität werden von QoS mit höherer Zustellpriorität verarbeitet.

Standardmäßig weist Microsoft die folgenden Prioritätsmarkierungen zu:

Aber wie bereits erwähnt, können Sie diese Prioritäten ändern, indem Sie verschiedene Gruppenrichtlinieneinstellungen ändern. Öffnen Sie dazu den Gruppenrichtlinien-Editor und navigieren Sie in der Konsolenstruktur zu Computerkonfiguration \ Administrationsvorlagen \ Netzwerke \ QoS-Paketplaner \ Prioritätswert zweiter Ebene. Wie Sie in Abbildung A sehen können, gibt es Gruppenrichtlinieneinstellungen, die jeder der oben aufgeführten Prioritätsbezeichnungen entsprechen. Sie können jedem dieser Servicetypen Ihre eigenen Prioritätsmarkierungsebenen zuweisen. Beachten Sie jedoch, dass diese Gruppenrichtlinieneinstellungen nur für Hosts gelten, auf denen Windows XP, 2003 oder Vista ausgeführt wird.

Abbildung A: Sie können den Gruppenrichtlinien-Editor verwenden, um die Prioritätsmarkierung der zweiten Ebene anzupassen.

Differenzierte Dienstleistungen

Wie ich im vorherigen Artikel erläutert habe, führt QoS eine Prioritätsmarkierung auf der zweiten und dritten Schicht des OSI-Modells durch. Dies stellt sicher, dass Prioritäten während des gesamten Paketzustellungsprozesses berücksichtigt werden. Switches arbeiten beispielsweise auf der zweiten Schicht des OSI-Modells, während Router typischerweise auf der dritten Schicht arbeiten. Wenn also die Pakete nur eine 802.1p-Prioritätsmarkierung verwenden, würde der Switch diese Pakete priorisieren, aber diese Prioritäten würden von den Netzwerkroutern ignoriert. Um dem entgegenzuwirken, verwendet QoS das Differentiated Services Protocol (Diffserv), um den Verkehr auf der dritten Schicht des OSI-Modells zu priorisieren. Die Diffserv-Markierung ist in den IP-Headern von Paketen enthalten, die TCP / IP verwenden.

Die von Diffserv verwendete Architektur wurde ursprünglich durch RFC 2475 definiert. Viele der Architekturspezifikationen wurden jedoch in RFC 2474 umgeschrieben. RFC 2474 definiert die Diffserv-Architektur für IPv4 und IPv6.

Ein interessanter Punkt über IPv4 in RFC 2474 ist, dass Diffserv, obwohl es komplett neu definiert wurde, immer noch abwärtskompatibel mit der ursprünglichen RFC 2475-Spezifikation ist. Dies bedeutet, dass ältere Router, die die neuen Spezifikationen nicht unterstützen, die zugewiesenen Prioritäten erkennen können.

Die aktuelle Diffserv-Anwendung verwendet die Typ-of-Service-(TOS)-Pakettyp-Oktette zum Speichern des Diffserv-Werts (der DSCP-Wert genannt wird). Innerhalb dieses Oktetts enthalten die ersten sechs Bits den DSCP-Wert und die letzten beiden Bits werden nicht verwendet. Der Grund, warum diese Markierungen mit der RFC 2475-Spezifikation abwärtskompatibel sind, liegt darin, dass RFC 2475 erforderte, dass die ersten drei Bits im gleichen Oktett in IP-Sequenzinformationen verwendet werden. Obwohl die DSCP-Werte sechs Bit lang sind, spiegeln die ersten drei Bits noch die IP-Sequenz wider.

Wie beim zuvor gezeigten 802.1p-Tagging können Sie Diffserv-Prioritäten über verschiedene Gruppenrichtlinieneinstellungen konfigurieren. Bevor ich Ihnen zeige, wie es geht, werde ich die Standard-Diffserv-Prioritäten vorstellen, die in Windows verwendet werden:

Sie haben vielleicht bemerkt, dass Diffserv-Prioritätsmarkierungen einen völlig anderen Bereich als 802.1P verwenden. Anstatt einen Bereich von 0-7 zu unterstützen, unterstützt Diffserv einen Prioritätsmarkierungsbereich von 0 bis 63, wobei größere Zahlen höhere Prioritäten haben.

Wie bereits erwähnt, können Sie in Windows die Diffserv-Prioritätsmarkierung mithilfe von Gruppenrichtlinieneinstellungen definieren. Beachten Sie jedoch, dass einige fortschrittlichere Router den Paketen ihre eigenen Diffserv-Werte zuweisen, unabhängig davon, was Windows zugewiesen hat.

Vor diesem Hintergrund können Sie die Diffserv-Prioritätsmarkierung konfigurieren, indem Sie den Gruppenrichtlinien-Editor öffnen und in der Konsolenstruktur zu Computerkonfiguration\Verwaltungsvorlagen\Netzwerk\QoS-Paketplaner navigieren.

Wenn Sie sich Abbildung B ansehen, werden Sie feststellen, dass sich unter der Registerkarte QoS Packet Scheduler zwei DSCP-bezogene Registerkarten befinden. Auf einer dieser Registerkarten können Sie die DSCP-Prioritätsmarkierung für Pakete zuweisen, die der Flussspezifikation entsprechen, und auf der anderen können Sie die DSCP-Prioritätsmarkierung für nicht konforme Pakete festlegen. Die eigentlichen Parameter selbst sind für beide Registerkarten ähnlich, wie in Abbildung C gezeigt.

Abbildung B: Windows verwaltet die DSCP-Prioritätsmarkierungen getrennt für Pakete, die der Flussspezifikation entsprechen und solche, die dies nicht tun.

Abbildung C: Sie können die DSCP-Prioritätsmarkierung für verschiedene Arten von Diensten manuell zuweisen.

Diverse Gruppenrichtlinieneinstellungen

Wenn Sie sich Abbildung B ansehen, werden Sie feststellen, dass es drei Gruppenrichtlinieneinstellungen gibt, die ich nicht erwähnt habe. Ich wollte kurz erwähnen, was diese Parameter sind und was sie bewirken, für diejenigen, die es interessiert.

Der Parameter Limit Outstanding Packets ist im Wesentlichen ein Dienstschwellenwert. Wenn die Anzahl der überschrittenen Pakete einen bestimmten Wert erreicht, verweigert QoS jede zusätzliche Bandbreitenzuweisung für den Netzwerkadapter, bis der Wert unter den maximal zulässigen Schwellenwert fällt.

Der Parameter Reservierbare Bandbreite begrenzen steuert den Prozentsatz der Gesamtbandbreite, den QoS-fähige Anwendungen reservieren können. QoS-fähige Anwendungen können standardmäßig bis zu 80 % der Netzwerkbandbreite reservieren. Natürlich kann jeder Teil der reservierten Bandbreite, der derzeit nicht von QoS-Anwendungen verwendet wird, von anderen Anwendungen verwendet werden.

Der Parameter Set Timer Resolution steuert die minimalen Zeiteinheiten (in Mikrosekunden), die der QoS-Paketplaner zum Planen von Paketen verwendet. Im Wesentlichen steuert diese Einstellung die maximale Rate, mit der Pakete zur Zustellung in die Warteschlange gestellt werden können.

QoS und Modems

Im Zeitalter der fast universellen Verfügbarkeit von Breitbandtechnologien scheint es seltsam, über Modems zu sprechen. Es gibt jedoch immer noch viele kleine Unternehmen und Heimanwender, die Modems als Mechanismus verwenden, um eine Verbindung zum Internet herzustellen. Vor kurzem habe ich sogar gesehen, wie ein großes Unternehmen Modems verwendet, um mit Satellitenbüros zu kommunizieren, die sich an abgelegenen Orten befinden, an denen keine Breitbandtechnologie verfügbar ist.

Das größte Problem bei der Verwendung von Modems ist natürlich die begrenzte Bandbreite, die sie haben. Ein weniger offensichtlicher, aber ebenso wichtiger Aspekt ist, dass Benutzer ihr Online-Verhalten bei der Nutzung von DFÜ-Verbindungen im Allgemeinen nicht ändern. Natürlich haben Benutzer bei einer Verbindung mit dem Internet über ein Modem keine große Lust, große Dateien herunterzuladen, aber der Rest des Benutzerverhaltens bleibt dasselbe, als ob sie über eine Breitbandverbindung verbunden wären.

Normalerweise machen sich Benutzer keine allzu großen Sorgen darüber, Microsoft Outlook die ganze Zeit geöffnet zu lassen oder zu surfen, während Dateien im Hintergrund heruntergeladen werden. Einige Benutzer halten ihr Instant-Messaging-System auch jederzeit geöffnet. Das Problem bei dieser Art von Verhalten besteht darin, dass jede dieser Anwendungen oder Aufgaben eine bestimmte Bandbreite an Ihrer Internetverbindung verbraucht.

Um zu sehen, wie QoS helfen kann, sehen wir uns an, was unter normalen Umständen passiert, wenn QoS nicht verwendet wird. Normalerweise hat die erste Anwendung, die versucht, auf das Internet zuzugreifen, die meisten Rechte zur Nutzung der Verbindung. Dies bedeutet nicht, dass andere Anwendungen die Verbindung nicht verwenden können, sondern dass Windows der Meinung ist, dass andere Anwendungen die Verbindung nicht verwenden.

Sobald die Verbindung hergestellt ist, beginnt Windows mit der dynamischen Anpassung der TCP-Empfangsfenstergröße. Die TCP-Empfangsfenstergröße ist die Datenmenge, die gesendet werden kann, bevor auf eine Empfangsbestätigung gewartet wird. Je größer das TCP-Empfangsfenster ist, desto größer sind die Pakete, die der Absender übertragen kann, bevor er auf eine erfolgreiche Zustellbestätigung wartet.

Die Größe des TCP-Empfangsfensters muss sorgfältig abgestimmt werden. Wenn das Empfangsfenster von TCP zu klein ist, leidet die Effizienz, da TCP sehr häufige Bestätigungen erfordert. Wenn das TCP-Empfangsfenster jedoch zu groß ist, überträgt das Gerät möglicherweise zu viele Daten, bevor es erkennt, dass während der Übertragung ein Problem aufgetreten ist. Infolgedessen müssen große Datenmengen erneut übertragen werden, was sich ebenfalls auf die Effizienz auswirkt.

Wenn eine Anwendung eine DFÜ-Internetverbindung verwendet, passt Windows die Größe des TCP-Empfangsfensters beim Senden von Paketen dynamisch an. Das Ziel von Windows ist hier, einen stabilen Zustand zu erreichen, in dem die TCP-Empfangsfenstergröße optimal abgestimmt ist.

Angenommen, der Benutzer öffnet eine zweite App, die ebenfalls eine Internetverbindung erfordert. Danach initiiert Windows den TCP-Slow-Start-Algorithmus, der für das Anpassen der TCP-Empfangsfenstergröße auf den optimalen Wert verantwortlich ist. Das Problem besteht darin, dass TCP bereits von einer zuvor gestarteten Anwendung verwendet wird. Dies wirkt sich in zweierlei Hinsicht auf die zweite Anwendung aus. Erstens dauert die zweite Anwendung viel länger, um die optimale TCP-Empfangsfenstergröße zu erreichen. Zweitens ist die Baudrate für die zweite Anwendung immer langsamer als die Baudrate für die vorwärtslaufende Anwendung.

Die gute Nachricht ist, dass Sie diese Probleme unter Windows XP und Windows Server 2003 vermeiden können, indem Sie einfach den QOS-Paketplaner ausführen. Der QOS Packet Scheduler verwendet dann automatisch eine Technologie namens Deficit Round Robin, wenn Windows eine langsame Verbindungsgeschwindigkeit erkennt.

Deficit Round Robin funktioniert durch dynamisches Erstellen separater Warteschlangen für jede Anwendung, die Zugriff auf das Internet benötigt. Windows bedient diese Warteschlangen im Round-Robin-Verfahren, wodurch die Effizienz aller Anwendungen, die auf das Internet zugreifen müssen, erheblich verbessert wird. Wenn Sie neugierig sind, ist Deficit Round Robin auch in Windows 2000 Server verfügbar, wird jedoch nicht automatisch aktiviert.

Internetverbindung teilen

In Windows XP und Windows Server 2003 erleichtert QoS auch die gemeinsame Nutzung der Internetverbindung. Wie Sie wahrscheinlich wissen, ist die gemeinsame Nutzung der Internetverbindung ein vereinfachter NAT-basierter Router. Der Computer, mit dem die Internetverbindung physisch verbunden ist, fungiert als Router und DHCP-Server für andere Computer im Netzwerk und ermöglicht ihnen so den Zugang zum Internet über diesen Host. Die gemeinsame Nutzung von Internetverbindungen wird normalerweise nur in kleinen Peer-to-Peer-Netzwerken ohne Domäneninfrastruktur verwendet. Große Netzwerke verwenden normalerweise physische Router oder Routing- und RAS-Dienste.

Im obigen Abschnitt habe ich bereits erklärt, wie Windows die TCP-Empfangsfenstergröße dynamisch anpasst. Diese dynamische Einstellung kann jedoch bei der gemeinsamen Nutzung einer Internetverbindung zu Problemen führen. Der Grund dafür ist, dass Verbindungen zwischen Computern in einem lokalen Netzwerk normalerweise relativ schnell sind. Typischerweise besteht eine solche Verbindung aus 100 MB Ethernet oder 802.11G Wireless. Diese Verbindungsarten sind zwar bei weitem nicht die schnellsten, aber viel schneller als die meisten in den USA verfügbaren Internetverbindungen. Hier liegt das Problem.

Der Client-Computer muss über das Internet kommunizieren, kann dies jedoch nicht direkt tun. Stattdessen verwendet es den Host für die gemeinsame Nutzung der Internetverbindung als Zugriffsmodul. Wenn Windows die optimale TCP-Empfangsfenstergröße berechnet, erfolgt dies basierend auf der Geschwindigkeit der Verbindung zwischen dem lokalen Computer und dem Computer mit gemeinsamer Internetverbindung. Der Unterschied zwischen der Datenmenge, die der lokale Computer tatsächlich aus dem Internet empfangen kann, und der Menge, die er aufgrund der Geschwindigkeit des Hosts für die gemeinsame Nutzung der Internetverbindung zu empfangen glaubt, kann Probleme verursachen. Insbesondere kann der Unterschied in der Verbindungsgeschwindigkeit möglicherweise zu Situationen führen, in denen Daten in einer Warteschlange gesichert werden, die mit einer langsamen Verbindung verbunden ist.

Hier kommt QoS ins Spiel. Wenn Sie den QOS-Paketplaner auf einer Site für die gemeinsame Nutzung der Internetverbindung installieren, macht der Host für die gemeinsame Nutzung der Internetverbindung die Größe des TCP-Empfangsfensters ungültig. Dies bedeutet, dass der Host für die gemeinsame Nutzung der Internetverbindung die Größe des TCP-Empfangsfensters für lokale Hosts auf dieselbe Größe wie bei einer direkten Verbindung mit dem Internet festlegt. Dies behebt Probleme, die durch nicht übereinstimmende Netzverursacht werden.

Fazit

In dieser Artikelserie habe ich QoS behandelt und wie es verwendet werden kann, um den Verkehrsfluss über verschiedene Arten von Netzwerkverbindungen hinweg zu gestalten. Wie Sie sehen, kann QoS das Netzwerk effizienter machen, indem es den Datenverkehr so ​​gestaltet, dass er die geringste Netzwerküberlastung nutzt und eine schnellere Bereitstellung von Datenverkehr mit höherer Priorität gewährleistet.

Brien Posey

Antworten:

Ryzhanov Denis Iwanowitsch:
Drücken Sie WinKey + R, schreiben Sie dort "gpedit.msc", drücken Sie "Enter", gehen Sie dann zum Reiter "Local Computer Policy", "Administrative Templates", "Network", "QoS Package Manager", wählen Sie den Reiter "Restrict"" reservierte Bandbreite ", doppelklicken Sie mit der Maus darauf, wählen Sie im erscheinenden Fenster die Registerkarte "Aktivieren" und stellen Sie direkt darunter "0%" ein. Starten Sie den Computer neu, damit die Änderungen wirksam werden.

Alexej:
Benutze es nicht! Sie haben einfach keine Anwendungen, die diesen Dienst verwenden. Es wird von einigen Internettelefonen verwendet und stört das Internet im Allgemeinen in keiner Weise. Dieser Dienst ermöglicht die Ausführung von latenzempfindlichen Anwendungen. Übrigens gibt es noch ein Programm - eine Art Schaukelstuhl von Microsoft, der diesen Dienst absichtlich nutzt. Aber glauben Sie mir, dieser Dienst nimmt dem Kanal nichts ab - nur während der Übertragung über diesen Dienst kann er einen Teil des Datenverkehrs für sich selbst übernehmen (ein festgelegtes Limit, normalerweise 20%).

Schurovik:
Passen Sie den Wert auf 0 % an.

Wladimir Nozdrin:
Lesen Sie den Artikel: Der QoS-Mythos.

Maxime:
Zuerst hatten sie Angst, dass QoS 20 % des Kanals reserviert. Beruhige dich, das ist es nicht. Sie müssen es also nicht ausschalten.

TU-154:
Wenn Sie sich als Administrator am System anmelden, aktivieren Sie im Gruppenrichtlinien-Editor (Start - Ausführen - gpedit.msc), Lokale Computerrichtlinie - Administrative Vorlagen - Netzwerk - QoS-Paket-Manager - Reservierte Bandbreite begrenzen diesen Parameter und setzen Sie das Limit auf 0. Verteilte Informationen dass dieser Dienst die Arbeitsgeschwindigkeit in keiner Weise beeinträchtigt. Vielleicht ist das so, aber in meinem Fall führt die Deaktivierung zu einer Erhöhung der Download-Geschwindigkeit von 2,5 auf 2,9 KB / s (laut ReGet also nur etwa 20%) und bei der Arbeit in einem lokalen Netzwerk - zu die Kanalauslastung von 80 auf 95 % erhöhen.

Heißfrost:
Wenn Sie den Dienst QoS Packet Scheduler aus den Eigenschaften der Verbindung entfernen, wird dieser Kanal nicht freigegeben. Sie können den Kanal hier freigeben oder einfach QoS einrichten: Führen Sie das Gruppenrichtlinien-Applet (gpedit.msc) aus. Suchen Sie in der Gruppenrichtlinie die Richtlinie für lokale Computer und klicken Sie auf Administrative Vorlagen. Wählen Sie den Punkt Netzwerk - QoS Packet Sheduler. Aktivieren Sie Reservierbare Bandbreite begrenzen. Jetzt reduzieren wir das Bandbreitenlimit um 20% auf 0 oder deaktivieren es einfach. Auf Wunsch können Sie hier auch andere QoS-Parameter konfigurieren. Um die vorgenommenen Änderungen zu aktivieren, müssen Sie nur noch neu starten.

Basilikum:
Lassen Sie den QoS-Dienst in Ruhe. Der Mythos einer Verkehrsbeschränkung von 20 % ist längst entlarvt. Die Autoren der Tweaker haben diesen Punkt sogar aus ihren Programmen entfernt.

RiLL-SV:
Nichts dergleichen! Überprüfen Sie den Ping in Internetspielen mit intakter QoS und mit seinem Wert bei 0! Dann werden Sie verstehen, was der Unterschied zwischen unberührter QoS und QoS ist, die bei 0 steht!

Der QoS-Mythos

Es gibt keine Person, die nicht mindestens einmal eine FAQ zu Windows XP gelesen hat. Und wenn ja, dann weiß jeder, dass es eine so schädliche Quality of Service – kurz QoS – gibt. Bei der Konfiguration des Systems wird dringend empfohlen, es zu deaktivieren, da es die Netzwerkbandbreite standardmäßig auf 20% begrenzt und dieses Problem auch in Windows 2000 besteht.

Das sind die Zeilen:
"F: Wie kann ich den QoS-Dienst (Quality of Service) vollständig deaktivieren? Wie konfiguriere ich ihn? Stimmt es, dass er die Netzwerkgeschwindigkeit einschränkt?"
A: In der Tat reserviert Quality of Service standardmäßig 20% ​​der Kanalbandbreite für seine Bedürfnisse (beliebig - sogar ein Modem für 14400, sogar ein Gigabit-Ethernet). Darüber hinaus wird dieser Kanal nicht freigegeben, selbst wenn Sie den Dienst QoS Packet Scheduler aus der Properties-Verbindung entfernen. Hier können Sie den Kanal freigeben oder einfach QoS konfigurieren. Starten Sie das Gruppenrichtlinien-Applet (gpedit.msc). Suchen Sie in Gruppenrichtlinien die lokale Computerrichtlinie und klicken Sie auf Administrative Vorlagen. Wählen Sie den Punkt Netzwerk - QoS Packet Sheduler. Aktivieren Sie Reservierbare Bandbreite begrenzen. Jetzt reduzieren wir das Bandbreitenlimit um 20% auf 0% oder deaktivieren es einfach. Auf Wunsch können Sie hier auch andere QoS-Parameter konfigurieren. Um die Änderungen zu aktivieren, müssen Sie nur neu starten."
20 % sind natürlich viel. Microsoft ist wirklich ein Mazdai. Vorwürfe dieser Art wandern von FAQ zu FAQ, von Forum zu Forum, von Medien zu Medien, werden in allen möglichen "Tweaks" verwendet - Programmen zum "Tuning" von Windows XP (öffnen Sie übrigens "Group Policies" und "Local Sicherheitsrichtlinien" und kein "Tweak" kann ihnen in der Fülle an Anpassungsoptionen entsprechen). Es ist Vorsicht geboten, solche unbegründeten Vorwürfe zu entlarven, was wir nun systematisch tun werden. Das heißt, wir werden das problematische Thema gründlich untersuchen und uns dabei auf offizielle Primärquellen stützen.

Was ist ein Qualitätsdienstleistungsnetzwerk?
Nehmen wir die folgende vereinfachte Definition eines vernetzten Systems an. Anwendungen laufen und laufen auf Hosts und kommunizieren miteinander. Anwendungen senden Daten an das Betriebssystem zur Übertragung über das Netzwerk. Sobald die Daten an das Betriebssystem übertragen wurden, werden sie zu Netzwerkverkehr.
Die Netzwerk-QoS hängt von der Fähigkeit des Netzwerks ab, diesen Verkehr zu verarbeiten, um sicherzustellen, dass die Anforderungen einiger Anwendungen erfüllt werden. Dies erfordert einen grundlegenden Mechanismus zur Handhabung von Netzwerkverkehr, der in der Lage ist, Verkehr zu identifizieren, der für eine bestimmte Verarbeitung geeignet ist, und die Kontrolle über diese.
Die QoS-Funktionalität wurde entwickelt, um zwei Netzwerkakteure zufrieden zu stellen: Netzwerkanwendungen und Netzwerkadministratoren. Sie haben oft Meinungsverschiedenheiten. Der Netzwerkadministrator schränkt die Ressourcen ein, die von einer bestimmten Anwendung verwendet werden, während die Anwendung gleichzeitig versucht, so viele Netzwerkressourcen wie möglich zu greifen. Deren Interessen können unter Berücksichtigung der Tatsache, dass der Netzwerkadministrator in Bezug auf alle Anwendungen und Benutzer eine führende Rolle spielt, in Einklang gebracht werden.

Grundlegende QoS-Parameter
Unterschiedliche Anwendungen haben unterschiedliche Anforderungen an die Handhabung ihres Netzwerkverkehrs. Anwendungen sind mehr oder weniger tolerant gegenüber Latenz und Datenverkehrsverlusten. Diese Anforderungen haben in den folgenden QoS-bezogenen Parametern Anwendung gefunden:
Bandbreite – Die Rate, mit der von der Anwendung generierter Datenverkehr über das Netzwerk gesendet werden muss.
Latenz – Die Latenz, die eine Anwendung bei der Zustellung eines Datenpakets tolerieren kann.
Jitter - Ändern Sie die Verzögerungszeit.
Verlust – Der Prozentsatz der verlorenen Daten.
Wenn unendliche Netzwerkressourcen verfügbar wären, könnte der gesamte Anwendungsverkehr mit der erforderlichen Rate ohne Latenzzeit, ohne Latenzvariation und ohne Verlust übertragen werden. Die Netzwerkressourcen sind jedoch nicht unbegrenzt.
Der QoS-Mechanismus steuert die Zuweisung von Netzwerkressourcen für den Anwendungsverkehr, um seine Übertragungsanforderungen zu erfüllen.

Grundlegende QoS-Ressourcen und Verkehrsabwicklungsmechanismen
Die Netzwerke, die Hosts verbinden, verwenden eine Vielzahl von Netzwerkgeräten, einschließlich Host-Netzwerkadaptern, Routern, Switches und Hubs. Jeder von ihnen verfügt über Netzwerkschnittstellen. Jede Netzwerkschnittstelle kann Verkehr mit einer endlichen Rate empfangen und senden. Wenn die Rate, mit der Verkehr an eine Schnittstelle geleitet wird, höher ist als die Rate, mit der die Schnittstelle Verkehr weiterleitet, tritt ein Stau auf.
Netzwerkgeräte können die Überlastungsbedingung handhaben, indem sie den Verkehr im Gerätespeicher (in einem Puffer) in eine Warteschlange stellen, bis die Überlastung vorbei ist. In anderen Fällen können Netzwerkgeräte den Verkehr unterbrechen, um Überlastungen zu vermeiden. Infolgedessen sind Anwendungen mit einer Änderung der Latenz (da der Verkehr in Warteschlangen auf Schnittstellen gespeichert wird) oder mit einem Verkehrsverlust konfrontiert.
Die Fähigkeit von Netzwerkschnittstellen, Datenverkehr weiterzuleiten, und die Verfügbarkeit von Speicher zum Speichern von Datenverkehr auf Netzwerkgeräten (bis der Datenverkehr weiter gesendet werden kann) bilden die grundlegenden Ressourcen, die erforderlich sind, um QoS für Anwendungsdatenverkehrsströme bereitzustellen.

Zuweisen von QoS-Ressourcen zu Netzwerkgeräten
Geräte, die QoS unterstützen, nutzen Netzwerkressourcen intelligent, um den Datenverkehr zu übertragen. Das heißt, der Datenverkehr von Anwendungen, die toleranter gegenüber Latenz sind, wird in eine Warteschlange gestellt (in einem Puffer im Speicher gespeichert), und der Datenverkehr von Anwendungen, die für die Latenz kritisch sind, wird weitergeleitet.
Um diese Aufgabe zu erfüllen, muss das Netzwerkgerät den Verkehr durch Klassifizieren von Paketen identifizieren sowie über Warteschlangen und Mechanismen für deren Bereitstellung verfügen.

Traffic-Verarbeitungs-Engine
Der Verkehrsverarbeitungsmechanismus umfasst:
802.1p
Differenziertes Per-Hop-Verhalten (diffserv PHB).
Integrierte Dienste (intserv).
Geldautomat usw.
Die meisten lokalen Netzwerke basieren auf der IEEE 802-Technologie, einschließlich Ethernet, Token-Ring usw. 802.1p ist ein Verkehrsverarbeitungsmechanismus zur Unterstützung von QoS in solchen Netzwerken.

802.1p definiert ein Feld (Schicht 2 im OSI-Netzwerkmodell) in einem 802-Paket-Header, das einen von acht Prioritätswerten tragen kann. Normalerweise markieren Hosts oder Router beim Senden von Datenverkehr an das lokale Netzwerk jedes gesendete Paket, indem sie ihm einen bestimmten Prioritätswert zuweisen. Von Netzwerkgeräten wie Switches, Bridges und Hubs wird erwartet, dass sie Pakete mithilfe von Warteschlangenmechanismen angemessen verarbeiten. 802.1p ist auf ein lokales Netzwerk (LAN) beschränkt. Sobald das Paket das LAN durchquert (über OSI Layer 3), wird die 802.1p-Priorität entfernt.
Diffserv ist ein Mechanismus der Schicht 3. Er definiert ein Feld in Schicht 3 des Headers von IP-Paketen, das als Diffserv-Codepoint (DSCP) bezeichnet wird.
Intserv ist eine ganze Reihe von Diensten, die einen garantierten Dienst definieren und einen Dienst, der Downloads verwaltet. Der garantierte Dienst verspricht, eine gewisse Menge an Datenverkehr mit messbarer und begrenzter Latenz zu übertragen. Der Dienst, der die Last verwaltet, stimmt zu, eine gewisse Menge an Verkehr mit "leichter Netzwerküberlastung" zu transportieren. Dies sind messbare Dienste in dem Sinne, dass sie definiert sind, um eine messbare QoS für eine bestimmte Verkehrsmenge bereitzustellen.

Da die ATM-Technologie Pakete in relativ kleine Zellen fragmentiert, kann sie eine sehr geringe Latenzzeit bieten. Wenn Sie dringend ein Paket senden müssen, kann die ATM-Schnittstelle immer für die Übertragung einer Zelle frei sein.
QoS verfügt über viele komplexere Mechanismen, die diese Technologie zum Funktionieren bringen. Beachten wir nur einen wichtigen Punkt: Damit QoS funktioniert, ist es notwendig, diese Technologie zu unterstützen und während der gesamten Übertragung vom Startpunkt bis zum Endpunkt entsprechend zu konfigurieren.

Betrachten Sie zur Verdeutlichung Abb. einer.
Wir akzeptieren Folgendes:
Alle Router beteiligen sich an der Übertragung der erforderlichen Protokolle.
Eine QoS-Sitzung, die 64 Kbit/s erfordert, wird zwischen Host A und Host B bereitgestellt.
Eine weitere Sitzung, die 64 Kbit/s benötigt, wird zwischen Host A und Host D initialisiert.
Zur Vereinfachung des Diagramms gehen wir davon aus, dass die Router so konfiguriert sind, dass sie alle Netzwerkressourcen reservieren können.
In unserem Fall würde eine 64-Kbit/s-Reservierungsanfrage drei Router auf dem Datenpfad zwischen Host A und Host B erreichen. Eine weitere 64-Kbit/s-Anfrage würde drei Router zwischen Host A und Host D erreichen. Die Router würden diese Ressourcenreservierungsanfragen erfüllen, weil sie es tun das Maximum nicht überschreiten. Wenn stattdessen jeder der Hosts B und C gleichzeitig eine 64-Kbps-QoS-Sitzung mit Host A einleiten würde, dann würde der Router, der diese Hosts (B und C) bedient, eine der Verbindungen verweigern.

Nehmen wir nun an, der Netzwerkadministrator deaktiviert die QoS-Verarbeitung auf den unteren drei Routern, die die Hosts B, C, D, E bedienen. In diesem Fall würden Anforderungen für Ressourcen mit bis zu 128 Kbps unabhängig vom Standort des an der Verbindung teilnehmenden Hosts erfüllt. Die Qualitätssicherung wäre jedoch gering, da der Verkehr für einen Host den Verkehr für einen anderen beeinträchtigen würde. QoS könnte aufrechterhalten werden, wenn der oberste Router alle Anfragen auf 64 Kbps begrenzt, aber dies würde zu einer ineffizienten Nutzung der Netzwerkressourcen führen.
Andererseits konnte die Bandbreite aller Netzwerkverbindungen auf 128 Kbps erhöht werden. Die erhöhte Bandbreite wird jedoch nur verwendet, wenn die Hosts B und C (oder D und E) gleichzeitig Ressourcen anfordern. Ist dies nicht der Fall, werden Netzressourcen wieder ineffizient genutzt.

Microsoft QoS-Komponenten
Windows 98 enthält nur QoS-Komponenten auf Benutzerebene, einschließlich:
Anwendungskomponenten.
GQoS-API (Teil von Winsock 2).
QoS-Dienstanbieter.
Das Betriebssystem Windows 2000 / XP / 2003 enthält alle oben genannten und die folgenden Komponenten:
Resource Reservation Protocol Service Provider (Rsvpsp.dll) und RSVP Services (Rsvp.exe) und QoS ACS. Nicht verwendet in Windows XP, 2003.
Verkehrssteuerung (Traffic.dll).
Generischer Paketklassifizierer (Msgpc.sys). Der Paketklassifizierer identifiziert die Dienstklasse, zu der das Paket gehört. In diesem Fall wird das Paket an die entsprechende Warteschlange geliefert. Warteschlangen werden vom QoS Packet Scheduler verwaltet.
QoS-Paketplaner (Psched.sys). Definiert die QoS-Parameter für einen bestimmten Datenstrom. Der Verkehr wird mit einem bestimmten Prioritätswert gekennzeichnet. Der QoS-Paketplaner bestimmt den Warteschlangenplan für jedes Paket und verarbeitet konkurrierende Anforderungen zwischen den Paketen in der Warteschlange, die gleichzeitigen Netzwerkzugriff benötigen.

Das Diagramm in Abbildung 2 veranschaulicht den Protokollstapel, die Windows-Komponenten und ihre Interaktion auf einem Host. Elemente, die in Windows 2000 verwendet werden, aber nicht in Windows XP / 2003 verwendet werden, werden im Diagramm nicht angezeigt.
Anwendungen stehen ganz oben im Stapel. Sie können QoS kennen oder auch nicht. Um die volle Leistung von QoS zu nutzen, empfiehlt Microsoft, generische QoS-API-Aufrufe in Anwendungen zu verwenden. Dies ist besonders wichtig für Anwendungen, die qualitativ hochwertige Servicegarantien erfordern. Einige Dienstprogramme können verwendet werden, um QoS für Anwendungen aufzurufen, die QoS nicht kennen. Sie arbeiten über die Traffic-Management-API. NetMeeting verwendet beispielsweise die GQoS-API. Aber für solche Anwendungen ist die Qualität nicht garantiert.

Der letzte Nagel
Die obigen theoretischen Punkte geben keine eindeutige Antwort auf die Frage, wohin die berüchtigten 20% gehen (die, wie ich anmerke, noch niemand gemessen hat). Nach dem Vorstehenden sollte dies nicht der Fall sein. Doch Gegner bringen ein neues Argument vor: Das QoS-System ist gut, die Umsetzung aber schief. Folglich werden immerhin 20 % "gefressen". Offenbar hat das Problem auch den Software-Giganten ausgelaugt, da er solche Fälschungen schon länger separat widerlegt hat.
Lassen Sie uns jedoch den Entwicklern das Wort erteilen und ausgewählte Momente aus dem Artikel "316666 - Windows XP Quality of Service (QoS) Enhancements and Behavior" in literarischem Russisch vorstellen:
"Einhundert Prozent der Netzwerkbandbreite stehen für die Verteilung auf alle Programme zur Verfügung, es sei denn, ein Programm fordert explizit die priorisierte Bandbreite an. Diese" reservierte "Bandbreite steht anderen Programmen zur Verfügung, wenn das angeforderte Programm keine Daten sendet.

Standardmäßig können Programme auf jeder Computerschnittstelle bis zu 20 % der Hauptverbindungsgeschwindigkeit reservieren. Wenn das Programm, das die Bandbreite reserviert hat, nicht genügend Daten sendet, um sie zu verbrauchen, steht der ungenutzte Teil der reservierten Bandbreite für andere Datenströme zur Verfügung.
In diversen Fachartikeln und Newsgroups gab es Aussagen, dass Windows XP immer 20 % der verfügbaren Bandbreite für QoS reserviert. Diese Aussagen sind falsch."
Wenn jetzt noch jemand 20% der Bandbreite verschlingt, kann ich Ihnen raten, weiterhin alle Arten von "Tweaks" und einseitigen Netzwerktreibern zu verwenden. Und nicht so viel wird "aufgemästet".
Jeder, der QoS-Mythos, stirbt!

Yuri Trofimov,

Fortsetzung des Themas:
Router

Standard-Gadgets sind bedingungslos aus modernen Versionen von Windows OC verschwunden. Aber die Benutzer sind es nicht gewohnt, etwas Gutes zu verlieren und verwenden daher aktiv Analoga. Lange bevor ...