DirectAccess-Kapazitätsplanung

Gilt für: Windows Server 2022, Windows Server 2019, Windows Server 2016

Dieses Dokument ist ein Bericht zur DirectAccess-Serverleistung von Windows Server 2012. Anhand von Tests wurde die Durchsatzkapazität für Highend-Computerhardware und Lowend-Computerhardware ermittelt. Die CPU-Leistung der Highend- und Lowend-Hardware war vom Durchsatz an Netzwerkdatenverkehr und den Arten der verwendeten Clients abhängig. Eine typische DirectAccess-Bereitstellung (die Grundlage für diese Tests) besteht zu einem Drittel (30 %) aus IPHTTPS-Clients und zu zwei Dritteln (70 %) aus Teredo-Clients. Teredo-Clients bieten teilweise eine höhere Leistung als IPHTTPS-Clients, weil für Windows Server 2012 die empfangsseitige Skalierung (Receive Side Scaling, RSS) verwendet wird, bei der die Nutzung aller CPU-Cores möglich ist. Da bei diesen Tests RSS aktiviert ist, ist das Hyperthreading deaktiviert. Außerdem unterstützt TCP/IP unter Windows Server 2012 den UDP-Datenverkehr, sodass mit Teredo-Clients der Lastenausgleich über mehrere CPUs hinweg durchgeführt werden kann.

Die Daten wurden sowohl für einen Lowend-Server (4 Core, 4 GB) als auch für Hardware erfasst, die eher im Bereich der Highend-Server anzusiedeln ist (8 Core, 8 GB). Unten wird ein Screenshot des neuen Windows 8 Task-Managers auf Low-End-Hardware mit 750 Clients (562 Teredo, 188 IPHTTPS) angezeigt, die ca. 77 MBit/s ausführen. Damit sollen Benutzer simuliert werden, die keine Smartcard-Anmeldeinformationen vorlegen.

Diese Testergebnisse zeigen, dass die Leistung von Teredo unter Windows 8 höher als für IPHTTPS ist. Gegenüber Windows 7 hat sich die Bandbreitenauslastung jedoch sowohl für Teredo als auch für IPHTTPS verbessert.

Test results

Testumgebung für Highend-Hardware

Die folgende Tabelle enthält die Ergebnisse, die mit der Testumgebung zum Ermitteln der Leistung für Highend-Hardware erzielt wurden. In diesem Dokument wird auf alle Testergebnisse und Analysen ausführlich eingegangen.

Konfiguration – Hardware Low-End-Hardware (4 GB RAM, 4 Core) Highend-Hardware (8 GB RAM, 8 Core)
Doppelter Tunnel

– PKI

– Einschließlich DNS64/NAT64

750 gleichzeitige Verbindungen bei 50 % CPU, 50 % Arbeitsspeicher mit Corpnet-NIC-Durchsatz von 75 MBit/s. Das %%amp;quot;Stretch Target%%amp;quot; beträgt 1.000 Benutzer bei 50 % CPU. 1500 gleichzeitige Verbindungen bei 50 % CPU, 50 % Speicher mit Corpnet-NIC-Durchsatz von 150 MBit/s.

Testumgebung

Leistungsbenchmark – Topologie

Test Environment

Die Testumgebung für die Leistung ist eine Bench mit fünf Computern. Für den Lowend-Hardwaretest wurde ein 4-Core-DirectAccess-Server mit 4 GB verwendet, und für den Highend-Hardwaretest wurde ein 8-Core-DirectAccess-Server mit 16 GB verwendet. Für Lowend- und Highend-Testumgebungen wurde Folgendes verwendet: ein Back-End-Server (Absender) und zwei Clientcomputer (Empfänger). Die Empfänger sind auf die beiden Clientcomputer aufgeteilt. Andernfalls wären die Empfänger an die CPU gebunden und würden so zu einer Beschränkung der Anzahl von Clients und der Bandbreite führen. Auf der empfangenden Seite wurde ein Simulator zum Simulieren von Hunderten von Clients eingesetzt (Simulation von HTTPS- oder Teredo-Clients). IPsec und DOSp wurden jeweils konfiguriert. RSS ist auf dem DirectAccess-Server aktiviert. Die RSS-Warteschlangengröße ist auf 8 festgelegt. Ohne Konfiguration von RSS weist ein Prozessor eine hohe Auslastung auf, während die anderen Cores über eine zu geringe Auslastung verfügen. Außerdem ist zu beachten, dass der DirectAccess-Server ein 4-Core-Computer mit deaktiviertem Hyperthreading ist. Das Hyperthreading ist deaktiviert, da RSS nur auf physischen Cores funktioniert und die Nutzung von Hyperthreading zu fehlerhaften Ergebnissen führt. (Dies bedeutet, dass nicht alle Cores einheitlich geladen werden.)

Testergebnisse für Lowend-Hardware:

Die Tests wurden sowohl mit 1000  als auch mit 750 Clients durchgeführt. In allen Fällen wurde der Datenverkehr zu 70 % auf Teredo und zu 30 % auf IPHTTPS aufgeteilt. Bei allen Tests verlief der TCP-Datenverkehr über Nat64, indem zwei IPsec-Tunnel pro Client verwendet wurden. In allen Tests war die Arbeitsspeicherauslastung gering und die CPU-Auslastung akzeptabel.

Individuelle Testergebnisse:

Die folgenden Abschnitte enthalten Informationen zu den einzelnen Tests. Im Titel eines Abschnitts sind jeweils die wichtigsten Elemente des Tests gefolgt von einer Zusammenfassung der Ergebnisse angegeben. In einer Tabelle sind dann die ausführlichen Ergebnisse aufgeführt.

Low-End-Leistung: 750 Clients, 70/30-Aufteilung, Durchsatz 84,17 MBit/s:

Die folgenden drei Tests zeigen die Ergebnisse für Lowend-Hardware. In den unten angegebenen Testläufen wurden 750 Clients mit einem Durchsatz von 84,17 MBit/s und einer Datenverkehrsaufteilung von 562 (Teredo) zu 188 (IPHTTPS) verwendet. Teredo-MTU war auf 1.472 festgelegt, und Teredo-Shunt war aktiviert. Die CPU-Auslastung erreichte bei den drei Tests im Durchschnitt 46,42 %. Die durchschnittliche Arbeitsspeicherauslastung, die als Prozentsatz der zugesicherten Bytes des gesamten verfügbaren Arbeitsspeichers von 4 GB ausgedrückt wird, lag bei 25,95 %.

Szenario CPUAvg (von Indikator) MBit/s (Unternehmensseite) MBit/s (Internetseite) QMSA (aktiv) MMSA (aktiv) Arbeitsspeicherauslastung (4 GB-System)
Lowend-Hardware. 562 Teredo-Clients. 188 IPHTTPS-Clients. 47.7472542 84.3 119.13 1502.05 1502.1 26,27 %
Lowend-Hardware. 562 Teredo-Clients. 188 IPHTTPS-Clients. 46.3889778 84.146 118.73 1501.25 1501.2 25,90 %
Lowend-Hardware. 562 Teredo-Clients. 188 IPHTTPS-Clients. 45.113082 84.0494 118.43 1546.14 1546.1 25,68 %

1.000 Clients, 70/30-Aufteilung, Durchsatz 78 MBit/s:

Mit den folgenden drei Tests wurde die Leistung für Lowend-Hardware ermittelt. In den unten angegebenen Testläufen wurden 1.000 Clients mit einem durchschnittlichen Durchsatz von ca. 78,64 MBit/s und einer Datenverkehrsaufteilung von 700 (Teredo) zu 300 (IPHTTPS) verwendet. Teredo-MTU war auf 1.472 festgelegt, und Teredo-Shunt war aktiviert. Die CPU-Auslastung erreichte im Durchschnitt ca. 50,7 %. Die durchschnittliche Arbeitsspeicherauslastung, die als Prozentsatz der zugesicherten Bytes des gesamten verfügbaren Arbeitsspeichers von 4 GB ausgedrückt wird, lag bei ca. 28,7%.

Szenario CPUAvg (von Indikator) MBit/s (Unternehmensseite) MBit/s (Internetseite) QMSA (aktiv) MMSA (aktiv) Arbeitsspeicherauslastung (4 GB-System)
Lowend-Hardware. 700 Teredo-Clients. 300 IPHTTPS-Clients. 51.28406247 78.6432 113.19 2002.42 1502.1 25,59 %
Lowend-Hardware. 700 Teredo-Clients. 300 IPHTTPS-Clients. 51.06993128 78.6402 113.22 2001.4 1501.2 30,87 %
Lowend-Hardware. 700 Teredo-Clients. 300 IPHTTPS-Clients. 49.75235617 78.6387 113.2 2002.6 1546.1 30,66 %

1000 Clients, 70/30-Aufteilung, Durchsatz 109 MBit/s:

In den folgenden drei Testläufen wurden 1.000 Clients mit einem durchschnittlichen Durchsatz von ca. 109,2 MBit/s und einer Datenverkehrsaufteilung von 700 (Teredo) zu 300 (IPHTTPS) verwendet. Teredo-MTU war auf 1.472 festgelegt, und Teredo-Shunt war aktiviert. Die CPU-Auslastung erreichte bei den drei Tests im Durchschnitt ca. 59,06%. Die durchschnittliche Arbeitsspeicherauslastung, die als Prozentsatz der zugesicherten Bytes des gesamten verfügbaren Arbeitsspeichers von 4 GB ausgedrückt wird, lag bei ca. 27,34 %.

Szenario CPUAvg (von Indikator) MBit/s (Unternehmensseite) MBit/s (Internetseite) QMSA (aktiv) MMSA (aktiv) Arbeitsspeicherauslastung (4 GB-System)
Lowend-Hardware. 700 Teredo-Clients. 300 IPHTTPS-Clients. 59.81640675 108.305 153.14 2001.64 2001.6 24,38 %
Lowend-Hardware. 700 Teredo-Clients. 300 IPHTTPS-Clients. 59.46473798 110.969 157.53 2005.22 2005.2 28,72 %
Lowend-Hardware. 700 Teredo-Clients. 300 IPHTTPS-Clients. 57.89089768 108.305 153.14 1999.53 2018.3 24,38 %

Testergebnisse für Highend-Hardware:

Die Tests wurden mit 1.500 Clients durchgeführt. Der Datenverkehr wurde zu 70 % auf Teredo und zu 30 % auf IPHTTPS aufgeteilt. Bei allen Tests verlief der TCP-Datenverkehr über Nat64, indem zwei IPsec-Tunnel pro Client verwendet wurden. In allen Tests war die Arbeitsspeicherauslastung gering und die CPU-Auslastung akzeptabel.

Individuelle Testergebnisse:

Die folgenden Abschnitte enthalten Informationen zu den einzelnen Tests. Im Titel eines Abschnitts sind jeweils die wichtigsten Elemente des Tests gefolgt von einer Zusammenfassung der Ergebnisse angegeben. In einer Tabelle sind dann die ausführlichen Ergebnisse aufgeführt.

1.500 Clients, 70/30-Aufteilung, Durchsatz 153,2 MBit/s

Die folgenden fünf Tests zeigen die Ergebnisse für Highend-Hardware. In den unten angegebenen Testläufen wurden 1.500 Clients mit einem durchschnittlichen Durchsatz von 153,2 MBit/s und einer Datenverkehrsaufteilung von 1050 (Teredo) zu 450 (IPHTTPS) verwendet. Die CPU-Auslastung erreichte bei den fünf Tests im Durchschnitt 50,68%. Die durchschnittliche Arbeitsspeicherauslastung, die als Prozentsatz der zugesicherten Bytes des gesamten verfügbaren Arbeitsspeichers von 8 GB ausgedrückt wird, lag bei 22,25 %.

Szenario CPUAvg (von Indikator) MBit/s (Unternehmensseite) MBit/s (Internetseite) QMSA (aktiv) MMSA (aktiv) Arbeitsspeicherauslastung (4 GB-System)
Highend-Hardware. 1050 Teredo-Clients. 450 IPHTTPS-Clients. 51.712437 157.029 216.29 3000.31 3046 21,58 %
Highend-Hardware. 1050 Teredo-Clients. 450 IPHTTPS-Clients. 48.86020205 151.012 206.53 3002.86 3045.3 21,15 %
Highend-Hardware. 1050 Teredo-Clients. 450 IPHTTPS-Clients. 52.23979519 155.511 213.45 3001.15 3002.9 22,90 %
Highend-Hardware. 1050 Teredo-Clients. 450 IPHTTPS-Clients. 51.26269767 155.09 212.92 3000.74 3002.4 22,91 %
Highend-Hardware. 1050 Teredo-Clients. 450 IPHTTPS-Clients. 50.15751307 154.772 211.92 3000.9 3002.1 22,93 %
Highend-Hardware. 1050 Teredo-Clients. 450 IPHTTPS-Clients. 49.83665607 145.994 201.92 3000.51 3006 22,03 %

High end hardware test results