Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Det här avsnittet innehåller maskinvaruspecifikationer och konfigurationsrekommendationer för servrar som kör Hyper-V och är värdar för virtuella Windows Server Gateway-datorer, förutom konfigurationsparametrar för virtuella Windows Server Gateway-datorer (VM). För att extrahera bästa prestanda från virtuella Windows Server-gatewaydatorer förväntas dessa riktlinjer följas. Följande avsnitt innehåller maskinvaru- och konfigurationskrav när du distribuerar Windows Server Gateway.
- Hyper-V maskinvarurekommendationer
- Hyper-V värdkonfiguration
- Konfiguration av virtuell Windows Server-gateway
Hyper-V maskinvarurekommendationer
Följande är den rekommenderade minsta maskinvarukonfigurationen för varje server som kör Windows Server 2016 och Hyper-V.
| Serverkomponent | Specification |
|---|---|
| Centralprocessor (CPU) | NUMA-noder (Non-Uniform Memory Architecture): 2 Om det finns flera virtuella Windows Server-gatewaydatorer på värden bör varje virtuell gateway-dator ha fullständig åtkomst till en NUMA-nod för bästa prestanda. Och den bör skilja sig från NUMA-noden som används av det fysiska värdkortet. |
| Kärnor per NUMA-nod | 2 |
| Hyper-Threading | Disabled. Hyper-Threading förbättrar inte prestandan för Windows Server Gateway. |
| RAM-minne (Random Access Memory) | 48 GB |
| Nätverkskort (NIC) | Två 10 GB nätverkskort, gatewayens prestanda beror på linjehastigheten. Om linjehastigheten är mindre än 10 Gbit/s kommer gateway-tunnelns dataflödesnummer också att minska med samma faktor. |
Se till att antalet virtuella processorer som är tilldelade till en virtuell Windows Server Gateway-dator inte överskrider antalet processorer på NUMA-noden. Om en NUMA-nod till exempel har 8 kärnor ska antalet virtuella processorer vara mindre än eller lika med 8. För bästa prestanda bör det vara 8. Om du vill ta reda på antalet NUMA-noder och antalet kärnor per NUMA-nod kör du följande Windows PowerShell skript på varje Hyper-V värd:
$nodes = [object[]] $(gwmi –Namespace root\virtualization\v2 -Class MSVM_NumaNode)
$cores = ($nodes | Measure-Object NumberOfProcessorCores -sum).Sum
$lps = ($nodes | Measure-Object NumberOfLogicalProcessors -sum).Sum
Write-Host "Number of NUMA Nodes: ", $nodes.count
Write-Host ("Total Number of Cores: ", $cores)
Write-Host ("Total Number of Logical Processors: ", $lps)
Important
Allokering av virtuella processorer över NUMA-noder kan ha en negativ prestandapåverkan på Windows Server Gateway. Att köra flera virtuella datorer, som var och en har virtuella processorer från en NUMA-nod, ger troligen bättre aggregerade prestanda än en enda virtuell dator som alla virtuella processorer är tilldelade till.
En virtuell gateway-dator med åtta virtuella processorer och minst 8 GB RAM-minne rekommenderas när du väljer antalet virtuella gateway-datorer som ska installeras på varje Hyper-V värd när varje NUMA-nod har åtta kärnor. I det här fallet är en NUMA-nod dedikerad till värddatorn.
Hyper-V Värdkonfiguration
Följande är den rekommenderade konfigurationen för varje server som kör Windows Server 2016 och Hyper-V och vars arbetsbelastning är att köra virtuella Windows Server Gateway-datorer. De här konfigurationsanvisningarna omfattar användning av Windows PowerShell kommandoexempel. De här exemplen innehåller platshållare för faktiska värden som du behöver ange när du kör kommandona i din miljö. Platshållare för nätverkskortnamn är till exempel "NIC1" och "NIC2". När du kör kommandon som använder dessa platshållare bör du använda de faktiska namnen på nätverkskorten på servrarna i stället för att använda platshållarna, annars misslyckas kommandona.
Note
Om du vill köra följande Windows PowerShell-kommandon måste du vara medlem i gruppen Administratörer.
| Konfigurationsobjekt | Windows Powershell-konfiguration |
|---|---|
| Växla inbäddad teamindelning | När du skapar en vswitch med flera nätverkskort aktiveras automatiskt switch-inbäddad teamindelning för dessa kort. New-VMSwitch -Name TeamedvSwitch -NetAdapterName "NIC 1","NIC 2" Traditionell teamindelning via LBFO stöds inte med SDN i Windows Server 2016. Med Switch Embedded Teaming kan du använda samma uppsättning nätverkskort för din virtuella trafik och RDMA-trafik. Detta stöddes inte med NIC-teamindelning baserat på LBFO. |
| Avbryt moderering på fysiska nätverkskort | Använd standardinställningarna. Om du vill kontrollera konfigurationen kan du använda följande Windows PowerShell kommando: Get-NetAdapterAdvancedProperty |
| Storlek på mottagningsbuffertar på fysiska nätverkskort | Du kan kontrollera om de fysiska nätverkskorten stöder konfigurationen av den här parametern genom att köra kommandot Get-NetAdapterAdvancedProperty. Om de inte stöder den här parametern innehåller utdata från kommandot inte egenskapen "Ta emot buffertar". Om nätverkskort stöder den här parametern kan du använda följande Windows PowerShell-kommando för att ange storleken på mottagningsbuffertar: Set-NetAdapterAdvancedProperty "NIC1" –DisplayName "Receive Buffers" –DisplayValue 3000 |
| Storlek på sändningsbuffertar på fysiska nätverkskort | Du kan kontrollera om de fysiska nätverkskorten stöder konfigurationen av den här parametern genom att köra kommandot Get-NetAdapterAdvancedProperty. Om nätverkskorten inte stöder den här parametern innehåller utdata från kommandot inte egenskapen "Skicka buffertar". Om nätverkskort stöder den här parametern kan du använda följande Windows PowerShell-kommando för att ange storleken på sändningsbuffertar: Set-NetAdapterAdvancedProperty "NIC1" –DisplayName "Transmit Buffers" –DisplayValue 3000 |
| RSS (Receive Side Scaling) på fysiska nätverkskort | Du kan kontrollera om dina fysiska nätverkskort har RSS aktiverat genom att köra Windows PowerShell-kommandot Get-NetAdapterRss. Du kan använda följande Windows PowerShell-kommandon för att aktivera och konfigurera RSS på dina nätverkskort: Enable-NetAdapterRss "NIC1","NIC2"Set-NetAdapterRss "NIC1","NIC2" –NumberOfReceiveQueues 16 -MaxProcessors Om VMMQ eller VMQ är aktiverat behöver RSS inte aktiveras på de fysiska nätverkskorten. Du kan aktivera det på de virtuella värdnätverkskorten |
| VMMQ | Om du vill aktivera VMMQ för en virtuell dator kör du följande kommando: Set-VmNetworkAdapter -VMName <gateway vm name>,-VrssEnabled $true -VmmqEnabled $true OBS: Alla nätverkskort har inte stöd för VMMQ. För närvarande stöds det på Chelsio T5 och T6, Mellanox CX-3 och CX-4 och QLogic 45xxx-serien |
| Kö för virtuella datorer (VMQ) i NIC-teamet | Du kan aktivera VMQ i ditt SET-team med hjälp av följande Windows PowerShell kommando: Enable-NetAdapterVmq OBS: Detta bör endast aktiveras om HW inte stöder VMMQ. Om det stöds bör VMMQ vara aktiverat för bättre prestanda. |
Note
VMQ och vRSS kommer bara in i bilden när belastningen på den virtuella datorn är hög och processorn används maximalt. Först då kommer minst en processorkärna att maxa. VMQ och vRSS kommer då att vara fördelaktiga för att hjälpa till att sprida bearbetningsbelastningen över flera kärnor. Detta gäller inte för IPsec-trafik eftersom IPsec-trafik är begränsad till en enda kärna.
Konfiguration av virtuell Windows Server Gateway
På båda Hyper-V värdar kan du konfigurera flera virtuella datorer som är konfigurerade som gatewayer med Windows Server Gateway. Du kan använda Hanteraren för virtuell växel för att skapa en Hyper-V virtuell växel som är bunden till NIC-teamet på den Hyper-V värden. Observera att för bästa prestanda bör du distribuera en enda virtuell gateway-dator på en Hyper-V värd. Följande är den rekommenderade konfigurationen för varje virtuell Windows Server Gateway-dator.
| Konfigurationsobjekt | Windows Powershell-konfiguration |
|---|---|
| Memory | 8 GB |
| Antal virtuella nätverkskort | 3 nätverkskort med följande specifika användningsområden: 1 för hantering som används av det hanterande operativsystemet, 1 extern som ger åtkomst till externa nätverk, 1 som är intern som endast ger åtkomst till interna nätverk. |
| Ta emot sidoskalning (RSS) | Du kan behålla standardinställningarna för RSS för hantering av nätverkskortet. Följande exempelkonfiguration är för en virtuell dator som har 8 virtuella processorer. För externa och interna nätverkskort kan du aktivera RSS med BaseProcNumber inställt på 0 och MaxRssProcessors inställt på 8 med hjälp av följande Windows PowerShell kommando: Set-NetAdapterRss "Internal","External" –BaseProcNumber 0 –MaxProcessorNumber 8 |
| Skicka sidobuffert | Du kan behålla standardinställningarna för buffert på sändningssidan för hanteringsnätverkskortet. För både interna och externa nätverkskort kan du konfigurera bufferten på sändningssidan med 32 MB RAM-minne med hjälp av följande Windows PowerShell-kommando: Set-NetAdapterAdvancedProperty "Internal","External" –DisplayName "Send Buffer Size" –DisplayValue "32MB" |
| Buffert på mottagningssidan | Du kan behålla standardinställningarna för buffert på mottagningssidan för hanteringsnätverkskortet. För både de interna och externa nätverkskorten kan du konfigurera bufferten på mottagningssidan med 16 MB RAM-minne med hjälp av följande Windows PowerShell-kommando: Set-NetAdapterAdvancedProperty "Internal","External" –DisplayName "Receive Buffer Size" –DisplayValue "16MB" |
| Framåtoptimering | Du kan behålla standardinställningarna för optimering av vidarebefordran för hanteringsnätverkskortet. För både de interna och externa nätverkskorten kan du aktivera optimering framåt med hjälp av följande Windows PowerShell kommando: Set-NetAdapterAdvancedProperty "Internal","External" –DisplayName "Forward Optimization" –DisplayValue "1" |