Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
I den här artikeln beskrivs hur du konfigurerar inställningar för känslighetsetikett, bekräftelse, kvarhållning och dataflöde för en händelseström.
När du öppnar en befintlig händelseström visas knappen Inställningar i verktygsfältet.
Du kan också starta sidan Inställningar från en arbetsyta genom att välja ... (ellips) bredvid händelseströmmen i listan över artefakter och välj sedan Inställningar.
Kvarhållningsinställning
För kvarhållningsinställningen kan du ange hur länge inkommande data ska behållas. Standardkvarhållningsperioden är en dag. Händelser tas bort automatiskt när kvarhållningsperioden upphör att gälla. Om du anger kvarhållningsperioden till en dag (24 timmar) blir händelsen otillgänglig exakt 24 timmar efter att den har godkänts. Du kan inte uttryckligen ta bort händelser. Det maximala värdet för den här inställningen är 90 dagar. Mer information om fakturering och rapportering av användning finns i Övervaka kapacitetsförbrukning för händelseströmmar.
Inställning för händelsedataflöde
För inställningen händelsedataflöde kan du välja dataflödesnivå för inkommande och utgående händelser i händelseströmmen. Med den här funktionen kan du skala din händelseström genom att optimera prestanda för dess källor och mål baserat på den valda nivån. Dataflödesnivåer omfattar:
- Low: < 10 MB/s
- Medelhög: 10–100 MB/s
- Hög: > 100 MB/s
Anteckning
Om din händelseström inte innehåller någon nod (källa eller mål) som stöder paus och återupptag, kan du uppdatera genomströmningsinställningen direkt. I annat fall inaktiverar du alla noder som stöder paus och sedan återupptar dem, och återaktiverar dem efter uppdateringen. Uppdateringen blockeras inte om endast noder som inte stöder inaktivering förblir aktiva, men du kan behöva uppdatera dataklienten om anpassade slutpunkter används, eftersom antalet partitioner ökar. Se den detaljerade tabellen med noder som stöder funktionerna att pausa och återuppta.
Så här fungerar olika källor och mål på varje dataflödesnivå.
Anteckning
De övre dataflödesgränserna som anges här baseras på resultaten från labbtestning under specifik konfiguration. Resultaten kan variera med olika konfigurationer.
Azure Event Hubs-källa
För Azure Event Hubs-källor beror dataflödet på både den valda dataflödesnivån och antalet Azure Event Hubs-källpartitioner. När antalet Azure Event Hubs-källpartitioner är mindre än 4 begränsas dataflödet av antalet partitioner, oavsett den valda dataflödesnivån. De övre gränserna för dataflödet är följande:
| Antal partitioner | Ungefärligt dataflöde (up-to) |
|---|---|
| 1 | 9 MB/s |
| 3 | 10 MB/s |
När partitionsantalet är 4, 16 eller 32 beror dataflödet på den valda nivån (låg, medel, hög). För andra partitionsantal inom det här intervallet ligger dataflödet mellan dessa gränser.
Strömmande anslutningskällor
Dataflödet för strömmande anslutningskällor är upp till 30 MB/s. Om du behöver ett högre dataflöde (förutom databasens CDC-källor) kontaktar du produktgruppsteamet via det här formuläret.
Anslutningskällor för direktuppspelning innehåller:
- Azure SQL Database Change Data Capture (CDC)
- Azure Service Bus
- PostgreSQL Database CDC
- MySQL Database CDC
- Azure Cosmos DB CDC
- SQL Server på VM DB CDC
- Azure SQL Managed Instance CDC
- Google Cloud Pub/Sub
- Amazon Kinesis Data Streams (dataströmmar från Amazon Kinesis)
- Confluent Cloud Kafka
- Apache Kafka
- Amazon MSK Kafka
Andra eventstream-källor och mål
I följande tabell visas den ungefärliga övre gränsen för dataflöde för anpassad slutpunktskälla och olika mål, baserat på intern labbtestning.
| Nod | Typ | Dataflödesnivå | Ungefärlig genomströmning (up-to) |
|---|---|---|---|
| anpassad slutpunkt | Källa/mål | Låg | 100 MB/s |
| Medium | 150 MB/s | ||
| Hög | 200 MB/s | ||
| Lakehouse | Destination | Låg | 40 MB/s |
| Medium | 120 MB/s | ||
| Hög | 200 MB/s | ||
| Eventhouse (direkt inmatning) | Destination | Låg | 10 MB/s |
| Medel | 50 MB/s | ||
| Hög | 100 MB/s | ||
| Eventhouse (händelsebearbetning före inmatning) | Destination | Låg | 20 MB/s |
| Medel | 100 MB/s | ||
| Hög | 200 MB/s |
Kommentar
Dataflödesdata ovan testades under specifika förhållanden nedan. Resultaten kan variera med olika konfigurationer.
- Källans händelsesändare, konsument och Eventstream finns i samma datacenter för att säkerställa att nätverkets dataflöde inte är en flaskhals.
- Händelserna är i JSON-format, var och en 1 KB i storlek. Händelser batchas i grupper om 100 innan de skickas eller tas emot.
- Källhändelsedata skickades med tusentals trådar för att kontinuerligt skicka data via EventHubProducerClient som bör använda hela bandbredden för nätverkets dataflöde.
- Testkonfigurationen följde strukturen "One Source → One Eventstream → One Destination". Inga bearbetningsoperatorer tillämpades innan data dirigerades till målen Lakehouse eller Eventhouse (med alternativet 'Händelsebearbetning före inmatning'). Eventhouse tog emot data i batchläge.
Inställning för godkännande
På fliken Godkännande på sidan Inställningar kan du höja upp eller rekommendera eller rekommendera händelseströmmen så att andra kan använda den. Mer information om godkännande finns i Godkännande.
Inställning för känslighetsetiketter
På fliken Känslighetsetikett på sidan Inställningar kan du ange känslighetsnivån för händelseströmmen.