Big Data Pools - Create Or Update
创建大数据池。
创建新的大数据池。
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01&force={force}
URI 参数
| 名称 | 在 | 必需 | 类型 | 说明 |
|---|---|---|---|---|
|
big
|
path | True |
string |
大数据池名称 |
|
resource
|
path | True |
string minLength: 1maxLength: 90 |
资源组的名称。 名称不区分大小写。 |
|
subscription
|
path | True |
string minLength: 1 |
目标订阅的 ID。 |
|
workspace
|
path | True |
string |
工作区的名称。 |
|
api-version
|
query | True |
string minLength: 1 |
用于此操作的 API 版本。 |
|
force
|
query |
boolean |
是否停止大数据池中任何正在运行的作业 |
请求正文
| 名称 | 必需 | 类型 | 说明 |
|---|---|---|---|
| location | True |
string |
资源所在的地理位置 |
| properties.autoPause |
Spark 池自动暂停属性 |
||
| properties.autoScale |
Spark 池自动缩放属性 |
||
| properties.cacheSize |
integer (int32) |
缓存大小 |
|
| properties.customLibraries |
与 Spark 池关联的自定义库/包列表。 |
||
| properties.defaultSparkLogFolder |
string |
将写入 Spark 日志的默认文件夹。 |
|
| properties.dynamicExecutorAllocation |
动态执行程序分配 |
||
| properties.isAutotuneEnabled |
boolean |
启用 Autotune |
|
| properties.isComputeIsolationEnabled |
boolean |
是否需要计算隔离。 |
|
| properties.libraryRequirements |
Spark 池库版本要求 |
||
| properties.nodeCount |
integer (int32) |
大数据池中的节点数。 |
|
| properties.nodeSize |
大数据池中每个节点的计算能力级别。 |
||
| properties.nodeSizeFamily |
大数据池提供的节点类型。 |
||
| properties.provisioningState |
string |
大数据池的状态。 |
|
| properties.sessionLevelPackagesEnabled |
boolean |
会话级别包是否已启用。 |
|
| properties.sparkConfigProperties |
Spark 池配置属性 |
||
| properties.sparkEventsFolder |
string |
Spark 事件文件夹 |
|
| properties.sparkVersion |
string |
Apache Spark 版本。 |
|
| tags |
object |
资源标记。 |
响应
| 名称 | 类型 | 说明 |
|---|---|---|
| 200 OK |
还行 |
|
| 202 Accepted | ||
| Other Status Codes |
示例
Create or update a Big Data pool
示例请求
PUT https://management.azure.com/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool?api-version=2021-06-01
{
"tags": {
"key": "value"
},
"location": "West US 2",
"properties": {
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"sparkEventsFolder": "/events",
"libraryRequirements": {
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
示例响应
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"lastSucceededTimestamp": "1970-01-01T10:00:00Z",
"isAutotuneEnabled": false
}
}
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
{
"error": {
"code": "Error code",
"message": "Error message"
}
}
定义
| 名称 | 说明 |
|---|---|
|
Auto |
Spark 池自动暂停属性 |
|
Auto |
Spark 池自动缩放属性 |
|
Big |
大数据池 |
|
Configuration |
spark 配置文件的类型。 |
|
Dynamic |
动态执行程序分配属性 |
|
Error |
资源管理错误附加信息。 |
|
Error |
错误详细信息。 |
|
Error |
错误响应 |
|
Library |
有关在工作区级别创建的库/包的信息。 |
|
Library |
Spark 池库版本要求 |
|
Node |
大数据池中每个节点的计算能力级别。 |
|
Node |
大数据池提供的节点类型。 |
|
Spark |
Spark 池配置属性 |
AutoPauseProperties
Spark 池自动暂停属性
| 名称 | 类型 | 说明 |
|---|---|---|
| delayInMinutes |
integer (int32) |
大数据池自动暂停之前空闲时间的分钟数。 |
| enabled |
boolean |
是否为大数据池启用自动暂停。 |
AutoScaleProperties
Spark 池自动缩放属性
| 名称 | 类型 | 说明 |
|---|---|---|
| enabled |
boolean |
是否为大数据池启用自动缩放。 |
| maxNodeCount |
integer (int32) |
大数据池可以支持的最大节点数。 |
| minNodeCount |
integer (int32) |
大数据池可以支持的最小节点数。 |
BigDataPoolResourceInfo
大数据池
| 名称 | 类型 | 说明 |
|---|---|---|
| id |
string |
资源的完全限定资源 ID。 示例 - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName} |
| location |
string |
资源所在的地理位置 |
| name |
string |
资源的名称 |
| properties.autoPause |
Spark 池自动暂停属性 |
|
| properties.autoScale |
Spark 池自动缩放属性 |
|
| properties.cacheSize |
integer (int32) |
缓存大小 |
| properties.creationDate |
string (date-time) |
创建大数据池的时间。 |
| properties.customLibraries |
与 Spark 池关联的自定义库/包列表。 |
|
| properties.defaultSparkLogFolder |
string |
将写入 Spark 日志的默认文件夹。 |
| properties.dynamicExecutorAllocation |
动态执行程序分配 |
|
| properties.isAutotuneEnabled |
boolean |
启用 Autotune |
| properties.isComputeIsolationEnabled |
boolean |
是否需要计算隔离。 |
| properties.lastSucceededTimestamp |
string (date-time) |
大数据池成功更新的时间。 |
| properties.libraryRequirements |
Spark 池库版本要求 |
|
| properties.nodeCount |
integer (int32) |
大数据池中的节点数。 |
| properties.nodeSize |
大数据池中每个节点的计算能力级别。 |
|
| properties.nodeSizeFamily |
大数据池提供的节点类型。 |
|
| properties.provisioningState |
string |
大数据池的状态。 |
| properties.sessionLevelPackagesEnabled |
boolean |
会话级别包是否已启用。 |
| properties.sparkConfigProperties |
Spark 池配置属性 |
|
| properties.sparkEventsFolder |
string |
Spark 事件文件夹 |
| properties.sparkVersion |
string |
Apache Spark 版本。 |
| tags |
object |
资源标记。 |
| type |
string |
资源的类型。 例如“Microsoft.Compute/virtualMachines”或“Microsoft.Storage/storageAccounts” |
ConfigurationType
spark 配置文件的类型。
| 值 | 说明 |
|---|---|
| File | |
| Artifact |
DynamicExecutorAllocation
动态执行程序分配属性
| 名称 | 类型 | 说明 |
|---|---|---|
| enabled |
boolean |
指示是否启用动态执行程序分配。 |
| maxExecutors |
integer (int32) |
分配的执行程序的最大数目 |
| minExecutors |
integer (int32) |
分配的执行程序最小数目 |
ErrorAdditionalInfo
资源管理错误附加信息。
| 名称 | 类型 | 说明 |
|---|---|---|
| info |
object |
其他信息。 |
| type |
string |
其他信息类型。 |
ErrorDetail
错误详细信息。
| 名称 | 类型 | 说明 |
|---|---|---|
| additionalInfo |
错误附加信息。 |
|
| code |
string |
错误代码。 |
| details |
错误详细信息。 |
|
| message |
string |
错误消息。 |
| target |
string |
错误目标。 |
ErrorResponse
错误响应
| 名称 | 类型 | 说明 |
|---|---|---|
| error |
错误对象。 |
LibraryInfo
有关在工作区级别创建的库/包的信息。
| 名称 | 类型 | 说明 |
|---|---|---|
| containerName |
string |
存储 Blob 容器名称。 |
| creatorId |
string |
库/包的创建者 ID。 |
| name |
string |
库的名称。 |
| path |
string |
库的存储 Blob 路径。 |
| provisioningStatus |
string |
库/包的预配状态。 |
| type |
string |
库的类型。 |
| uploadedTimestamp |
string (date-time) |
库的上次更新时间。 |
LibraryRequirements
Spark 池库版本要求
| 名称 | 类型 | 说明 |
|---|---|---|
| content |
string |
库要求。 |
| filename |
string |
库要求文件的文件名。 |
| time |
string (date-time) |
库要求文件的上次更新时间。 |
NodeSize
大数据池中每个节点的计算能力级别。
| 值 | 说明 |
|---|---|
| None | |
| Small | |
| Medium | |
| Large | |
| XLarge | |
| XXLarge | |
| XXXLarge |
NodeSizeFamily
大数据池提供的节点类型。
| 值 | 说明 |
|---|---|
| None | |
| MemoryOptimized | |
| HardwareAcceleratedFPGA | |
| HardwareAcceleratedGPU |
SparkConfigProperties
Spark 池配置属性
| 名称 | 类型 | 说明 |
|---|---|---|
| configurationType |
spark 配置文件的类型。 |
|
| content |
string |
spark 配置属性。 |
| filename |
string |
spark 配置属性文件的文件名。 |
| time |
string (date-time) |
spark 配置属性文件的上次更新时间。 |