适用于:SQL Server 2019 (15.x)
Important
Microsoft SQL Server 2019 大数据群集已停用。 对 SQL Server 2019 大数据群集的支持已于 2025 年 2 月 28 日结束。 有关详细信息,请参阅Microsoft SQL Server 平台上的公告博客文章和大数据选项。
本文介绍如何在 OpenShift 环境、本地或 Azure Red Hat OpenShift (ARO) 上部署 SQL Server 大数据群集。
Tip
若要快速启动使用 ARO 的示例环境,然后在此平台上部署 BDC,可以使用此处提供的 Python 脚本。
可以在本地 OpenShift 或 Azure Red Hat OpenShift (ARO) 上部署大数据群集。 针对 SQL Server 大数据群集发行说明中已测试的配置验证 OpenShifts CRI-O 版本。 尽管部署工作流类似于在其他基于 Kubernetes 的平台(kubeadm 和 AKS)中进行部署,但也存在一些差异。 不同之处在于,以非根用户身份运行应用程序以及用于部署 BDC 的命名空间的安全性上下文。
若要在本地部署 OpenShift 群集,请参阅 Red Hat OpenShift 文档。 对于 ARO 部署,请参阅 Azure Red Hat OpenShift。
本文概述特定于 OpenShift 平台的部署步骤,指出用于访问目标环境的选项,以及用于部署大数据群集的命名空间。
Pre-requisites
Important
必须由具有足够的权限来创建这些群集级别对象的 OpenShift 群集管理员(群集管理员群集角色)才能执行以下先决条件。 有关 OpenShift 中的群集角色的详细信息,请参阅使用 RBAC 定义和应用权限。
确保 OpenShift 上的
pidsLimit设置已更新,以适应 SQL Server 工作负载。 对于工作负载这样的生产环境,OpenShift 中的默认值太低。 至少从4096开始,但最佳值取决于 SQL Server 中的max worker threads设置以及 OpenShift 主机节点上的 CPU 处理器数量。- 若要了解如何为 OpenShift 群集更新
pidsLimit,请使用这些说明。 请注意,低于4.3.5的 OpenShift 版本存在一个缺陷,该缺陷会导致更新的值无效。 请确保将 OpenShift 升级到最新版本。 - 为了帮助你根据环境和计划的 SQL Server 工作负载计算最佳值,可以使用以下估算和示例:
处理器数目 默认最大工作线程数 每个处理器的默认辅助角色 最小 pidsLimit 值 64 512 16 512 + (64 *16) = 1536 128 512 32 512 + (128*32) = 4608 Note
其他进程(例如备份、CLR、Fulltext 和 SQLAgent)也会增加一些开销,因此请在估算值中添加一个缓冲区。
- 若要了解如何为 OpenShift 群集更新
下载自定义安全性上下文约束 (SCC)
bdc-scc.yaml:curl https://raw.githubusercontent.com/microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/deployment/openshift/bdc-scc.yaml -o bdc-scc.yaml将 SCC 应用于群集。
oc apply -f bdc-scc.yamlNote
BDC 的自定义 SCC 基于 OpenShift 中内置的
nonrootSCC,并具有其他权限。 若要详细了解 OpenShift 中的安全性上下文约束,请参阅管理安全性上下文约束。 有关nonrootSCC 上的大数据群集所需的其他权限的详细信息,请在此处下载白皮书。创建命名空间/项目:
oc new-project <namespaceName>将自定义 SCC 与部署 BDC 的命名空间中的服务帐户绑定在一起:
oc create clusterrole bdc-role --verb=use --resource=scc --resource-name=bdc-scc -n <namespaceName> oc create rolebinding bdc-rbac --clusterrole=bdc-role --group=system:serviceaccounts:<namespaceName>向部署 BDC 的用户分配适当的权限。 执行下列操作之一:
如果部署 BDC 的用户拥有群集管理员角色,请继续部署大数据群集。
如果部署 BDC 的用户是命名空间管理员,请为创建的命名空间分配用户群集管理员本地角色。 这是用户部署和管理大数据群集以获得命名空间级别管理员权限的首选选项。
oc create rolebinding bdc-user-rbac --clusterrole=cluster-admin --user=<userName> -n <namespaceName>然后,部署大数据群集的用户必须登录到 OpenShift 控制台:
oc login -u <deployingUser> -p <password>
部署大数据群集
安装最新 azdata。
根据目标环境(本地的 OpenShift 或 ARO)和部署场景,克隆 OpenShift 的某个内置配置文件。 若要了解内置配置文件中特定于 OpenShift 的设置,请参阅下面的“部署配置文件中的 OpenShift 特定设置”部分。 有关可用配置文件的更多详细信息,请参阅部署指南。
列出所有可用的内置配置文件。
azdata bdc config list要克隆其中某个内置配置文件,请运行以下命令(你可以根据目标平台/场景选择替换配置文件):
azdata bdc config init --source openshift-dev-test --target custom-openshift对于在 ARO 上进行的部署,从其中某个
aro-配置文件开始,包括适用于该环境的serviceType和storageClass的默认值。 For example:azdata bdc config init --source aro-dev-test --target custom-openshift自定义配置文件 control.json 和 bdc.json。 下面是一些额外的资源,可指导你完成适用于各种用例的自定义:
Note
不支持与 Microsoft Entra ID(旧称 Azure Active Directory) for BDC 集成,因此在 ARO 上进行部署时不能使用此身份验证方法。
设置环境变量
部署大数据群集
azdata bdc create --config custom-openshift --accept-eula yes部署成功后,你可以登录并列出外部群集终结点:
azdata login -n mssql-cluster azdata bdc endpoint list
部署配置文件中特定于 OpenShift 的设置
SQL Server 2019 CU5 引入了两个功能开关来控制 Pod 和节点指标的集合。 这些参数在 OpenShift 的内置配置文件中默认设置为 false,因为监视容器需要特权安全性上下文,这将放宽部署命名空间 BDC 的一些安全约束。
"security": {
"allowNodeMetricsCollection": false,
"allowPodMetricsCollection": false
}
ARO 中默认存储类的名称是 Managed-premium(这与 AKS 相反,AKS 的默认存储类名为 default)。 可以在与 control.json 和 aro-dev-test 相对应的 aro-dev-test-ha 中找到它:
},
"storage": {
"data": {
"className": "managed-premium",
"accessMode": "ReadWriteOnce",
"size": "15Gi"
},
"logs": {
"className": "managed-premium",
"accessMode": "ReadWriteOnce",
"size": "10Gi"
}
bdc-scc.yaml 文件
用于此部署的 SCC 文件是:
allowHostDirVolumePlugin: false
allowHostIPC: false
allowHostNetwork: false
allowHostPID: false
allowHostPorts: false
allowPrivilegeEscalation: true
allowPrivilegedContainer: false
allowedCapabilities:
- SETUID
- SETGID
- CHOWN
- SYS_PTRACE
apiVersion: security.openshift.io/v1
defaultAddCapabilities: null
fsGroup:
type: RunAsAny
kind: SecurityContextConstraints
metadata:
annotations:
kubernetes.io/description: SQL Server BDC custom scc is based on 'nonroot' scc plus additional capabilities required by BDC.
generation: 2
name: bdc-scc
readOnlyRootFilesystem: false
requiredDropCapabilities:
- KILL
- MKNOD
runAsUser:
type: MustRunAsNonRoot
seLinuxContext:
type: MustRunAs
supplementalGroups:
type: RunAsAny
volumes:
- configMap
- downwardAPI
- emptyDir
- persistentVolumeClaim
- projected
- secret