《OpenShift / RHEL / DevSecOps 汇总目录》
 说明:本文已经在 OpenShift 4.15 + RHODS 2.7.0 的环境中验证
文章目录
- 安装 OpenShift AI 环境
- 安装 Minio 对象存储软件
- 配置 Single Model Serving 运行环境
- 创建项目和 Workbench
- 准备模型和配置 Model Server
- 访问 LLM 模型
- 参考
安装 OpenShift AI 环境
先根据《OpenShift AI - 部署 OpenShift AI 环境,运行 AI/ML 应用(视频)》一文完成 OpenShift AI 环境的安装。
 注意:本应用无需 GPU 即可运行。
安装 Minio 对象存储软件
根据《OpenShift 4 - 管理和使用 OpenShift AI 运行环境》一文安装 MinIO。
配置 Single Model Serving 运行环境
- 使用默认选项安装 Red Hat OpenShift Service Mesh Operator 和 Red Hat OpenShift Serverless Opeartor。
- 查看 OpenShift AI Operator 的 DSC Initialization 对象,确认包含以下内容:
spec:applicationsNamespace: redhat-ods-applicationsmonitoring:managementState: Managednamespace: redhat-ods-monitoringserviceMesh:controlPlane:metricsCollection: Istioname: data-science-smcpnamespace: istio-systemmanagementState: Managed
- 查看 OpenShift AI Operator 的 Data Science Cluster 对象,确认包含以下内容:
   kserve:managementState: Managedserving:ingressGateway:certificate:secretName: knative-serving-certtype: SelfSignedmanagementState: Managedname: knative-serving
- 确认在 OpenShift AI Operator 中的 “所有实例” 中出现以下 FeatureTracker。
  
- 执行以下命令查看创建的 ServiceMesh 和 Serverless 对象。
$ oc get deploy -n istio-system
NAME                       READY   UP-TO-DATE   AVAILABLE   AGE
istio-egressgateway        1/1     1            1           11m
istio-ingressgateway       1/1     1            1           11m
istiod-data-science-smcp   1/1     1            1           11m $ oc get deploy -n knative-serving
NAME                    READY   UP-TO-DATE   AVAILABLE   AGE
activator               2/2     2            2           7m21s
autoscaler              2/2     2            2           7m21s
autoscaler-hpa          2/2     2            2           7m19s
controller              2/2     2            2           7m20s
domain-mapping          2/2     2            2           7m20s
domainmapping-webhook   2/2     2            2           7m20s
net-istio-controller    2/2     2            2           7m18s
net-istio-webhook       2/2     2            2           7m18s
webhook                 2/2     2            2           7m19s$ oc get deployment kserve-controller-manager -n redhat-ods-applications
NAME                        READY   UP-TO-DATE   AVAILABLE   AGE
kserve-controller-manager   1/1     1            1           6m55s
- 在 OpenShift AI 控制台中的 Cluster setting 中确认 Single mode serving platform 被选中。
  
创建项目和 Workbench
-  在 OpenShift AI 控制台中创建一个名为 llm 的 Data Science Project。 
-  在 llm 项目中使用以下配置创建名为 llm 的 Workbench。 Name:llm Image selection:TensorFlow Version selection:2023.2 Container:Small Create new data connectionName : My StorageAccess key : minioSecret key : minio123Endpoint : http://minio-service.minio.svc.cluster.local:9000Region : no Bucket : my-storage
准备模型和配置 Model Server
- 进入 Workbench 对应的 Jupyter Notebook,然后克隆 https://github.com/rh-aiservices-bu/test-drive.git。
- 运行 /test-drive/llm/1_download_save.ipynb,完成后会自动将模型相关文件传到 Minio 中 my-storage/models/flan-t5-small 里。
  
- 在 Workbench 的 Models and model servers 中进入 Single-model serving platform 的 Deploy model。
  
- 在 Deploy model 弹出窗口按下图的配置部署模型。
  
- 完成配置后 Workbench 将显示以下内容。将 flan-t5-small 对应的 Inference endpoint 地址复制下来。
  
访问 LLM 模型
- 在 Jupyter 中打开 2_grpc_request.ipynb 文件,并将上一步复制的地址赋给 infer_endpoint 变量。
infer_endpoint = "https://flan-t5-small-llm.apps.cluster-4cc45.dynamic.redhatworkshops.io"
- 可以修改请求问题,然后运行2_grpc_request.ipynb 文件,即可获得由 flan-t5-small 生成的返回结果。
client.make_request("what is your name?", model_id=model_id)

- 查看 llm 项目的 “拓扑” 视图,确认已经运行起 knative Service 来响应请求。
  
参考
https://access.redhat.com/documentation/en-us/red_hat_openshift_ai_self-managed/2.5/html/working_on_data_science_projects/serving-large-language-models_serving-large-language-models#about-the-single-model-serving-platform_serving-large-language-models
 https://github.com/opendatahub-io/caikit-tgis-serving#installation
 https://rh-aiservices-bu.github.io/rhoai-rh1-testdrive/modules/llm/download-save-llm.html
 https://github.com/openshift-ai-examples/openshift-ai-examples/blob