AWS在re:Invent 2021大會(huì )中發(fā)表的機器學(xué)習SageMaker無(wú)服務(wù)器推理(SageMaker Serverless Inference)服務(wù),現在已經(jīng)正式上線(xiàn)。用戶(hù)可以使用該服務(wù)快速部署機器學(xué)習模型,執行推理工作負載,而不需要配置和管理底層基礎設施。
當用戶(hù)在SageMaker部署模型時(shí),只需要選擇無(wú)服務(wù)器選項,SageMaker就會(huì )根據推理請求的數量,自動(dòng)配置、擴展和縮減運算容量,AWS提到,用戶(hù)僅需要針對處理推理請求的運算容量,和資料量支付費用,不需要對空閑時(shí)間付費,因此很適合用于間歇性或是不可預測流量的應用程式。
從re:Invent 2021大會(huì )發(fā)布以來(lái),AWS持續更新SageMaker無(wú)服務(wù)器推理,加入了對Python SDK的支援,抽象模型部署來(lái)簡(jiǎn)化開(kāi)發(fā)者的工作,同時(shí)支援模型注冊表,讓開(kāi)發(fā)者可以整合無(wú)服務(wù)器推理端點(diǎn)和MLOps工作流程。AWS也加大每個(gè)端點(diǎn)并行觸發(fā)的上限,從50提升到200,使得用戶(hù)可以將SageMaker無(wú)服務(wù)器推理用于高流量工作負載。