pacote de artefatos personalizados para servindo modelo
Este artigo descreve como garantir que as dependências de arquivos e artefatos do seu modelo estejam disponíveis em seus modelos implantados usando Mosaic AI Model Serving endpoint.
Requisitos
MLflow 1.29e acima
Pacote de artefatos com modelos
Quando o modelo requer arquivos ou artefatos durante a inferência, o senhor pode incluí-los no artefato do modelo quando log o modelo.
Se o senhor estiver trabalhando com o Databricks Notebook, uma prática comum é fazer com que esses arquivos residam em volumes doUnity Catalog. Às vezes, os modelos também são configurados para download artefatos da Internet (como HuggingFace Tokenizers). As cargas de trabalho em tempo real em escala têm melhor desempenho quando todas as dependências necessárias são capturadas estaticamente no momento da implementação. Por esse motivo, a manutenção do modelo exige que os artefatos de volumes Unity Catalog sejam incluídos no próprio artefato do modelo usando as interfaces MLflow. Os artefatos de rede carregados com o modelo devem ser empacotados com o modelo sempre que possível.
Com o comando MLflow logs(), o senhor pode log um modelo e seus artefatos dependentes com o parâmetro artifacts
.
mlflow.pyfunc.log_model(
...
artifacts={'model-weights': "/Volumes/catalog/schema/volume/path/to/file", "tokenizer_cache": "./tokenizer_cache"},
...
)
Nos modelos PyFunc, os caminhos desses artefatos são acessíveis a partir do objeto context
em context.artifacts
e podem ser carregados da maneira padrão para esse tipo de arquivo.
Por exemplo, em um modelo MLflow personalizado:
class ModelPyfunc(mlflow.pyfunc.PythonModel):
def load_context(self, context):
self.model = torch.load(context.artifacts["model-weights"])
self.tokenizer = transformers.BertweetTokenizer.from_pretrained("model-base", local_files_only=True, cache_dir=context.artifacts["tokenizer_cache"])
...
Depois que seus arquivos e artefatos forem empacotados dentro do artefato do modelo, o senhor poderá servir o modelo para um servindo modelo endpoint.