快速入门¶
概述¶
欢迎使用模型服务 FunModel!本文将引导您快速上手 FunModel 平台,部署模型服务并完成推理调用。通过本指南,您将学会如何部署传统小模型和大语言模型(LLM),并进行在线测试和API调用。
完成本指南后,您将能够:
- 部署传统小模型和大语言模型
- 使用在线调试功能测试模型
- 通过 API 调用模型服务
- 理解基本的模型管理操作
先决条件¶
在开始之前,请确保您已完成以下准备工作:
- 拥有一个阿里云账号
- 登录 FunModel 控制台
根据控制台的指引,完成 RAM 相关的角色授权等配置;如果您当前使用的是旧版控制台页面,请点击右上角的“新版控制台”按钮,切换至新版界面后再进行操作。
部署传统小模型¶
传统小模型通常指参数量较小、推理速度快的模型,适用于图像识别、语音处理等特定任务。
选择模型¶
在模型市场中选择一个适合的传统小模型。例如:
iic/cv_convnextTiny_ocr-recognition-general_damo- OCR文字识别模型iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch- 语音识别模型
快速体验(可选)¶
选中模型后,您可以先进行快速体验:
- 在模型详情页面右侧找到"快速体验"区域
- 点击
执行测试按钮 - 等待片刻,系统会自动下载测试数据并执行推理
- 查看输出结果,验证模型功能是否符合预期
对于OCR模型,输出结果将显示图片中识别出的文字内容。
部署模型¶
当确认模型功能符合需求后,可以进行正式部署:
- 点击页面右下角的
确认部署按钮 - 系统将开始部署流程,主要耗时在以下两个环节:
- 模型文件下载(根据网络情况和模型大小而定)
- 模型推理服务启动(初始化模型参数和运行环境)
- 部署过程中请耐心等待,部署状态会在页面上实时更新
调用模型¶
模型部署成功后,您可以通过以下方式调用模型:
在线调试¶
- 进入模型详情页面的
在线调试Tab - 系统会自动填充测试数据(如图片URL或文本内容)
- 直接点击
发送请求按钮 - 等待响应,查看模型推理结果
API调用¶
- 进入模型详情页面的
调用示例Tab - 获取适用于您的编程语言的调用示例
- 替换示例中的认证信息和参数,执行调用
Bash调用示例:
curl --request POST \
--url https://xl-ocr-cifba-vwfuahhcrd.cn-hangzhou.fcapp.run/ \
--header 'Authorization: Bearer REPLACE_BEARER_TOKEN' \
--header 'content-type: application/json' \
--data '{"input":{"image":"http://modelscope.oss-cn-beijing.aliyuncs.com/demo/images/image_ocr_recognition.jpg"}}'
注意:请将
REPLACE_BEARER_TOKEN替换为您实际的认证令牌,如果没有设置鉴权,可以忽略 Authorization 这个 header
部署大语言模型 (LLM)¶
大语言模型(LLM)具有强大的语言理解和生成能力,适用于对话、文本生成、翻译等复杂任务。
选择模型¶
在模型市场中选择一个适合的LLM模型。例如:
Qwen/Qwen3-0.6B- 轻量级通义千问模型Qwen/Qwen3-8B- 中等规模通义千问模型
部署模型¶
- 点击页面右下角的
确认部署按钮 - 系统将开始部署流程,主要耗时在以下两个环节:
- 模型文件下载(LLM模型通常较大,下载时间较长)
- 模型推理服务启动(加载模型参数到内存,时间随模型规模增加)
提示:模型规模越大,下载时间和启动时间越长,表现为整体部署时间越长。请耐心等待,特别是部署7B及以上规模的模型时。
调用模型¶
模型部署成功后,您可以通过以下方式调用模型:
在线调试¶
- 进入模型详情页面的
在线调试Tab - 系统会自动填充示例对话内容
- 直接点击
发送请求按钮 - 等待响应,查看模型生成的对话结果
API调用¶
- 进入模型详情页面的
调用示例Tab - 获取适用于您的编程语言的调用示例
- 替换示例中的认证信息和参数,执行调用
Bash调用示例:
curl --request POST \
--url https://test-lljgicahfh-yyhrakkqse.cn-hangzhou.fcapp.run/v1/chat/completions \
--header 'Authorization: Bearer REPLACE_BEARER_TOKEN' \
--header 'content-type: application/json' \
--data '{"messages":[{"content":"Hello! 你是谁?","role":"user"}],"model":"Qwen/Qwen3-0.6B","stream":false}'
注意:请将
REPLACE_BEARER_TOKEN替换为您实际的认证令牌,如果没有设置鉴权,可以忽略 Authorization 这个 header
故障排除¶
部署失败¶
如果模型部署失败,请检查以下几点:
- 确认模型ID是否正确
- 检查网络连接是否正常
- 查看部署日志获取详细错误信息
调用失败¶
如果模型调用失败,请检查以下几点:
- 确认API端点URL是否正确
- 检查认证令牌是否有效
- 验证请求参数格式是否正确
最佳实践¶
- 首次使用时建议先进行快速体验,确认模型功能符合预期
- 部署大模型时建议选择性能型实例规格
- 定期监控模型服务的运行状态和资源使用情况
- 根据实际需求调整模型服务的配置参数
下一步¶
完成快速入门后,您可以:
如有任何问题,请参考帮助文档或联系技术支持。