跳转至

快速入门

概述

欢迎使用模型服务 FunModel!本文将引导您快速上手 FunModel 平台,部署模型服务并完成推理调用。通过本指南,您将学会如何部署传统小模型和大语言模型(LLM),并进行在线测试和API调用。

完成本指南后,您将能够:

  • 部署传统小模型和大语言模型
  • 使用在线调试功能测试模型
  • 通过 API 调用模型服务
  • 理解基本的模型管理操作

先决条件

在开始之前,请确保您已完成以下准备工作:

  1. 拥有一个阿里云账号
  2. 登录 FunModel 控制台

    根据控制台的指引,完成 RAM 相关的角色授权等配置;如果您当前使用的是旧版控制台页面,请点击右上角的“新版控制台”按钮,切换至新版界面后再进行操作。

部署传统小模型

传统小模型通常指参数量较小、推理速度快的模型,适用于图像识别、语音处理等特定任务。

选择模型

在模型市场中选择一个适合的传统小模型。例如:

  • iic/cv_convnextTiny_ocr-recognition-general_damo - OCR文字识别模型
  • iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch - 语音识别模型

快速体验(可选)

选中模型后,您可以先进行快速体验:

  1. 在模型详情页面右侧找到"快速体验"区域
  2. 点击 执行测试 按钮
  3. 等待片刻,系统会自动下载测试数据并执行推理
  4. 查看输出结果,验证模型功能是否符合预期

对于OCR模型,输出结果将显示图片中识别出的文字内容。

部署模型

当确认模型功能符合需求后,可以进行正式部署:

  1. 点击页面右下角的 确认部署 按钮
  2. 系统将开始部署流程,主要耗时在以下两个环节:
  3. 模型文件下载(根据网络情况和模型大小而定)
  4. 模型推理服务启动(初始化模型参数和运行环境)
  5. 部署过程中请耐心等待,部署状态会在页面上实时更新

调用模型

模型部署成功后,您可以通过以下方式调用模型:

在线调试

  1. 进入模型详情页面的 在线调试 Tab
  2. 系统会自动填充测试数据(如图片URL或文本内容)
  3. 直接点击 发送请求 按钮
  4. 等待响应,查看模型推理结果

API调用

  1. 进入模型详情页面的 调用示例 Tab
  2. 获取适用于您的编程语言的调用示例
  3. 替换示例中的认证信息和参数,执行调用

Bash调用示例:

curl --request POST \
  --url https://xl-ocr-cifba-vwfuahhcrd.cn-hangzhou.fcapp.run/ \
  --header 'Authorization: Bearer REPLACE_BEARER_TOKEN' \
  --header 'content-type: application/json' \
  --data '{"input":{"image":"http://modelscope.oss-cn-beijing.aliyuncs.com/demo/images/image_ocr_recognition.jpg"}}'

注意:请将 REPLACE_BEARER_TOKEN 替换为您实际的认证令牌,如果没有设置鉴权,可以忽略 Authorization 这个 header

部署大语言模型 (LLM)

大语言模型(LLM)具有强大的语言理解和生成能力,适用于对话、文本生成、翻译等复杂任务。

选择模型

在模型市场中选择一个适合的LLM模型。例如:

  • Qwen/Qwen3-0.6B - 轻量级通义千问模型
  • Qwen/Qwen3-8B - 中等规模通义千问模型

部署模型

  1. 点击页面右下角的 确认部署 按钮
  2. 系统将开始部署流程,主要耗时在以下两个环节:
  3. 模型文件下载(LLM模型通常较大,下载时间较长)
  4. 模型推理服务启动(加载模型参数到内存,时间随模型规模增加)

提示:模型规模越大,下载时间和启动时间越长,表现为整体部署时间越长。请耐心等待,特别是部署7B及以上规模的模型时。

调用模型

模型部署成功后,您可以通过以下方式调用模型:

在线调试

  1. 进入模型详情页面的 在线调试 Tab
  2. 系统会自动填充示例对话内容
  3. 直接点击 发送请求 按钮
  4. 等待响应,查看模型生成的对话结果

API调用

  1. 进入模型详情页面的 调用示例 Tab
  2. 获取适用于您的编程语言的调用示例
  3. 替换示例中的认证信息和参数,执行调用

Bash调用示例:

curl --request POST \
  --url https://test-lljgicahfh-yyhrakkqse.cn-hangzhou.fcapp.run/v1/chat/completions \
  --header 'Authorization: Bearer REPLACE_BEARER_TOKEN' \
  --header 'content-type: application/json' \
  --data '{"messages":[{"content":"Hello! 你是谁?","role":"user"}],"model":"Qwen/Qwen3-0.6B","stream":false}'

注意:请将 REPLACE_BEARER_TOKEN 替换为您实际的认证令牌,如果没有设置鉴权,可以忽略 Authorization 这个 header

故障排除

部署失败

如果模型部署失败,请检查以下几点:

  1. 确认模型ID是否正确
  2. 检查网络连接是否正常
  3. 查看部署日志获取详细错误信息

调用失败

如果模型调用失败,请检查以下几点:

  1. 确认API端点URL是否正确
  2. 检查认证令牌是否有效
  3. 验证请求参数格式是否正确

最佳实践

  1. 首次使用时建议先进行快速体验,确认模型功能符合预期
  2. 部署大模型时建议选择性能型实例规格
  3. 定期监控模型服务的运行状态和资源使用情况
  4. 根据实际需求调整模型服务的配置参数

下一步

完成快速入门后,您可以:

  1. 探索更多模型:访问模型市场查看其他可用模型
  2. 使用 DevPod 进行模型开发和定制
  3. 学习 自定义模型部署 高级功能

如有任何问题,请参考帮助文档或联系技术支持。