拍我AI 开放平台
    • 开始使用
    • V6 重磅更新!
    • C1 重磅更新!
    • paiwo-PixVerse-api-llm.txt
    • API指南
      • API 工作流程
      • 如何购买API 服务
      • 检查账户余额
      • 文本生成视频使用指南
      • 图像生成视频使用指南
      • 特效模板使用指南
      • 图片模板使用指南
      • 首尾帧功能使用指南
      • 续写(Extend)功能使用指南
      • 对口型(Lipsync)接口使用指南
      • 音效生成(背景音乐)使用指南
      • 多主体功能使用指南
      • 重绘功能使用指南
      • 多帧(Multi-transiton)功能 使用指南
      • 主体替换(Swap)使用指南
      • 动作模仿(Mimic) 功能使用指南
      • 视频编辑(Modify) 功能使用指南
      • 获取视频生成状态
      • 如何使用Webhook 回调?
    • API 接口
      • 视频生成
        • 生成文生视频
        • 生成图生视频
        • 生成视频模版
        • 首尾帧生成视频
        • 获取视频状态
        • 生成对口型(Lipsync)视频
        • 获取TTS 音色
        • 生成延长(Extend)视频
        • 音效生成(sound_effect)接口
        • 多主体(多参考)生成视频
        • 重绘视频生成视频
        • 重绘效果列表
        • 主体替换(Swap) Mask 生成
        • 主体替换(Swap) 视频生成
        • 多帧(Multi-transition) 视频生成
        • 动作模仿(Mimic) 视频生成
        • 视频编辑(Modify) 生成视频
      • 图片生成
        • 图片模版生成接口
        • 图片结果查询接口
      • 查询账号余额
        GET
      • 上传图片
        POST
      • 上传资源(视频/音频)
        POST
    • 产品计费
      • 模型与点数消耗
      • 预付资源包与企业定制
    • 问题排查
      • 常见错误及解决方案
      • FAQ
    • 资源中心
      • 技术支持/联系我们
      • 更新日志
      • 服务条款
      • 隐私协议
      • 附加工具

    paiwo-PixVerse-api-llm.txt

    拍我AI 开放平台 API#

    爱诗科技旗下拍我AI-PixVerse 的 REST API,用于通过文本、图片或参考视频生成 AI 视频,并支持特效、首尾帧、多主体、对口型、音效等能力。
    所有接口均在 https://app-api.pixverseai.cn/openapi/v2/ 下。每次请求需要两个请求头:API-KEY(即 app-key,在平台后台获取)和 AI-trace-id(每次请求生成一个新的 UUID —— 同一个 trace-id 会命中幂等缓存,返回上次结果而不会触发新的生成)。所有响应统一结构为 { ErrCode, ErrMsg, Resp },ErrCode=0 表示成功,业务数据放在 Resp 里。视频生成为异步流程:提交任务拿到 video_id 后,每 3–5 秒轮询「获取视频状态」接口直到 status=1(成功)为止;其他状态含义:5 = 生成中,7 = 审核未通过,8 = 生成失败。API 点数与 pai.video 网页会员额度相互独立,需要在「API 服务」账单页单独购买。

    功能介绍#

    开始使用:平台概览、生成能力、接入路径,以及如何获取 API Key 的总入口。
    API 工作流程:完整的异步调用范式 —— API-KEY + AI-trace-id 两个头,提交任务拿 video_id,轮询状态接口直到 status=1。上手前必读。
    如何购买 API 服务:购买 API 点数套餐、续费、开发票的流程。注意 API 点数与 pai.video 网页版会员额度不互通。
    v5.5 重磅更新!:V5.5 模型的改动、提速和新增特性说明。

    怎么调用 —— 图生视频完整流程#

    API 工作流程:把异步调用链路讲清楚的一页:两个请求头、提交任务、轮询状态。整套流程的心智模型都在这里。
    上传图片:第 1 步 —— 用 multipart/form-data POST 上传图片(JPG/PNG/WebP,单张最大 20MB、最长边 10000px;暂不支持直接传图片 URL)。返回 Resp.img_id(整型),后续生成接口要用。
    生成图生视频:第 2 步 —— POST /openapi/v2/video/img/generate,请求体 JSON 字段 img_id、prompt、model、duration、quality。常用取值:model="c1" 或 "v6"、duration=5(或 8)、quality="540p" / "720p" / "1080p"、。返回 Resp.video_id,拿去轮询「获取视频状态」接口。」。
    获取视频状态:第 3 步 —— GET 带上 video_id,每 3–5 秒轮询一次直到 Resp.status=1。成功时 Resp.url 是最终视频的下载链接;其他状态见上文导读里的状态码说明。

    其他功能#

    生成文生视频:跳过上传图片这一步,仅用 prompt 生成视频。请求体与图生视频几乎一致,只是不需要 img_id / image_references。异步 + 轮询模式与图生视频相同。
    生成图生视频:给一张静态图片 + 一段文字 prompt,AI 把图片内的内容动起来,生成一段几秒到十几秒的短视频。
    视频模版生成:拍我AI 的招牌玩法 —— 调文生视频或图生视频接口时带上 template_id,即可一键套用角色变形、镜头运动等模板。模板库在网页端「特效中心」查看,多图模板用 img_ids 数组代替单个 img_id。
    多帧 (Multi-transition) 视频生成:按顺序给 2–7 张关键帧图片,生成长度 1–30 秒的过渡视频,适合做故事性更强的多段拼接。
    生成延长 (Extend) 视频:在已生成视频(某个 video_id)的尾部接着往下生成,把短视频续写成更长的片段。
    主体替换 (Swap) 视频生成:Swap 整套流程的使用说明 —— 上传/生成视频、选帧、选物体、换脸换物、输出新视频。调用 Swap 接口之前建议先读这篇。
    重绘视频生成:你的视频片段即时转换为全新的视觉风格 —— 例如 3D、动漫、电影感或增强写实风格
    多主体(参考生)视频生成:多主体参考生 (Fusion) 接口的使用说明 —— 如何组合主体 + 背景、如何在 prompt 里用 @ref_name 摆放元素、典型电商/叙事场景示例。
    生成对口型 (Lipsync) 视频生成:上传一段语音/文本,让已有视频中的角色按音频对口型说话。
    音效生成接口:为已有视频生成并合成音效,无需自行配音。
    动作模仿视频生成:通过提供:一段跳舞(或动作)参考视频、一张人物图片, 将参考视频中的动作迁移到目标人物图片上,实现动作模仿与重建。
    视频编辑视频生成:支持对已有视频的任意部分进行编辑,包括添加、替换、删除、修改元素,或改变整体风格。
    常见错误及解决方案:常见 ErrCode、HTTP 状态码、typical 报错场景与对应处理建议,调试时优先查这里。

    Optional#

    拍我AI 官网:拍我AI 的 C 端入口(PixVerse 国内正版),了解产品形态和最新特效可以从这里切入。
    修改于 2026-04-24 07:39:10
    上一页
    C1 重磅更新!
    下一页
    API 工作流程
    Built with