# 可用模型

我们目前支持多种主流 AI 模型。请访问 **模型目录** 以浏览所有受支持的模型。

你可以查看详细的模型信息，包括：

* 上下文能力
* 价格（各类 Token）
* 模型发布时间

点击 ***API 接入*** 查看对应的 [**API 文档**](https://docs.console.zenlayer.com/api-reference/compute/aig)。

<div data-with-frame="true"><figure><img src="/files/U93bKd3Lz0josSZ71dXP" alt=""><figcaption></figcaption></figure></div>

## 模型排序

你可以通过以下方式对模型进行排序：

* **最新**：按发布时间或可用时间排序
* **输入 Token 价格：高 → 低**：按输入 Token 单价从高到低排序
* **输入 Token 价格：低 → 高**：按输入 Token 单价从低到高排序
* **上下文能力：高 → 低**：按最大上下文容量排序

你也可以直接输入模型名称进行搜索。

## 模型筛选

### 按任务类型筛选

#### 大语言模型（LLMs）

基于文本的 AI 模型，用于理解和生成自然语言。\
适用于聊天机器人、内容写作、摘要、翻译以及推理等任务。

#### 图像生成

根据文本提示生成图像的模型。\
常用于设计概念、插画、营销视觉内容和创意创作。

#### 视频生成

根据文本或图像输入生成或编辑视频的模型。\
适用于短视频制作、视觉叙事以及媒体生产工作流。

#### 文本转语音（TTS）

将文本转换为语音音频的模型。\
适用于语音助手、旁白、无障碍功能以及音频内容创作。

#### 文本嵌入（Embeddings）

将文本转换为数值向量（Embedding）的模型。\
用于语义搜索、推荐系统、聚类以及相似度匹配。

### 按 AI 提供方筛选

#### OpenAI

提供多种先进的模型，覆盖语言理解、内容生成以及多模态任务。

#### Google

提供在推理、多模态理解和大上下文处理方面表现出色的 AI 模型。

#### Anthropic

专注于可靠性与安全性的大语言模型，适用于企业级及受监管场景。

#### Perplexity

专注于为搜索、信息检索和问答体验优化的 AI 模型。

### 按上下文能力筛选（MToken）

**上下文能力（Context capacity）** 指模型在单次请求中可处理的最大文本量。

#### 0.2 MToken

支持短到中等长度的输入。\
适用于简单对话、提示词和轻量级任务。

#### 0.4 MToken

可处理较长输入，例如多轮对话或中等规模文档。

#### 0.6 MToken

适用于需要更深层上下文理解的复杂提示和较大文档。

#### 0.8 MToken

支持超长输入，包括大型文档或长时间的多轮交互。

#### 1 MToken

提供最大的上下文容量。\
最适合处理大型数据集、长文档或需要大量上下文的高级推理任务。


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://docs.console.zenlayer.com/welcome/cn/ai-gateway/available-models.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
