对话生成
1. 概述
Google 推出的多模态人工智能模型,旨在处理多种数据类型,包括文本、图像、音频、视频和代码。
本 API 与 OpenAI 接口格式兼容。
模型列表:
gemini-2.0-flashgemini-2.5-flashgemini-2.5-progemini-2.5-flash-litegemini-2.5-flash-lite-preview-06-17gemini-2.5-flash-thinking(输出思考过程)gemini-2.5-pro-thinking(输出思考过程)gemini-3-pro-preview
模型名称里包含exp的为实验性模型,不太稳定,建议只用来进行实验性测试。
2. 请求说明
请求方法:
POST请求地址:
https://gateway.theturbo.ai/v1/chat/completions
3. 请求参数
3.1 Header 参数
Content-Type
string
是
设置请求头类型,必须为 application/json
application/json
Accept
string
是
设置响应类型,建议统一为 application/json
application/json
Authorization
string
是
身份验证所需的 API_KEY,格式 Bearer $YOUR_API_KEY
Bearer $YOUR_API_KEY
3.2 Body 参数 (application/json)
messages
array
是
聊天消息列表,格式与 OpenAI 兼容。数组中的每个对象包含 role(角色) 与 content(内容)。
[{"role": "user","content": "你好"}]
role
string
否
消息角色,可选值:system、user、assistant。
user
content
string/array
否
消息的具体内容。
你好,请给我讲个笑话。
temperature
number
否
采样温度,取值 0~2。数值越大,输出越随机;数值越小,输出越集中和确定。
0.7
top_p
number
否
另一种调节采样分布的方式,取值 0~1。和 temperature 通常二选一设置。
0.9
n
number
否
为每条输入消息生成多少条回复。
1
stream
boolean
否
是否开启流式输出。设置为 true 时,返回类似 ChatGPT 的流式数据。
false
stop
string
否
最多可指定 4 个字符串,一旦生成的内容出现这几个字符串之一,就停止生成更多 tokens。
"\n"
max_tokens
number
否
单次回复可生成的最大 token 数量,受模型上下文长度限制。
1024
presence_penalty
number
否
-2.0 ~ 2.0。正值会鼓励模型输出更多新话题,负值会降低输出新话题的概率。
0
frequency_penalty
number
否
-2.0 ~ 2.0。正值会降低模型重复字句的频率,负值会提高重复字句出现的概率。
0
reasoning_effort
string
否
用来控制模型在推理任务中投入多少“计算精力”。目前只有gemini-2.5-flash-preview-04-17支持。支持low medium high none。默认为low。
low
web_search_options
object
否
用来控制是否开启google搜索提示依据。
{}
context_id
string
否
上下文缓存的ID,用于关联缓存的信息。详见上下文缓存创建
projects/37021971161/locations/global/cachedContents/1692176707571679232
4. 请求示例
4.1 聊天对话
4.2 媒体文件理解
媒体文件理解功能,支持理解文档、图像、音频、视频,详细支持类型请参照下方“支持的媒体类型”。
本 API 提交媒体文件只支持以base64的形式上传,不支持http地址。
4.3 函数调用
4.4 Google Search
将 Gemini 模型与实时网络内容相关联,并且适用于所有可用语言。这样一来,Gemini 就可以提供更准确的回答,并引用其知识断点之外的可验证来源。
5. 响应示例
最后更新于