推理提供商文档
Together
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
Together
所有支持的 Together 模型可以在这里找到
Together 的去中心化云服务助力各种规模的开发者和研究人员训练、微调和部署生成式 AI 模型。
支持的任务
聊天完成(LLM)
了解更多关于聊天补全 (LLM) 的信息,请点击这里。
语言
客户端
提供商
import os
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="together",
api_key=os.environ["HF_TOKEN"],
)
completion = client.chat.completions.create(
model="openai/gpt-oss-120b",
messages=[
{
"role": "user",
"content": "What is the capital of France?"
}
],
)
print(completion.choices[0].message)
聊天完成(VLM)
了解更多关于聊天补全 (VLM) 的信息,请点击这里。
语言
客户端
提供商
import os
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="together",
api_key=os.environ["HF_TOKEN"],
)
completion = client.chat.completions.create(
model="meta-llama/Llama-4-Scout-17B-16E-Instruct",
messages=[
{
"role": "user",
"content": [
{
"type": "text",
"text": "Describe this image in one sentence."
},
{
"type": "image_url",
"image_url": {
"url": "https://cdn.britannica.com/61/93061-050-99147DCE/Statue-of-Liberty-Island-New-York-Bay.jpg"
}
}
]
}
],
)
print(completion.choices[0].message)
文本生成
了解更多关于文本生成的信息,请点击这里。
语言
客户端
提供商
import os
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="together",
api_key=os.environ["HF_TOKEN"],
)
completion = client.chat.completions.create(
model="openai/gpt-oss-120b",
messages="\"Can you please let us know more details about your \"",
)
print(completion.choices[0].message)
文本到图像
了解更多关于文本到图像的信息,请点击这里。
语言
提供商
import os
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="together",
api_key=os.environ["HF_TOKEN"],
)
# output is a PIL.Image object
image = client.text_to_image(
"Astronaut riding a horse",
model="black-forest-labs/FLUX.1-dev",
)