오늘부터 개발자는 OpenAI Library와 REST API를 통해 최신 Gemini 모델에 액세스하여 더욱 쉽게 Gemini를 시작할 수 있습니다. 처음에는 Chat Completions API와 Embeddings API를 지원할 예정이며, 향후 몇 주에서 몇 달 내에 추가로 호환성을 지원할 계획입니다. 자세한 내용은 Gemini API 문서에서 확인할 수 있으며, 아직 OpenAI Library를 사용하고 있지 않다면 Gemini API를 직접 호출하는 것이 좋습니다.
python
from openai import OpenAI
client = OpenAI(
api_key="gemini_api_key",
base_url="https://generativelanguage.googleapis.com/v1beta/"
)
response = client.chat.completions.create(
model="gemini-1.5-flash",
n=1,
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{
"role": "user",
"content": "Explain to me how AI works"
}
]
)
print(response.choices[0].message)
nodejs
import OpenAI from "openai";
const openai = new OpenAI({
apiKey: "gemini_api_key",
baseURL: "https://generativelanguage.googleapis.com/v1beta/"
});
const response = await openai.chat.completions.create({
model: "gemini-1.5-flash",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{
role: "user",
content: "Explain to me how AI works",
},
],
});
console.log(response.choices[0].message);
bash
curl "https://generativelanguage.googleapis.com/v1beta/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $gemini_api_key" \
-d '{
"model": "gemini-1.5-flash",
"messages": [
{"role": "user", "content": "Explain to me how AI works"}
]
}'
지원되는 Gemini API 매개변수 목록은 API 참조에서 확인할 수 있습니다. 더 많은 개발자가 Gemini로 개발을 시작할 기회를 제공하게 되어 기쁘게 생각하며 곧 더 많은 업데이트를 공유할 예정입니다. Vertex AI Enterprise 고객을 위해 OpenAI 호환성도 지원합니다. 즐거운 개발되시길 바랄게요!