이제 OpenAI Library에서 Gemini에 액세스 가능

11월 08, 2024
Logan Kilpatrick Senior Product Manager Gemini API and Google AI Studio

오늘부터 개발자는 OpenAI Library와 REST API를 통해 최신 Gemini 모델에 액세스하여 더욱 쉽게 Gemini를 시작할 수 있습니다. 처음에는 Chat Completions API와 Embeddings API를 지원할 예정이며, 향후 몇 주에서 몇 달 내에 추가로 호환성을 지원할 계획입니다. 자세한 내용은 Gemini API 문서에서 확인할 수 있으며, 아직 OpenAI Library를 사용하고 있지 않다면 Gemini API를 직접 호출하는 것이 좋습니다.

Python 코드 예제

python
from openai import OpenAI
client = OpenAI(
    api_key="gemini_api_key",
    base_url="https://generativelanguage.googleapis.com/v1beta/"
)
 
 
response = client.chat.completions.create(
    model="gemini-1.5-flash",
    n=1,
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {
            "role": "user",
            "content": "Explain to me how AI works"
        }
    ]
)
 
print(response.choices[0].message)

Typescript/Javascript 코드 예제

nodejs
import OpenAI from "openai";
const openai = new OpenAI({
    apiKey: "gemini_api_key",
    baseURL: "https://generativelanguage.googleapis.com/v1beta/"
});
 
const response = await openai.chat.completions.create({
    model: "gemini-1.5-flash",
    messages: [
        { role: "system", content: "You are a helpful assistant." },
        {
            role: "user",
            content: "Explain to me how AI works",
        },
    ],
});
 
console.log(response.choices[0].message);

REST 코드 예제

bash
curl "https://generativelanguage.googleapis.com/v1beta/chat/completions" \
    -H "Content-Type: application/json" \
    -H "Authorization: Bearer $gemini_api_key" \
    -d '{
        "model": "gemini-1.5-flash",
            "messages": [
                {"role": "user", "content": "Explain to me how AI works"}
            ]
        }'

지원되는 Gemini API 매개변수 목록은 API 참조에서 확인할 수 있습니다. 더 많은 개발자가 Gemini로 개발을 시작할 기회를 제공하게 되어 기쁘게 생각하며 곧 더 많은 업데이트를 공유할 예정입니다. Vertex AI Enterprise 고객을 위해 OpenAI 호환성도 지원합니다. 즐거운 개발되시길 바랄게요!