サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
2024年ランキング
ai.google.dev
フィードバックを送信 コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 DataGemma は、ユーザーがわかりやすい言葉で質問して、 一般に入手可能な統計データに基づいて、 データコモンズ リポジトリ。このツールは、特別にビルドされたバージョンの Gemma、Gemini 1.5 Pro の Gemini API、Data Commons と連携するように特別に設計された一連のライブラリを使用します。 この調査ツールには、Data Commons の統計データに基づいて質問に回答するための 2 つの異なる手法が用意されています。 検索インターリーブ生成(RIG) - このアプローチでは、 Gemma 2。生成された数値を次の値に置き換える必要があるタイミングを認識するようにファインチューニングされています。 データコモンズより正確な情報を提供します詳しくは
Python Node.js Go REST Gemini API は、長いドキュメント(最大 3, 600 ページ)を含む PDF 入力をサポートしています。Gemini モデルはネイティブなビジョンで PDF を処理するため、ドキュメント内のテキストと画像の両方のコンテンツを理解できます。ネイティブの PDF ビジョンをサポートしているため、Gemini モデルは次のことができます。 ドキュメント内の図、グラフ、表を分析します。 情報を構造化された出力形式に抽出します。 ドキュメント内のビジュアル コンテンツとテキスト コンテンツに関する質問に回答します。 ドキュメントを要約する。 ドキュメントのコンテンツを(HTML などに変換して)音声文字変換し、レイアウトとフォーマットを保持して、ダウンストリーム アプリケーション(RAG パイプラインなど)で使用できるようにします。 このチュー
Effective December 20, 2024 To use Gemini API, Google AI Studio, and the other Google developer services that reference these terms (collectively, the "APIs" or "Services"), you must accept (1) the Google APIs Terms of Service (the "API Terms"), and (2) these Gemini API Additional Terms of Service (the "Additional Terms"). Terms that are not defined in these Additional Terms have the meanings give
Google AI Studio で Gemini API のプロンプト案を確認する。コード例などについては、Gemini API クックブックをご覧ください。
責任に配慮した設計 包括的な安全対策を組み込んだこれらのモデルは、厳選されたデータセットと厳格なチューニングを通じて、責任ある信頼できる AI ソリューションを実現します。 サイズに対する比類のないパフォーマンス Gemma モデルは、2B、7B、9B、27B のサイズで優れたベンチマーク結果を達成しており、一部のより大規模なオープンモデルさえも上回るパフォーマンスを発揮します。
このページでは、プロンプトの設計時に採用できる一般的なプロンプトの設計戦略について説明します。 大規模言語モデル(LLM)は、言語間のパターンと関係を学習するために、膨大なテキストデータでトレーニングされています。テキスト(プロンプト)を受け取った言語モデルは、高度な予測入力ツールのように、次に来ると思われるものを予測できます。 Google AI Studio には、このガイドで説明する多くのコンセプトをインタラクティブに紹介するシンプルなプロンプト ギャラリーが用意されています。このガイドの残りの部分では、次のプロンプト設計戦略について説明します。 明確で具体的な指示にする 少数ショットの例を含める コンテキスト情報を追加する 接頭辞を追加する モデルに部分的な入力を任せる 明確で具体的な指示にする 何をすべきかモデルに指示することは、モデルの動作をカスタマイズする効果的かつ効率的な方
import google.generativeai as genai genai.configure(api_key="YOUR_API_KEY") model = genai.GenerativeModel("gemini-1.5-flash") response = model.generate_content("Explain how AI works") print(response.text) Node.js const { GoogleGenerativeAI } = require("@google/generative-ai"); const genAI = new GoogleGenerativeAI("YOUR_API_KEY"); const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" }
Gemini 1.5 Flash Gemini 1.5 Flash-8B Gemini 1.5 Pro Gemini 1.0 Pro Text Embedding 004 Gemini 1.5 Flash 利用可能 多様で反復的なタスクに優れたパフォーマンスを発揮する、Google で最も高速なマルチモーダル モデル。コンテキスト ウィンドウは 100 万です。本番環境での一般提供を開始しました。
Models More Solutions More Code assistance More Showcase More Community More Gemini About Docs API reference Pricing Gemma About Docs Build with Gemini Gemini API Google AI Studio Customize Gemma open models Gemma open models Multi-framework with Keras Fine-tune in Colab Run on-device Google AI Edge Gemini Nano on Android Chrome built-in web APIs Build responsibly Responsible GenAI Toolkit Secure
This quickstart shows you how to install your SDK of choice and then make your first Gemini API request. Python Node.js REST Go Install the Gemini API library Make your first request Get a Gemini API key in Google AI Studio Use the generateContent method to send a request to the Gemini API. What's next Now that you made your first API request, you might want to explore the following guides which s
Get started You can get started with MediaPipe Solutions by selecting any of the tasks listed in the left navigation tree, including vision, text, and audio tasks. If you need help setting up a development environment for use with MediaPipe Tasks, check out the setup guides for Android, web apps, and Python. Legacy solutions We have ended support for the MediaPipe Legacy Solutions listed below as
Introducing LiteRT: Google's high-performance runtime for on-device AI, formerly known as TensorFlow Lite. Learn more The MediaPipe Face Landmarker task lets you detect face landmarks and facial expressions in images and videos. You can use this task to identify human facial expressions, apply facial filters and effects, and create virtual avatars. This task uses machine learning (ML) models that
The following decision tree can help determine which post-training quantization method is best for your use case: No Quantization Converting to a TFLite model without quantization is a recommended starting point. This will generate a float TFLite model. import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) tflite_quant_model = converter.convert() We recommen
Send feedback LiteRT overview Stay organized with collections Save and categorize content based on your preferences. LiteRT (short for Lite Runtime), formerly known as TensorFlow Lite, is Google's high-performance runtime for on-device AI. You can find ready-to-run LiteRT models for a wide range of ML/AI tasks, or convert and run TensorFlow, PyTorch, and JAX models to the TFLite format using the A
このページを最初にブックマークしてみませんか?
『Gemini Developer API | Gemma open models | Google AI for Developers』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く