わずか 12 か月で 1 万を超えるコミットを受け、TensorFlow は大幅なパフォーマンス向上分散訓練サポートの追加iOS および Raspberry Pi への対応、広く使われているビッグデータ インフラストラクチャへのインテグレーションを実現してきました。

また、私たち Google は GoRustHaskell から TensorFlow へのアクセス手段を提供するとともに、最新のアート イメージ分類モデルをリリースし、さらには GitHubStack OverflowTensorFlow メーリング リストで膨大な数の質問にお答えしてきました。

TensorFlow は Google において、大規模な本番機能から探索的研究までのありとあらゆるものをサポートしています。

たとえば、私たちは最近、TensorFlow(および TensorFlow 専用のハードウェア アクセラレータである TPU : Tensor Processing Unit)を使用して、Google Translate の大幅な改良版をリリースしました。

一方、Magenta と呼ばれるプロジェクトでは、メロディーを作り出せる新しい強化学習ベースのモデルを開発しました。先ごろ Google Brain チームを訪れたある大学院生は、イメージに美術スタイルを自動的に与えることができる TensorFlow モデルを作りました。

DeepMind は、すべての研究用のエンジンとして TensorFlow を使うことを決定しました。同社は最近、生の波形データに基づいて音声や音楽を生成する魅力的なモデルを作り出しています。

私たち Google が特にすばらしいと考えているのは、TensorFlow を活用する動きが世界中の人々の間に広がりつつあることです。以下はその一例です。
  • オーストラリアの海洋生物学者たちは、絶滅の危機に瀕しているマナティー科の生態に関する理解を深めるため、TensorFlow を使って数万枚の高解像度写真からマナティーを見つけ出す作業を進めています。
  • 日本のある先進的なキュウリ農家は、大きさ、形、その他の特徴に基づいてキュウリを仕分けするモデルを TensorFlow で開発しています。
  • 放射線医たちは、医療用スキャナの画像からパーキンソン病の兆候を見つけるために TensorFlow を使っています。
  • サンフランシスコのベイエリアで働くデータ サイエンティストたちは、TensorFlow と Raspberry Pi を組み合わせてカルトレインの運行状況を追跡しています
私たちはこれまで、研究プロジェクトから本番システムまでの、Raspberry Pi のような最も小さいデバイスから GPU / TPU を満載したサーバー ファームに至るあらゆる規模のハードウェアに TensorFlow が対応できるようにしてきました。

しかし、TensorFlow は単なる 1 つのオープンソース プロジェクト以上の存在になっています。そのため、私たちは関連ソフトウェアと機械学習モデルのオープンソース エコシステムを全力で強化していきます。
  • TensorFlow Serving プロジェクトは、本番システムで TensorFlow モデルをサービングするプロセスを単純化します。
  • TensorFlow の “Wide and Deep” モデルは、古くから使われている線形モデルとディープ ニューラル ネットワークを結合させます。
  • クラウド環境で TensorFlow を使いたい人のために、マネージド サービスとして TensorFlow を提供する Cloud Machine LearningGoogle Cloud Platform に加わりました。
さらに、TensorFlow のモデル リポジトリはコミュニティの貢献によって成長を続けており、GitHub だけで TensorFlow 関係のリポジトリが 3,000 以上も作られています

TensorFlow コミュニティに参加するには、私たちの新しい Twitter アカウント(@tensorflow)をフォローするか、GitHub のプロジェクトに参加するか、Stack Overflow の Q&A で質問するか、コミュニティのディスカッション リストに参加してください。

私たちは、最先端プロジェクトや意欲的な研究、急成長を遂げているスタートアップ、学習用プロジェクトなどで TensorFlow を使用しているすべての人々に大変感謝しています。

また、コードベースに直接貢献していただいた方には特別な感謝の気持ちを捧げたいと思います。これからも世界中の機械学習コミュニティの協力を仰ぎながら、TensorFlow をより良いものにしていく所存です。


* この投稿は米国時間 11 月 9 日、TensorFlow の Product Manager である Zak Stone と、TensorFlow team によって投稿されたもの(投稿はこちら)の抄訳です。

- Posted by Zak Stone, Product Manager for TensorFlow, on behalf of the TensorFlow team

WARNING: The names of some imported commands from the module 'GoogleCloud' include unapproved verbs that might make
them less discoverable. To find the commands with unapproved verbs, run the Import-Module command again with the
Verbose parameter. For a list of approved verbs, type Get-Verb.
PS C:\> cd gs:\
PS gs:\> dir | Select Name

Name
----
blog-posts
chrsmith-demos.appspot.com
chrsmith-pictures
database-snapshots-prod
staging.chrsmith-demos.appspot.com

...

cd  と dir(これらはそれぞれ Set-Location と Get-ChildItem コマンドレットのエイリアスです)を使えば、バケットの階層構造内を移動し、オブジェクトを探すことができます。しかも、通常のファイル システム プロバイダと同様に、ファイル名やフォルダ名ではタブ補完が使えます。

Google Cloud Storage への書き込み

次のコードは、mkdir を使って新しいバケットを作り、Set-Contentコマンドレットによって新しいオブジェクトを作る方法を示しています。なお、Get-Content コマンドレットは、Cloud Storage 内のカレント フォルダ(例 gs:\gootoso-test-bucket\folder)からの相対パスという形のオブジェクト名を取ることに注意してください。

PS gs:\> mkdir gootoso-test-bucket | Out-Null
PS gs:\> Set-Content gs:\gootoso-test-bucket\folder\file.txt `
   -Value "Hello, GCS!"
PS gs:\> Test-Path gs:\gootoso-test-bucket\folder\file.txt
True
PS gs:\> cd .\gootoso-test-bucket\folder
PS gs:\gootoso-test-bucket\folder> cat file.txt

Hello, GCS!

もちろん、Get-GcsBucketNew-GcsObjectCopy-GcsObject など既存の Cloud Storage 用 PowerShell コマンドレットでも同じことが可能です。しかし、新しい PowerShell プロバイダにおいて cd のような一般的なコマンドが使えるようになり、はるかに自然で生産的な操作感が得られるようになりました。

PowerShell プロバイダと従来のコマンドレットの併用

PowerShell プロバイダは他の Cloud Storage コマンドレットと同じオブジェクトを返すので、両者のコマンドを併用することが可能です。たとえば次の例をご覧ください。

PS gs:\gootoso-test-bucket\folder> $objs = dir
PS gs:\gootoso-test-bucket\folder> $objs[0].GetType().FullName
Google.Apis.Storage.v1.Data.Object
PS gs:\gootoso-test-bucket\folder> $objs | Read-GcsObject
Hello, GCS!

PS gs:\gootoso-test-bucket\folder> Write-GcsObject -Object $objs[0] -Contents "update"
PS gs:\> Remove-GcsBucket -Name gootoso-test-bucket

Cloud Storage API 用の C# クライアント ライブラリで定義されているように、返されるオブジェクトはすべて強く型付けされています。そのため、コマンドレットから返されたオブジェクトのプロパティに対して、PowerShell の強力なパイプライン機能を使ってアクセスし、それをソートやフィルタリングのために使用できます。

次のコードは、blog-posts バケットの images フォルダ以下のオブジェクトの中から、最も大きなファイルを探す方法を示しています。

PS gs:\> cd gs:\blog-posts\images
PS gs:\blog-posts\images> $objects = dir -Recurse
PS gs:\blog-posts\images> $objects |
   Sort-Object Size -Descending |

   Select-Object -First 1 -Property Name,TimeCreated,Size


要するに、Cloud Storage 用の PowerShell プロバイダにより、多くのタスクが単純化されるということです。ぜひ、ご自身で試してみてください。プロバイダとその他の PowerShell コマンドレットの詳細については、PowerShell ドキュメントを参照してください。

新しい Cloud Storage 用 PowerShell プロバイダを含む Google Cloud Tools for PowerShell は、現在ベータ テスト中です。コマンドレットの設計やドキュメントへのご意見、その他の問題点などありましたら、GitHub にフィードバックしてください。コードはオープンソースになっていますので、プル リクエストも歓迎します。



* この投稿は米国時間 10 月 25 日、Software Engineers である Jim Przybylinski と Chris Smith によって投稿されたもの(投稿はこちら)の抄訳です。

- Posted by Jim Przybylinski and Chris Smith, Software Engineers


Stackdriver Debugger は、最初から次の言語とプラットフォームをサポートしています。
こうした機能はすべて、Stackdriver Debugger バックエンドとやり取りするための入口としてアプリケーションに公開されている Stackdriver Debugger API を使って実現されています。

この API を利用すれば、独自エージェントを実装し、好みのプログラミング言語用にデバッグ データを集められるようになります。また、お気に入りの IDE で直接デバッグ スナップショットやログポイントを設定して表示できるようにするため、IDE に Stackdriver Debugger UI を実装することも可能です。試しに、私たちはこの API を使用して、gcloud debug コマンドラインに Stackdriver Debugger を統合してみました。

Stackdriver Debugger に磨きをかけるため、皆さんからのフィードバッグや提案をお待ちしています。ぜひ、リクエストやフィードバックをお寄せください。また、新しいエージェントの作成や既存エージェントの拡張などでこのプロジェクトに貢献してみたい方は、こちらのアドレスから Debugger チームにご連絡ください。


* この投稿は米国時間 10 月 21 日、Product Manager である Sharat Shroff によって投稿されたもの(投稿はこちら)の抄訳です。

- Posted by Sharat Shroff, Product Manager



GHCN データは、以前から 米国海洋大気庁(NOAA)のウェブ サイトから自由にダウンロードして分析できるようになっていました。しかし、このデータセットは毎日変更されるので、これを分析するには翌日も同じプロセスを繰り返す必要があります。


そこで、BigQuery にデータをロードしておき、継続的にリフレッシュしていけば、そうした手間はなくなり、研究者やデータ サイエンティストはアナリティクスや機械学習プロジェクトに気象情報を容易に組み込めるようになります。BigQuery は標準 SQL をサポートしており、データ分析を始めるときには非常に便利です。


以下では、BigQuery を使用して GHCN データセットを分析してみましょう。


GHCN 観測所はどこにある?

GHCN データはグローバルなものです。たとえば、2016 年 8 月 15 日の正確な最低気温データを送信したすべての観測所を調べてみます。


SELECT
  name, 
  value/10 AS min_temperature,
  latitude,
  longitude
FROM
  [bigquery-public-data:ghcn_d.ghcnd_stations] AS stn
JOIN
  [bigquery-public-data:ghcn_d.ghcnd_2016] AS wx
ON
  wx.id = stn.id
WHERE
  wx.element = 'TMIN'
  AND wx.qflag IS NULL
  AND STRING(wx.date) = '2016-08-15'


上のクエリからは次の結果が得られます。

Google Cloud Datalab で観測所の位置をプロットすると、観測所の密度は北米やヨーロッパ、日本では非常に良好で、アジアの大半の地域ではまずまずの状態だということがわかります。また、隙間のある地域の大半はオーストラリア内陸部やシベリア、北アフリカなどの人口過少地域と重なっており、大きな穴が空いているのはブラジルのみです。


なお、これ以降はコードの一部だけを示します。完全な BigQuery クエリと Python のプロット コマンドについては、 GitHub 上の Datalab の完全なノートブックを参照してください。
青いドットが世界中の GHCN 気象観測所を示しています


GHCN 気象データをアプリケーションで活用

GHCN データをアプリケーションに取り込む方法を簡単な例で見てみましょう。あなたは米国イリノイ州シカゴに本部を持つピザ チェーンのオーナーで、ピザの需要や配達時間に影響を与える気象変数を調べたいとします。


最初に行うべきことは、本部から最も近い GHCN 観測所を見つけることです。Google マップで調べると、本部の位置は北緯 42 度、西経 87.9 度でした。そこで、観測所と(42, -87.9)の大圏距離を計算すると本部との距離(単位 : km)がわかります(このクエリの内容は Datalab ノートブックを参照してください)。

結果は次のとおりです。
これらの位置を地図上にプロットすると、シカゴ近辺には GHCN 観測所が無数にあることがわかりますが、ピザ店が必要とするのは 3.7 km 離れたオヘア国際空港の USW00094846(赤く表示されているもの)の気象データだと判断できます。
次に、この観測所の一定期間の気象データを抽出します。今回は、2015 年のデータのテーブルからすべての日のデータを抽出します。ミリメートル単位で降水量データ(“precipitation” もしくは PRCP)を取得するには、次のようにクエリを記述します。

SELECT
  wx.date,
  wx.value/10.0 AS prcp
FROM
  [bigquery-public-data:ghcn_d.ghcnd_2015] AS wx
WHERE
  id = 'USW00094846'
  AND qflag IS NULL
  AND element = 'PRCP'
ORDER BY wx.date

GHCN は 1/10 ミリを単位として降水量を返すため、上のクエリでは  wx.value を 10 で割っていることに注意してください。また、精度管理フラグ(qflag)が NULL になっていること(時空間精度管理チェックに合格していることを示す)も確認しています。


とはいえ、気象変数の数はもう少し増やしたいところです。次に示すのは、毎日の降水量、最高気温、最低気温、特定の気象現象(霧、霰、雹、雨など)の有無といったデータを抽出する、より完全なクエリです。

SELECT
  wx.date,
  MAX(prcp) AS prcp,
  MAX(tmin) AS tmin,
  MAX(tmax) AS tmax,
  IF(MAX(haswx) = 'True', 'True', 'False') AS haswx
FROM (
  SELECT
    wx.date,
    IF (wx.element = 'PRCP', wx.value/10, NULL) AS prcp,
    IF (wx.element = 'TMIN', wx.value/10, NULL) AS tmin,
    IF (wx.element = 'TMAX', wx.value/10, NULL) AS tmax,
    IF (SUBSTR(wx.element, 0, 2) = 'WT', 'True', NULL) AS haswx
  FROM
    [bigquery-public-data:ghcn_d.ghcnd_2015] AS wx
  WHERE
    id = 'USW00094846'
    AND qflag IS NULL )
GROUP BY
  wx.date
ORDER BY
  wx.date
このクエリは、ミリメートル単位の降水量、摂氏での最高 / 最低気温、影響力の強い気象現象の有無を返します。
この結果を Pandas DataFrame にキャストすると、Datalab で簡単にグラフ化することができます( クエリとプロットのためのコードについては、GitHub 上のノートブックを参照してください)。

BigQuery Views と Data Studio 360 ダッシュボード

前述のクエリでは一部のフィールドをピボット化し、変換しているので、クエリを View として保存できます。そのためには、単純にクエリを BigQuery コンソールにコピー & ペーストし、“Save View” を選択します。

SELECT
  REPLACE(date,"-","") AS date,
  MAX(prcp) AS prcp,
  MAX(tmin) AS tmin,
  MAX(tmax) AS tmax
FROM (
  SELECT
    STRING(wx.date) AS date,
    IF (wx.element = 'PRCP', wx.value/10, NULL) AS prcp,
    IF (wx.element = 'TMIN', wx.value/10, NULL) AS tmin,
    IF (wx.element = 'TMAX', wx.value/10, NULL) AS tmax
  FROM
    [bigquery-public-data:ghcn_d.ghcnd_2016] AS wx
  WHERE
    id = 'USW00094846'
    AND qflag IS NULL
    AND value IS NOT NULL
    AND DATEDIFF(CURRENT_DATE(), date) < 15 )
GROUP BY
  date
ORDER BY
  date ASC

上のクエリでは、DATEDIFF および CURRENT_DATE 関数を使って過去 2 週間分の気象データを取得していることに注意してください。このクエリを View として保存すると、まるで BigQuery テーブルであるかのように View にクエリを送り、ビジュアル化することができます。


ビジュアライズを考慮したうえで Data Studio を使用すれば、この View から簡単にダッシュボードを作れます。たとえば次のとおりです。


ここで忘れてならないのは、GHCN の “H” は履歴(historical)を表していることです。このデータはリアルタイムではなく、タイム ラグを含んでいます。たとえば、このクエリを実行したのは 8 月 25 日ですが、表示されているデータは 8 月 22 日のものです。

BigQuery でのデータセットのマッシュ

分析プログラムから気象データのクエリを実行し、その結果を他の企業データと結合することは非常に簡単です。


他の企業データが BigQuery 上にある場合は、すべてを 1 つのクエリにまとめることができます。たとえば、同じように一般公開されている BigQuery データセットの 1 つに、航空機の定時到着データがあります。これを GHCN とマッシュしてみましょう。


SELECT
  wx.date,
  wx.prcp,
  f.departure_delay,
  f.arrival_airport
FROM (
  SELECT
    STRING(date) AS date,
    value/10 AS prcp
  FROM
    [bigquery-public-data:ghcn_d.ghcnd_2005]
  WHERE
    id = 'USW00094846'
    AND qflag IS NULL
    AND element = 'PRCP') AS wx
JOIN
  [bigquery-samples:airline_ontime_data.flights] AS f
ON
  f.date = wx.date
WHERE
  f.departure_airport = 'ORD'
LIMIT 100

このクエリにより、航空機の遅延と気象情報の両方の情報を含むテーブルが作られます。

Python の Seaborn パッケージを使えば、Datalab で分布を見ることができます。

予想どおり、雨が激しければ激しいほど、分布曲線は航空機遅延が増えていることを示す右寄りになっています。


GHCN データが BigQuery で利用できるようになったことで、気象データはあらゆるデータ アナリティクス、機械学習アプリケーションに開放され、“民主化” されました。皆さんがこのデータを使ってまったく新しいアプリケーションを開発することを、私たち Google は心待ちにしています。



* この投稿は米国時間 9 月 22 日、Google Cloud Platform Professional Services の Lak Lakshmanan によって投稿されたもの(投稿はこちら)の抄訳です。
- Posted by Lak Lakshmanan, Google Cloud Platform Professional Services




経験豊富なユーザーや、Google Cloud Platform 上の Python について詳しく知りたい方には、この Bookshelf チュートリアルをお勧めします。

App Engine で Python アプリケーションを実行する際は、お気に入りのツールやデータベースを利用可能です。アプリケーションの構築には、Flask、Django、Pyramid、Falcon、Tornado といったフレームワークを使用できます。MongoDBMySQLGoogle Cloud Datastore の使い方については、サンプルをチェックしてみてください。

Google Cloud Client Library を使えば、シンプルでわかりやすい API フォーマットで、Google BigQueryGoogle Cloud Pub/SubGoogle Cloud Storage など、Google の先進的な API やサービスを活用できます。
from gcloud import storage
client = storage.Client(‘<your-project-id>’)
bucket = client.get_bucket('<your-bucket-name>')
blob = bucket.blob('my-test-file.txt')
blob.upload_from_string('this is test content!')


Python 3 開発者の皆さんを Google Cloud Platform にお迎えできることを、私たちはとてもうれしく思います。皆さんが生産性を最大限に高めることができるように、App Engine standard および flexible environment にさらなる投資を行っていくことをお約束します。

ご意見、ご感想、ご要望がありましたら、ご遠慮なく Twitter でご連絡ください(@googlecloud)。Google Cloud の Slack コミュニティもあります。連絡を取るには、招待をリクエストして Slack Python チャンネルに参加してください。


- Posted by Amir Rouzrokh, Product Manager


GitHub のオープンソース リポジトリの完全なスナップショット(3 TB 超)が BigQuery で利用できることが、GitHub から発表されました。それから数週間が経過しましたが、Google Cloud Platform コミュニティはずっと大忙しです。

Google のデベロッパー アドボケート(DA)である Felipe Hoffa は、こちらのブログ記事の中で、この分析でできることや、分析にあたっての注意点を紹介しました。

同じく DA の Francesc Campoy もこれに続き、GitHub 上の Go パッケージを分析した記事を公開しました。BigQuery のユーザー定義関数を使うことで、非常に複雑なクエリを作成できることを発見したと記しています。

新任の DA の 1 人である Guillaume Laforge は、GitHub 上には 74 万 3,070 個の Groovy ファイルがあり、その総コード行数が 1,646 万 4,376 行であることを報告しています。

また、CloudFlare の Filippo Valsorda 氏(OpenSSL の Heartbleed 脆弱性が発覚した際に、特定のサイトにこの脆弱性があるかどうかをチェックできるサイトを開発、公開したセキュリティ専門家)は、Go のエコシステムにおける “vendoring” の利用状況の分析結果を公開しています。

一方、Google のビッグデータおよび機械学習担当のプログラム マネジャーを務める Lak Lakshmanan は、Medium で公開した記事の中で、FIXME や TODO といったタグ付きのコメントを BigQuery を使って検索することで、人気のある Java プロジェクトのうち、特に助力を必要としているものはどれかについて発見したと報告しています。

Lakshmanan はさらに、Google Cloud Dataflow を使用して、BigQuery でのクエリから Java コードの書き込みへと、データを段階的に処理するパイプラインを構築する方法も紹介しています。

Robert Kozikowski 氏のブログもチェックしてみてください。ここは、GitHub データの興味深い分析結果の宝庫です。たとえば、Python パッケージ間の関係の可視化や、Pandas、NumPy、SciPy で最も使われている関数最も使われている Emacs パッケージ最も使われている Angular ディレクティブに関する記事が公開されています。

BigQuery による GitHub データセットの分析についての情報がまだ物足りない方は、Changelog のポッドキャストもお聞きになってみてください。きっとご満足いただけることでしょう!

- Posted by Alex Barrett, Editor, Google Cloud Platform Blog
Share on Twitter Share on Facebook



ビッグデータや広帯域に、あるいはその両方に関心がおありでしたら、Google Cloud Platform(GCP)をめぐる最近の動向は見逃せません。


たとえば、Google のクラウド データ ウェアハウスおよび分析サービスである BigQuery にホストされている GitHub Archive プロジェクトで、GitHub の 3 TB 超のデータセットが新たに公開されました。ドキュメントには次のように書かれています。


「(このデータセットは)GitHub の 280 万を超えるオープンソース リポジトリの完全なスナップショットを提供します。その中には、1 億 4,500 万件以上のコミット、20 億以上のファイル パス、1 億 6,300 万個のファイルの最新版が含まれます。これらすべてを正規表現で検索できます」


このデータセットから、何がどのようにわかるのでしょうか。Google のデベロッパー アドボケートである Francesc Campoy は一例として、このデータセットに Go ファイルがいくつあるかを問い合わせました。すると、BigQuery は 20 億行のデータを 6 秒で調べ、1,262 万 4,178 個という答えを返しました。


同様に、.edu ドメインの中でどのドメインのコントリビューターが最もコミット数が多いかを問い合わせると、6 月下旬の時点で berkeley.edu ドメインのコントリビューターが 816 件で首位を占めました(カリフォルニア大学バークレー校でコンピュータ科学を専攻する学生に GCP の一定額のクレジットを無料で提供すると、私たちに興味を持ってもらえるかもしれません)。


さらに特大のニュースがあります。Google が参加するコンソーシアムの海底ケーブル システム FASTERが 6 月末から運用を開始したことです。Google は、総延長約 9,000 km に及ぶこの光海底ケーブルの敷設に 3 億ドルを投資しました。


本格運用に入れば、Google はオレゴン州と日本を結ぶこのケーブルの帯域幅のうち 10 Tbps(テラビット / 秒)までアクセスできるようになります。これは、平均的なケーブル モデムのおよそ 1 千万倍高速です。


Google が所有する運用中の海底ケーブルは FASTER で 4 本目となります。海底ケーブルを所有する IT 企業は、Google のほかにはまだありません


- Posted by Alex Barrett, Editor, Google Cloud Platform Blog
Share on Twitter Share on Facebook



このたび、Google は GitHub の協力を得て、Google BigQuery 上で驚くべきオープン データセットをリリースしました。これまでも 2011 年以降の GitHub のパルスを監視、分析することはできましたが(GitHub Archive プロジェクトに感謝!)、これを完全に補完する新しいサービスを追加したのです。


たった 1 つの SQL コマンドで世界中のあらゆるオープンソース ソフトウェアを分析できるとしたら、あなたは何をしますか。想像してみてください。


Google BigQuery Public Datasets プログラムは、GitHub の 280 万を超えるオープンソース リポジトリの完全なスナップショットを BigQuery 内で提供します。こうした GitHub とのコラボレーションにより、単純な(そして複雑な)SQL クエリを使って 20 億個近いファイルのソースコードを分析できるのです。これはいわば、私たちがイメージし始めたばかりの新たな洞察と進歩の扉を開くものかもしれません。


たとえば、あなたは人気の高いオープンソース ライブラリの作者だとしましょう。今回の新しいサービスにより、あなたのライブラリを使用しているあらゆる GitHub オープンソース プロジェクトを検索できます。


さらに、ライブラリがどのように使われているかを分析してプロジェクトの将来の方向性を決めたり、ユーザーによるライブラリの使用状況に基づいて API を改善したりすることも可能です。


セキュリティ面から言えば、人気の高いオープンソース プロジェクトのほとんどは多くの人間がかかわっており、そのぶん得をしています。見られることによってプロジェクトは強化され、バグのあるコードが減るからです。


他のオープンソース プロジェクトで同じパターンのエラーを検索したときは、そのことを他の作者に知らせたり、プル リクエストを送ったりしようとしますよね。そういったことが、今回の新サービスでは容易になります。


BigQuery と GitHub コンテンツ データセットを操作するにあたって、頭に入れておくべきことがいくつかあります。




詳細を知りたい方は、GitHub の発表をご覧いただくとともに、サンプル クエリを試してみてください。また、実行したクエリやお気づきの点を reddit.com/r/bigqueryHacker News でシェアしてください。アイデアは無限です。私は Medium のこの投稿で、リンクや他の記事を集めるつもりです。


好奇心旺盛であり続けましょう!

- Posted by Felipe Hoffa, Google Developer Advocate
Share on Twitter Share on Facebook