Apple Intelligenceのテストがアメリカで開発者向けにスタート。日本で一般向けに使えるのは2025年以降になる。
出典:アップル
アップルは7月30日、AI機能「Apple Intelligence」の一部を開発者向けに公開した。
Apple Intelligenceは2024年6月の開発者会議「WWDC24」で発表されたAI機能群だ。
今回の公開は、あくまでアメリカの開発者向けに、発表された機能のうちごく一部が提供された段階。一般向けの公開は先であり、英語以外での公開も2025年以降とされている。
記事の内容が「すぐ使える」わけではなく、現状での導入を推奨するものではない。
しかし、今後アップルがなにをしようとしているのか、どんな変化が現れるのかは、今回公開されたものからも見えてくる。
なお、本記事は報道目的に画像を利用する許諾を得て執筆している。
慎重に「アメリカ・開発者向け」から展開
アップルに限らず、スマートフォンでは「AI活用」が注目されるようになっている。単純な性能アップでは差別化しづらくなり、AIで利便性を高めることが重要と判断されているからだ。
アップルが開発中の「Apple Intelligence」もその流れの中にある。
ただし、他社と違うのは、iPhoneだけでなくiPadやMacでも同じ機能が搭載されるということだ。
今回のテストは、「開発者向けの初期公開バージョン」であるiOS 18.1 Beta/iPadOS 18.1 Betaを利用し、「iPhone 15 Pro Max」と「iPad Pro(13インチモデル、M4搭載)」を使っている。今回のベータ版はアメリカ向けに英語で提供されているため、機器の設定は「地域がアメリカ」「システムとSiriの言語設定が英語」でないと動作しない。
さらに、一旦ウィッシュリストに登録し、順次利用可能になる形式。アップルは、慎重にスタートしている印象だ。
開発者向けベータ版を導入した上で「地域がアメリカ」「システムとSiriの言語設定が英語」でないと動作しない。
画像:筆者によるスクリーンショット
また、アップルはApple Intelligenceに多彩な機能を実現しようとしているが、今回のベータ版にはその一部のみが搭載されている。
現時点で使える試験運用中の機能の例
- 音声アシスタント「Siri」の改善
- 文章生成・要約などができる「Writing Tool」
- 写真アプリの改善
- 音声通話の録音と書き起こし
現時点で搭載されていない機能の例
- 画像生成
- オリジナル絵文字生成(Genmoji)
- 通知の優先順位付け
- 個人的なアプリ利用状況を加味したSiriでの対話
- 「ChatGPT」との連携
オリジナルの絵文字を生成する「Genmoji」はまだ未搭載。
出典:アップル
別の言い方をすれば「文章と会話に関する機能」が中心であり、言語依存性が高い。「英語のみ」でテスト公開されたのも理解できる。
例えば、「メール」アプリでは一発で英語のメールを要約したり、「Writing Tools」でリストにまとめたりできる。
文章製作をサポートする「Writing Tools(記述ツール)」はテスト提供が開始された。
出典:アップル
「メール」で文面の上にある「Summarize(要約)」ボタンをクリックするだけで、メール文面全体を要約できる。
画像:筆者によるスクリーンショット
メールなどテキストが含まれる部分を選択すると「Writing Tools」が表示され、その部分を要約したり箇条書き(リスト化)したりできる。
画像:筆者によるスクリーンショット
Siriも英語での応答性が良くなったと感じるが、ここはもう少し使ってみないと(英語がネイティブでない自分には)わかりづらい。
わかりやすいのは、従来の「ボールが表示されるUI」から、画面の周囲の色が変わるものに変更された点だ。
従来、Siriが呼び出される時は「丸いボール」だった。
画像:筆者によるスクリーンショット
Apple Intelligenceがオンだと「画面周囲の色が変わる」エフェクトに変化。
画像:筆者によるスクリーンショット
「机の上のチャンピオンベルト」の写真を文章で検索
それ以上に大きな変化だと感じたのは「写真」アプリでの写真検索だ。
以前からアップルの写真アプリでは、写っているものや場所でキーワード検索ができた。ただ、こうした機能はグーグルも含め、他のプラットフォームでも可能だった。
内容を検索できるといってもシンプルなキーワードレベルなので、思ったようには情報が見つからないという課題があった。
だが、Apple Intelligence導入後は変わる。以下は、「Champion belt on the table(机の上にあるチャンピオンベルト)」という文章で検索した時のものだ。
先日取材で撮影したものなのだが、ちゃんと「机の上にあるチャンピオンベルト」の写真が優先で出てきているがお分かりいただけるだろうか。
Apple IntelligenceをオンにしてPhotosで「Champion belt on the table(机の上にあるチャンピオンベルト)」を検索した結果。見事最初に該当する写真が表示された。
画像:筆者によるスクリーンショット
ここでApple Intelligenceをオフにすると、検索結果は出てこない。
Apple Intelligenceをオフにすると、同じ検索をしても結果は出てこない。
画像:筆者によるスクリーンショット
Pixel Foldの「Googleフォト」で同じ検索をした場合でも出てこない。
画像:筆者によるスクリーンショット
もう少しシンプルな例を試してみよう。
「raw meat(生肉)」と検索してみる。人間ならすぐわかるものだが、従来の写真検索では出てこない。
しかし、Apple Intelligenceがオンだと、ちゃんと「生肉」の写真が出てくる。
Apple Intelligenceがオフだと「raw meat(生肉)」のような簡単な言葉でも検索できない。しかし、Apple Intelligenceがオンなら、iPhoneは「生肉」を見分けられるようになる。
画像:筆者によるスクリーンショット
要は、写真アプリに登録された写真をApple Intelligenceが解析し「なにが写っているか」の情報をまとめているということだ。
さらに、質問の章の中身を解釈して、「質問に合う写真」をピックアップしてくれている、ということだ。
もちろん、すべてが正確なわけではない。
チャンピオン・ベルトの例では、机の上にいくつかのマーカーが置かれた写真を間違えてピックアップしてもいるし、まったく違うものが机の上にある写真も出てきている。
生肉を検索したはずなのにステーキや鍋が出てきてもいる。さらに、質問によってはまったく見当違いな回答をすることもあった。
しかし、いままでに難しかったことができるようになったのは間違いない。「デジタル機器がAIの力で便利になる」可能性のひとつだと言える。
「デバイス内でAI処理」にこだわるアップル
そして、この機能について重要であるのは、「基本的にAIの処理は機器の中で行われている」ということだ。
一般的に、高度なAI処理はクラウド上で行われてきたし、写真もクラウドに蓄積して解析する場合が多い。
その代表例がGoogleフォトだ。スマホがオフラインになると検索できなくなる。
しかし、Apple IntelligenceはWriting Toolsでも写真アプリでの高度な検索にでも、すべてデバイス内で処理がされている。
あえてiPhoneを「機内モード」にして通信を遮断しても、要約や検索などの機能が使える。
アップルが「デバイス内処理」にこだわっているのは、AI処理時を利用者の持つ機器に閉じることで、プライバシー上の懸念を払拭するためだ。
Apple Intelligenceで同社はプライバシーを重視。
出典:アップル
もちろんクラウド利用=プライバシー上のリスクがある、と考えるのは早計だ。例に挙げたグーグルの場合も、「クラウド上で適切なプライバシー保護をしている」と説明している。
ただアップルは、そこであえて「デバイス内処理」「プライバシー上の懸念の排除」にこだわることで、他社との差別化を図ろうとしている。
一方、デバイス内処理にこだわることで、動作には高性能なプロセッサーが必要になっている。
現在販売されているiPhoneの場合「iPhone 15 Pro/15 Pro Max」が必要で、iPadやMacも「M1」などのMから始まるプロセッサーを採用したものだけが動作対象となる。
Apple Intelligenceの動作対象機種。現状のiPhoneでは最新の上位モデルに当たる「iPhone 15 Pro」シリーズのみだ。
出典:アップル
動作速度の差は正直体感できなかったが、iPhoneよりもM4搭載のiPad Proの方が「動作時の熱」が低いと感じられた。これはM4が持つAI処理性能の高さゆえかもしれない(あるいは、単にiPad Proの方が放熱設計で有利なだけかもしれない)。
開発初期段階で一定の価値が見えること、プロセッサーの差で快適さが変わりそうだと感じられる。
今秋発売予定の新しいiPhoneは、さらにAI処理を意識したプロセッサーを採用してくる可能性が高いのではないか。