アップルの生成AI「Apple Intelligence」開発版を使って分かった“賢さ”とは。他社との違いを探った

Apple Intelligence

Apple Intelligenceのテストがアメリカで開発者向けにスタート。日本で一般向けに使えるのは2025年以降になる。

出典:アップル

アップルは7月30日、AI機能「Apple Intelligence」の一部を開発者向けに公開した。

Apple Intelligenceは2024年6月の開発者会議「WWDC24」で発表されたAI機能群だ。

今回の公開は、あくまでアメリカの開発者向けに、発表された機能のうちごく一部が提供された段階。一般向けの公開は先であり、英語以外での公開も2025年以降とされている。

記事の内容が「すぐ使える」わけではなく、現状での導入を推奨するものではない。

しかし、今後アップルがなにをしようとしているのか、どんな変化が現れるのかは、今回公開されたものからも見えてくる。

なお、本記事は報道目的に画像を利用する許諾を得て執筆している。

慎重に「アメリカ・開発者向け」から展開

アップルに限らず、スマートフォンでは「AI活用」が注目されるようになっている。単純な性能アップでは差別化しづらくなり、AIで利便性を高めることが重要と判断されているからだ。

アップルが開発中の「Apple Intelligence」もその流れの中にある。

ただし、他社と違うのは、iPhoneだけでなくiPadやMacでも同じ機能が搭載されるということだ。

今回のテストは、「開発者向けの初期公開バージョン」であるiOS 18.1 Beta/iPadOS 18.1 Betaを利用し、「iPhone 15 Pro Max」と「iPad Pro(13インチモデル、M4搭載)」を使っている。今回のベータ版はアメリカ向けに英語で提供されているため、機器の設定は「地域がアメリカ」「システムとSiriの言語設定が英語」でないと動作しない。

さらに、一旦ウィッシュリストに登録し、順次利用可能になる形式。アップルは、慎重にスタートしている印象だ。

AI機能のトグル

開発者向けベータ版を導入した上で「地域がアメリカ」「システムとSiriの言語設定が英語」でないと動作しない。

画像:筆者によるスクリーンショット

また、アップルはApple Intelligenceに多彩な機能を実現しようとしているが、今回のベータ版にはその一部のみが搭載されている。

現時点で使える試験運用中の機能の例

  • 音声アシスタント「Siri」の改善
  • 文章生成・要約などができる「Writing Tool」
  • 写真アプリの改善
  • 音声通話の録音と書き起こし

現時点で搭載されていない機能の例

  • 画像生成
  • オリジナル絵文字生成(Genmoji)
  • 通知の優先順位付け
  • 個人的なアプリ利用状況を加味したSiriでの対話
  • 「ChatGPT」との連携

Genmoji

オリジナルの絵文字を生成する「Genmoji」はまだ未搭載。

出典:アップル

別の言い方をすれば「文章と会話に関する機能」が中心であり、言語依存性が高い。「英語のみ」でテスト公開されたのも理解できる。

例えば、「メール」アプリでは一発で英語のメールを要約したり、「Writing Tools」でリストにまとめたりできる。

Writing Tools

文章製作をサポートする「Writing Tools(記述ツール)」はテスト提供が開始された。

出典:アップル

メールでの要約機能

「メール」で文面の上にある「Summarize(要約)」ボタンをクリックするだけで、メール文面全体を要約できる。

画像:筆者によるスクリーンショット

選択箇所の要約機能

メールなどテキストが含まれる部分を選択すると「Writing Tools」が表示され、その部分を要約したり箇条書き(リスト化)したりできる。

画像:筆者によるスクリーンショット

Siriも英語での応答性が良くなったと感じるが、ここはもう少し使ってみないと(英語がネイティブでない自分には)わかりづらい。

わかりやすいのは、従来の「ボールが表示されるUI」から、画面の周囲の色が変わるものに変更された点だ。

現状のSiri

従来、Siriが呼び出される時は「丸いボール」だった。

画像:筆者によるスクリーンショット

新しいSiri

Apple Intelligenceがオンだと「画面周囲の色が変わる」エフェクトに変化。

画像:筆者によるスクリーンショット

「机の上のチャンピオンベルト」の写真を文章で検索

それ以上に大きな変化だと感じたのは「写真」アプリでの写真検索だ。

以前からアップルの写真アプリでは、写っているものや場所でキーワード検索ができた。ただ、こうした機能はグーグルも含め、他のプラットフォームでも可能だった。

内容を検索できるといってもシンプルなキーワードレベルなので、思ったようには情報が見つからないという課題があった。

だが、Apple Intelligence導入後は変わる。以下は、「Champion belt on the table(机の上にあるチャンピオンベルト)」という文章で検索した時のものだ。

先日取材で撮影したものなのだが、ちゃんと「机の上にあるチャンピオンベルト」の写真が優先で出てきているがお分かりいただけるだろうか。

検索結果

Apple IntelligenceをオンにしてPhotosで「Champion belt on the table(机の上にあるチャンピオンベルト)」を検索した結果。見事最初に該当する写真が表示された。

画像:筆者によるスクリーンショット

ここでApple Intelligenceをオフにすると、検索結果は出てこない。

AIオンオフ比較

Apple Intelligenceをオフにすると、同じ検索をしても結果は出てこない。

画像:筆者によるスクリーンショット

Google フォト

Pixel Foldの「Googleフォト」で同じ検索をした場合でも出てこない。

画像:筆者によるスクリーンショット

もう少しシンプルな例を試してみよう。

「raw meat(生肉)」と検索してみる。人間ならすぐわかるものだが、従来の写真検索では出てこない。

しかし、Apple Intelligenceがオンだと、ちゃんと「生肉」の写真が出てくる。

AIオンオフ比較

Apple Intelligenceがオフだと「raw meat(生肉)」のような簡単な言葉でも検索できない。しかし、Apple Intelligenceがオンなら、iPhoneは「生肉」を見分けられるようになる。

画像:筆者によるスクリーンショット

要は、写真アプリに登録された写真をApple Intelligenceが解析し「なにが写っているか」の情報をまとめているということだ。

さらに、質問の章の中身を解釈して、「質問に合う写真」をピックアップしてくれている、ということだ。

もちろん、すべてが正確なわけではない。

チャンピオン・ベルトの例では、机の上にいくつかのマーカーが置かれた写真を間違えてピックアップしてもいるし、まったく違うものが机の上にある写真も出てきている。

生肉を検索したはずなのにステーキや鍋が出てきてもいる。さらに、質問によってはまったく見当違いな回答をすることもあった。

しかし、いままでに難しかったことができるようになったのは間違いない。「デジタル機器がAIの力で便利になる」可能性のひとつだと言える。

Popular

Popular

${item.title}

${item.sponsoredValue}

`; if ( $(target).length ) { $(target).append(adBlock); } else if ( $(target2).length ) { $(target2).append(adBlock2); } } }); })();

BI編集部 注目の3冊
PR

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい

広告のお問い合わせ・媒体資料のお申し込み