
✅この記事では、iOS 27でSiriがどう変わるのか──専用チャットアプリの登場、Google Gemini基盤の採用、サードパーティAIとの連携まで、WWDC 2026を前にした最新の全体像をまとめています。
- 要点まとめ:Siriは音声アシスタントからiPhoneのAI窓口へ変わろうとしています
- Siriが独立アプリになる意味は、けっこう大きいです
- できることの幅がかなり広がります
- 見た目もけっこう変わります
- 裏側はGoogle Geminiが支えています
- ClaudeやGeminiも呼び出せるようになります
- 注目したいポイント:期待が大きいぶん、未確定の部分もまだ残っています
- 海外の反応:期待よりも「本当に出るのか」という声がかなり強いです
- ひとこと:今回のSiriは、ただ賢くなるのとは少し違います
- まとめ:Siriの役割そのものが変わる年になりそうです
どうも、となりです。
Siriの話は、ここ1年以上ずっと「次こそ変わる」と言われ続けてきました。正直、もう何回「Siri刷新」という見出しを見たか分からない人もいると思います。ぼくもそうです。
ただ、今回はこれまでの噂とちょっと空気が違います。Appleが2026年6月8日から始まるWWDC 2026で、iOS 27・iPadOS 27・macOS 27の中心テーマとしてSiriの再設計を披露する見込みで、その全体像がかなり具体的になってきたからです。独立したチャットアプリ化、Google Geminiとの提携、サードパーティAIの受け入れまで、複数の噂が1本の線につながり始めています。もちろんまだ公式発表前なので確定ではありませんが、少なくとも「何を変えようとしているのか」の輪郭はだいぶ見えてきました。
要点まとめ:Siriは音声アシスタントからiPhoneのAI窓口へ変わろうとしています
今回の話でいちばん大きいのは、Siriが「声で呼んで一発で返す道具」から「会話を続けてOSを動かす入口」へ変わろうとしていることです。見た目が変わるだけではなく、検索も操作もアプリ連携も、全部Siri側へ寄せていく構想がかなりはっきり出てきました。
- SiriアプリがiPhone、iPad、Mac向けに用意され、テキストと音声の両方で対話できる見通しです。iMessageのようなチャットバブル形式で、会話履歴をグリッドやリストで表示し、お気に入り登録や検索にも対応します。
- Spotlightの役割をSiri側へ寄せる方向が報じられていて、検索と操作をひとつの窓口に統合する動きです。
- 画面認識が加わり、開いているウィンドウや表示中のコンテンツを解析して操作を提案・実行できるようになる見込みです。
- 主な新機能として、ウェブ検索(視覚的な結果つき)、画像生成、コンテンツ作成、情報の要約、ファイル解析、メールやメッセージからの情報抽出、デバイス設定の制御、Xcodeでのコーディング支援が挙がっています。
- Dynamic IslandにSiriが統合され、処理中は発光アイコンと「検索中」ラベルが表示されたあと、半透明パネルで結果が広がるUIがテスト中です。
- キーボードには「Siriで書く(Write with Siri)」が追加され、その場でライティングツールを呼び出せるようになります。
- 裏側はGoogle Geminiのモデルとクラウド技術が基盤を担い、Apple専用のカスタムAIモデルはGemini 3級の性能と伝えられています。
- 設定アプリに「Extensions」が新設され、ChatGPTに加えてGoogle GeminiやAnthropicのClaudeもSiri経由で使えるようになる方向です。
- 初披露はWWDC 2026(現地時間6月8日〜12日)、一般向け展開は2026年9月が有力ですが、機能の一部が後日アップデートへ回される可能性は残ります。なお、日本での提供時期や対応言語は現時点で未発表です。
つまり、iOS 27のSiriは「音声で聞いて返ってくる機能」ではなく、検索、操作、入力、アプリ連携をまとめて受ける対話窓口へ作り変えられようとしています。ただ、これだけ大きい話なので、WWDC時点で全部がそろうかはまだ分かりません。
Siriが独立アプリになる意味は、けっこう大きいです
今回のSiriでまず目を引くのは、独立したチャットアプリが用意されることです。見た目はかなりChatGPTやClaudeのようなチャットボットに近くて、iMessageのような吹き出し形式で会話が並び、テキスト入力欄が下にあります。
ここで変わるのは、質問のしかたより「残りかた」です。いまのSiriは1回ごとの呼び出しが基本で、返答はそのまま流れていきます。新しい形は会話を保存し、お気に入りに入れ、あとから検索して再利用できます。ちょっとした違いに見えて、使い勝手はかなり別物なんですよね。
入力方式もテキストと音声を切り替えられるので、電車の中や静かな職場のように声を出しにくい場面でも扱いやすくなります。Appleはもともと「声で呼ぶ」をSiriの前提にしてきましたが、今回は文字でじっくり使う道もちゃんと作ってきました。
もうひとつ見逃しにくいのは、Siriがアプリとして独立しても、システム統合は維持される点です。サイドボタンや「Siri」の呼びかけでの起動はそのままですし、Mail、Messages、Photos、Apple TV、Xcodeといった純正アプリへの統合もかなり深く入る方向です。独立アプリと深い統合の両方を同時にやるなら、Siriは「1個のアプリが増えた」では済まない存在になります。
この話は、iOS 27でSiriが独立アプリ化するとされる話の時点からかなり強まっていて、その後Extensionsや外部AI連携の噂まで重なったことで、方向性はほぼ確実と見られ始めています。
できることの幅がかなり広がります
独立アプリの話だけだと「チャットの入れ物が変わるだけ」に見えますが、中身もかなり厚いです。MacRumorsの噂まとめでは、SiriがSpotlight検索の役割まで引き受ける方向が出ていて、情報を探すことと操作をすることが同じ場所でつながります。
たとえば、画面に表示されている内容をSiriが認識して、そこから直接アクションを起こせる画面認識(On-screen awareness)が入るとされています。メールの文面を見ながらリマインダーを作る、表示中の写真を編集する、メッセージの相手に返信するといった操作が、アプリを切り替えなくても自然につながる世界です。
使えるようになる機能として具体的に名前が挙がっているのは、ウェブ検索(視覚的な結果つき)、画像生成、コンテンツ作成、情報の要約、ファイル解析、メール・メッセージからの情報抽出、デバイス設定の制御、Xcodeでのコーディング支援です。これだけ並ぶとかなり広いですが、大事なのは「全部がSiriから始められる」点です。
ここで引っかかるのは、これだけ守備範囲が広がると、ひとつの失敗が目立ちやすくなることです。メール送信、写真検索、設定変更、コーディング支援と広がるほど、少しでもスカスカな場面があると「結局Siriは使えない」という印象に戻りやすい。ぼくがいちばん気にしているのは、機能の数より成功率のほうなんですよね。
見た目もけっこう変わります
UIまわりの変化も思ったより大きいです。Siriを起動すると「Search or Ask(検索か質問か)」と促す新しいアニメーションが出て、Dynamic Islandには光るSiriアイコンと「検索中」の表示が入ります。処理が終わると、Liquid Glassデザインの半透明パネルで結果が広がり、そこからプルダウンすると会話画面に入る構成です。
今のSiriの全画面感が苦手だった人には、Dynamic Island経由の表示のほうがかなり自然に感じるはずです。ちょっとした質問なら結果パネルだけで済み、深掘りしたいときだけ会話に入る。この段階的な見せ方は、使い方に合わせて情報の量を選べるので合理的です。
Apple純正アプリのメニューに「Siriに聞く」ボタンを置く案もあります。今見ているコンテンツをそのままSiriへ送れるので、アプリの中からでもAIに相談しやすくなります。さらにキーボード上部に「Siriで書く」ボタンが入ると、文章の途中でもWriting Toolsをそのまま呼び出せます。
Siriがアプリの外にも内にも顔を出す設計は、「AIは必要なときだけ開くもの」という前提を変えてきます。便利に転ぶか、邪魔に感じるかは、どの場面で出しゃばらず、どの場面で自然に出てくるかにかかっています。ここの押し引きをAppleがどこまで整えてくるかが、評価を大きく分けそうです。
裏側はGoogle Geminiが支えています
今回いちばん引っかかる人が多いのは、たぶんここです。Bloombergなどの有力報道では、iOS 27のSiriチャットボットと新機能の基盤として、GoogleのGeminiモデルとクラウド技術が使われるとされています。
2026年1月には、AppleとGoogleが複数年の提携を発表し、「次世代のApple Foundation ModelsはGoogleのGeminiモデルとクラウド技術をベースにする」と共同声明を出しました。Siri用のカスタムAIモデルはGoogleのGeminiチームが開発し、性能はGemini 3に匹敵するとされています。しかもApple社内のモデルより強いという見方まで出ています。
さらに踏み込んだ話として、Appleのインフラだけでは数十億台の端末からのチャットボットリクエストを処理しきれない可能性があるため、GoogleのTPU(AI処理向け専用サーバー)上でSiriを動かす協議も進んでいるとされます。
ここは、「AppleがGoogleに負けた」と受け取る人もいるかもしれません。ただ、見方を変えると、Appleは足りないところを外から借りてでもSiriを前に進める判断をした、とも言えます。巨大モデルの競争を正面からやるより、速さ・電池持ち・プライバシーが問われる部分は自社チップで回し、重い知識は外から引く。iPhoneを中心に残したい会社としては、かなり現実的な選択です。
とはいえ、プライバシーの扱いは気になります。Appleはこれまで「できるだけオンデバイス」「渡すにしてもデータは最小限」を何度も言ってきました。でも今回のSiriは会話履歴、個人データ、画面内容、外部AI連携まで扱う話なので、便利さを上げるほど保存と処理の線引きが難しくなります。Appleがどこまでオンデバイスで閉じ、どこからGoogleやサードパーティへ渡すのか、その説明はかなり大事です。プライバシーと便利さのバランスをAppleがどう言葉にするか、ぼくはそこが今回いちばんの焦点だと思っています。
基盤技術の前提をもう少し追いたい場合は、AppleがGeminiをiPhone向けに蒸留する動きを見ると、外部モデルを借りつつApple流に作り替える方向が分かりやすいです。
ClaudeやGeminiも呼び出せるようになります
もうひとつかなり大きいのが、設定アプリに「Extensions」という新しい項目が加わり、Siriからサードパーティ製AIを呼び出せるようになる話です。現時点で名前が挙がっているのは、OpenAIのChatGPT、GoogleのGemini、AnthropicのClaudeです。
いまもSiriからChatGPTへ質問を渡す形はありますが、今回はその枠をかなり広げるものです。ユーザーが選ぶ、あるいはSiriが内容に応じて振り分ける形まで視野に入っているとすれば、Siriは「答える人」ではなく「適切なAIへ渡す司令塔」に近づきます。
この設計は、かなり上手いです。Apple Intelligenceを守りながら、外部AIの便利さも取り込める。しかもApp Store経由で追加AIのサブスクリプションを管理するなら、課金の決済面でもAppleが主導権を持てます。どのAIが賢いかの勝負はこれからも揺れますが、iPhoneの中で迷わず使えるかどうかは入口の作りで決まります。Appleはまさにその入口を握りにいっているんですよね。
一方で、不安も残ります。外部AIへ内容を渡す仕組みになるなら、どのデータがApple側に残り、どこから先がGoogleやOpenAI側へ渡るのか。設定で簡単にオフにできるのか。質問がどのAIに送られたのか、直感的に分かる表示になるのか。この部分が曖昧なままだと、便利さより不信感が先に立ちやすいです。
Extensions周辺の仕組みは、iOS 27でSiriがGeminiとClaudeに対応する話でより詳しく追っています。
注目したいポイント:期待が大きいぶん、未確定の部分もまだ残っています
ここまで読むとかなり大きな変化に見えますが、まだ決まっていない話もはっきり分けておきたいです。
まず、会話メモリの制限です。Claude、ChatGPT、Geminiは過去の会話を覚えて文脈をつなげますが、Appleがどこまで記憶を持たせるかは「プライバシー保護とのバランスで検討中」とされています。ここが深く許可されれば便利さは増しますが、逆に浅くとどまれば、毎回同じ説明を繰り返す場面が残りやすくなります。
次に、初期リリースの範囲です。WWDCで見せる機能と、2026年9月のiOS 27で実際に使える機能は同じとは限りません。一部が「Preview」ラベルで限定提供されたり、秋以降のアップデートに回されたりする可能性は普通にあります。AppleのAI関連は過去にもスケジュールが後ろへずれた実績があるので、ここは少し冷静に見ておいたほうが無難です。
さらに、日本語対応の時期も現時点では未発表です。Apple Intelligenceの日本語対応は進んでいますが、今回のSiriチャットボットがどの言語から始まるのか、9月のタイミングで日本でも同じように使えるのかは、WWDC以降まで見えません。
もうひとつ気になるのは、Siriの刷新が遅れたことで新型Apple TV 4K、HomePod、スマートホームハブの発売も2026年9月まで延期されたと報じられていることです。居間や音声操作が主役の製品ほど、Siriの完成度がそのまま製品の説得力に直結するからです。この影響はApple TVとHomePodの延期事情でも見えていました。
ちなみに、iPhone 18 ProではDynamic Islandが小型化されるプロトタイプが報じられていて、折りたたみiPhoneも「Apple史上最も重要な刷新」として開発が進んでいます。これらの製品にとっても、iOS 27のSiriがどこまでそろうかはかなり重要な要素てす。
海外の反応:期待よりも「本当に出るのか」という声がかなり強いです
MacRumors Forumsの反応を見ると、機能への期待よりも先に、スケジュールへの不信感がかなり強く出ています。Apple Intelligenceの遅れを目の当たりにしてきた経緯が効いていて、素直に盛り上がりきれない温度感です。
"I'm anticipating an absolutely horrible experience compared to using the latest frontier models from OpenAI and Anthropic... Apple has shown no willingness to push out updates to anything, even relatively simple ones, on that kind of schedule."
(OpenAIやAnthropicの最新モデルと比べると、最悪な体験になることを予想している。Appleはこの種のスケジュールで、単純なアップデートすら迅速に行う姿勢を見せていないからだ。)
"We know nothing. We heard some stuff from Gurman, who has been wrong about ALL of Apple Intelligence since launch... There are things we expect and things we suspect, but we know nothing."
(私たちは何も知らない。Apple Intelligenceについて最初から間違え続けているガーマンの話を聞いているだけだ。期待していることや疑っていることはあるが、確かなことは何もない。)
"it's sad that apple intelligence isn't performing as expected. i was one of few that was really excited for what it promised to offer such as deep app integration and understanding personal context… darn shame"
(Apple Intelligenceが期待通りに動いていないのは悲しい。深いアプリ連携や個人の文脈理解といった約束された機能に、本当にワクワクしていた数少ない人間の一人だったのに……本当に残念だ。)
となりの見方:この空気はかなり自然だと思います。ここ2年ほど、Appleは「次こそSiriが変わる」と何度も言ってきたのに、そのたびにスケジュールが後ろへずれてきた。だから今回も「出てから判断」という態度になりやすいんですよね。ただ裏を返すと、もしWWDCで本当に動く形を見せられたなら、反動はかなり大きくなりそうです。評価が変わるのは、派手なデモの数ではなく、日常の操作で「あ、前より楽になった」と感じる場面が増えた場合だと思います。
ひとこと:今回のSiriは、ただ賢くなるのとは少し違います
今回の噂でぼくがいちばん気になっているのは、Siriの答えが自然になるかどうかより、iPhoneを使うときの最初の一手がどこまで変わるかです。いままでは「アプリを探す」「検索する」「Siriに聞く」がばらばらでしたが、iOS 27ではそのどれもSiriの窓口にまとまる方向に見えます。もしこれが本当にスムーズに動くなら、検索もアプリ起動もテキスト入力も「迷ったらここ」で始められるようになります。便利か不便かは、AIの賢さより入口の整理で決まるところがかなり大きいんですよね。逆に整理が中途半端だと、入口だけ増えて逆に混乱する可能性もあります。だから今回はSiriの知能より、Siriの導線がどこまで仕上がるかで見たい。個人的にはかなり楽しみです。
まとめ:Siriの役割そのものが変わる年になりそうです
iOS 27のSiriは、独立チャットアプリ化、Google Gemini基盤、Dynamic Island統合、画面認識、サードパーティAI連携まで含めて、これまでのSiriとはかなり別物になろうとしています。Appleが目指しているのは、音声アシスタントの延長ではなく、iPhoneのAI窓口そのものの再設計です。
もしAppleが送信範囲の説明、オフ設定、Geminiとの役割分担をきれいにそろえて出せるなら、Siriの評価はかなり変わるはずです。一方で、機能の名前だけ並んで実際の動きが追いつかないなら、不信感はしばらく残ります。会話メモリの深さ、初期リリースの範囲、日本語対応の時期はまだ確定していないので、WWDC時点で全部が判明するとは限りません。
毎日触るiPhoneだからこそ、今回は発表の派手さより、実際にどこまで通るかを落ち着いて見たいです。Siriがやっと「迷ったらここを開けばいい」存在に戻れるのか。6月8日が、その答え合わせの始まりになります。
ではまた!
Siriへの音声指示を外出先でも使いたい場面では、iPhoneを手に取らずそのまま頼み続けられるAirPodsが扱いやすいです。
AmazonSource:MacRumors