2025年WWDCで発表された新機能の中で、個人的にとても気になったのが「Live Translation」。
巷ではLiquid Glass UIの方が話題をさらっていたし、AI全体に関しては市場評価も厳しめ(株価も下落)というのが正直なところ。それでも、この翻訳機能は“体験”としてグッとくるものがあって、個人的には未来を感じさせてくれる発表のひとつだった。

iOS 26 と AirPods Pro 第2世代を使うことで、音声通話中のあいての言葉が、リアルタイムに翻訳されて耳に届くという、体験型の新機能です。
現時点でわかっていること
- 機能名は「Live Translation」
- iOS 26 の「Messages」「FaceTime」「Phone」アプリなどに統合機能として導入
- 対応デバイス:iPhone 15 Pro / Pro Max以降
- 対応イヤホン:AirPods Pro 第2世代 (H2チップ搭載)
- 翻訳音声は片耳のAirPodsで再生OK
- FaceTimeでは字幕+音声の両方対応
- プライバシーに配慮したオンデバイス翻訳処理
- 日本語を含む複数言語に対応 (Apple Translate基盤)
これからに期待したいこと
- さらなる言語の展開
- 教育、観光、医療などでの実用化
- ユーザー側の心理的ハードルを削るUXの高め方
- AirPods 無印型でも使えるようになれば… (H2チップ搭載AirPodsの広がりに期待)
必要なデバイスとソフトウェア
項目 | 内容 |
---|---|
必須iOS | iOS 26 |
必須iPhone | iPhone 15 Pro / Pro Max 以降 |
必須AirPods | AirPods Pro 第2世代 (H2チップ) |
AI技術 | Apple Intelligence (Apple製の生成AI) |
使用アプリ | Messages / FaceTime / Phone |
これを可能にしているもの:Apple Intelligence
- Apple製の生成AIモデルで、iOS 26以降の一部デバイスに搭載される新しい知能機能。
- ChatGPTやGeminiといったAIの先行組とは異なり、「意識せずに自然に使える」ことを重視。
- ユーザーがAIを意識しなくても、日常の中で“いつの間にか使っていた”体験をデザインしている。
- すべての処理をiPhone内で完結するオンデバイス処理により、プライバシーにも配慮されているのが特徴。
まとめ
AIって、よく分からないし、難しそうだなと思われがちです。
けれど、「AirPodsをつけていたら、世界中の人と話せるようになった」。
そんな、わかりやすい未来を経験させてくれるのが、iOS 26のLive Translation機能です。
Appleの「分からなくても使えるAI」に、すこし期待してもいいかもしれません。
この翻訳機能は、あくまでも私個人がかなり気になった機能のひとつです。実際にAIが翻訳してくれるけれど、スマホの中で、しかも字幕や音声で──って、本当に映画の世界みたいだなと思いました。
でも実際、Appleはテレビ電話(FaceTimeビデオ)も実現してくれているし、これは夢じゃないんだなと実感させてくれた発表のひとつでした。
それでも、あまり前面に出してきていないのは、やっぱり技術的にも難しい部分があるんだろうなというのが私の勝手な推測です。でもこういう「じわっと見せてくる感じ」がAppleらしいというか、**“AIと意識せずに、いつの間にか使っていた”**みたいな形は、これから確実に増えていくと思います。
iPhoneとAirPodsでAIが翻訳してくれる未来。でもそもそも「AIって何?」という疑問がある人はこちらもどうぞ。
