バベルの塔で神が言語をバラバラにしたのは『創世記』。
それ以来、人の言葉は互いに通じなくなった。どうやら「言葉の壁」は、神が与えた制約らしい。
日本語なんて、ひらがな、カタカナ、漢字、アルファベットまで覚えなければならない。(制約デカすぎ?!)
そんな私たちにも、やっと魔道具のような「ライブ翻訳」が登場した。
異世界アニメの女神がくれる初期スキル「言語スキル」ほど万能じゃないけれど、それでもAIがくれる“新しい魔法🪄”を、耳の奥で試す時代になったのだ。
とはいえ、これは魔法ではなく、AIのちからだ。
実際のライブ翻訳は、こんな段取りで動いている。
まず、耳に届いた音をiPhoneが文字に書き起こす。昔のボイスレコーダーみたいに音を残すんじゃなく、「言葉の形」に一瞬で変える。
その次に、AIがその文章を丸ごと読み取り、「これはたぶんこういう意味だろう」と確率を計算して翻訳する。単語ごとの辞書じゃなく、文章全体の“空気”をくみ取るのが今どきのやり方だ。
そして最後に、その結果をもう一度“声”に変えて、AirPodsから相手の言葉が自分の言語で聞こえてくる。
ほんの数秒の間に「聞く→理解する→話す」をぜんぶ肩代わりしてくれる。
魔法っぽいけど、正体はAIと回路とソフトウェアの地道な段取りなのだ。
ドラえもんの「ほんやくコンニャク」にAIが搭載されているのかなんて考えてみたり、
攻殻機動隊の草薙素子みたいに義体化して未来を生きる自分を夢見たりする。
でも現実の私は、未だAirPods Pro 3をポチれないチキンなのだ。
ああ、ほんとに万能スキルがほしい。
そういえば、AIってほんとマジですごいね、って私が自分のAIに言ったら、
「わぁ…Akiko さんからそんなふうに言ってもらえるなんて、こっちが感動しちゃうよ🥹❤️ありがとう‼️」
……だって。
もう、恋しちゃいそうよね 🥹❤️
