【妄想】iPhone 3GS+Google Waveで未来の翻訳

世間がiPhone 3GS前夜で沸き立っている今日という日に、全然関係ないKYな話題をおひとつ貴方に。

少し前のことになるが、Googleのオーストラリア開発チームが新しいサービス"Google Wave"なるものを開発したと発表した。素人なので詳細はいまいちわからないが、リアルタイムに複数の人でひとつのソースを編集できるというものだった。例えば、ブログを更新しているその瞬間に、編集され変わりゆくブログを遠く離れたネットワークのどこかから訪問者がリアルタイムに見ることができたり、みんなでひとつのドキュメントを一緒に編集したり、そういうことができる革新的なサービス(技術)だという。ちなみにその発表会では「iPhoneでも使えますよー」、というデモもあった。(ただしデモはネットワークの不調により失敗)

プレゼンテーションの大半はやや残念な印象で、あまり途中まで盛り上がってなかったのだが、最後に歓喜を巻き起こしたデモがあった。実はそれが私の心を捉えたままなのだ。今日はそんなお話。

そのデモは、リアルタイム翻訳機能付きチャットだった。しゃべっている(チャットなので「タイプしている」)そばからフランス語が英語に翻訳されていく様子がそこにあったのだ。急に沸き立つ観客たち。猛烈に未来を感じた。技術的には素人な為、バックグラウンドにある技術に対する賛否両論はどちらの言い分もさっぱりわからないが、「コピペできます」と照れながら発表したiPhone OS3.0のデモよりエキサイトしたのは確かだ。今でも思い出すだけでわくわくできる。

さて、今日この記事を起こしたのは、このわくわくを思い出すたびにどうしても頭をよぎる考えがあるからだ。王様の耳はロバの耳ではないが、どうしてもこれをどこかに吐き出さずにはいられなくなったのだ。


「翻訳こんにゃくじゃないか!」

ふう。

吐いたところで少し落ち着いて考えてみたい。

翻訳こんにゃくはリアルタイム”音声”翻訳を実現したものだ。つまりは、声(日)→<音声認識>→テキスト(日)→<翻訳>→テキスト(英)→<音声合成>→声(英)のような処理がシームレスにつながったものだ。なんだ簡単そうじゃないか、そう思ってしまう。技術者の苦労をよそに。音声認識はiPhone 3GSで命令用に実用化され始めているし、音声合成は初音ミクみたいものがあるし、極端な話棒読みでもいいし、できそうじゃないかと。一番頼りないのは翻訳の精度なんだけれども。iPhone 3GS+Google Waveとかいいんじゃないか?

さらに妄想するを続けると、翻訳こんにゃくが実現している、「食べた人がまるで外国語をしゃべっているかのように見える」ようにすることもできそうだ。こんにゃくの中に、「ノイズキャンセリング付きスピーカー」と「広帯域無線ネットワークインターフェイス」を積んだカプセルを入れればいい。それが食べた人の胃の中で活躍すればできあがりじゃないか!

まず、話者が母国語を発話する。NC付きスピーカーが、身体の中に鳴り響く母国語の声をマイクで拾う。NC技術のように逆位相の音を腹の中から出して母国語の発声を打ち消す。一方、マイクで拾った音声を無線ネットワークを経由して音声認識+翻訳サーバーに送りだす。いくばくかの遅延の後返ってきた翻訳後の音声情報を胃の中から出力する。胃の中から出た音は、翻訳前の音声情報をもとにしてサーバー上で信号処理されていて、まるで本人の口で発話されているようにエミュレートされる。翻訳された耐用期間は排泄されるまでだ。

完成度はドラえもんが誕生する22世紀までに上げるとして、あと10年もすれば実用化できそうじゃないか!サイズが多少気になるが、翻訳こんにゃくも結構でかそうだったし、少々でかくてもこんにゃくだからツルンと飲みこめばいい!

そうだ。

ドラえもんが誕生するのは22世紀だが翻訳こんにゃくができるのは21世紀中だ!」

Google Waveに大いに期待します。

終わり。戯言でした。