音声/画像認識分野のアプリケーションはモバイル+クラウドでこそ生きる。そういうコトなんだろうな。 #mobile

これからはクラウドの大容量のデータを使った画像認識と音声認識が携帯のUIの鍵になる。Android 2.1では検索とナビだけでなく、すべてのテキスト入力で音声入力ができる。音声認識をデバイス側でなくクラウドで実現すれば、人が一杯使うから精度も急 速に向上する(ティム・オライリー)。
2009.01.17 13:00頃の@Kenichi_Moriのtweet

素直にそうなるだろうなぁ、と思ったので備忘録として。

どちらの技術もモバイルでなくても有用だけど、ボクらがどう使うかを想像すれば、やはりモバイルでこそキラーアプリになる技術だと思うんだ。

  • ちょっと隙間時間に文章を書きたいんだけどケータイじゃ長文は無理
  • 今、この店で掛かってるBGMは、なんて曲だっけ?
  • うわ、英語で道聞かれちゃったよ。助けてあげたいけど、英語はからっきしなんだよ
  • この看板、なんて書いてるの?
  • この花の名前を知りたいんだけど……
  • このヒトの名前、なんて言ったっけ?
……etc. こんなときのUXとして自然なのは、やっぱりパソコンや専用の端末を使うんではなく、ケータイを使う方向だよね。特に出先では「持ち運ぶ」感覚のパソコン ではなく「身につける」感覚のケータイの方がいい。

でも、モバイル端末のリソースは限られていて、だからローカルなアプリケーションとして実用レベルのものを載せるのは無理がある。少なくとも現時点 では。だから、まだまだブルーオーシャンなんだよね。

そこへ「クラウドとの連携」という解決を持ってくるコトで、リソースの不足を補うだけでなく、さらに大規模な「データの集積/集約」が今までにない スピード感でデータベースを教育するんだ、というのがティム・オライリーの言ってることで、多分、業界側での共通認識なんだと思う。

Googleが「モバイル」に、そしてスマートフォンにこだわる理由は、そのあたりにもあるんだろうな。なにしろクラウドでの勝負になったら、今の ところ圧倒的に有利だもの。インフラ的には。