音声/画像認識分野のアプリケーションはモバイル+クラウドでこそ生きる。そういうコトなんだろうな。 #mobile
これからはクラウドの大容量のデータを使った画像認識と音声認識が携帯のUIの鍵になる。Android 2.1では検索とナビだけでなく、すべてのテキスト入力で音声入力ができる。音声認識をデバイス側でなくクラウドで実現すれば、人が一杯使うから精度も急 速に向上する(ティム・オライリー)。2009.01.17 13:00頃の@Kenichi_Moriのtweet
素直にそうなるだろうなぁ、と思ったので備忘録として。
どちらの技術もモバイルでなくても有用だけど、ボクらがどう使うかを想像すれば、やはりモバイルでこそキラーアプリになる技術だと思うんだ。
- ちょっと隙間時間に文章を書きたいんだけどケータイじゃ長文は無理
- 今、この店で掛かってるBGMは、なんて曲だっけ?
- うわ、英語で道聞かれちゃったよ。助けてあげたいけど、英語はからっきしなんだよ
- この看板、なんて書いてるの?
- この花の名前を知りたいんだけど……
- このヒトの名前、なんて言ったっけ?
でも、モバイル端末のリソースは限られていて、だからローカルなアプリケーションとして実用レベルのものを載せるのは無理がある。少なくとも現時点 では。だから、まだまだブルーオーシャンなんだよね。
そこへ「クラウドとの連携」という解決を持ってくるコトで、リソースの不足を補うだけでなく、さらに大規模な「データの集積/集約」が今までにない スピード感でデータベースを教育するんだ、というのがティム・オライリーの言ってることで、多分、業界側での共通認識なんだと思う。
Googleが「モバイル」に、そしてスマートフォンにこだわる理由は、そのあたりにもあるんだろうな。なにしろクラウドでの勝負になったら、今の ところ圧倒的に有利だもの。インフラ的には。