Graph Search短时间不会出现在移动端的四点原因
作者 TechCrunch  
    马克•扎克伯格在许多场合中曾表示过Facebook是一家移动公司。“在移动端我们要制造比桌面端更多的营收,”他在TechCrunch旧金山2012年Disrupt大会上这样说道,“手机用户要比电脑用户多,移动用户更有可能成为每天活跃的用户。”Facebook理解移动业务的重要性,那为什么不在一开始就为安卓和iPhone平台提供Graph Search功能呢?答案很简单:移动端的Graph Search需要和语音功能整合,后者是一个完全不同的课题。原文来自TechCrunch,虎嗅编译:


    在Graph Search发布演示时的许多试用例子都包含长句,在移动设备上不太容易输入。比如“居住在帕洛•奥托,喜欢单排轮滑的我大学时的朋友”。谷歌搜索引擎在移动端使用自动完成来解决这个问题,但是提供的自动完成选项来自数十亿条查询纪录。对于Facebook来说,搜索查询是基于用户价值取向的,比如“击剑”或者“大学好友”,针对的是某特定用户,而不是一个群体。自动完成在这种情况下一般不会起到效果,甚至会帮倒忙,需要许多点击和切换操作才能完成一整个搜索请求。


    不仅如此,Graph Search的关键字段用的是全句格式的自然语言,由动词、代词等部分组成,这些都是谷歌关键字搜索不需要的部分。如果你用谷歌查寿司店,只要输入五个字符组成的关键字“sushi(寿司)”就可以了。但是Graph Search就不同,Facebook希望搜索结果是经由你的好友群改进过的,因此同样的搜索行为需要你写明“我的好友曾经去过的寿司店”,或者“我的好友喜欢的寿司店。”需要输入的字符也太多了点。


    很显然在移动端,Graph Search需要语音输入的帮忙,这样才能更有效率。没人想输入这么长的句子。有了Google Now和Siri这样的服务,人们也会逐渐习惯使用语音进行操作。


    不过语音支持可是一个完全不同的问题,和我们之前做过的事情都不一样。需要做许多的工作,直到每一个移动平台都支持才行。这里列出了四点原因:


    语音识别的成本很高


    如果说时间就是金钱的话,那么语音识别可是太昂贵了。众所周知这项技术需要投入大量的资源进行研发,就这一点来说,苹果和谷歌再清楚不过了。


    苹果并没有选择自己研发语音识别技术,而是为Siri采用了Nuance公司的技术。Nuance公司二十多年来一直在完善自己的语音识别技术;这可不是一件容易的事,与此同时他们还收购了许多其他公司。


    另一方面,谷歌选择开发自己的语音识别技术,设计了一个智能系统来收集数据,来赶超Nuance。这个系统叫做Google 411,人们可以用座机或手机拨打,获得本地搜索结果。当谷歌获得所需的数据之后,立刻关闭了该服务并且使用获得的数据进行识别系统的研发。像谷歌这样的搜索技术专家也要用三年多时间来获得如今在语音识别方面的地位。


    就算Facebook只花去一半的时间来开发一个同等水平的系统,也需要马上启动该计划才能赶得上在明年推出。


   人名是Facebook的强项,但却是语音识别的弱项


    Facebook早期成功的因素之一就和人名有关。在搜索好友时,Facebook的算法能够返回和搜索词关联度最高的用户,这一点成为了Facebook初期发展的优势。人们习惯互相说“在Facebook上加我好友”,而不必给出用户名或id。Facebook的这一产品优势反倒让语音识别的实现变得困难了。


    人名是语音识别最大的挑战。语音识别依靠的是字典,或者预测单词的列表,两者都和系统里面的样本声音数据相匹配。这也是为什么大部分语音识别引擎在判断普通英语单词时非常有效,但是在处理不常见的人名和发音不固定的单词时却捉襟见肘的原因。Facebook有数十万各人名

[1] [2]  下一页