谷歌眼镜:杀手级App何在?

1.15封面模板徐翰

谷歌眼镜预计于今年中旬发布,根据BI Intelligence估计,此项产品发布后将会快速增长,到2018年底其销量将达到2100万台,创造一个百亿美金的市场。尽管如此,限制谷歌眼镜成功的关键因素还很多。从价格到社会接受度,从开发平台吸金能力到杀手级App的开发,每一项都至关重要,电池续航能力也广受关注。

不少试用者和投资者认为,谷歌眼镜能否大获成功,与杀手级App的出现密切相关。从目前移动设备已有的App上也可以看出一些谷歌眼镜应用开发的方向乃至可以移植的现成App。谷歌本身也早有想法,在去年早些时候谷歌旗下风投公司Google Venture与硅谷著名创投企业凯鹏华盈KPCB以及Anderson Horowitz共同创建了Barely-alpha项目,旨在投资为谷歌眼镜开发App的初创企业,将初创企业与Google X团队对接。这个硅谷风投组合关心的首要问题还是为谷歌眼镜建立良好的生态系统,从中诞生杀手级的App,推动谷歌眼镜市场的发展。

从现有的情况来看,笔者认为谷歌眼镜的杀手级App很可能诞生于两大方面,一是影像服务,包括照相、摄影、地理信息服务等;二是感官信息转换与处理,作为感官辅助设备,发挥视觉信息与数据的转换功能。从设备角度,谷歌眼镜主要的控制方式将是声控。谷歌眼镜的增强现实特质其实可以具体分解到各个感官能力的增强——通过传感器和算法突破人类感觉器官的极限。

影像服务

高频自动记录

谷歌眼镜从初始问世后,就被给予方便拍照、摄像等方面的期望,而创始人布林更是直言不讳地表示其最喜欢的是自动延迟拍照功能,每隔几秒钟记录一次与孩子玩耍的情况。这项谷歌眼镜的最基础功能,将使得用户记录影像的能力得到大大加强,从普通的“不停地看”转为了“高频率的记录”。尽管我们尚难预测这样高频的记录对于用户是好是坏、有无意义,至少它将赋予人类的视觉功能以新的意义。

Google Glass view

光场摄影与对焦

提到强化拍照功能,不得不提去年的明星——Lytro光场相机,它由斯坦福大学的Ren Ng团队发明,核心是通过传感器的大量微镜头记录场景的全方位光线,并通过自主软件进行处理,从而完成后续对焦处理,并通过两个这样的相机完成3D影像的建立。或许Lytro的定位远远超出简单的App,说它将成为与智能手机和谷歌眼镜并列的产品也是可能的。但笔者认为,如果Lytro可以与谷歌眼镜这样的可穿戴设备成功结合,将极大地改变大众摄影的方式,一次抓拍就可以达到专业摄影及后期处理的效果,这样的摄影无论从数量还是质量都将令人满意。值得注意的是,日前高通公司的最新骁龙芯片也可以通过迅速拍摄多重曝光的图片以及强大的芯片处理能力完成“拍后对焦”功能,也许“光场摄影”是距离谷歌眼镜杀手级App最近的候选者。

视频微博

我们自然也无法将已经在智能手机领域大获成功的那些App排除。首先是风靡全球的Twitter旗下短视频服务Vine和Facebook旗下Instagram的视频服务,截止2013年8月,Vine的注册用户高达4000万人。如果说“手指——眼睛——智能眼镜手”时代,我们沉迷于Twitter和微博,那么在“眼睛——智能眼镜”时代我们将被Vine上面分享的短视频所吸引。Vine允许用户创建、上传和分享最长6秒的视频,是目前最受欢迎的短视频应用。

感官信息转换

文本——声音转换

谷歌风投的Maris认为谷歌眼镜可以帮助高位截瘫这样的患者来收发短信、电子邮件等。通过声音控制,谷歌眼镜可以帮助肢体不便的用户完成信息的交流。

而根据《连线》杂志报道,佐治亚理工大学的教授T. Starner开发的Captioning on Glass则可以实现将对方在智能手机中的语音信息转化为谷歌眼镜上的文字——这对于有听力障碍的人而言是个福音,将使得他们可以真正实时参与到谈话中来。

从上面的描述可以合理估计,对声音的实时控制和处理可能将成为相关杀手级App的基石,以上种种的基础都在于声音的实时识别、转换,从而完成文字方与声音方的无障碍对话。

面部识别与转换

谷歌眼镜也许可以达成自照相机问世以来解放大众双手的愿望。以上普通的抓拍功能可以被谷歌眼镜的增强现实哲学所放大,比如Moment Camera 就是一款被看好的抓拍应用,将人的视觉与识别器官功能进行了极大扩展。它将面孔识别技术结合谷歌眼镜上的各类传感器(加速度计、指南针和陀螺仪,当然还有摄像头),在某人的面孔出现在眼睛屏幕上时自动判断、抓拍,并将照片上传服务器,进行人物匹配。至少它可以化解那些想不起对方名字的尴尬时刻;当然,如果指望其在茫茫人海中一眼发现(并且避开)你的熟人,也许它也是能做得到的。除此之外,创企业Lambda Labs则致力于开发面孔识别的软件工具。

1

文本识别与转换

3

文本处理一向是谷歌的强项,从搜索引擎到翻译,从谷歌数字图书馆到各类办公应用。不过在移动端的App上可能的明星也许是Word Lens,这款App可以将拍摄视野中的外文转换为指定的语言(目前是英文),比如到西班牙的美国旅行者可以靠它实时识别本是天书的菜单。这款App在智能手机市场已经广受好评,然而也许与谷歌眼镜的结合可以使得它的识别与实时翻译能力得到最大强化。根据Quest Visual公司的介绍,谷歌眼镜版Word Lens可以访问本地数据,而谷歌翻译则必须使用网络数据。

环境信息的识别、转换

谷歌眼镜的实时性质,可以使得记录和处理周围环境的信息成为可能。而这方面如果要诞生强大的App则很有可能与体育服务相关。从现有的应用来看,GolfSight是一款针对高尔夫球场设计的增强现实App,利用GPS给予击球中的高尔夫球玩家实时的地理信息——洞的距离、水塘的位置,也许还将有风速与风向。

通过以上的梳理,或许我们可以提前预判谷歌眼镜杀手级App的一些特质。人类获取信息的方式主要是视觉(60-80%)和听觉(10%),影像服务功能实际上是对视觉的加强,其他的辅助服务主要是通过将听觉、触觉等其他感官与视觉相联系并进行信号处理。谷歌眼镜杀手级App必将与视觉或听觉相关,极可能出自影像处理领域,良好地利用成熟的传感器技术,并具备强大的信号转换能力,以及(可以与云端相连的)数据和信息处理能力。笔者更倾向于已经具有广泛应用基础和较成熟技术的领域,比如便捷摄影、短视频和翻译。

 

其它落款