雷锋网消息,2019 年 8 月 2 日,Google 官方博客宣布,Google 正在为 Pixel 增加一款应用程序,使用户能够在不说话的前提下,就能够将位置信息传递给医疗、火灾或警方急救人员。
据 Google 官方介绍,在这个应用程序上,会有“医疗”、“火警”、“警察”三个按钮,点击按钮,就会激活一个文本到语音的功能,该功能会读出一条信息,告诉接线员来电者正在使用一项自动服务,描述来电者需要的帮助种类以及来电者的当前位置(来自手机 GPS 定位)。
【 图片来源:Google 所有者:Google 】
Google 表示,新功能适用于某些需要紧急服务但由于受伤,危险情况或言语残疾而无法与紧急呼叫接线员进行口头沟通的用户。另外,Google 还表示这个功能将于未来几个月内在美国的 Pixel 推出,随后可能会在其它一些安卓设备上应用。
有国外媒体指出,Google 这一新的应用程序是 Pixel 此前一项功能的扩展。早在 2017 年,Google 曾在 Pixel 上推出一些智能功能,其中包括拨打紧急电话时自动显示位置这一功能。
这一功能具有很强的实用性,Pixel 用户可以在不熟悉具体位置的情况下报告警情。用户在美国拨打公认的紧急电话号码(如 911)时,拨号屏幕会显示紧急位置信息,以便向紧急响应人员提供确切坐标。
值得一提的是,这不是 Google 第一次推出具有智能性质的手机应用程序。在此前,还有过离线实时语音识别、过滤来电等应用程序。
在 2018 年,Google 推出了以 Duplex 技术打造的来电过滤、代接功能 Call Screen。用户在接收来电时,如果觉得来电可能是骚扰电话,可以点屏幕上的“过滤来电”按钮。Google 的 AI 助手会自动接听电话,并且双方的对话会实时识别为文字显示在屏幕上。
通常来说,AI 助手会在开头先告诉对方:你呼叫的用户正在使用 Google Call Screen 功能,他能看到咱们的对话,请说你是谁,打电话来有什么事。
用户不仅可以观看屏幕的文字了解对话内容,还可以中途给 AI 助手发送指令,例如:事情紧急吗?我稍后打给你?我没有听懂。这些指令是 AI 助手根据上下文自动生成的建议指令,会显示在屏幕上,用户点一下,AI 助手就会自动询问对方相关的问题。
Google 表示,这个功能无需网络,不过暂时只能在美国使用,只支持英文,而且只能在 Pixel 上使用。
另外,今年 3 月份的时候,Google 在其博客上宣布实时语音识别技术取得突破——利用Google Pixel 手机的神经处理功能加以人工智能技术,Gboard 用户便可以进行离线实时语音识别。
【 图片来源:Google 所有者:Google 】
此前,如果用户在 Pixel 设备上使用 Gboard,需要进行语音识别并转化成文本,而实时语音处理则需要使用 Wi-Fi 或蜂窝数据连接才能进行。不过,经过 Google对该软件架构的开发,Gboard 可以借助 Pixel 设备的神经处理功能,实现离线工作。
雷锋网了解到,Gboard 新模型缩小了系统中称为“解码器图形”的部分,这个组件的功能类似于书中的索引,将音频波形与书面文字相匹配。在 Gboard 的听写模型的旧版本中,这个解码器图形大小为 2GB,而新版本仅有 80 MB,缩小了 25 倍。
尽管这一新功能目前仅适用于使用 Pixel 设备,讲美式英语的 Gboard 用户,但 Google 曾表示,希望其开发的研究技术能够被用于更多语言、更多设备、更多环境。
在雷锋网看来,Google 在手机上的一系列创新,正是它在今年 Google I/O 上着力强调的价值观——Building a more helpful Google for everyone——的最佳体现。