谷歌增加了数字墨水识别API的触摸和手写输入到ML工具包

2021-11-19 21:28 来源:

打印 放大 缩小

在宣布对其开发人员工具集ML Kit进行更改以向AI注入应用程序的一个月后,Google今天在Android和iOS上启动了数字墨水识别API,以允许开发人员创建以手写笔和触摸作为输入的应用程序。顾名思义,该API由Google的Gboard软件键盘,Quick Draw和AutoDraw所采用的相同技术提供支持,它可以查看用户在屏幕上的笔触,并识别他们正在书写或绘画的内容。

谷歌表示,借助新的数字墨水识别API,开发人员可以使用户使用手指和手写笔输入文本和图形,或者转录手写笔记以使其可搜索。一些分类器将书面文本解析为字符串。其他分类器按它们所属的类别(例如,圆形,正方形,笑脸等)描述形状,例如图形,素描和表情符号。

据Google称,数字墨水识别API可以近实时地在设备上执行处理,并支持300多种语言和25种书写系统,包括所有主要的拉丁语言,中文,日文,韩文,阿拉伯文和西里尔。开发人员必须下载一个或多个重约20MB的分类器。谷歌表示,识别时间大约为100毫秒,具体取决于设备硬件和输入笔划序列的大小。

Google在去年为ML Kit添加了新的自然语言处理服务(包括智能回复)之后,便推出了新的API。(智能回复建议根据最近10条交换的消息进行文本回复,并且完全在设备上运行,并且已被合并到智能显示器和智能手机上的Gmail,Google Chat和Google Assistant中。)去年在I / O 2019开发者大会上,Google在ML Kit(测试版)中增加了三项新功能,包括支持58种语言的翻译API和一对API,这些API可让应用实时定位和跟踪实时摄像机供稿中的关注对象。最近,随着ML Kit从用于Firebase的设备上API的ML Kit过渡到不需要Firebase的新独立SDK(ML Kit SDK),ML Kit获得了对自定义TensorFlow Lite图像标签,对象检测和对象跟踪模型的支持。项目。

今年早些时候,谷歌指出,如今,Android和iOS上已有超过25,000个应用程序使用ML Kit的功能,而2018年5月才推出了少数功能。与苹果的CoreML一样,ML Kit旨在应对视觉和自然语言方面的挑战域,包括文本识别和翻译,条形码扫描以及对象分类和跟踪。

责任编辑:互联网