MacBook Pro 来了,众所期待的触摸交互式体验也来了,苹果的大招便是把触摸屏放到了“键盘”里,苹果的产品差异道路的确很“惊艳”。
键盘上方的触摸条 Touch Bar 为多点触控彩色 OLED 屏幕,最多支持 10 点触控的彩色屏幕可以将多种内容显示在上面,支持用户的滑动点按,以实现相应的功能。这种新的交互方式 Touch Bar 刚好与 微软 Surface Dial 异曲同工。当然,13 寸低配版的 MacBook Pro 是不配备 Touch Bar 的,可见 Touch Bar 的“改革”意义就像 iPhone 7 Plus 的双摄像头一般。
引起众多用户好奇的是,为什么苹果只为它配备了一条细长的触摸区,为什么不是全触摸屏呢?面对大家的疑惑,苹果公司设计总监乔尼· 伊夫表示,这是一种与众不同的思考。Touch Bar 的确是一种与众不同的人机交互方式。然而,看似 Touch Bar 触控条是一个万能工具,但苹果却在用户指南上表示,这是一款严肃的工具。苹果将 Touch Bar 的界面定位是键盘的拓展,而不是一块显示屏。
关于 Touch Bar 的苹果用户界面指南显示如下:
应将 Touch Bar 作为键盘和触摸板的扩展,而不是显示屏;Touch Bar 不应当用于显示通知、消息、滚动内容、静态内容,或是导致用户注意力从主屏幕移开的内容;避免使用任何动画。Touch Bar 被定位为键盘的扩展,用户不会希望在键盘上看到动画。另外,Touch Bar 不应当提供对某些任务的操作,例如查找、选择所有、取消选择、复制、粘贴、剪切、取消、重做、新建、保存、关闭、打印和退出。
瞬间一大批用户失落的表示,新 MacBook pro 不好玩!
说完苹果的人机交互大招之后,不免想起前不久锤子 M 系列发布会上,老罗隆重介绍的三大交互功能,尤其是用很多笔墨为科大讯语音飞打了一个华丽丽的“广告”。“锤子的发布会带火了科大讯飞”、“锤子手机发布会结束,最大赢家可能是讯飞”,这样的报道内容在各大主流网站占领头条。老罗强调科大讯飞语音引擎的识别率达到 97%以上。
通过苹果 Touch Bar 与锤子 M 系列的语音识别技术,可见人机交互创新方式成了各大厂商抓住消费者的一大利器。
那么人机交互从何时开始,现在有哪些主流的交换方式,人机交互的未来发展方向又在哪?
前世,在思考中进化
人机交互(Human-Computer Interaction, 简写 HCI)是指人与计算机之间使用某种对话语言,以一定的交互方式,为完成确定任务的人与计算机之间的信息交换过程。
目前,我们大多数人仍停留在传统的键盘和鼠标交互方式中,当然这并不是人机交互的最初方式,人机交互是在不断的思考中才“进化”到鼠标键盘的时代的。
1764 年,英国纺织工詹姆斯·哈格里夫斯设计出了可以提升纺纱效率的珍妮机,珍妮机不仅是第一次工业革命的开端,也是人机交互的一个开始。随后生产流水线出现了,不自觉的人机交互有了新的体验,但是那时人机交互发生的地点是工厂。
20 世纪之后,机器与个人的生活的关系变得紧密了许多,人机交互也不再局限于工厂之内,个体与机器的交互研究成为了重点,随后打字机的出现了,这便是现代键盘的原形。
键盘仅仅能处理文字信息的需求,但面对图形等需求显得力不从心,于是鼠标出现了。鼠标的出现第一次让人们感受到了自由交互然来可以如此简单、有效。键鼠组合,维系了计算机发展的 30 多年。
今生,键鼠统治的时代里面求突破
智能手机、平板电脑、个人 PC 等产品的个更新迭代也加速了人机交互方式转变,比如触控的交互方式。现在人机交互的新玩法很多,可谓上了新高度。
语音交互
苹果 Siri、微软 Cortana(小娜)、科大讯飞语音识别是当下被认可的几种语音识别的方式。
苹果 Siri 可通过上下文理解自然语言,用户可以命令它阅读短信,询问天气和语音设置闹钟等,更加人性化的是,一旦你和 Siri 开始了一段对话之后,它甚至可以理解许多模糊和引申的语义,功能不仅仅是语音识别这么简单。
微软 Cortana(微软小娜)是全球第一款个人智能助理,可以了解用户的喜好和习惯,帮助用户进行日程安排、问题回答等。Cortana 是微软在机器学习和人工智能领域方面的尝试,微软的目标是手机用户与小娜的智能交互,不仅是基于存储式的问答而是对话。
科大讯飞为了提升智能语音识别率部署了“讯飞超脑计划”。
而谷歌也不敢落后,表明了自己的野心:让本公司的声控数字助理超过苹果 Siri、微软 Cortana 等竞争对手。
但语音识别也面临着输入与输出的挑战:
方言种类繁多、口音各异,需要建立及其庞大的数据库才能分辨;语言含义丰富,容易产生歧义,语言不同同一句话会包含不同含义;不支持多人操作。这都是输入识别中存在的问题。而输出也存在类似问题,输出时难以用正确的语气表达,机械的朗读方式让人感觉乏味且难理解。
手势交互
以手势作输入图像信息,完成人与计算机的智能交互功能,其优点在于采用非接触方式,不受距离和显示设备尺寸的限制。手势交互是虚拟现实和增强现实硬件的重要输入方式,将成为下一代自然人机交互的重要方式。
在信息技术领域,手势交互并无相应国家标准,我国正在积极进行手势交互系列国家标准的制定工作。在某些特定应用场合,手势交互具有大好前景,然而他的很多缺点也是致命的。
手势识别采用的是类似鼠标的相对定位系统,相对定位系统需要进行二次定位,先判断当前位置,再判断运动轨迹。手势识别定位精度低,对于复杂操作无法有效分辨。
眼控交互
当人的眼睛看向不同方向时,眼部会有细微的变化,这些变化会产生可以提取的特征,计算机可以通过图像捕捉或扫描提取这些特征,从而实时追踪眼睛的变化,预测用户的状态和需求,并进行响应,达到用眼睛控制设备的目的。这就是眼球追踪的人机交互方式。眼球追踪技术的主要设备包括红外设备和图像采集设备,最热门的载体是手机,三星和 LG 都推出了搭载有眼球追踪技术的产品。
但是在精度方面并不是很如意。红外线投射方式优势较大,可在 30 英寸的屏幕上精确到 1 厘米以内,辅以眨眼识别、注视识别等技术,仅可以在一定程度上替代鼠标、触摸板,进行一些有限的操作。其他图像采集设备,在软件的支持下也可以实现眼球跟踪,但是在准确性、速度和稳定性上各有差异。
脑控制交互
神舟十一号载人航天飞行任务河大的一个亮点是由意念控制的脑机交互实验。人不需要再操作键盘、鼠标甚至控制手柄,而是采用脑控技术、眼控技术等。
这项技术现在来谈还是太“先进”了,只是处于试验阶段。
谈到以上几种交互方式,不免想到谷歌眼镜,谷歌眼镜是一款带有头戴式光学显示屏的可穿戴终端设备,具有类似智能手机一样的功能,使用者通过语音、手势、体感等自然语言来与之进行交互。
总结一下当下“高大上”的人机交互存在的不足便是,使用范围局限、仍未摆脱界面交互、信息识别困难。
未来,在科幻中寻找方向
现在的人机交互方式众多,但是仍被键盘鼠标占据着主导,以上提到的集中交互方式都可能发展为未来的主导。除了这些,未来还有哪些趋势?也许可以在科幻电影中找找身影。
- 以用户为中心,足够智能,在各种复杂的应用场景下都要识别出目标信息,过滤掉干扰信息并准确无误地判断出人的意图并将它实现;
- 个性化的生物识别,智能穿戴设备与人体的深度融合,个性化的生物识别人机交互方式会成为打造安全智能生活最大的前提;
- 全方位感知,足够智慧,全方面地感知用户的需求并预知其潜在需求,人机交互未来趋势就是没有交互的交互。
未来,人与机器之间的交流,将从机械的互动层面上升至情感交流的层面,操作性设备也将融合进整体的信息基础建设中,各种各样的传感器可以让设备更好的捕捉人类的动作,并识别为可以分析“感情”倾向的数据,这种融合人工智能、大数据云计算的平台将是智慧的、善解人意的,并实时为人机交互系统提供源源不断的信息。
未来的人机交互就是:设备了解你,不需要交互也会产生交互。
更多《硬触角》文章,欢迎点击《硬触角》!
与非网原创文章,未经许可,谢绝转载!