“将来,目标是从用户身上获取信息,无论是让他用语言,使用手势还是点击按键都好。”
人工智能和机器人是未来HMI解决方案的一大研究领域。它们可以利用其他人提供的现有基础设施,比如大数据。这些HMI将是机器学习的引擎——进行数据收集并向用户提供结果和信息,即使在工程师没有预先定义各种问题和解决方法的情况下。这些也可能成为未来HMI软件和现在HMI软件的关键区别。
基于此,在未来,HMI和IOT供应商的强劲趋势是从产品供应商转变为服务提供。服务作为解决方案,不是软件应用程序的工程服务,而是提供软件即服务或基于订阅的模型。它将不再是在内部安装和运行的媒体。
有美国的公司一直在实际应用中测试机器人。比如你问亚马逊的Alexa‘今天天气怎么样?’,或者在做谷歌搜索,这都能算是机器人:接收你的输入、用不同算法分析数据并为你提供有趣结果的引擎。”
例如,美国Terezinho的公司提出了一个简单的概念,来验证HMI bot应用程序。当软件识别出平板电脑靠近机器时,它会将信息“设置”到平板电脑的顶部,例如温度,生产数据和警报。
此应用程序也启用了语音识别功能。用户可以询问HMI应用程序,例如“五个最重要的警报是什么?”
第一步,HMI软件会将语音转换为文本;第二步:有趣的一步,将文本发送到在云上预先配置的机器人,然后机器人提供自动过滤的信息,以包含HMI上五个最关键的警报。
当然这只是一个开始。将来,目标是让用户说话,点击按钮或撰写问题并获得所需的信息,而无需非常严格的语法。没有必要编写特定的程序代码。只是问一个问题。用户只需询问“给我机器A昨天产出的产品信息”,而不是编程和配置图形以显示昨天机器A的生产产品信息。
或者可能使用简单的语法,例如“从表1中选择时间等于昨天的生产数据”。
这是一种体验更加友好的人机交互方式,可以与系统进行交互,以获得所需的数据,机器人挖掘用于收集,分析信息并将信息传递给用户的数据库传统上就是所谓的大数据。
HMI现在可以做很多事情。他们可以从许多不同的项目中收集数据,对其进行过滤,将其推送到可以进行分析的云端,并将可用的结果发送回用户。他们比以往更快地提供可操作的数据。这不仅仅是针对一件事;如果把增强现实和机器人融合到一个解决方案中,您可以将所有这些选项结合起来,创建驱动到新一代运营商的解决方案,就能应用于所有事情。
五年前,当我们调研手势和多点触控的需求时,我们的许多客户来到我们这里,并想知道它的价值是什么。他们不理解“当我们只需点击一个按钮转到另一个屏幕时,为什么要使用触屏?“他们觉得点击一个按钮会更快。
然而,然而,关键是,现在进入市场的用户,对他们来说,可能更敏感,或者他们可能期待更多功能。当他们滑动屏幕时,或者挥动手的时候,HMI会改变到下一个屏幕。
以下是一些HMI人机交互的分享
A.具有嵌入式触摸表面的触觉控制器:混合接口
虽然它们似乎提供了一种简单的替代方案,但实际上它们在学习性方面存在问题,如前所述。它们也可能非常分散注意力,因为驾驶员必须始终依赖视觉反馈,并且不能随着时间的推移形成肌肉记忆或控制图。
C.具有视觉和听觉以及触觉反馈循环的3D手势控制
使用手势来控制HMI的某些方面是一个令人兴奋的概念。这主要是因为它提供了一个机会,可以恢复早期汽车中存在的直接控制和反馈,尽管这并非没有问题。
3D手势数据的感知变得越来越容易,不仅因为传感器和处理器成本低,而且还有更好的算法可用。
我们不仅可以检测身体特征的微观变化,如点头,面部位置和手势,还可以检测眼球运动等微观变化。然而,从低成本计算机视觉中出现的新交互模式尚未完全编目和理解,这在绘制和学习手势界面时提出了挑战。
可能有数百个3D手势可能,并且学习和理解一组模式需要时间,因此在其现状中不能作为纯粹的交互依赖- 特别是在安全性方面。
尽管由于自然语言处理和识别的不断进步,我们远未实现与机器的人类对话,但最近几年已经看到许多应用可能达到光明的一天(实质上这是一种形式)虽然有些人可能认为它不是- 一个强烈的“AI效应”案例。
关于语音控制设计的批判性分析,将在后续的文章中分享。
HMI将与许多应用程序连接。人机界面将保持核心战略和视觉样式,但随着技术的发展,你还是需要去适应技术。随着市场预期的发展,如果将现在的解决方案与20年前的相比较,核心概念是相同的,但它们的外观已经完全不一样了。”
20年前,界面是由当时的时髦产品——台式电脑运行DOS版本的windows 3.11展示的。如今,在数据展示方面仍旧是同样的表现,但加入了平板电脑、智能手机、微软光环(Microsoft Halo)、谷歌眼镜和苹果手表(Apple Watch)。我们仍然在使用信息,但是信息表示的方式——我们如何与之交互——已经完全不同的。