研发团队训练了一个神经网络,让它和另一项Tsetlin机器技术,分别从标准MNIST数据集识别手写数字。
纽卡斯尔大学高级讲师Rishad Shafik表示:“即开即用的神经网络让我们每焦耳可以进行不到10万亿次操作。而使用我们设计的第一台Tsetlin机器,这个数值能达到65万亿次。这种改进主要来自于简化过的逻辑设计。”
他补充说,在上述数字识别实验中时,一台Tsetlin机器“可以识别15个单词,与神经网络识别一个单词所需的能量消耗相同”。
Tsetlin机器是一种“学习自动机”(learning automata),它最早是由俄罗斯科学家Mikhail Tsetlin在20世纪60年代发明的一种机器学习算法。Shafik解释说,这种算法的问题在于,在其基本形式中,“学习自动机几乎不可能在硬件上实现,因为有大量的状态需要去适应”。
挪威阿格德大学的AI教授Ole-Christoffer Granmo说,在过去的几年里,他通过将学习自动机与经典的博弈论和布尔代数相结合,找到了一种降低学习自动机复杂性的方法。他将简化版的学习自动机应用到软件中,并以该学科创始人的名字将其命名为“Tsetlin机器”(Tsetlin machine)。
在Granmo的研究基础以及他本人的协助下,纽卡斯尔团队找到了一种能够有效地将Tsetlin机器的数据类型和基础算法映射到逻辑门上的方法,并在FPGA和定制ASIC上成功实现,他们采用的的形式不仅适用于训练/学习AI阶段,同时也适用于训练之后,也就是所谓的AI推理阶段。
Shafik将Tsetlin机器和神经网络之间的功耗差别归结于它们映射到硬件上的方式:神经网络,包括二值神经网络在内,都是算术,它们包含了许多乘法和加法操作,而Tsetlin机器硬件不使用算术。他表示:“这纯粹是逻辑上的平行操作。”
纽卡斯尔微系统研究小组组长Alex Yakovlev,同时也和Shafik一样是AI团队的领导者,他表示:“能量效率是人工智能最重要的赋能因素,同样重要的是能够解释AI决策的能力。对于这两方面,我们需要摆脱算术,而我们的Tsetlin机器硬件设计正好帮我们解决了这一问题。”
这样的机器能做什么?“任何类型的机器学习都需要训练。”Shafik说道,“本质上,它能够做神经网络可以做的任何事情。”