支持聊天生成预训练转换器(ChatGPT)等人工智能(AI)系统的算法无法边工作边学习,这迫使科技公司不得不花费数十亿美元从头开始训练新模型。尽管这是业界一直关注的问题,但一项新研究表明,模型的设计方式存在固有问题,不过也许有办法解决它。
目前,大多数人工智能都是所谓的“神经网络”,其灵感来源于大脑的工作原理。人工智能“神经网络”的处理单元被称为“人工神经元”。它们在开发过程中通常会经历不同的阶段。首先,开发者对人工智能进行训练,通过算法对人工神经元进行微调,以更好地反映给定的数据集。然后,人工智能可被用于应对新数据,比如输入ChatGPT的文本。不过,一旦模型的神经元在训练阶段就被设定好,它们就无法更新并利用新数据进行学习。
这意味着,如果有了新数据,大多数大型人工智能模型都必须重新接受训练,而这一过程可能非常昂贵,尤其是当这些新数据集由整个互联网的大部分数据组成时。
研究人员一直想知道,这些模型能否在接受初始训练后吸收新知识,从而降低成本,但一直不清楚它们能否做到这一点。
现在,加拿大阿尔伯塔大学的希班什·多哈雷和他的同事测试了最常见的人工智能模型能否适应持续学习。研究团队发现,它们很快就失去了学习新知识的能力,大量的人工神经元在接触到新数据后就会停留在零值上。
多哈雷说:“如果你把它想象成你的大脑,那么一旦90%的神经元都死了,剩下的就不够你学习时用了。”
多哈雷及其团队首先利用ImageNet数据库训练人工智能系统。该数据库由1400万张带有标签的房屋或猫等简单物体的图像组成。但他们并没有按照标准行事(即训练人工智能一次,然后通过让其多次尝试区分两幅图像来测试它),而是在区分每对图像之后重新训练模型。
他们用这种方法测试了一系列不同的学习算法,发现经过几千次的再训练后,这些网络似乎无法学习且表现很差,许多神经元似乎“死了”,即值为零。
研究团队还通过强化学习来训练人工智能,让其模拟蚂蚁如何学习行走。强化学习是一种常见方法,它教给人工智能成功是什么样子,并通过试错找出规律。他们试着调整这种技术以实现持续学习,具体方式是,每换一种表面供蚂蚁行走,就重新训练算法。之后他们发现,这也会导致人工智能明显丧失学习能力。
多哈雷说,这个问题似乎是这些系统的学习方式所固有的,但有一种方法可以解决问题。研究人员开发了一种算法,在每轮训练后随机激活一些神经元,这似乎减少了表现不佳的情况。
多哈雷说:“如果一个(神经元)已经死了,那么我们只需让它复活。现在它又能学习了。”
英国牛津大学的马克·范德维尔克说,这种算法看起来很有前途,但还需要在更大的系统中进行测试,才能确定它是否有用。
他说:“持续学习问题的解决方案是一个价值数十亿美元的重大问题。一个真正全面的解决方案可以让你不断更新模型,这将大大降低训练这些模型的成本。”