对于大众来说,人工智能(ai,artificial intelligence)可以说已经非常常见和熟悉了。但是(agi,artificial general intelligence)呢?它是一个长期以来在和哲学中讨论的概念,它指的是具有类似人类推理能力的ai。
当和生成式人工智能逐步进入了消费大众的视线,ai掌握了一定的自学习能力,的速度大幅提升。然而,大多数专家意识到它们无法像人类那样进行推理。
ieee会员karthik k.认为,尽管取得了许多突破,但生成式人工智能缺乏类似人类的推理能力,因为它基于模式和数据进行操作,而没有掌握它们的含义,无法将已经学到的概念扩展到新的使用场景中。
那么ai和agi之间有什么区别呢?我们如何知道它何时达到了人类决策的水平?这些问题很难回答,部分原因是没有一个公认的ai定义,更不用说agi了。
但这些问题仍然很重要,因为它们阐明了当今技术的能力和局限性。
ai没有明确的定义
人工智能的定义是模糊的,涉及多个学科。《ieee人工智能汇刊》的一篇社论指出,来自计算机科学、心理学、生物学、数学和物理学等多个学科的学者试图对其进行定义。
社论指出:“每一个定义都受到了批评,所以未能在每一个学科内达成共识,更不用说普遍共识了。”
agi测试
在缺乏对agi的明确定义的情况下,许多理论家提出了对通用人工智能的各种测试。这个想法是,我们可能无法定义它,但也许当我们看到它时就会知道。
最知名的是1950年的图灵测试,该测试设想召集一组专家向“先知”提问。同样,如果专家们无法判断答案来自人类还是机器,那么根据测试 ——agi被认为具有人类智能。
苹果公司的创始人之一、ieee fellow steve wozniak将咖啡测试作为agi的一项指标。在测试过程中,机器人必须进入普通家庭并尝试制作咖啡。这意味着要找到所有的工具,找出它们如何运作,然后执行任务。能够完成这个测试的机器人将被认为是agi的一个例子。
聊天机器人正处于agi的风口浪尖上吗?
根据ieee计算机学会出版的《计算机》杂志的一篇深入讨论,ai与其类人对应物之间的差异存在于一个连续体上。早期的ai发展了单一领域的专业知识,比如国际象棋和围棋。今天的高 级人工智能可以理解语言,将语言翻译成图像,并分析图像中癌症的迹象等。
尽管这些成就令人印象深刻,但它们并不像人类那样思考和推理。
那么,聊天机器人离实现agi还有多远呢?
乍一看,像chatgpt这样的聊天机器人非常接近通过图灵测试,被归类为agi。他们可以自信地写出覆盖各种学科种类的合理优秀的文章。
虽然聊天机器人甚至可以通过法律等领域的专业许可考试,但它们在基础层面也会面临失败 —— 聊天机器人经常把数学题弄错。他们对引用的属性错误,并不总是理解因果关系,在推理问题上得出错误的答案。
ieee会员sukanya mandal表示:“实现agi的下一步可能涉及开发人工智能系统,这些系统可以在广泛的领域展示更先进的推理、解决问题和学习能力。这可能包括将知识从一个环境转移到另一个环境的能力,从有限的数据或例子中学习的能力,以及在新的情况下表现出创造力和适应性的能力。”
chatgpt源码推荐: