站长之家用户 - 2024-05-15 15:07

ieee:什么是通用人工智能?-凯发游戏

对于大众来说,人工智能(ai,artificial intelligence)可以说已经非常常见和熟悉了。但是(agi,artificial general intelligence)呢?它是一个长期以来在和哲学中讨论的概念,它指的是具有类似人类推理能力的ai。

当和生成式人工智能逐步进入了消费大众的视线,ai掌握了一定的自学习能力,的速度大幅提升。然而,大多数专家意识到它们无法像人类那样进行推理。

ieee会员karthik k.认为,尽管取得了许多突破,但生成式人工智能缺乏类似人类的推理能力,因为它基于模式和数据进行操作,而没有掌握它们的含义,无法将已经学到的概念扩展到新的使用场景中。

那么ai和agi之间有什么区别呢?我们如何知道它何时达到了人类决策的水平?这些问题很难回答,部分原因是没有一个公认的ai定义,更不用说agi了。

但这些问题仍然很重要,因为它们阐明了当今技术的能力和局限性。

ai没有明确的定义

人工智能的定义是模糊的,涉及多个学科。《ieee人工智能汇刊》的一篇社论指出,来自计算机科学、心理学、生物学、数学和物理学等多个学科的学者试图对其进行定义。

社论指出:“每一个定义都受到了批评,所以未能在每一个学科内达成共识,更不用说普遍共识了。”

agi测试

在缺乏对agi的明确定义的情况下,许多理论家提出了对通用人工智能的各种测试。这个想法是,我们可能无法定义它,但也许当我们看到它时就会知道。

最知名的是1950年的图灵测试,该测试设想召集一组专家向“先知”提问。同样,如果专家们无法判断答案来自人类还是机器,那么根据测试 ——agi被认为具有人类智能。

苹果公司的创始人之一、ieee fellow steve wozniak将咖啡测试作为agi的一项指标。在测试过程中,机器人必须进入普通家庭并尝试制作咖啡。这意味着要找到所有的工具,找出它们如何运作,然后执行任务。能够完成这个测试的机器人将被认为是agi的一个例子。

聊天机器人正处于agi的风口浪尖上吗?

根据ieee计算机学会出版的《计算机》杂志的一篇深入讨论,ai与其类人对应物之间的差异存在于一个连续体上。早期的ai发展了单一领域的专业知识,比如国际象棋和围棋。今天的高 级人工智能可以理解语言,将语言翻译成图像,并分析图像中癌症的迹象等。

尽管这些成就令人印象深刻,但它们并不像人类那样思考和推理。

那么,聊天机器人离实现agi还有多远呢?

乍一看,像chatgpt这样的聊天机器人非常接近通过图灵测试,被归类为agi。他们可以自信地写出覆盖各种学科种类的合理优秀的文章。

虽然聊天机器人甚至可以通过法律等领域的专业许可考试,但它们在基础层面也会面临失败 —— 聊天机器人经常把数学题弄错。他们对引用的属性错误,并不总是理解因果关系,在推理问题上得出错误的答案。

ieee会员sukanya mandal表示:“实现agi的下一步可能涉及开发人工智能系统,这些系统可以在广泛的领域展示更先进的推理、解决问题和学习能力。这可能包括将知识从一个环境转移到另一个环境的能力,从有限的数据或例子中学习的能力,以及在新的情况下表现出创造力和适应性的能力。”

chatgpt源码推荐:

相关话题

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,相关信息仅供参考。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明()。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

推荐关键词

24小时热搜

查看更多内容

大家正在看

网站地图