🔥 Gate 动态大使专属发帖福利任务第三期报名正式开启!🏆 第二期获奖名单将于6月3日公布!
👉️ 6月3日 — 6月8日期间每日发帖,根据帖子内容评级瓜分 $300奖池
报名即可参与:https://www.gate.com/zh/questionnaire/6761
报名时间:6月3日10:00 - 6月8日 24:00 UTC+8
🎁 奖励详情:
一、S级周度排名奖
S级:每周7日均完成发帖且整体帖子内容质量分数>90分可获S级,挑选2名优质内容大使每人$50手续费返现券。
二、A/B 等级瓜分奖
根据各位动态大使发帖数量及帖子内容质量获评等级,按评定等级获奖:
A级:每周至少5日完成发帖且整体帖子内容质量90>分数>80可获A级,从A级用户中选出5名大使每人$20手续费返现券
B级:每周至少3日完成发帖且整体帖子内容质量80>分数>60可获B级,从B级用户中选出10名大使每人$10手续费返现券
📍 活动规则:
1.每周至少3日完成发帖才有机会获奖。
2.根据发帖天数和整体发帖内容质量分数给予等级判定,分为S/A/B等级,在各等级下选择幸运大使获奖。
💡 帖子评分标准:
1.每帖不少于30字。
2.内容需原创、有独立见解,具备深度和逻辑性。
3.鼓励发布市场行情、交易知识、币种研究等主题,使用图例或视频可提高评分。
4.禁止发布FUD、抄袭或诋毁内容,违规将取
AI自主智能体大盘点,构建、应用、评估全覆盖,人大高瓴文继荣等32页综述
**编辑:**杜伟、陈萍
在当今的 AI 时代,自主智能体被认为是通向通用人工智能(AGI)的一条有前途的道路。所谓自主智能体,即能够通过自主规划和指令来完成任务。在早期的开发范式中,决定智能体行动的策略功能是以启发式为主的,并在环境交互中逐步得到完善。
不过,在不受约束的开放域环境中,自主智能体的行动往往很难企及人类水平的熟练程度。
随着近年来大语言模型(LLM)取得了巨大成功,并展现出了实现类人智能的潜力。因而得益于强大的能力,LLM 越来越多地被用作创建自主智能体的核心协调者,并先后出现花样繁多的 AI 智能体。这些智能体通过模仿类人的决策过程,为更复杂和适应性更强的 AI 系统提供了一条可行性路径。
在现阶段,对已经出现的基于 LLM 的自主智能体进行整体分析非常重要,并对全面了解该领域的发展现状以及启发未来的研究具有重要意义。
本文中,来自中国人民大学高瓴人工智能学院的研究者对基于 LLM 的自主智能体展开了全面调研,并着眼于它们的构建、应用和评估三个方面。
对于智能体的构建,他们提出了一个由四部分组成的统一框架,分别是表示智能体属性的配置模块、存储历史信息的记忆模块、制定未来行动策略的规划模块和执行规划决定的行动模块。在介绍了典型的智能体模块之后,研究者还总结了常用的微调策略,通过这些策略来增强智能体对不同应用场景的适应性。
接下来研究者概述了自主智能体的潜在应用,探讨它们如何对社会科学、自然科学和工程学领域产生增益。最后讨论了自主智能体的评估方法,包括主观和客观评估策略。下图为文章整体架构。
基于 LLM 的自主智能体构建
为了让基于 LLM 的自主智能体更加高效,有两个方面需要考虑:首先是应该设计怎样的架构使得智能体能更好的利用 LLM;其次是如何有效地学习参数。
智能体架构设计:本文提出了一个统一的框架来总结之前研究中提出的架构,整体结构如图 2 所示,它由分析(profiling)模块、记忆模块、规划模块以及动作模块组成。
分析模块
自主智能体通过特定角色来执行任务,例如程序员、教师和领域专家。分析模块旨在表明智能体的角色是什么,这些信息通常被写入输入提示中以影响 LLM 行为。在现有的工作中,有三种常用的策略来生成智能体配置文件:手工制作方法;LLM-generation 方法;数据集对齐方法。
记忆模块
记忆模块在 AI 智能体的构建中起着非常重要的作用。它记忆从环境中感知到的信息,并利用记录的记忆来促进智能体未来的动作。记忆模块可以帮助智能体积累经验、实现自我进化,并以更加一致、合理、有效的方式完成任务。
规划模块
当人类面临复杂任务时,他们首先将其分解为简单的子任务,然后逐一解决每个子任务。规划模块赋予基于 LLM 的智能体解决复杂任务时需要的思考和规划能力,使智能体更加全面、强大、可靠。本文介绍了两种规划模块:没有反馈的规划以及有反馈的规划。
动作模块
动作模块旨在将智能体的决策转化为具体的结果输出。它直接与环境交互,决定智能体完成任务的有效性。本节从动作目标、策略、动作空间和动作影响来介绍。
除了上述 4 个部分外,本章还介绍了智能体的学习策略,包括从示例中学习、从环境反馈中学习、从交互的人类反馈中学习。
表 1 列出了之前的工作和本文的分类法之间的对应关系:
本章探讨了基于 LLM 的自主智能体在三个不同领域的变革性影响:社会科学、自然科学和工程。
又比如在计算机科学和软件工程领域,基于 LLM 的智能体提供了自动化编码、测试、调试和文档生成的潜力。有研究者提出了 ChatDev ,这是一个端到端的框架,其中多个智能体通过自然语言对话进行沟通和协作,以完成软件开发生命周期;ToolBench 可以用于代码自动补全和代码推荐等任务;MetaGPT 可以扮演产品经理、架构师、项目经理和工程师等角色,内部监督代码生成并提高最终输出代码的质量等等。
下表为基于 LLM 的自主智能体的代表性应用:
本文介绍了两种常用的评估策略:主观评估和客观评估。
主观评估是指人类通过交互、评分等多种手段对基于 LLM 的智能体的能力进行测试。在这种情况下,参与评估的人员往往是通过众包平台招募的;而一些研究者认为众包人员由于个体能力差异而不稳定,因而也会使用专家注释来进行评估。
除此以外,在当前的一些研究中,我们可以使用 LLM 智能体作为主观评估者。例如在 ChemCrow 研究中,uatorGPT 通过指定等级来评估实验结果,该等级既考虑任务的成功完成,又考虑基本思维过程的准确性。又比如 Chat 组建了一个基于 LLM 的多智能体裁判小组,通过辩论来评估模型的生成结果。
与主观评估相比,客观评估具有多种优势,客观评估是指使用定量指标来评估基于 LLM 自主智能体的能力。本节从指标、策略和基准的角度回顾和综合客观评估方法。
在使用评估过程中,我们可以将这两种方法结合使用。
表 3 总结了以前的工作与这些评估策略之间的对应关系: