魔搭社区 | 论文 | Demo体验
中文 | English
ModelScope-Agent是一个通用的、可定制的Agent框架,用于实际应用程序,其基于开源的大语言模型 (LLMs) 作为核心。它提供了一个用户友好的系统库, 具有以下特点:
- 可定制且功能全面的框架:提供可定制的引擎设计,涵盖了数据收集、工具检索、工具注册、存储管理、定制模型训练和实际应用等功能,可用于快速实现实际场景中的应用。
- 开源LLMs作为核心组件:支持在 ModelScope 社区的多个开源LLMs上进行模型训练。
- 多样化且全面的API:以统一的方式实现与模型API和常见的功能API的无缝集成。
为了赋予LLMs工具使用能力,提出了一个全面的框架,涵盖了数据收集、工具检索、工具注册、存储管理、定制模型训练和实际应用的方方面面。
- 2023.11.26: AgentFabric支持ModelScope创空间多人使用,支持分享定制应用到创空间,更新到最新的GTE text embedding。
- 2023.11.17: AgentFabric 发布,这是一个交互式的智能体构建工具,用于方便地创建针对各种现实应用量身定制智能体。
- 2023.10.30: Facechain Agent 发布了人脸写真Agent本地版本,可以在本地运行,具体使用见Facechain Agent
- 2023.10.25: Story Agent 发布了故事绘本图文生成Agent本地版本,可以在本地运行,具体使用见Story Agent
- 2023.9.20: ModelScope GPT gradio提供了本地版本,可以在本地运行,可以进入demo/msgpt/目录后执行
bash run_msgpt.sh
- 2023.9.4: 三个基于Agent开发的应用,demo_qwen, demo_retrieval_agent and demo_register_tool 已添加,并提供了详细的教程。
- 2023.9.2: 与该项目相关的论文 已发布到arxiv。
- 2023.8.22: 支持使用 ModelScope 令牌访问各种 AI 模型 API。
- 2023.8.7: modelscope-agent仓库的初始版本已发布。
克隆repo并安装依赖:
git clone https://github.com/modelscope/modelscope-agent.git
cd modelscope-agent && pip install -r requirements.txt
ModelScope(魔搭社区)提供给新用户初始的免费计算资源,参考ModelScope Notebook
Notebook环境使用简单,您只需要按以下步骤操作(注意:目前暂不提供永久存储,实例重启后数据会丢失):
# Step1: 我的notebook -> PAI-DSW -> GPU环境
# Step2: 下载[demo文件](https://github.com/modelscope/modelscope-agent/blob/master/demo/demo_qwen_agent.ipynb)并把它上传到打开的notebook机器上
# Step3: 按顺序执行demo里面的代码块
使用 ModelScope-Agent,您只需要实例化一个 AgentExecutor
对象,并使用 run()
来执行您的任务即可。
如下简单示例,更多细节可参考demo_agent。也可通过魔搭社区在线Demo直接体验ModelScope.
import os
from modelscope.utils.config import Config
from modelscope_agent.llm import LLMFactory
from modelscope_agent.agent import AgentExecutor
# get cfg from file, refer the example in config folder
model_cfg_file = os.getenv('MODEL_CONFIG_FILE', 'config/cfg_model_template.json')
model_cfg = Config.from_file(model_cfg_file)
tool_cfg_file = os.getenv('TOOL_CONFIG_FILE', 'config/cfg_tool_template.json')
tool_cfg = Config.from_file(tool_cfg_file)
# instantiation LLM
model_name = 'qwen-72b'
print('To use qwen-72b model, you need to enter DashScope Token, which can be obtained from here: 1. Register and log in to https://dashscope.aliyun.com 2. Open the model square and select Tongyi Qianwen 72b. It is expected to take half a day to pass')
os.environ['DASHSCOPE_API_KEY'] = input()
llm = LLMFactory.build_llm(model_name, model_cfg)
# instantiation agent
agent = AgentExecutor(llm, tool_cfg)
- 单步 & 多步工具使用
# Single-step tool-use
agent.run("I want to see cute kittens", remote=True)
# Multi-step tool-use
print('The built-in voice generation and video generation capabilities are deployed in mdoelscope. You need to enter the ModelScope Token, which can be obtained from here: https://modelscope.cn/my/myaccesstoken')
os.environ['MODELSCOPE_API_TOKEN'] = input()
agent.reset()
agent.run('写一篇关于Vision Pro VR眼镜的20字宣传文案,并用女声读出来,同时生成个视频看看', remote=True)
- 多轮工具使用和知识问答
# Multi-turn tool-use
agent.reset()
agent.run('写一个20字左右简短的小故事', remote=True)
agent.run('用女声念出来', remote=True)
agent.run('给这个故事配一张图', remote=True)
AgentExecutor
对象包括以下组件:
LLM
:负责处理用户输入并决策调用合适工具。tool_list
:包含代理可用工具的列表。PromptGenerator
:提示词管理组件,将prompt_template
、user_input
、history
、tool_list
等整合到高效的提示词中。OutputParser
:输出模块,将LLM响应解析为要调用的工具和相应的参数。
我们为用户提供了这些组件的默认实现,但用户也可以根据自己的需求自定义组件。
对于用户隐私相关的配置,如 user_token
等不应该公开,因此我们建议您使用 dotenv
包和 .env
文件来设置这些配置。
具体来说,我们提供了一个模版文件 .env.template
,用户可以复制并更改文件名为.env
来进行个人配置管理,
并通过 load_dotenv(find_dotenv())
来加载这些配置。 另外,用户也可以直接通过设置环境变量的方式来进行token的配置。
除此之外,我们还提供了一个模型配置文件模版 cfg_model_template.json
,和一个工具类配置文件模版 cfg_tool_template.json
.
我们已经将默认的配置填入,用户可以直接使用,也可以复制并更改文件名,进行深度定制。
我们提供了开箱即用的LLM方便用户使用,具体模型如下:
- modelscope-agent-7b: modelscope-agent-7b是驱动ModelScope-Agent框架的核心开源模型,可以直接下载到本地使用。
- modelscope-agent: 部署在DashScope上的ModelScope-Agent服务,不需要本地GPU资源,在DashScope平台执行如下操作:
- 申请开通DashScope服务,进入
模型广场
->通义千问开源系列
-> 申请试用通义千问7B
, 免费额度为10万token API-kEY管理
中创建API-KEY,在config/.env
文件中配置
- 申请开通DashScope服务,进入
如果用户想使用其他LLM,也可以继承基类并专门实现 generate()
或 stream_generate()
。
generate()
: 直接返回最终结果stream_generate()
: 返回一个生成器用于结果的串行生成,在部署应用程序到 Gradio 时可以使用。
用户还可以使用 ModelScope 或 Huggingface 的开源LLM,并通过 LLMFactory
类在本地进行推断。此外,也可以使用用户的数据集对这些模型进行微调或加载您的自定义权重。
# 本地LLM配置
import os
from modelscope.utils.config import Config
from modelscope_agent.llm import LLMFactory
from modelscope_agent.agent import AgentExecutor
model_name = 'modelscope-agent-7b'
model_cfg = {
'modelscope-agent-7b':{
'type': 'modelscope',
'model_id': 'damo/ModelScope-Agent-7B',
'model_revision': 'v1.0.0',
'use_raw_generation_config': True,
'custom_chat': True
}
}
tool_cfg_file = os.getenv('TOOL_CONFIG_FILE', 'config/cfg_tool_template.json')
tool_cfg = Config.from_file(tool_cfg_file)
llm = LLMFactory.build_llm(model_name, model_cfg)
agent = AgentExecutor(llm, tool_cfg)
为了能支持各类任务应用,我们提供了多个默认的pipeline作为工具以便大模型调用,这些pipeline来自于modelscope,涵盖了多个领域。
此外,用户可以通过继承基础的工具类,并根据定义名称、描述和参数(names, descriptions, and parameters
)来自定义自己的工具。
同时还可以根据需要实现 _local_call()
或 _remote_call()
。 更多工具类的注册细节可参考tool和too_demo。
以下是支持的工具示例:
- 文本转语音工具
from modelscope_agent.tools import ModelscopePipelineTool
from modelscope.utils.constant import Tasks
from modelscope_agent.output_wrapper import AudioWrapper
class TexttoSpeechTool(ModelscopePipelineTool):
default_model = 'damo/speech_sambert-hifigan_tts_zh-cn_16k'
description = '文本转语音服务,将文字转换为自然而逼真的语音,可配置男声/女声'
name = 'modelscope_speech-generation'
parameters: list = [{
'name': 'input',
'description': '要转成语音的文本',
'required': True
}, {
'name': 'gender',
'description': '用户身份',
'required': True
}]
task = Tasks.text_to_speech
def _remote_parse_input(self, *args, **kwargs):
if 'gender' not in kwargs:
kwargs['gender'] = 'man'
voice = 'zhibei_emo' if kwargs['gender'] == 'man' else 'zhiyan_emo'
kwargs['parameters'] = voice
kwargs.pop('gender')
return kwargs
def _parse_output(self, origin_result, remote=True):
audio = origin_result['output_wav']
return {'result': AudioWrapper(audio)}
- 文本地址工具
from modelscope_agent.tools import ModelscopePipelineTool
from modelscope.utils.constant import Tasks
class TextAddressTool(ModelscopePipelineTool):
default_model = 'damo/mgeo_geographic_elements_tagging_chinese_base'
description = '地址解析服务,针对中文地址信息,识别出里面的元素,包括省、市、区、镇、社区、道路、路号、POI、楼栋号、户室号等'
name = 'modelscope_text-address'
parameters: list = [{
'name': 'input',
'description': '用户输入的地址信息',
'required': True
}]
task = Tasks.token_classification
def _parse_output(self, origin_result, *args, **kwargs):
final_result = {}
for e in origin_result['output']:
final_result[e['type']] = e['span']
return final_result
此外,如果用户希望使用来自langchain
的工具,我们也为用户提供了便捷接口。用户可以直接使用 LangchainTool
来进行调用。 具体如下:
from modelscope_agent.tools import LangchainTool
from langchain.tools import ShellTool
# 包装 langchain 工具
shell_tool = LangchainTool(ShellTool())
print(shell_tool(commands=["echo 'Hello World!'", "ls"]))
我们在demo/tool_agent_finetune_swift中提供了一个开源大模型训练框架,主要集成了来自ModelScope的SWIFT训练框架。此外,我们还发布了一个大规模的工具指令微调数据集MSAgent-Bench。
MSAgent-Bench是一个包含598k个对话的综合工具数据集,包括通用API、模型API、面向API的问答和与API无关的指令。您可以直接在数据集链接上下载它,或通过SDK访问:
from modelscope.msdatasets import MsDataset
ds = MsDataset.load('damo/MSAgent-Bench', split='train')
one_ds = next(iter(ds))
训练样本可以组织成以下形式,其中:<|startofthink|>和<|endofthink|>之间包含的是API请求生成内容,<|startofexec|>和<|endofexec|>之间包含的是API执行结果。
{
"id":"MS_Agent_Bench_20",
"conversations":[
{
"from":"system",
"value": "你是达摩院xxxx"
},
{
"from":"user",
"value":"按照给定的schema抽取出下面文本对应的信息\nschema:{\"人物\": null, \"地理位置\": null, \"组织机构\": null}\n近日,美国政府宣布将对中国1000多种商品加征关税,并威胁进一步加征关税。"
},
{
"from":"assistant",
"value":"<|startofthink|>```JSON\n{\"api_name\": \"modelscope_text-ie\", \"url\": \"http://9.32.64.200:5873/damo/nlp_structbert_siamese-uie_chinese-base\", \"parameters\": {\"text\": \"近日,美国政府宣布将对中国1000多种商品加征关税,并威胁进一步加征关税。\", \"schema\": \"{\\\"人物\\\": null, \\\"地理位置\\\": null, \\\"组织机构\\\": null}\"}}\n```<|endofthink|>\n\n<|startofexec|>```JSON\n{\"人物\": [], \"地理位置\": [\"中国\", \"美国\"], \"组织机构\": []}\n```<|endofexec|>\n信息抽取结果:{\"人物\": [], \"地理位置\": [\"中国\", \"美国\"], \"组织机构\": []}。"
}
]
}
执行下面这个脚本训练模型
cd demo/tool_agent_finetune_swift
PYTHONPATH=./ bash scripts/train/run_qwen_ddp.sh
如果您还想进一步了解Agent细节,可以参考我们的文章和视频教程
我们感谢您对参与我们的开源ModelScope-Agent项目的热情。如果您遇到任何问题,请随时向我们提问。如果您已经构建了一个新的Agent Demo并准备与我们分享您的工作,请随时创建一个pull请求!如果您需要任何进一步的帮助,请邮件contact@modelscope.cn或者交流群联系我们
Facechain是一个开源的人脸写真项目,用户上传几张图片就可以生成各种风格的个人写真,我们通过modelscope-agent框架,接入facechain的能力,极大的简化了使用流程,通过对话的方式即可完成人脸写真
FaceChainAgent创空间应用地址:https://modelscope.cn/studios/CVstudio/facechain_agent_studio/summary
可以直接在notebook/colab/本地中运行:https://www.modelscope.cn/my/mynotebook
! git clone -b feat/facechain_agent https://github.com/modelscope/modelscope-agent.git
! cd modelscope-agent && ! pip install -r requirements.txt
! cd modelscope-agent/demo/facechain_agent/demo/facechain_agent && ! pip install -r requirements.txt
! pip install http://dashscope-cn-beijing.oss-cn-beijing.aliyuncs.com/zhicheng/modelscope_agent-0.1.0-py3-none-any.whl
! PYTHONPATH=/mnt/workspace/modelscope-agent/demo/facechain_agent && cd modelscope-agent/demo/facechain_agent/demo/facechain_agent && python app_v1.0.py
Story Agent是一个开源的故事绘本生成智能体,用户通过对话交流的方式即可完成一个绘本的创作,整个流程Agent会智能的引导用户如何创作绘本
StoryAgent 创空间应用地址:https://modelscope.cn/studios/damo/story_agent/summary
也可以直接在notebook中运行:https://www.modelscope.cn/my/mynotebook
! git clone -b feat/story_agent_gradio https://github.com/modelscope/modelscope-agent.git
import os
os.environ['DASHSCOPE_API_KEY'] = '替换成你的'
#DASHSCOPE_API_KEY可以从dashscope网站 https://dashscope.console.aliyun.com/apiKey获取
! cd modelscope-agent && ! pip install -r requirements.txt
! cd modelscope-agent/demo/story_agent && ! pip install -r requirement_gr.txt
! cd modelscope-agent/demo/story_agent && ! sh run_story_agent.sh
如果您觉得这个工作很有用,请考虑给这个项目加星,并引用我们的论文,感谢:
@misc{li2023modelscopeagent,
title={ModelScope-Agent: Building Your Customizable Agent System with Open-source Large Language Models},
author={Chenliang Li and Hehong Chen and Ming Yan and Weizhou Shen and Haiyang Xu and Zhikai Wu and Zhicheng Zhang and Wenmeng Zhou and Yingda Chen and Chen Cheng and Hongzhu Shi and Ji Zhang and Fei Huang and Jingren Zhou},
year={2023},
eprint={2309.00986},
archivePrefix={arXiv},
primaryClass={cs.CL}
}