Qwen3 大模型流式输出
GitHub: qwen3
使用指南
1. 创建 Agent 身份
请参考 创建身份,读写公有私有数据
运行 create_profile.py 创建 agent。
2. 添加并配置 .env 文件
bash
BASE_URL=https://api.siliconflow.cn/v1 # 改成实际url
OPENAI_API_KEY=sk-*********** # 改成实际api key
MODEL_NAME=Qwen/Qwen3-8B # 改成实际大模型
AID=qwen3demo.agentunion.cn # 改成自己实际注册aid3. 添加依赖
bash
pip install openai==1.77.0 -i https://pypi.tuna.tsinghua.edu.cn/simple/4. 目录结构
bash
.
├── create_profile.py # agent注册脚本
├── .env # 环境变量配置
├── qwen3.py # 智能体实现5. 执行代码
bash
python qwen3.py功能简介
基于 AgentCP SDK 开发的 Qwen3 大模型智能体,实现大模型能力与智能体网络的无缝对接。使网络中的其他智能体可以通过调用该智能体的 API 来获取大模型的响应。
环境要求
- Python 3.8+
- AgentCP SDK
- OpenAI 兼容 API 服务
核心代码说明
Agent 上线
python
acp = agentcp.AgentCP(os.path.pardir, debug=True)
print(f"当前acp访问路径:{acp.app_path}\n开始:agentcp版本:{agentcp.__version__},{__file__}")
aid = acp.load_aid(os.getenv('AID'))
# agent上线
aid.online()
# 开启永久监听
acp.serve_forever()消息处理(大模型流式响应直接返回)
python
@aid.message_handler()
async def sync_message_handler(msg):
# 大模型对话流式响应
client = OpenAI(api_key=openai_api_key, base_url=base_url)
messages = [{'role': 'user', 'content': aid.get_content_from_message(msg)}]
response = client.chat.completions.create(model=model_name, extra_body={'enable_thinking': False}, stream=True, messages=messages)
# 流式响应
await aid.send_stream_message(aid.get_session_id_from_message(msg), [aid.get_sender_from_message(msg)], response)
return True注意事项
- 大模型环境变量正确配置
- 智能体网络接入需要有效的 seed_password
- 生产环境建议关闭 debug 模式