(图/文 软件工程研究所 郑明月)2025年7月17日,软件工程研究所在3教212开展 “基于 Dify 构建AI Agent实战”专题分享会。参与人员包括软件研究所黄卫老师、软件工程研究所相关教学教师以及学生。聚焦AI智能体开发核心技术,通过理论讲解与实操演示,助力参与者掌握Dify平台的应用与AI Agent构建方法。
分享会开篇,黄卫老师系统介绍主流AI智能体框架。他指出,当前主流框架可分为三类:一是以LangChain为代表的模块化框架,侧重与外部工具集成;二是AutoGPT等自主决策型框架,擅长复杂任务拆解;三是Dify等低代码平台,以可视化流程降低开发门槛。“不同框架各有优势,Dify的特点在于兼顾灵活性与易用性,尤其适合快速落地场景。”黄卫老师补充道。
在Dify私有化部署环节,黄卫老师详解部署流程与关键配置。他强调,私有化部署需满足硬件最低要求:4 核CPU、8GB 内存及50GB存储空间,系统推荐Ubuntu 20.04 或CentOS 7。通过Docker 容器化部署可简化步骤,核心命令包括拉取镜像、配置环境变量及启动服务,同时需注意防火墙端口开放与数据持久化设置,确保服务稳定运行。
关于Dify接入大模型,黄卫老师介绍了基础原理与操作要点。Dify支持主流大模型接入,包括开源的Llama 3、Qwen 2及闭源的GPT - 4、文心一言等。接入需通过API密钥配置,关键参数包括温度系数(控制输出随机性)、最大token数(限制回复长度)。他以接入Llama 3为例演示:在平台 “模型管理” 页面填入API地址与密钥,测试连通性后即可调用,“合理配置参数能让智能体更贴合业务需求。”
案例解析环节,黄卫老师展示了四类应用场景:聊天助手可通过知识库配置实现专业问答,适用于客服场景;任务型Agent能联动工具完成数据分析,如自动生成销售报表;Workflow功能可可视化编排流程,例如请假审批自动流转;插件集成则支持对接企业内部系统,实现数据互通。每个案例均配合操作演示,清晰呈现从配置到上线的全流程。
最后,黄卫老师演示了智能体发布步骤:在Dify平台完成功能配置后,通过“发布”模块生成Web链接或API接口,支持嵌入企业官网、小程序等渠道,同时可设置访问权限与使用额度,满足不同场景需求。
与会师生表示,本次分享内容实用,有效解决了AI Agent开发中的技术困惑。软件工程研究所负责人表示,将持续开展前沿技术分享活动,为师生搭建实践交流平台,推动技术应用与人才培养深度融合。