作为大模型的长期用户,我最近开始深入研究AI Agent的构建,并利用字节跳动的coze平台,致力于开发一款全球视野的隐私合规AI助手。
1- 现有工具的局限性
隐私领域的立法和技术更新迅速,我们通常依赖搜索引擎来获取信息,但这种方式需要用户自行验证和总结,尤其是非英语国家的资料获取和理解更是一大难题。而直接使用AI工具,又可能因知识库更新滞后和AI幻觉问题,导致答案不可靠。
2-目标阐述
鉴于此,我设定了开发目标:创建一个智能对话机器人,旨在全面覆盖多国隐私法规,并提供基于官方和最新数据源的精准合规实践。
3-实现方式:
在开发前,我深入学习了AI Agent所需的各个模块及其职责,并设计了一个包含四个独立workflow的对话机器人。这个系统的核心在于识别用户问题中的国家,并转换成当地语言,以便在其国家监管机构的官方网站进行精准检索。同时,利用不同的LLM分别进行分层处理,把需求分析,答案生成和答案质量审核切分为三部分,保证最终答案的准确性。
4-挑战描述
开发过程中,我遇到了系统响应超时的主要挑战。Coze平台对单个workflow的调用超时限制为60秒,但Workflow中的LLM在做答案生成和核查是,经常会超过一分钟,导致整个对话中断。我尝试了多种解决方案,包括拆分workflow和缩减采集页面数量,但这些尝试虽然降低了单个workflow的处理时长,但延长了Agent的调度时间,也增加了LLM执行决策的不可控。
5-使用效果
从上图可以看到,用户需要等待约3分钟才能得到结果,其中LLM任务调度耗时77秒,有2个workflow调用都接近超时限制。尽管存在挑战,但机器人的回复质量达到了预期。与Kimi的反馈相比,AI Agent提供的答案更为清晰和实用。下图是相同问题Kimi的回复,明显可以看到机器人的回复更具有实操性。
6-优化与迭代
经过两周的调试,超时问题一直困扰着我。我意识到需要调整设计思路,在新版设计中,我将更多高质量内容存入知识库,并直接使用搜索引擎返回的结果摘要交由LLM处理,以提高响应速度。通过提示词限制LLM只允许基于知识库和搜索结果进行回复,从而去除答案核查环节。
V2版在30秒内完成处理,显著减少了工作流数量和任务复杂度,消除了超时风险。然而,与Kimi相比,机器人在回复质量并没有明显的优势,原因是LLM没有获得完整的页面内容,它无法提供所需的高度总结归纳能力。唯一的特点是它突破了中文互联网的限制,可以从目标国网络获取高质量信息。
当我再次升级,为V2版加上网页内容读取能力后,在非英语国度的问题回复上,我们可以看到它比Kimi的优秀之处。如下图,可以看到Kimi是基于常识(GDPR)来回答,而机器人是先获取了阿联酋的法规文本后,提供的精确分析。
7-反思与前瞻
尽管我目前的尝试尚未完全达到预期目标,我决定暂时放慢脚步,深入回顾整个开发过程,并以此为契机撰写本文进行分享。
我的感受是:大型语言模型所具备的卓越自然语言理解能力,结合它在多语言间的流畅翻译功能,再辅以精心设计的工作流和搜索引擎,极大地简化了知识的获取——我们追求的不仅是信息,而是深度的知识掌握。
感谢LLM技术提供商以及像Coze这样的AI Agent开发平台,它们极大地降低了智能应用开发的技术门槛。这为每个人将创意转化为实用工具提供了可能。我坚信,凭借持续的努力和不断地优化,我的AI助手有潜力成为一个被广泛采用的隐私保护利器。
如果您对AI在隐私保护领域的应用感兴趣,或对我的AI Agent开发之旅有任何建议,欢迎留言讨论。