RunLLM 是一个为技术团队设计的AI支持平台,专注于提供快速、精准的技术支持解决方案。它通过分析文档、代码和用户反馈,生成准确的回答,帮助企业减少支持工作量,提升客户体验。RunLLM由加州大学伯克利分校的AI研究团队创立,结合了知识图谱和定制化大语言模型(LLM),能够处理复杂的用户查询。它支持多种部署方式,如Slack、Zendesk和网站嵌入,适合需要高效技术支持的企业。RunLLM还能持续学习,优化知识库,降低人工支持成本。
功能列表
- 精准回答生成:基于文档、代码和用户反馈,提供带引用的准确回答。
- 代码验证与调试:自动执行和验证代码,排查问题并提供解决方案。
- 多平台部署:支持在Slack、Discord、Zendesk或网站上嵌入AI助手。
- 知识库优化:分析用户查询,识别文档缺失,提出改进建议。
- 多模态支持:处理文字、图片和用户上传的截图,生成综合回答。
- 实时学习:支持即时训练,修正错误回答,确保不再重复错误。
- 数据连接器:集成多种数据源,深入学习产品文档和用户交互。
- 洞察与分析:提供主题建模、文档改进建议和每周支持数据汇总。
使用帮助
RunLLM 是一个功能强大的AI支持平台,适合技术团队和企业用户。以下是详细的使用指南,帮助用户快速上手并充分利用其功能。
安装与部署
RunLLM 不需要复杂的本地安装,采用云端部署,用户只需通过官网注册账号即可开始使用。以下是部署步骤:
- 注册账号:访问 https://www.runllm.com,点击“Sign Up”按钮,填写邮箱、用户名和密码。确保用户名不冒用他人身份,遵守RunLLM用户ID政策。注册后会收到确认邮件,点击链接激活账号。
- 配置数据源:登录后,进入RunLLM仪表板(dashboard)。在“Data Connectors”页面,上传产品文档、API说明或支持票据。RunLLM支持多种格式,如PDF、Markdown和代码文件。用户需确保上传的文档清晰且完整,以提高AI回答的准确性。
- 选择部署平台:在仪表板的“Deployments”选项卡中,选择部署方式。例如:
- Slack集成:点击“Add Deployment”,选择Slack,输入工作空间URL并授权。RunLLM会生成一个Slackbot,自动响应社区或支持渠道中的问题。
- 网站嵌入:在“Config”选项卡中,点击“Add Deployment”,输入网站URL。RunLLM会提供一段JavaScript代码,复制到网站HTML中即可嵌入聊天小部件。用户可自定义小部件位置(如右下角)和快捷键(如
Mod+j
)。 - Zendesk或其他平台:类似地,选择Zendesk,输入相关API密钥,完成授权。
- 测试部署:部署完成后,在目标平台(如Slack或网站)测试AI助手。输入简单问题,如“如何配置API密钥?”,检查回答是否准确。
核心功能操作
RunLLM 的核心功能围绕技术支持和知识管理。以下是主要功能的详细操作流程:
1. 精准回答生成
RunLLM通过分析上传的文档和代码,生成带引用的回答。用户在支持渠道(如Slack)或网站聊天小部件中输入问题,AI会扫描知识库,提取相关信息并生成回答。例如,输入“如何调试Python FastAPI错误?”,RunLLM会提供具体步骤,并引用相关文档。回答还会附上数据来源说明,方便用户进一步查阅。
- 操作步骤:
- 在支持渠道输入问题,确保问题清晰具体。
- 检查AI返回的回答,查看引用的文档链接。
- 如果回答不准确,点击“Train”按钮,输入正确答案,AI会立即学习并更新知识库。
2. 代码验证与调试
RunLLM能自动执行代码并验证其正确性,适合处理技术问题。例如,用户询问“为什么我的React组件不渲染?”,AI会分析代码片段,执行模拟运行,指出潜在错误并建议修复方案。
- 操作步骤:
- 在问题中附上代码片段,使用
代码块
格式。 - AI会返回分析结果,包含错误原因和修复代码。
- 用户可复制建议代码,测试后反馈结果以进一步优化AI模型。
- 在问题中附上代码片段,使用
3. 多平台部署
RunLLM支持灵活部署,用户可根据需求选择平台。以下以网站嵌入为例:
- 操作步骤:
- 在RunLLM仪表板中,进入“Config”页面,选择“Web Widget”。
- 复制提供的代码:
<script src="https://widget.runllm.com" runllm-assistant-id="1" async></script>
- 将代码粘贴到网站的HTML
<head>
标签中。 - 自定义小部件参数,例如设置
runllm-position="BOTTOM_RIGHT"
调整位置,或runllm-keyboard-shortcut="Mod+j"
启用快捷键。 - 保存并刷新网站,检查聊天小部件是否显示。用户可通过小部件提问,AI会实时响应。
4. 知识库优化
RunLLM能分析用户查询,识别文档中的缺失内容。例如,如果用户频繁询问某功能,AI会建议补充相关文档。用户可在仪表板的“Insights”页面查看建议。
- 操作步骤:
- 定期查看“Insights”页面,检查AI生成的问题热点图。
- 根据建议更新文档,重新上传到RunLLM。
- 测试新文档的效果,确保AI回答更精准。
5. 多模态支持
RunLLM支持处理图片和截图。例如,用户上传错误日志截图,AI会分析图像内容,结合文档生成解决方案。
- 操作步骤:
- 在聊天小部件中点击“上传”按钮,选择截图文件。
- 输入相关问题,AI会综合分析图片和文字。
- 检查回答,确认是否解决了问题。
注意事项
- 数据隐私:RunLLM遵守儿童在线隐私保护法(COPPA),不收集13岁以下儿童的个人信息。用户需确保上传数据不包含敏感信息。
- 付费服务:部分高级功能需要订阅,支付通过Stripe处理。用户需提供支付方式,并在仪表板中查看计费详情。
- 持续优化:RunLLM会定期更新,建议关注官网通知或订阅邮件,确保使用最新版本。
应用场景
- 技术支持团队
RunLLM帮助技术支持团队快速响应用户查询,减少人工处理时间。例如,API开发团队可将RunLLM集成到Zendesk,自动回答常见问题,让工程师专注于复杂任务。 - 开源社区管理
开源项目可将RunLLM部署到Discord或Slack,快速响应社区问题。例如,SkyPilot社区使用RunLLM提供准确的代码调试建议,提升用户参与度。 - 企业客户支持
企业可嵌入RunLLM到官网,为新用户提供即时指导。例如,Arize通过RunLLM减少50%的问题解决时间,提升15%的客户留存率。 - 内部知识管理
公司内部团队可使用RunLLM优化文档查找。例如,工程师通过Slackbot查询API文档,快速获取答案,减少培训成本。
QA
- RunLLM如何确保回答准确性?
RunLLM通过结合知识图谱和定制化大语言模型,分析上传的文档和代码生成回答。每条回答附带数据来源引用,用户可验证准确性。如果回答错误,用户可即时训练AI,确保不再犯错。 - 是否需要编程知识才能使用RunLLM?
不需要。RunLLM提供直观的仪表板和预置数据连接器,普通用户只需上传文档并选择部署平台即可。对于高级功能,如代码调试,建议有基本编程背景以更好地理解AI建议。 - RunLLM支持哪些语言?
目前RunLLM主要支持英文文档和代码分析,但可处理中文等其他语言的用户查询。具体支持语言需参考官网最新文档。 - 如何处理隐私数据?
RunLLM通过Stripe处理支付数据,遵守严格的隐私政策。用户上传的文档和代码仅用于生成回答,不会用于其他目的。