RunLLMは、迅速かつ正確なテクニカルサポートソリューションを提供することに重点を置く技術チームのために設計されたAIサポートプラットフォームです。カリフォルニア大学バークレー校のAI研究者チームによって設立されたRunLLMは、ナレッジグラフとカスタマイズされた大規模言語モデル(LLM)を組み合わせ、複雑なユーザーからの問い合わせに対応できるようにしている。Slack、Zendesk、ウェブサイトへの埋め込みなど複数の導入方法をサポートしており、効率的なテクニカルサポートを必要とする企業に適している。RunLLMはまた、ナレッジベースを最適化し、手作業によるサポートコストを削減するために継続的に学習する。
機能一覧
- 的確な回答生成ドキュメント、コード、ユーザーからのフィードバックに基づき、引用を交えた正確な回答を提供する。
- コードの検証とデバッグコードの実行と検証を自動化し、問題のトラブルシューティングと解決策を提供する。
- マルチプラットフォーム展開Slack、Discord、Zendesk、ウェブサイトへのAIアシスタントの組み込みをサポート。
- ナレッジベースの最適化ユーザーからの問い合わせを分析し、不足しているドキュメントを特定し、改善を提案する。
- マルチモーダルサポートテキスト、画像、ユーザーがアップロードしたスクリーンショットを処理し、包括的な回答を生成します。
- リアルタイム学習誤った回答を修正し、誤りが繰り返されないようにするための即時トレーニングをサポートします。
- データコネクタ複数のデータソースを統合し、製品ドキュメントとユーザーインタラクションについて深く学びます。
- 洞察と分析トピックのモデリング、ドキュメントの改善提案、週次サポートデータのサマリーを提供する。
ヘルプの使用
RunLLMは、技術チームや企業ユーザーのための強力なAIサポートプラットフォームです。以下は、ユーザが素早く立ち上がり、その機能を最大限に活用するための詳細なユーザガイドです。
インストールと展開
RunLLMは複雑なローカルインストールを必要とせず、クラウド上に展開され、ユーザーは公式ウェブサイトからアカウントを登録するだけで使い始めることができる。以下はデプロイの手順である:
- アカウント登録: https://www.runllm.com にアクセスし、"サインアップ "ボタンをクリックし、メールアドレス、ユーザー名、パスワードを入力してください。あなたのユーザー名が他人になりすますために使用されていないことを確認し、RunLLMのユーザーIDポリシーに従ってください。登録後、確認メールが届きますので、リンクをクリックしてアカウントを有効にしてください。
- データソースの設定RunLLM: ログインしたら、RunLLMダッシュボードに移動します。RunLLMは、PDF、Markdown、コードファイルなどのさまざまな形式をサポートしています。RunLLMは、PDF、Markdown、コードファイルなどのさまざまな形式をサポートしています。ユーザーは、AIの回答の精度を向上させるために、アップロードされたドキュメントが明確で完全であることを確認する必要があります。
- 展開プラットフォームの選択ダッシュボードの [Deployments] タブで、デプロイメント方法を選択します。たとえば
- Slackとの統合RunLLMは、コミュニティやサポートチャンネルの問題に自動的に応答するSlackbotを生成します。
- ウェブサイトの埋め込みRunLLMは、チャットウィジェットを埋め込むために、ウェブサイトのHTMLにコピーできるJavaScriptコードを提供します。RunLLMは、チャットウィジェットを埋め込むためにウェブサイトのHTMLにコピーできるJavaScriptコードを提供します。ユーザーは、ウィジェットの位置(例:右下隅)とショートカットキー(例:右下隅)をカスタマイズすることができます。
Mod+j
). - Zendeskまたはその他のプラットフォーム同様に Zendesk を選択し、関連する API キーを入力して認証を完了します。
- テストの展開デプロイしたら、対象のプラットフォーム(Slackやウェブサイトなど)でAIアシスタントをテストします。"APIキーを設定するにはどうすればいいですか?"のような簡単な質問を入力する。答えが正確かどうかチェックする。
コア機能の操作
RunLLMの中核機能は技術サポートと知識管理を中心に展開される。以下は主な機能の詳細な操作の流れである:
1.正確な回答生成
RunLLMは、アップロードされたドキュメントやコードを分析することで、引用を含む回答を生成する。ユーザーがサポートチャンネル(Slackなど)やウェブサイトのチャットウィジェットに質問を入力すると、AIがナレッジベースをスキャンし、関連情報を抽出して回答を生成する。例えば、"Python FastAPIのエラーをデバッグするには?"と入力してください。RunLLMは具体的な手順を提供し、関連ドキュメントを引用する。回答には、さらに参照するためのデータソースの説明も含まれます。
- 手続き::
- サポート・チャンネルに質問を入力し、明確かつ具体的であることを確認する。
- 引用文献へのリンクについては、AIから返された回答を確認してください。
- 答えが不正確な場合は、「Train」ボタンをクリックして正しい答えを入力すると、AIは直ちに学習して知識ベースを更新する。
2.コードの検証とデバッグ
RunLLMは自動的にコードを実行し、その正しさを検証するので、技術的な問題を処理するのに適している。例えば、ユーザーが "なぜReactコンポーネントがレンダリングされないのか?"と質問した場合、AIはコード・スニペットを分析し、シミュレーションを実行し、潜在的なエラーを指摘し、修正を提案する。AIはコードスニペットを分析し、シミュレーションを実行し、潜在的なエラーを指摘し、修正を提案します。
- 手続き::
- を使用して質問にコードスニペットを添付します。
代码块
フォーマット - AIは、エラーの原因とそれを修正するコードとともに分析結果を返す。
- ユーザーは提案されたコードをコピーしてテストし、その結果をフィードバックしてAIモデルをさらに最適化することができる。
- を使用して質問にコードスニペットを添付します。
3.マルチプラットフォーム展開
RunLLMは柔軟な配置をサポートし、ユーザーは必要に応じてプラットフォームを選択することができます。以下はウェブサイトの埋め込み例です:
- 手続き::
- RunLLMダッシュボードで、"Config "ページに移動し、"Web Widget "を選択します。
- 提供されたコードをコピーする:
<script src="https://widget.runllm.com" runllm-assistant-id="1" async></script>
- コードをウェブサイトのHTMLに貼り付ける。
<head>
タグ別アーカイブ - ウィジェットのパラメータをカスタマイズする。
runllm-position="BOTTOM_RIGHT"
ポジションを調整するかrunllm-keyboard-shortcut="Mod+j"
ショートカットを有効にする。 - 保存してサイトを更新し、チャットウィジェットが表示されているか確認してください。ユーザーはウィジェットを介して質問することができ、AIがリアルタイムで応答します。
4.知識ベースの最適化
RunLLMはユーザーからの問い合わせを分析し、ドキュメントに欠けている内容を特定することができる。例えば、ユーザーがある機能について頻繁に質問する場合、AIは追加ドキュメントを提案する。ユーザーはダッシュボードの「インサイト」ページで提案を見ることができる。
- 手続き::
- AIが作成した問題のホットスポットのマップを「インサイト」ページで定期的に確認する。
- 提案に従ってドキュメントを更新し、RunLLMに再アップロードする。
- 新しい文書の有効性をテストし、AIの回答がより正確になることを確認する。
5.マルチモーダルサポート
RunLLMは画像やスクリーンショットの処理をサポートする。例えば、ユーザーがエラーログのスクリーンショットをアップロードすると、AIが画像の内容を分析し、ドキュメントと連動したソリューションを生成する。
- 手続き::
- チャットウィジェットの「アップロード」ボタンをクリックし、スクリーンショットファイルを選択します。
- 関連する質問を入力すると、AIが画像とテキストを合成する。
- 答えが問題を解決していることを確認してください。
ほら
- プライバシー: RunLLMは、児童オンラインプライバシー保護法(COPPA)を遵守し、13歳未満の児童から個人情報を収集することはありません。ユーザーは、アップロードされたデータに機密情報が含まれていないことを確認する必要があります。
- 有料サービス一部のプレミアム機能にはサブスクリプションが必要で、支払いはStripeを通じて処理されます。ユーザーは支払い方法を指定し、ダッシュボードで請求の詳細を表示する必要があります。
- 継続的な最適化: RunLLMは定期的にアップデートされますので、最新版をお使いいただくために、オフィシャルサイトのお知らせをご覧になるか、Eメールを購読されることをお勧めします。
アプリケーションシナリオ
- テクニカル・サポート・チーム
RunLLMは、テクニカルサポートチームがユーザーからの問い合わせに迅速に対応し、手作業による処理時間を短縮するのに役立ちます。例えば、API開発チームはRunLLMをZendeskに統合することで、よくある質問に自動的に回答することができ、エンジニアは複雑なタスクに集中することができます。 - オープンソースコミュニティ管理
オープンソースプロジェクトは、コミュニティの問題に迅速に対応するために、RunLLMをDiscordやSlackにデプロイすることができます。例えば、SkyPilotコミュニティでは、RunLLMを使用して正確なコードデバッグのアドバイスを提供し、ユーザーエンゲージメントを向上させています。 - カスタマーサポート
組織は、RunLLMを公式ウェブサイトに組み込み、新規ユーザーに即座にガイダンスを提供することができます。例えば、ArizeはRunLLMを通して、50%の問題解決時間を短縮し、15%の顧客維持率を改善した。 - 社内の知識管理
社内チームはRunLLMを使用してドキュメント検索を最適化できる。例えば、エンジニアは、Slackbotを介してAPIドキュメントを検索し、迅速に回答を得て、トレーニングコストを削減することができます。
品質保証
- RunLLMはどのようにして解答の正確性を保証するのですか?
RunLLMは、アップロードされたドキュメントやコードを分析し、ナレッジグラフとカスタマイズされたビッグ言語モデルを組み合わせて回答を生成します。各回答にはデータ・ソースの引用が付属しているため、ユーザーは正確性を確認することができる。回答が不正確な場合、ユーザーは即座にAIを訓練し、それ以上間違いが起こらないようにすることができる。 - RunLLMを使うのにプログラミングの知識は必要ですか?
RunLLMは、直感的なダッシュボードと事前に構築されたデータコネクタを提供し、通常のユーザーは、単にドキュメントをアップロードし、デプロイメントプラットフォームを選択することができます。コードデバッグのような高度な機能については、AIの推奨事項をよりよく理解するために、基本的なプログラミングの知識があることが推奨されます。 - RunLLMはどの言語をサポートしていますか?
現在、RunLLMは主に英語のドキュメンテーションとコード解析をサポートしていますが、中国語など他の言語でのユーザークエリにも対応できます。特定のサポート言語は、公式ウェブサイトの最新ドキュメントを参照してください。 - 個人情報はどのように扱われるのか?
RunLLMは、Stripeを通じて支払いデータを処理し、厳格なプライバシーポリシーを遵守しています。ユーザーによってアップロードされた文書やコードは、回答を生成するためにのみ使用され、他の目的で使用されることはありません。