現地時間7月30日、人気の高いネイティブの開発者向けランタイムフレームワークLarge Language Model(LLM)が発表された。 Ollama
を正式に発表した。 macOS
歌で応える Windows
デスクトップ・アプリケーションこの動きは Ollama
開発者向けのコマンドラインツールから、一般ユーザーでも簡単に使い始められるグラフィカルなプラットフォームへの重要なステップであり、デプロイと使用の必要性を劇的に減らす。 LLM
敷居が高い。
データのプライバシー、オフラインでのアクセス性、そして低コストを求めるユーザーにとって、ローカルでの運用は非常に便利である。 LLM
は常に理想的な選択だった。しかし、環境設定やコマンドライン操作の複雑さは、しばしば法外である。Ollama
新しく発表されたデスクトップアプリは、このペインポイントに対処するように設計されている。
簡素化されたモデル・インタラクション体験
この新しいアプリケーションは直感的なチャット・インターフェースを提供し、ユーザーはまるでオンライン・チャットボットを使っているかのように、ローカルで動作する様々なオープンソース・モデルと会話することができる。新しいモデルのダウンロードから異なるモデルの切り替えまで、すべての操作をグラフィカルなインターフェイスで行うことができ、煩雑なターミナル・コマンドに別れを告げる。
パワフルなドキュメントおよびマルチモーダル処理
新しいアプリのハイライトの1つは、強力なファイル処理機能です。ユーザーは、テキストファイル、PDF、またはコードファイルさえもチャットウィンドウに直接ドラッグ&ドロップすることができるようになり、モデルがファイルの内容に基づいて分析、要約、または質問に答えることができるようになりました。これは、長いレポートを読んだり、論文を読んだり、複雑なコードベースを理解したりするのにとても便利です。
多くの情報を含む文書を処理するために、ユーザーは設定でモデルのコンテキスト長を増やすことができます。コンテキスト長を長くすると、コンピュータのメモリリソースをより多く消費することに注意することが重要です。
さらに、このアプリは以下の機能を統合している。 Ollama
画像入力を処理できる最新のマルチモーダルエンジン。ユーザーは、視覚的な機能をサポートするモデル(例えば、以下のような)にマルチモーダルな入力を送ることができる。 Google DeepMind
な Gemma 3
)を使って写真を送信し、写真の内容について質問したり、話し合ったりすることができます。この機能は、ローカル LLM
アプリケーション・シナリオは、写真の中の物体の認識からグラフィック・データの解釈まで、すべて完全なオフライン環境で、新たな可能性を切り開く。
開発者のためのコード・アシスタンス
ソフトウェア開発者にとっても、新しいアプリケーションは同様に強力なサポートを提供する。コードファイルをモデルで利用できるようにすることで、開発者はコードの説明やドキュメンテーションの提案、リファクタリングの解決策に素早くアクセスできるようになり、生産性が大幅に向上します。
始め方
ユーザーは Ollama
オフィシャルウェブサイトのダウンロードは、以下に適用されます。 macOS
歌で応える Windows
アプリケーションの新バージョンのまだコマンドラインを好んで使う熟練ユーザーにはOllama
引き続き GitHub
スタンドアロンでコマンドラインのみのバージョンはリリースページで入手できる。