
人工知能は私たちの世界を変革し続けており、高度な言語モデルを操作するためのオプションは飛躍的に増加しています。ただし、誰もがこれらのテクノロジーを探索するためにクラウド サービスに接続したり、サードパーティに依存したりする必要があるわけではありません。興味深くてアクセスしやすい代替手段は、 ディープシーク-R1、ユーザーが小規模なコンピューター上でローカルに実行できる AI モデル。この記事では、DeepSeek をインストールし、その機能を最大限に活用する方法を説明します。
DeepSeek-R1 は、 オープンソース AI モデル その効率性と高度な推論能力が際立っています。ローカルで実行すると、定期的なコストが節約されるだけでなく、プライバシーが保護され、カスタム プロジェクトに統合する柔軟性も得られます。一部のモデルには強力なハードウェアが必要ですが、DeepSeek-R1 は、基本的なコンピューターから高度なワークステーションまで、さまざまなリソースに合わせて調整されたバージョンを提供します。
DeepSeek とは何ですか? なぜローカルで使用するのですか?
DeepSeek-R1 は、 論理的推論などの複雑なタスク向けに設計された高度な言語モデル、数学的な問題を解決し、コードを生成します。その主な利点はオープンソースであることです。つまり、外部サーバーに依存せずに自分のコンピューターにインストールして実行できます。
その注目すべき機能には次のようなものがあります。
- 柔軟性: 軽量バージョンから高度な構成まで、ニーズに応じてモデルを調整できます。
- プライバシー: すべての処理はローカルで行われるため、機密データの漏洩に関する懸念が回避されます。多くの企業が私たちのデータを使って何ができるかについて懸念しているため、これはおそらく最も重要な点です。
- 貯蓄: サブスクリプションやクラウド サービスに大金を投じる必要がないため、開発者や企業にとって手頃な価格のオプションになります。
インストールの要件
インストールを開始する前に、次の事項に従っていることを確認してください。 必要条件:
- Linux、macOS、または Windows オペレーティング システムを搭載したコンピューター (後者の場合は WSL2 をサポート)。
- 最小 RAMの8 GB、少なくとも推奨されていますが、 16 GB 最適なパフォーマンスを実現します。
- 最初にモデルをダウンロードするためのインターネット アクセス。
- ターミナルまたはコマンドラインの基本的な知識。
さらに、 というツールをインストールする必要があります オラマ、DeepSeek モデルをローカルで管理および実行します。
オラマのインスタレーション
オラマ は、次のような言語モデルをダウンロードして実行できるシンプルなソリューションです。 ディープシーク-R1。インストールするには、次の手順に従います。
- Linux または macOS では、ターミナルを開き、次のコマンドを実行して Ollama (パッケージ) をインストールします。 curl それは明らかに必要です –:
カール -fsSL https://ollama.com/install.sh |しー
- Windows システムでは、事前に WSL2 が有効になっていることを確認してから、WSL 内で構成するのと同じ手順を Ubuntu ターミナルで実行します。
- 次のコマンドを実行して、Ollama が正しくインストールされていることを確認します。
ollama --version。コマンドがバージョン番号を返した場合は、次に進む準備ができています。
DeepSeek-R1 ダウンロード
Ollama がインストールされ実行されている状態 (ollama serve 後で説明するダウンロードが失敗した場合はターミナルで)、ニーズとハードウェアに最適な DeepSeek モデルをダウンロードできるようになりました。
- 1.5B パラメータ: 基本的なコンピュータに最適です。このモデルは約 1.1 GB.
- 7B パラメータ: を備えた機器に推奨 GPU 中〜高。これは約を占めます 4.7 GB.
- 70B パラメータ: 機器での複雑なタスクに対応 大容量 のメモリと強力な GPU。
標準 7B モデルをダウンロードするには、ターミナルで次のコマンドを実行します。
オラマ ラン ディープシーク-R1
ダウンロード時間はインターネットの速度によって異なり、チャットボットを初めて実行する場合にのみ必要になります。完了すると、モデルはコマンド ラインまたはグラフィカル インターフェイスから使用できるようになります。
グラフィカル インターフェイスで DeepSeek を使用する
DeepSeek はターミナルから直接操作できますが、多くのユーザーは利便性のためにグラフィカル インターフェイスを好みます。この場合、インストールできるのは、 チャットボックスAI、DeepSeek を利用できるようにする無料のアプリケーションです。 視覚的形態.
- ダウンロードとインストール チャットボックスAI から その公式ページ.
- 使用するアプリを設定する オラマ モデルサプライヤーとして:
ChatBoxAI 設定で、「独自の API を使用する」を選択し、以前にダウンロードした DeepSeek モデルを選択します。すべてが正しく構成されていれば、グラフィカル インターフェイスから直接クエリやタスクを実行できるようになります。
DeepSeek のプロジェクトへの統合
開発者は、DeepSeek を使用してプロジェクトに DeepSeek を統合できます。 API OpenAI対応。これを使用した簡単な例を次に示します Python :
import openai client = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") 応答 = client.chat.completions.create(model="deepseek-r1",messages=[{ "role": "user", "content": "フィボナッチを計算するためのコードを Python で生成します"}])
このスクリプトはローカル DeepSeek モデルにクエリを送信し、端末またはアプリケーションに結果を返します。
DeepSeek-R1 AI モデルは、次のことを探している人にとって優れたオプションです。 先進的で経済的なソリューション。 Ollama が提供するアクセスの容易さ、モデルの柔軟性、カスタム プロジェクトへの統合機能により、DeepSeek は開発者、学生、AI 専門家に新たな可能性をもたらします。プライバシーとパフォーマンスに重点を置いているため、徹底的に調査する価値のあるツールです。