数日前、パートナーの Pablinux 彼は彼らに言った 流行の人工知能モデルをローカルにインストールする方法。 この投稿では、DeepSeek よりも優れていると思われるモデルと、それらをコンピューターにインストールして実行する方法を説明します。
政治的な同情や反感を別にすれば、中国政府のこの動きは孫子の言う通りの外交マーケティングの傑作だった。ドナルド・トランプ氏の「陶磁器の中の象」スタイルとは対照的に、彼らは ChatGPT と同じ機能を無料で提供し、消費するリソースが少ないモデルを発表しました。この話題をフォローしている人だけが知っている 他にも長い間、多くのオープンソース モデル (Meta などの北米企業のものも含む) が存在しており、DeepSeek のパフォーマンスは、最も一般的な 5% の用途においてのみ ChatGPT に匹敵します。
大規模言語モデル
ChatGPT、DeepSeekなどは大規模言語モデルと呼ばれます。基本的に これによって、ユーザーは他の人間とのコミュニケーションに使用される言語と同様の言語でコンピューターと対話できるようになります。 これを達成するために、彼らは大量のテキストとルールを使って訓練され、すでに持っている情報から新しい情報を生み出すことができるようになります。
主な用途は、質問に答えたり、テキストを要約したり、翻訳したり、コンテンツを再現したりすることです。
DeepSeek よりも優れたモデルとそれをローカルにインストールする方法
Pablinux と同様に、Ollama を使用します。 これは、Linux ターミナルからさまざまなオープン ソース モデルをインストール、アンインストール、および使用できるようにするツールです。 場合によってはブラウザをグラフィカル インターフェイスとして使用できますが、この記事ではそれについては説明しません。
Ollamaが適切なユーザーエクスペリエンスを提供するには、専用のGPUを搭載するのが最善です。特にパラメータが多いモデルの場合。ただし、それほど強力ではないものは Raspberry Pi で使用でき、7 GB の専用 GPU のないコンピューターで 6 億のパラメーターを持つモデルをテストしたところ、コンピューターは問題なく動作しました。 13億人のうちのXNUMX人では同じことは起こりませんでした。
パラメーターは、モデルがデータ間の関係を構築し、パターンを構築するために使用するルールです。 パラメータとデータが多いほど、モデルの性能は高まります。パラメータが少ないモデルでもターザンのようにスペイン語を話します。
Ollamaは次のコマンドでインストールできます
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh
次のコマンドでモデルをインストールできます。
ollama pull nombre_del modelo
次のように実行します:
ollama run nombre_del_modelo
以下を使用してアンインストールします。
ollama rm nombre_del_modelo
次のように入力すると、インストールされているモデルを確認できます。
ollama list
以下は私が最も興味深いと思うモデルのリストです。利用可能なモデルの完全なリストはここにあります。 ここで:
ラマ2-無修正
Llama は Meta によって作成された汎用モデルです。 このバージョンでは、元のプロジェクトの開発者が法的または政治的な理由で導入したすべての制限が削除されました。。 8GB で動作する軽量バージョンと 64GB を必要とするフルバージョンの XNUMX つのバージョンがあります。質問に答えたり、テキストを書いたり、コーディング作業に使用できます。
一緒にインストール:
ollama pull llama2-uncensored
そして、次のように実行されます:
ollama run llama2-uncensored
コードジェマ
CodeGemmaは、さまざまなプログラミングタスクを実行できる軽量かつ強力なテンプレートのコレクションです。 コードを完成させる方法、または最初から書き出す方法。自然言語を理解し、指示に従い、数学的推論を行うことができます。
3 つのバリエーションがあります:
- 指示: 自然言語をコードに変換し、指示に従うことができます。
- コード: 既存のコードから一部を完成してコードを生成します。
- 2b: コード補完タスクの高速化。
ティニラマ
名前が示すように、これはオリジナルの Meta モデルの小型バージョンです。。したがって、それほど良い結果は得られませんが、人工知能モデルが控えめなハードウェア上でどのように動作するかを確認したい場合は、試してみる価値はあります。パラメータは 1100 億個しかありません。
モデルをローカルで使用すると、プライバシーが守られ、場合によってはばかげたものになってしまうこともある無修正で偏見のないバージョンにアクセスできるという利点があります。 Microsoft の AI は、「bitch」という用語が不快であると判断したため、ダックスフントの画像を作成することを拒否しました。最大の欠点はハードウェア要件です。モデルを試してみて、必要なものを十分に満たし、所有している機器で実行できるモデルを見つけることが重要です。