背景#
== 毎月無料で 10000 分間 GPU を使用:Tencent Cloud Studio を利用してクラウド上に大モデルを構築。==
AI 空間の構築#
https://cloud.tencent.com/ を開き、指示に従ってログインし、自分の状況に応じて必要なモデルを選択します。次に、olloma を例にとり、図のように olloma を選択し、新しい基本型の空間を作成します。
IDE 環境への入場#
ターミナルを通じて現在インストールされているローカルの大モデルを確認します。使用するコマンドは以下の通りです:
ollama list
デフォルトでインストールされているモデルは:llama3:latest
必要なローカル大モデルのインストール#
olloma 公式サイト にログインし、必要な大モデルを選択します。deepseek-r1:32b
を例にとり、IDE ターミナルに ollama pull deepseek-r1:32b
と入力し、モデルのダウンロードが成功するのを待ちます。
Python プログラムを作成し、大モデル体験の旅を始める#
以下の Python プログラムを例にします。
from ollama import chat
from ollama import ChatResponse
response: ChatResponse = chat(
model='deepseek-r1:32b',
messages=[
{'role': 'user', 'content': 'あなたは誰ですか?'},
]
)
print(response['message']['content'])
ターミナルの実行結果は以下の通りです。
最後に#
テストの結果、16g のメモリで 32b モデルを実行するのはやや困難で、14b のモデルを再ダウンロードして試してみます…………