背景#
== 每月免費使用 10000 分鐘 GPU:利用騰訊 Cloud Studio 在雲端搭建大模型。==
搭建 AI 空間#
打開 https://cloud.tencent.com/ 根據提示登錄,然後根據自己情況勾選所需模型。接下來以 olloma 為例,如圖所示勾選 olloma ,然後新建基礎型空間。
進入 IDE 環境#
通過終端查詢目前已安裝的本地大模型。使用命令如下:
ollama list
默認安裝的模型為:llama3:latest
安裝所需的本地大模型#
登錄 olloma 官網,選擇所需的大模型,以 deepseek-r1:32b
為例,在 IDE 終端輸入 ollama pull deepseek-r1:32b
,等待模型下載成功。
創建 Python 程序,開始大模型體驗之旅#
以下面的 Python 程序為例,
from ollama import chat
from ollama import ChatResponse
response: ChatResponse = chat(
model='deepseek-r1:32b',
messages=[
{'role': 'user', 'content': '你是誰?'},
]
)
print(response['message']['content'])
終端運行結果如下
最後#
測試發現 16g 顯存運行 32b 模型還是有些困難,重新下載個 14b 的試試…………