有些急性子

有些急性子

有些急性子
jike

電腦配置太垃圾,如何免費體驗「本地大模型的魅力」

背景#

== 每月免費使用 10000 分鐘 GPU:利用騰訊 Cloud Studio 在雲端搭建大模型。==

搭建 AI 空間#

打開 https://cloud.tencent.com/ 根據提示登錄,然後根據自己情況勾選所需模型。接下來以 olloma 為例,如圖所示勾選 olloma ,然後新建基礎型空間。

image

image

進入 IDE 環境#

通過終端查詢目前已安裝的本地大模型。使用命令如下:

ollama list

默認安裝的模型為:llama3:latest

安裝所需的本地大模型#

登錄 olloma 官網,選擇所需的大模型,以 deepseek-r1:32b 為例,在 IDE 終端輸入 ollama pull deepseek-r1:32b,等待模型下載成功。

image

image

創建 Python 程序,開始大模型體驗之旅#

以下面的 Python 程序為例,

from ollama import chat
from ollama import ChatResponse

response: ChatResponse = chat(
    model='deepseek-r1:32b',
    messages=[
        {'role': 'user', 'content': '你是誰?'},
    ]
)

print(response['message']['content'])

終端運行結果如下

image

最後#

測試發現 16g 顯存運行 32b 模型還是有些困難,重新下載個 14b 的試試…………

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。