科技

不用羨慕 NVIDIA 了!AMD 也推出自家 CPU 和 GPU 本地運行的 AI 聊天機器人

電腦王阿達
更新於 03月07日09:12 • 發布於 03月07日09:12 • Rocky

上個月 NVIDIA 為用戶推出專屬能在本地運行的 Chat with RTX 聊天機器人時,相信不少 AMD 用戶都眼紅玩不到,而好消息是,隨著 AMD 近期也在努力耕耘 AI 這塊,這次沒有拖太久,稍早就宣佈推出 AMD 用戶專屬的 AI 聊天機器人,而且不只是 GPU 用戶,符合的 CPU 用戶也能使用。

圖片來源:Wccftech

廣告(請繼續閱讀本文)

不用羨慕 NVIDIA 了!AMD 也推出自家 CPU 和 GPU 本地運行的 AI 聊天機器人

AMD 稍早在官方部落格中,宣佈推出自家 LLM 聊天機器人「LM Studio」,支援 AMD Ryzen AI 處理器和 AMD Radeon RX 7000 系列顯示卡,載點不一樣,下載時要注意看是處理器版、還是顯示卡版(目前還處於預覽版)。

雖然說是自家專屬的 LLM 聊天機器人,但跟 NVIDIA 不一樣,AMD LM Studio 僅支援最新一代處理器和顯示卡,意味著上一代 Radeon RX 6000 系列是沒辦法用的,這真的有點可惜。

廣告(請繼續閱讀本文)

我的電腦沒有 AMD 硬體,因此就沒辦法示範給大家看,不過 AMD 在文章中有詳細說明該怎麼使用:

  • 下載正確版本的 LM Studio
  • 運行檔案
  • 在搜尋欄中複製貼上以下指令,看你要運行哪一個模型,搜尋結果會顯示於左側
    如果你要運行 Mistral 7b,請搜尋 TheBloke/OpenHermes-2.5-Mistral-7B-GGUF
    如果你要運行 LLAMA v2 7b,請搜尋 TheBloke/Llama-2-7B-Chat-GGUF
  • 你也可以嘗試其他模型
  • 於右側面板中向下滑動,直到找到 Q4_K_M 模型檔,按旁邊的下載按鈕。對於 Ryzen AI 用戶來說,AMD 建議使用這一個,接著就等待下載完成:
  • 前往聊天分頁,於上方中間選擇你要使用的模型,然後等待讀取完成:
  • 如果你是使用 AMD Ryzen AI PC,那可以開始聊天。如果你是 AMD Radeon RX 7000 系列顯卡用戶,那請操作以下步驟,於右側打勾「GPU Offload」選項,選擇 Max 面板,確認 AMD ROCm™ 顯示有檢測到 GPU 類型:

至於聊天品質怎麼樣,我猜測有可能跟 NVIDIA 的 Chat With RTX 差不多,中文支援性沒有到很好,這部分只能 AMD 用戶自行測試看看了。

雖然 NVIDIA 和 AMD 的聊天機器人,沒有開放給其他品牌、以及自家老 CPU 和 GPU,現今網路上其實也有其他軟體可以做到在電腦本地安裝 LLM 大型語言模型,像我們之前介紹過的 GPT4All,就能安裝超多模型,比 N 家和 A 家的還多,有需要的人也能試試看。

查看原始文章
留言 1
  • 光軍
    搞好驅動比較實在。 以前ATI顯卡,AMD處理器是我的首選。 但近幾年不是了,不得以改投英特爾,輝達陣營。
    03月08日05:50
顯示全部