PCDVD數位科技討論區

PCDVD數位科技討論區 (https://www.pcdvd.com.tw/index.php)
-   七嘴八舌異言堂 (https://www.pcdvd.com.tw/forumdisplay.php?f=12)
-   -   美國政府發表新出口管制措施 NVIDIA RTX 4090 顯示卡將不得輸入中國等地 (https://www.pcdvd.com.tw/showthread.php?t=1204869)

老老濕 2024-04-03 08:58 AM

50系列最快明年底吧
目前台積電的先進製程
都是滿載的

連美積電工廠還沒蓋好.訂單早就排滿滿

年底2奈米工廠蓋好
預定2025年量產.研發技術進展順利
2奈米首批產能
已先後獲得蘋果、英特爾等客戶

會釋放一批3.4奈米的產能出來
台積電才有多的產量

野口隆史 2024-04-03 09:01 AM

現在不太可能發生那種一二十年前
普通遊戲卡軟改繪圖卡的事情發生了
因為現在閹掉 AI 加速性能
遊戲加速性能也會一起掉

除非你是生財工具,不然買 4090 後
等下代出來你會感到後悔的機率應該不低

比較便宜的做法是買兩張 3060 12GB
4090 能跑的它都能跑,速度慢一點而已

skap0091 2024-04-03 09:03 AM

引用:
作者老老濕
50系列最快明年底吧
目前台積電的先進製程
都是滿載的

連美積電工廠還沒蓋好.訂單早就排滿滿

年底2奈米工廠蓋好
預定2025年量產.研發技術進展順利
2奈米首批產能
已先後獲得蘋果、英特爾等客戶

會釋放一批3.4奈米的產能出來
台積電才有多的產量

你有沒有想過一種可能

那就是50系列沿用4N製程

anderson1127 2024-04-03 10:20 AM

引用:
作者野口隆史
[恕刪]
比較便宜的做法是買兩張 3060 12GB
4090 能跑的它都能跑,速度慢一點而已


兩張3060 的耗電會不會比4090來得高?? 如果耗電低一點,速度慢一點,那就可以接受了... :ase :ase :ase

skap0091 2024-04-03 11:02 AM

引用:
作者anderson1127
兩張3060 的耗電會不會比4090來得高?? 如果耗電低一點,速度慢一點,那就可以接受了... :ase :ase :ase

3060一張170W,兩張340W

4090則是450W,不過跑遊戲一般是落在320~380W居多

其他用途我不確定

但問題在於2張3060 12G無法疊加VRAM變成24G

所以無法跟24 VRAM的卡相比

野口隆史 2024-04-03 11:27 AM

引用:
作者anderson1127
兩張3060 的耗電會不會比4090來得高?? 如果耗電低一點,速度慢一點,那就可以接受了... :ase :ase :ase

如果你是要跑 LLM 的話不一定要換顯卡
用 CPU 跑也行
前幾天更新的 llamafile 增加了不少 CPU 推理性能
https://github.com/Mozilla-Ocho/llamafile

這次還支援 AVX512,讓 ZEN4 處理器性能提升了十倍



引用:
作者skap0091
3060一張170W,兩張340W

4090則是450W,不過跑遊戲一般是落在320~380W居多

其他用途我不確定

但問題在於2張3060 12G無法疊加VRAM變成24G

所以無法跟24 VRAM的卡相比

VRAM 本來就可以疊加
你甚至可以 AMD + NVIDIA 的顯卡疊加一起跑都沒問題

也有人因為要玩遊戲,它是 4070 + 3060 12G = 24GB
一樣也是 24GB

space 2024-04-03 05:53 PM

引用:
作者skap0091
但問題在於2張3060 12G無法疊加VRAM變成24G
所以無法跟24 VRAM的卡相比

遊戲可能沒辦法,但很多開源模型都有支援多卡
假設GPU晶片一樣,兩張12G VRAM疊加成24G,不會像單張24G VRAM這麼好用,推理速度也比單張慢

https://github.com/THUDM/ChatGLM3
"多卡部署
如果你有多张 GPU,但是每张 GPU 的显存大小都不足以容纳完整的模型,那么可以将模型切分在多张GPU上。首先安装 accelerate: pip install accelerate,然后即可正常加载模型。"

kzs 2024-04-03 06:34 PM

引用:
作者野口隆史
如果你是要跑 LLM 的話不一定要換顯卡
用 CPU 跑也行
前幾天更新的 llamafile 增加了不少 CPU 推理性能
https://github.com/Mozilla-Ocho/llamafile

這次還支援 AVX512,讓 ZEN4 處理器性能提升了十倍




VRAM 本來就可以疊加
你甚至可以 AMD + NVIDIA 的顯卡疊加一起跑都沒問題

也有人因為要玩遊戲,它是 4070 + 3060 12G = 24GB
一樣也是 24GB

4系列開始就沒有SLI了,4070+3060怎疊加? A+N疊加?
這已突破我所知,能否說明下。

healthfirst. 2024-04-03 07:06 PM

引用:
作者kzs
4系列開始就沒有SLI了,4070+3060怎疊加? A+N疊加?
這已突破我所知,能否說明下。

https://www.ptt.cc/bbs/PC_Shopping/...9198.A.828.html
引用:
今天看朋友實測兩張4080裝在同一台電腦,

VRAM可以疊加跑更大的模型,第二張速度也沒掉多少,

AMD Mantle新技術將會支持多顯示卡記憶體疊加
2015-02-09
https://hk.news.yahoo.com/amd-mantle-085057097.html

效果不俗 – AMD Fury X 與 NVIDIA 混合交火 DX12 測試成績
2015-10-27
https://api.hksilicon.com/articles/923141

沒這樣玩過
VRAM疊加不是新技術
不清楚技術門檻

野口隆史 2024-04-03 07:09 PM

引用:
作者kzs
4系列開始就沒有SLI了,4070+3060怎疊加? A+N疊加?
這已突破我所知,能否說明下。

這不是 SLI 也跟 SLI 無關
現在比較流行的一個可以參考 pytorch
https://github.com/pytorch/pytorch


這就靠底層 library 實現的 CPU/GPU 協同加速
前面說的 Accelerate 就是 pytorch 的前端
簡化更多開發者需要在 pytorch 上的工作
而多 GPU 及記憶體疊加這功能大約 2021 的時候已經很多專案開始用了
沒這功能,很多 LLM 的訓練、量化、微調等工作
你只能買更多張 24GB 的顯卡或記租憶體更多的運算卡才能完成


所有的時間均為GMT +8。 現在的時間是04:17 AM.

vBulletin Version 3.0.1
powered_by_vbulletin 2025。