![]() |
PCDVD數位科技討論區
(https://www.pcdvd.com.tw/index.php)
- 七嘴八舌異言堂
(https://www.pcdvd.com.tw/forumdisplay.php?f=12)
- - 美國政府發表新出口管制措施 NVIDIA RTX 4090 顯示卡將不得輸入中國等地
(https://www.pcdvd.com.tw/showthread.php?t=1204869)
|
---|
50系列最快明年底吧
目前台積電的先進製程 都是滿載的 連美積電工廠還沒蓋好.訂單早就排滿滿 年底2奈米工廠蓋好 預定2025年量產.研發技術進展順利 2奈米首批產能 已先後獲得蘋果、英特爾等客戶 會釋放一批3.4奈米的產能出來 台積電才有多的產量 |
現在不太可能發生那種一二十年前
普通遊戲卡軟改繪圖卡的事情發生了 因為現在閹掉 AI 加速性能 遊戲加速性能也會一起掉 除非你是生財工具,不然買 4090 後 等下代出來你會感到後悔的機率應該不低 比較便宜的做法是買兩張 3060 12GB 4090 能跑的它都能跑,速度慢一點而已 |
引用:
你有沒有想過一種可能 那就是50系列沿用4N製程 |
引用:
兩張3060 的耗電會不會比4090來得高?? 如果耗電低一點,速度慢一點,那就可以接受了... :ase :ase :ase |
引用:
3060一張170W,兩張340W 4090則是450W,不過跑遊戲一般是落在320~380W居多 其他用途我不確定 但問題在於2張3060 12G無法疊加VRAM變成24G 所以無法跟24 VRAM的卡相比 |
引用:
如果你是要跑 LLM 的話不一定要換顯卡 用 CPU 跑也行 前幾天更新的 llamafile 增加了不少 CPU 推理性能 https://github.com/Mozilla-Ocho/llamafile 這次還支援 AVX512,讓 ZEN4 處理器性能提升了十倍 引用:
VRAM 本來就可以疊加 你甚至可以 AMD + NVIDIA 的顯卡疊加一起跑都沒問題 也有人因為要玩遊戲,它是 4070 + 3060 12G = 24GB 一樣也是 24GB |
引用:
遊戲可能沒辦法,但很多開源模型都有支援多卡 假設GPU晶片一樣,兩張12G VRAM疊加成24G,不會像單張24G VRAM這麼好用,推理速度也比單張慢 https://github.com/THUDM/ChatGLM3 "多卡部署 如果你有多张 GPU,但是每张 GPU 的显存大小都不足以容纳完整的模型,那么可以将模型切分在多张GPU上。首先安装 accelerate: pip install accelerate,然后即可正常加载模型。" |
引用:
4系列開始就沒有SLI了,4070+3060怎疊加? A+N疊加? 這已突破我所知,能否說明下。 |
引用:
https://www.ptt.cc/bbs/PC_Shopping/...9198.A.828.html 引用:
AMD Mantle新技術將會支持多顯示卡記憶體疊加 2015-02-09 https://hk.news.yahoo.com/amd-mantle-085057097.html 效果不俗 – AMD Fury X 與 NVIDIA 混合交火 DX12 測試成績 2015-10-27 https://api.hksilicon.com/articles/923141 沒這樣玩過 VRAM疊加不是新技術 不清楚技術門檻 |
引用:
這不是 SLI 也跟 SLI 無關 現在比較流行的一個可以參考 pytorch https://github.com/pytorch/pytorch 這就靠底層 library 實現的 CPU/GPU 協同加速 前面說的 Accelerate 就是 pytorch 的前端 簡化更多開發者需要在 pytorch 上的工作 而多 GPU 及記憶體疊加這功能大約 2021 的時候已經很多專案開始用了 沒這功能,很多 LLM 的訓練、量化、微調等工作 你只能買更多張 24GB 的顯卡或記租憶體更多的運算卡才能完成 |
所有的時間均為GMT +8。 現在的時間是04:17 AM. |
vBulletin Version 3.0.1
powered_by_vbulletin 2025。