![]() |
PCDVD數位科技討論區
(https://www.pcdvd.com.tw/index.php)
- 七嘴八舌異言堂
(https://www.pcdvd.com.tw/forumdisplay.php?f=12)
- - NVIDIA以 GeForce RTX推動一億台規模的AI PC市場
(https://www.pcdvd.com.tw/showthread.php?t=1208452)
|
|---|
引用:
windows 8/ windows 10 local user歡迎你 |
引用:
真的要跑大規模應用的人...就去買nv的八卡機..2000萬 沒錢..買一張專用卡...配一台推的動的server..200萬搞定 再沒錢...買舊款上一代...淘寶有...整機弄出來20萬 拿40,30一張兩張在玩的...都是玩票... |
引用:
名正言順跟父母拿錢 :mad: 我才不是要玩遊戲! 我是要AI PC!!! :laugh: :laugh: :laugh: |
有點不太懂,一般人有需要在自己電腦上做AI運算嗎?
除非說是要建立專屬自己不受限制的AI資訊庫, 不然常態應用應該都是用現成的AI模型吧? 有看到文章說可能是拿來做邊緣運算, 所以我們是花錢買設備幫企業AI作運算? :laugh: |
引用:
邊緣運算是指裝置端運算 現在的AI都是上雲 要知道上雲就是把個人隱私給那些廠商當作訓練資料 各大科技業廠商目前都是把AI鎖在自己公司內"不上傳給AI服務商" 免得搞出之前三星工程師用AI debug結果內部資料被AI拿來用的烏龍事件 而對一般使用者來說 1. 沒有跟Open AI這類廠商談判簽約的能力 2. 沒有能力自建私有AI 所以邊緣運算重要性才會提升 對蘋果來說以隱私保護出發,必然是強調邊緣運算的重要性。 |
引用:
老黃明顯是用鎖記憶體的方式賺大錢 競爭廠商一定會針對這點攻擊 而利用Mac架構玩AI的人主要偏向個人吧 畢竟算力還是差太多了,老黃的東西算力強大但是故意鎖記憶體讓使用者只能乖乖被宰 雖然GPU效率一定不如專用的NPU 但CUDA培養的大批的使用者 我會這樣形容,CUDA就像是x86,效率不比NPU,但是使用者太多你沒辦法 當然以個人使用者來說想玩大模型只能靠Mac了 雖然個人使用者用NV顯卡比Mac快太多太多,但是被記憶體鎖在那就只能玩玩小東西 爆幹快但是完全不能跑跟慢但是可以跑 零跟一的差別,是很巨大的 128GB的Mac十萬初就有 128GB的NV...一棟房子吧 |
引用:
之前在公司看過有設計師開采購單要求GEFORCE RTX不要QUADRO。 ;) :laugh: |
引用:
說要跑光追版excel 不知會不會被殺 :laugh: :laugh: :laugh: |
引用:
立體圖表有光追效果不好嗎 :mad: |
引用:
Mac不鎖記憶體 :confused: :confused: 不是出廠就直接綁定,最大也就128GB,只是沒老黃貴 llama.cpp 這玩意搭配AMD Turin來跑超大型AI才真的是不鎖記憶體 :laugh: |
| 所有的時間均為GMT +8。 現在的時間是12:38 AM. |
vBulletin Version 3.0.1
powered_by_vbulletin 2026。