PCDVD數位科技討論區

PCDVD數位科技討論區 (https://www.pcdvd.com.tw/index.php)
-   系統組件 (https://www.pcdvd.com.tw/forumdisplay.php?f=19)
-   -   Intel下一代桌面CPU採用新架構,繼續14nm工藝... (https://www.pcdvd.com.tw/showthread.php?t=1176960)

艾克萊爾 2020-07-30 11:07 PM

引用:
作者ncoin
所以當年的486
即使用14nm來做也不會提升效能就對了?


不管用那個製程,先天上設計好的ipc不會變,會變的是時脈上的差異

用14nm去作486,同頻下性能依然沒有多少差異,但功耗會好的多

但說回來,486的電晶體對14nm製程來說太少(才120萬電晶體),Die面積也太小了,根本不用拿14nm來作

yougenmi 2020-07-31 10:30 AM

引用:
作者aya0091
其實就跟之前的報導內容差不多

10nm目標訂得太激進,辦不到就無限鬼打牆

14nm優化過頭,14nm+、14nm++也都是人力搾出來的

14nm一直繼續吃資源,當然10nm、7nm分到的資源就少

以往的榮光導致Intel不懂得變通,就好像以前軍隊排排站齊步走

打到更先進的戰爭還這樣搞就等死,人家已經轉成特種部隊分批突進

但是除非Intel、三星都放棄7nm以下更先進製程開發

不然台積電現在的世界第一優勢我不認為可以長久維持

不是說另外兩家可以超車,而是只要持續研發,循序漸進還是能搞出7nm

再來就是看5nm、3nm是否真的可以如期生出來

我知道台積電5nm今年iPhone新處理器A14就會用上

但這個5nm實質上到哪裡不好說,好比台積電7nm接近Intel 10nm

良率才是重點....

ncoin 2020-07-31 12:03 PM

引用:
作者艾克萊爾
不管用那個製程,先天上設計好的ipc不會變,會變的是時脈上的差異

用14nm去作486,同頻下性能依然沒有多少差異,但功耗會好的多

但說回來,486的電晶體對14nm製程來說太少(才120萬電晶體),Die面積也太小了,根本不用拿14nm來作

如果單顆CPU電晶體固定
直接衝多核有沒有搞頭?
以486電晶體數量來連結實體多核心
是不是可以衝單顆2000核?

sutl 2020-07-31 12:15 PM

引用:
作者ncoin
如果單顆CPU電晶體固定
直接衝多核有沒有搞頭?
以486電晶體數量來連結實體多核心
是不是可以衝單顆2000核?

早期的ATOM可以視為486,那個性能很糟糕啊 :laugh:

AMD推土機系列,也是想走弱小多核CPU路線,搭配強大的GPU來解多媒體運算,結果完全悲劇。

就算是手機,只用ARM八小核,速度還是慢到人類有感,至少要有ARM兩大核才行。

ycli6921 2020-08-01 07:46 AM

https://youtu.be/UkPMM6A0nCw

Stonehendge 2020-08-25 07:59 AM

A家推土機架構不爭氣的的時候,看i家每代那"小巧精緻可愛"的ipc進步,還逼你一定要換晶片組換平台才能升級
那時還一堆人說x86的single thread IPC大概沒什麼進步空間,要看IPC進步只能看ARM或其它RISC系ISA
現在A家IPC追上來,i家sunny cove馬上就擠出了IPC 19%的進步,今年底willow cove據傳又比sunny coveIPC增進1x%以上

企業跟人一樣欠電就對了,真的是要有競爭才會進步 :flash:

anderson1127 2020-08-25 08:25 AM

引用:
作者ncoin
如果單顆CPU電晶體固定
直接衝多核有沒有搞頭?
以486電晶體數量來連結實體多核心
是不是可以衝單顆2000核?


沒搞頭!! 因為效能不是 單核效能 * 數量 來做為計算依據!!
簡單講 有486 2000核心 效能不會等於 單核效能 * 2000 !!

核心越多,OS/App 架構如果沒跟上 , 基本上就只是浪費而已 , 可以預見的是 90%以上的
CPU 都會閒閒沒事做 !! 所以問題會延伸到OS/App的領域裡 , 到時就扯不完了!!

Stonehendge 2020-08-25 08:41 AM

引用:
作者sutl
早期的ATOM可以視為486,那個性能很糟糕啊 :laugh:


第一代ATOM(Bonnel)應該是比較接近586(Pentium),有2-way superscalar但沒OoOE
Atom要到第三代(silvermont)後加進簡單的OoOE後性能才算比較可接受

題外話
最新一代Tremont的front-end要改成6-wide fetch/decode(3+3)
有點好奇為小核何要改成這樣子
x86本身就不是指令平行度很高的架構,不論是icc或gcc優化出來的也才2.x inst./cycle而已
然後instruction decode的部份又是公認耗電的東西
就算是高性能的大核也沒這麼寬,目前的core 9代也才(4+1) Ryzen(4)
大概是最近工程師有什麼新發現吧!?

Stonehendge 2020-08-25 08:57 AM

引用:
作者anderson1127
沒搞頭!! 因為效能不是 單核效能 * 數量 來做為計算依據!!
簡單講 有486 2000核心 效能不會等於 單核效能 * 2000 !!
核心越多,OS/App 架構如果沒跟上 , 基本上就只是浪費而已 , 可以預見的是 90%以上的
CPU 都會閒閒沒事做 !! 所以問題會延伸到OS/App的領域裡 , 到時就扯不完了!!


CPU不是像GPU的ALU只處理vector data這類平行度高的資料而已
intel自己icc最佳化過也才平均2.xx x86 inst/cycle
CPU整天要跟迴圈/分支預測/快取命中率這類的東西纏鬥
重點是在其它東西

intel早在1987年就開發出一個VLIW架構原型CPU,一個cycle號稱可處理28個指令(!)
聽起來好像很威?
結果呢,集合全公司類軟體高手拼命最佳化後的結果
測試出來數據平均不到2 inst./cycle :laugh: :laugh: :laugh:
然後就放棄那個開發計劃了 :laugh:
所以後來不知道為什麼還推IA64,根本就是浪費錢

HHeLiBeBCNOFNe 2020-08-25 03:06 PM

intel當時會推IA64...無非是想斬斷以往x86的大包袱吧?
當時64bit處理器都是RISC的天下,
可是intel又不想把RISC設計概念整個拿過來用,
就跟HP一起搞以VLIW設計理念的IA64...
結果下場就是...MS不大想主推IA64,
其他廠商也根本不想推出IA64的產品線,
又當時AMD搞了個x86的延伸,x86-64主打跟x86極度相容性,
才讓intel把em64t這個備案出來相容...
而IA64....也才推兩代產品就沒了,
畢竟這VLIW很吃compiler,很多指令的安排就是在程式編譯時就要決定了,
偏偏程式設計就是會有很多判斷式,這點對於VLIW根本就是致命打擊,
也就造成主打高度平行指令的VLIW無法發揮應有的計算能力...

至於VLIW也不是什麼都是不好的,
至少在RADEON HD2000~HD6000上還是有所發揮,
因為圖形運算幾乎沒所謂的分歧預測,
用來計算像素、圖形渲染剛剛好。


所有的時間均為GMT +8。 現在的時間是01:03 PM.

vBulletin Version 3.0.1
powered_by_vbulletin 2025。