![]() |
||
Golden Member
![]() ![]() ![]() ![]() 加入日期: Aug 2004 您的住址: 「 」
文章: 2,511
|
引用:
不管用那個製程,先天上設計好的ipc不會變,會變的是時脈上的差異 用14nm去作486,同頻下性能依然沒有多少差異,但功耗會好的多 但說回來,486的電晶體對14nm製程來說太少(才120萬電晶體),Die面積也太小了,根本不用拿14nm來作
__________________
ぶ(∀゚ )人(゚∀゚ ![]() ![]() ![]() ![]() (↑一個因為疫情影響導致工作超閒不知做啥好的傢伙↑) |
||||||||
![]() |
![]() |
*停權中*
加入日期: Mar 2002
文章: 792
|
引用:
良率才是重點.... |
|||
![]() |
![]() |
Regular Member
![]() ![]() 加入日期: Oct 2018
文章: 79
|
引用:
如果單顆CPU電晶體固定 直接衝多核有沒有搞頭? 以486電晶體數量來連結實體多核心 是不是可以衝單顆2000核? |
|
![]() |
![]() |
Elite Member
![]() ![]() ![]() ![]() ![]() 加入日期: Jan 2002 您的住址: 閃亮亮的永和*~
文章: 6,096
|
引用:
早期的ATOM可以視為486,那個性能很糟糕啊 ![]() AMD推土機系列,也是想走弱小多核CPU路線,搭配強大的GPU來解多媒體運算,結果完全悲劇。 就算是手機,只用ARM八小核,速度還是慢到人類有感,至少要有ARM兩大核才行。 |
|
![]() |
![]() |
Advance Member
![]() ![]() 加入日期: Mar 2002
文章: 484
|
|
![]() |
![]() |
Senior Member
![]() ![]() ![]() 加入日期: Jun 2003
文章: 1,366
|
A家推土機架構不爭氣的的時候,看i家每代那"小巧精緻可愛"的ipc進步,還逼你一定要換晶片組換平台才能升級
那時還一堆人說x86的single thread IPC大概沒什麼進步空間,要看IPC進步只能看ARM或其它RISC系ISA 現在A家IPC追上來,i家sunny cove馬上就擠出了IPC 19%的進步,今年底willow cove據傳又比sunny coveIPC增進1x%以上 企業跟人一樣欠電就對了,真的是要有競爭才會進步 ![]() |
![]() |
![]() |
Elite Member
![]() ![]() ![]() ![]() ![]() 加入日期: Jan 2002
文章: 4,020
|
引用:
沒搞頭!! 因為效能不是 單核效能 * 數量 來做為計算依據!! 簡單講 有486 2000核心 效能不會等於 單核效能 * 2000 !! 核心越多,OS/App 架構如果沒跟上 , 基本上就只是浪費而已 , 可以預見的是 90%以上的 CPU 都會閒閒沒事做 !! 所以問題會延伸到OS/App的領域裡 , 到時就扯不完了!!
__________________
您想買新硬碟嗎? 購買前請務必參考這篇文章,是我的實際經驗 還想讓統一賺你的錢嗎?統一集團成員(能見度高的): 星巴克、家樂福、7-11、無印良品、黑貓宅急便、聖娜多堡、阪急百貨、 康是美、博客來、夢時代、Mister Donut 、Cold Stone 、龜甲萬、 維力33%股權、光泉31%股權、Smile速邁樂、紅心辣椒、台北轉運站(統一企業BOT) 統一LP33膠囊有環保署早已列管的一級管制品: DNOP塑化劑 |
|
![]() |
![]() |
Senior Member
![]() ![]() ![]() 加入日期: Jun 2003
文章: 1,366
|
引用:
第一代ATOM(Bonnel)應該是比較接近586(Pentium),有2-way superscalar但沒OoOE Atom要到第三代(silvermont)後加進簡單的OoOE後性能才算比較可接受 題外話 最新一代Tremont的front-end要改成6-wide fetch/decode(3+3) 有點好奇為小核何要改成這樣子 x86本身就不是指令平行度很高的架構,不論是icc或gcc優化出來的也才2.x inst./cycle而已 然後instruction decode的部份又是公認耗電的東西 就算是高性能的大核也沒這麼寬,目前的core 9代也才(4+1) Ryzen(4) 大概是最近工程師有什麼新發現吧!? 此文章於 2020-08-25 08:58 AM 被 Stonehendge 編輯. |
|
![]() |
![]() |
Senior Member
![]() ![]() ![]() 加入日期: Jun 2003
文章: 1,366
|
引用:
CPU不是像GPU的ALU只處理vector data這類平行度高的資料而已 intel自己icc最佳化過也才平均2.xx x86 inst/cycle CPU整天要跟迴圈/分支預測/快取命中率這類的東西纏鬥 重點是在其它東西 intel早在1987年就開發出一個VLIW架構原型CPU,一個cycle號稱可處理28個指令(!) 聽起來好像很威? 結果呢,集合全公司類軟體高手拼命最佳化後的結果 測試出來數據平均不到2 inst./cycle ![]() ![]() ![]() 然後就放棄那個開發計劃了 ![]() 所以後來不知道為什麼還推IA64,根本就是浪費錢 |
|
![]() |
![]() |
Advance Member
![]() ![]() 加入日期: Oct 2017
文章: 484
|
intel當時會推IA64...無非是想斬斷以往x86的大包袱吧?
當時64bit處理器都是RISC的天下, 可是intel又不想把RISC設計概念整個拿過來用, 就跟HP一起搞以VLIW設計理念的IA64... 結果下場就是...MS不大想主推IA64, 其他廠商也根本不想推出IA64的產品線, 又當時AMD搞了個x86的延伸,x86-64主打跟x86極度相容性, 才讓intel把em64t這個備案出來相容... 而IA64....也才推兩代產品就沒了, 畢竟這VLIW很吃compiler,很多指令的安排就是在程式編譯時就要決定了, 偏偏程式設計就是會有很多判斷式,這點對於VLIW根本就是致命打擊, 也就造成主打高度平行指令的VLIW無法發揮應有的計算能力... 至於VLIW也不是什麼都是不好的, 至少在RADEON HD2000~HD6000上還是有所發揮, 因為圖形運算幾乎沒所謂的分歧預測, 用來計算像素、圖形渲染剛剛好。 |
![]() |
![]() |