PCDVD數位科技討論區

PCDVD數位科技討論區 (https://www.pcdvd.com.tw/index.php)
-   七嘴八舌異言堂 (https://www.pcdvd.com.tw/forumdisplay.php?f=12)
-   -   全世界最大的硬碟..... 應該放什麼好呢 ?! (https://www.pcdvd.com.tw/showthread.php?t=842121)

ndk27238 2009-03-04 12:22 AM

這個還不就是p2p程式,把硬碟空間換成大家。有點像四、五年前的百寶箱p2p程式。

不知道這裡有人以前玩過百寶箱嗎?

chlang 2009-03-04 12:50 AM

引用:
作者zick.char
朋友有搞過,搞了一陣子放棄
人是最難管理的

的確, 人的確是最難的部份, 只要有規則就會有漏洞可鑽....
可以介紹一下你朋友嗎, 小弟想要跟你朋友討論一下. 看看能不能夠學習到一些經驗.


引用:
作者Ming
所謂的加密不會就是用winrar加密吧
重點還是在於頻寬啦

加密使用的 winrar 軟體不是重點啦. (使用者自己怎麼加密的其實也沒人管)

引用:
作者u8526425
企業不會找這種備份機制
速度與安全性都是非常大的問題
不相信的話
你可以找幾家機構問看看

況且一般速度會比P2P還慘
P2P是持續的give and take
這樣都會有人要跑免上傳了
這種檔案上傳後就走人的狀況會更嚴重 (無誘因)
射後不理將會是常態

總之呢
我認為目前這個想法欠缺實作經驗的輔佐
變得處處窒礙難行
最好整個砍掉
重新想個有辦法在現實中運作的機制

電腦的比對
只要差1bit都認為不同
你認為會有這麼多相同檔案 ?
你保證 ?
你要不要調查一下你旁邊幾位的電腦檔案 ?

這種風險你沒有辦法排除
所以一定要列進考慮
不考慮而出問題
責任算誰的 ?


就重複性來說, 從 P2P 下載所遇上的使用者數量來說 ((想要完全同樣資料的使用者)
一般比較冷門的重複資料約 50-100 倍
熱門的重複資料約 5000-10000 倍

這個是有很多人都可以驗證的, 代表資料重複性還蠻高的.
這邊歡迎你提出反例...

引用:
作者霆哥
頻寬的問題+1


嗯嗯... 目前最值得擔心的應該還是頻寬的部份.
考慮中的方式為:
. 使用積分來紀錄上下傳.
. 沒有積分的使用者就只好乖乖的用慢速度.
. 有積分的使用者可以拿積分來取得優先權. (積分會在上下傳者之間自動交易)

引用:
作者李麥科
我也是覺得頻寬問題很大,再來還有安全性與效能的問題
另外你有什麼誘因?願意讓大家把硬碟空間、網路頻寬、電腦運算力分享出來?
不過樓主說真的,你應該先考慮的是實作問題
如果你認為你的解決方案,可以克服以上很多人的疑問
但是你沒有親手做出來,解釋老半天都很難讓人信服
所以建議,做出來,再說

嗯.
問題還在同一個重點打轉, 就是在於 "誰願意分享, 速度如何".

以架構上來說, 時程大概規劃約三個人, 六個月才能完工.

如果很多人都認為 "哼, 我硬碟不夠再買就好了啊, 這樣速度快, 又不貴"
那這樣當然這個案子最好就此打住, 不用耗費人力了.

除非有不少人這樣想: "這樣作也不錯, 至少我知道資料的安全性不錯, 也不用決定哪些到底該砍哪些不該砍"
那這個案子才有可能會繼續進行下去.
還是麥科大的霹靂車電腦願意幫忙 Coding ?


引用:
作者ndk27238
這個還不就是p2p程式,把硬碟空間換成大家。有點像四、五年前的百寶箱p2p程式。
不知道這裡有人以前玩過百寶箱嗎?


^^; 四五年前就以經有了嗎 ?
有沒有更詳細的說明呢 ? 小弟想參考一下哩.

TRG-pro 2009-03-04 12:58 AM

五倍重複率資料就算安全了嗎?

p2p若只有五個完整來源,大家隨性上下線,順利完檔的機率有多少,時間要花多少?

chlang 2009-03-04 01:07 AM

引用:
作者TRG-pro
五倍重複率資料就算安全了嗎?

p2p若只有五個完整來源,大家隨性上下線,順利完檔的機率有多少,時間要花多少?


這個是需要經過統計才能夠確定.

五倍只是舉例.

在模擬系統上,大約要 20-50X 左右才保險.
這樣的條件下, 能夠隨時都有 100% 的完整性.


另外, 如果能夠談到不錯的贊助者, 也有可能會另外租用機房, 讓資料最少 200% - 500%有效.

TRG-pro 2009-03-04 01:13 AM

引用:
作者chlang
這個是需要經過統計才能夠確定.

五倍只是舉例.

在模擬系統上,大約要 20-50X 左右才保險.
這樣的條件下, 能夠隨時都有 100% 的完整性.


另外, 如果能夠談到不錯的贊助者, 也有可能會另外租用機房, 讓資料最少 200% - 500%有效.


借網友發言文章來試算一下~

前提
每個人分享等量磁碟機20G
每份檔案至少20-50份備份
除了原有者, 沒人能清理檔案

假設
現有10名成員
相當於有10*20=200G可用空間

若每人各存進5G檔案
檔案又有20-50份copy
相當於需要10*5*(20~50)=1000~2500GB???

有沒有搞錯?

zick.char 2009-03-04 01:16 AM

引用:
作者chlang
的確, 人的確是最難的部份, 只要有規則就會有漏洞可鑽....
可以介紹一下你朋友嗎, 小弟想要跟你朋友討論一下. 看看能不能夠學習到一些經驗.
這難倒我了....我只知道他現在人在對岸當空中飛人 :jolin:
他當時是把這當副業,我之前有一次碰到他,他就這麼無奈地簡單回答
我也不好意思繼續問

foxtm 2009-03-04 01:17 AM

引用:
作者chlang
速度... 最差的狀況就是目前 P2P 的速度.


恩..你完全忽略基礎的問題了..
實際上目前 p2p 的速度會是你這個系統最快的速度..

為什麼 p2p 的速度會快?..
因為大家都有檔案的全部或是一部分..
所以可以互相聯結互補有無..

但你的系統卻刻意壓低檔案的複製份數..
以增加空間使用效率..
造成的結果就是速度往下掉..

當然可以把你的系統與現行的 p2p 軟體結合..
但其實也只是多了5個種而已..
效果恐怕不是很誘人..

金義農  2009-03-04 01:28 AM

如果有ISP推出100G/100G吃到飽999/月

我會無條件加你的計劃 :laugh:

kevku01 2009-03-04 01:31 AM

我覺得你把這構想用在企業用途上,比較有"錢"途

1. 串連各個伺服器內的Direct Attached Storage 硬碟使之成為SAN Storage
2. 提供容錯式分散系統架構
3. 整合重複資料去除技術 (de-duplication)
4. 儲存空間以SMB, iSCSI, FCoE, FC方式讓客戶端共享

寫得出來記得通知一下,我來投資你們的公司
;) :D :rolleyes:

chlang 2009-03-04 01:42 AM

引用:
作者TRG-pro
借網友發言文章來試算一下~

前提
每個人分享等量磁碟機20G
每份檔案至少20-50份備份
除了原有者, 沒人能清理檔案

假設
現有10名成員
相當於有10*20=200G可用空間

若每人各存進5G檔案
檔案又有20-50份copy
相當於需要10*5*(20~50)=1000~2500GB???

有沒有搞錯?


好吧.
我們不要算小的. 來算大的.

假設 1:
使用者資料加密 (私有) 情況下, 需要付費才能儲存, 因此私人(不重複) 資料將會較少.

假設 2:
假設有十萬名使用者進入這個系統, 每個使用者分享 20G

總容量為 20G * 10 萬. = 2000T

但是實際上為了保險起見, 有 20 倍的備份. (如果建立機房準備 100% 的容量, 那就可能大幅度降低備份率到 5 倍上下)
因此實際上有效容量為 100T

接下來計算重複率的問題.
根據目前 P2P 的使用情況來看, 一份資料約平均有 100-1000 倍的重複率. (同一個檔案有多少人想抓)

假設 10 萬人每個人都使用 5G 的空間.
5G * 10 萬人 *20 = 10000T (這是理論上該用的空間)

但是由於本身有 100-1000 倍的重複率.
因此實際上佔用的空間為
10000T/100 = 100T

估計為 2000T 的總容量的 1/20

不知道這樣有沒有解答您的疑惑.


所有的時間均為GMT +8。 現在的時間是09:54 PM.

vBulletin Version 3.0.1
powered_by_vbulletin 2025。