瀏覽單個文章
野口隆史
Elite Member
 
野口隆史的大頭照
 

加入日期: Mar 2001
您的住址: Rivia
文章: 6,968
你覺得有就有,不懂這有甚麼好爭的?
關鍵字前面就給過你 Stable Video Diffusion
你有時間就自己去找
網路上資源一大堆
品質哪裡差了?

去年史丹福大學就證實
https://crfm.stanford.edu/2023/03/13/alpaca.html
只要使用正確的方法
你也能訓練出跟各項評測指標與 GPT-3.5 相當的生成式語言模型
這個還是學生作品

去年我國中研院也有基於 LLaMA 2 推出中文 CKIP-Llama-2-7b 模型
用不到一個月的時間,花台幣大約 30萬左右
部分能力達 GPT-4 水準,與 GPT-3.5 相當的模型
結果最後被一些政治腦的外行給鬥臭,不過這是後話了

而其他家服務只能四秒那是因為他們沒有像 OpenAI 有人給一百億鎂
如果其他家都有一百億鎂,你以為還會只給四秒限制嗎?

以 Stability AI 舉例,線上一樣是有長度上限
但 Stable Video Diffusion 線下版的上限就取決於你電腦硬體算力
只要你算力夠,要做到超越 SORA 也不是不可能

這裡就有提示詞跟模型服務的網站
免費或付費都有
https://civitai.com/videos
https://replicate.com/collections/text-to-video
https://prompthero.com/

裡面很多風格迥異的圖或影像
實際上都是使用同一種模型
差別只在微調程度跟提示詞

你真的要這樣用 Stability AI 的話
一樣可以用 API 的方式限制會比線上版好
因為 API 是用越多付越多錢
這點跟 OpenAI 差別待遇 API 跟 PLUS 用戶是同樣意思

同樣的模型跟提示詞,在不同的算力的系統
差別不是像顯卡玩遊戲, 3050 跟 4090 只差在 FPS 高低而已
只要滿足算力需求,很多模型都被證實有爆炸性的能力
連訓練這些模型的人都感到震驚
有些甚至是原本以為沒有的能力也突然長出來

說真的啦
多玩多看,不要別人說甚麼就跟著信甚麼
我因為你說要等我拿證據
我特別花時間去看了那些報導還是有介紹的 youtube 影片
專業的還真的沒幾個
目前也沒看到有誰介紹怎麼接 API,跟為什麼要接 API
大部分也只是照本宣科,把 SONA 的影片放出來給你看看
真正厲害的人,會教你怎麼下提示詞跟微調既有模型
算力夠的會自行重新訓練一個全新的模型
一樣都是 youtuber,只會照本宣科那些也不用看太多
追兩三個真正厲害的講給你聽就夠了
__________________
Folding@home with GPGPU集中討論串

Unix Review: ArchLinuxSabayonOpenSolaris 2008.5Ubuntu 8.10
AVs Review: GDTCAntiVir SSESSKIS 09NIS 09Norton 360 V3

I Always Get What I Want.
舊 2024-02-20, 07:28 PM #36
回應時引用此文章
野口隆史離線中