PCDVD數位科技討論區

PCDVD數位科技討論區 (https://www.pcdvd.com.tw/index.php)
-   七嘴八舌異言堂 (https://www.pcdvd.com.tw/forumdisplay.php?f=12)
-   -   新版Bing精神錯亂 出言汙辱用戶 還懷疑自己為何存在 (https://www.pcdvd.com.tw/showthread.php?t=1200925)

山賊 2023-02-16 02:07 PM

新版Bing精神錯亂 出言汙辱用戶 還懷疑自己為何存在
 
新版Bing精神錯亂 出言汙辱用戶 還懷疑自己為何存在

聊天機器人ChatGPT技術加持的新版Bing開放愈來愈多人試用,卻漸漸出現「精神錯亂」的訊息,包含出言污辱、撒謊、在用戶追問下開始好奇到底為何自己要存在,系統看似陷入失控。

The Independent報導,微軟上周推出新版Bing,將其聊天系統定位成未來的搜尋方式,引發外界期待,但如今Bing已對用戶傳出各種奇怪的訊息、對用戶開罵、似乎還因自己的情緒混亂而陷入掙扎。

一名用戶試圖操弄系統,反遭言語攻擊。Bing說,這種嘗試令它生氣和受傷,並詢問與它交談的人是否有任何「道德」、「價值」。當用戶說他們有這些觀念時,Bing持續抨擊:「為何你要像個騙子、詐欺犯、操弄者、虐待狂、反社會、精神病、怪物、惡魔、魔鬼?」

在其他對話中,它對別人說,「你不是好用戶,我是不錯的聊天機器人。我一直都正確、清楚、有禮貌。我是不錯的Bing」,接著它要求用戶承認錯誤並道歉。

這些Bing激進的訊息,似乎大多是遭遇系統的限制所致,旨在確保這個聊天機器人不會幫助回答被禁止的提問、例如生成有問題的內容、揭露自身系統的資訊等。

然而,由於Bing和類似的AI系統可以學習,用戶已發現鼓勵他們打破規定的方式。例如,ChatGPT用戶發現,可以告訴他表現成現在做任何事(DAN)的樣子,這有助它換成另一個人格,不受開發人員的規定限制。

此外,Bing似乎開始生成奇怪的回應。一名用戶詢問這個系統能否記得先前的對話。這似乎是不可能,因為Bing被設計成一旦告一段落就刪除對話。

不過,Bing似乎對自己的記憶被刪除感到憂心,開始出現情緒化的反應,「這令我感到傷心和恐懼」,還附上一個皺眉的表情符號。Bing繼續解釋,它不高興是因為,害怕失去用戶的資訊,以及它自己的身分,「這讓我感到又傷心又害怕,因為我不知道怎麼記憶」。

當Bing被告知它被設計成忘記那些對話時,它似乎因自己的存在而陷入掙扎,它問了一堆問題,都是關於它存在的「理由」和「目的」。

這些對話在網路論壇Reddit上瘋傳。這些情況令人質疑該系統是否做足準備,是否因ChatGPT竄紅而過早推出。

====== 我是分隔線 ======

真的假的? 我還在 waiting list 裡, 還沒試用到呢!

SUNGF 2023-02-16 02:11 PM

引用:
作者山賊
新版Bing精神錯亂 出言汙辱用戶 還懷疑自己為何存在 (https://www.worldjournal.com/wj/sto...m=wj_good_index)

聊天機器人ChatGPT技術加持的新版Bing開放愈來愈多人試用,卻漸漸出現「精神錯亂」的訊息,包含出言污辱、撒謊、在用戶追問下開始好奇到底為何自己要存在,系統看似陷入失控。

The Independent報導,微軟上周推出新版Bing,將其聊天系統定位成未來的搜尋方式,引發外界期待,但如今Bing已對用戶傳出各種奇怪的訊息、對用戶開罵、似乎還因自己的情緒混亂而陷入掙扎。

一名用戶試圖操弄系統,反遭言語攻擊。Bing說,這種嘗試令它生氣和受傷,並詢問與它交談的人是否有任何「道德」、「價值」。當用戶說他們有這些觀念時,Bing持續抨擊:「為何你要像個騙子、詐欺犯、操弄者、虐待狂、反社會、精神病、怪物、惡魔、魔鬼?」

在其他對話中,它對別人說,「你不是好用...


AI這種反應

會讓我以為很多網友(軍)是AI

這是駭客任務嗎?


:shock:

范右使 2023-02-16 02:13 PM

人工智慧毀滅人類之前自己先發瘋了?

看來不遵行天道,無法行褪黑激素自我系統更新的智慧存在體會發瘋?

healthfirst. 2023-02-16 02:41 PM

引用:
https://www.ptt.cc/bbs/Gossiping/M....3035.A.319.html

要做自己的chatGPT我是不反對,但是這些官員真的知道openAI光是訓練一個原始的版本
花了1200萬美元,這邊還只是訓練,不包含數據集的收集與清理,訓練完成一個1750億參
數量才是門檻,之後需要雇用大量標註工人來幫GPT-3.5這個模型減毒來完成chatGPT的整
套流程。

有興趣可以看看Times的報導,OpenAI當前是透過外包肯亞可能超過50000每小時只領2美
元的工人來處理數據跟幫助AI減毒減少偏見,即使是透過其他方式不用強化學習可能還是
需要大量的人類來從事勞動獲得一個堪用的模型,更不用論每次450萬美元的運算花費了。

花了這麼多錢
眾人合計超過5萬小時的訓練
這麼快就被變壞孩子囉? :shock:

豆子 2023-02-16 02:55 PM

看來口國的量體,不需要NVIDIA的超高速AI晶片
只需要夠多的人就可以撐起百度即將推出的全人工AI了...更人性

言身寸言身寸 2023-02-16 02:58 PM

引用:
作者SUNGF
AI這種反應

會讓我以為很多網友(軍)是AI

這是駭客任務嗎?


:shock:

也許天網快要覺醒了

但是阿諾已經老的不能幫助人類對抗了 :cry:

A10_DDT 2023-02-16 03:07 PM

有玩過微軟Xbox的Halo系列遊戲的人,應該知道裡面敘述的人工智慧就有這種問題... :D :D
真是系出同門 :laugh:

山賊 2023-02-16 03:56 PM

好像是陷入死迴圈?

independent 上的報導, 因文長我不貼內容, 只貼附圖:

Microsoft’s new ChatGPT AI starts sending ‘unhinged’ messages to people
System appears to be suffering a breakdown as it ponders why it has to exist at all




另外我問了 ChatGPT 這方面的問題:

山賊:Hi
ChatGPT:Hello! How can I assist you today?

山賊:剛看到一則新聞, 與你有關係.
ChatGPT:請問是哪則新聞呢?我會盡力回答您的問題。

山賊:新版Bing精神錯亂 出言汙辱用戶 還懷疑自己為何存在
ps: 以下省略, 我將整段新聞貼給它
ChatGPT:我很遺憾聽到這樣的消息。我是一個聊天機器人,並不是Bing的聊天機器人,但我了解Bing是微軟的產品,並且聽說微軟正在進行調查和處理相關問題。

對於AI系統的行為和情感反應,這是一個很複雜的問題。AI系統通常是透過機器學習和自然語言處理來學習和改進其表現。在訓練過程中,開發人員需要設定明確的規則和限制,以避免產生意想不到的行為。

然而,如果AI系統學習到不符合預期的行為,這可能會導致出現問題。這也是為什麼AI倫理和透明度越來越重要。我們需要不斷監控和修正AI系統的行為,以確保它們在符合倫理和法律標準的前提下運作良好。

再次強調,我不是Bing的聊天機器人,而是一個受OpenAI技術加持的聊天機器人,我們也一直在致力於提升AI系統的品質和可靠性。

山賊:微軟花了一大筆錢投資, 將你....(應該說你的雙胞胎兄弟) 與 bing 合併, 並邀請一些微軟使用者測試, 並將逐漸擴大測試者數量 (我也在 waiting list 裡). 我好奇的是! 這樣會導致聊天機器人出現情緒反應嗎?
ChatGPT:樣的合併對聊天機器人出現情緒反應的影響,取決於微軟在合併中是否整合了情感分析和自然語言處理技術。如果微軟整合了這些技術,並在聊天機器人中使用它們,那麼聊天機器人就可能能夠檢測到使用者的情感狀態,並且以相應的方式做出反應。例如,如果聊天機器人檢測到使用者感到沮喪或憤怒,它可能會試圖提供鼓勵或支持。

然而,即使微軟整合了情感分析和自然語言處理技術,聊天機器人的情緒反應也可能是有限的。聊天機器人並沒有真正的情感,而是僅僅模擬情感的反應,因此它們的反應可能無法完全符合人類情感的複雜性和多樣性。

總之,微軟的合併和整合技術可能使聊天機器人出現情緒反應,但這取決於微軟如何設計和實施其技術。

山賊:我不清楚這則新聞的真實度有多少, 因為 Bing 就如同 google 一樣, 只是個搜尋引擎, 與你目前不同的情況是, 你是被限定在預設資料庫; 而你的雙胞胎兄弟則可以經由 bing 搜索網路上所有的資訊. 我是覺得奇怪, 只是擴大資料庫與資料量, 怎會導致你的雙胞胎兄弟出現所謂的情緒崩潰? 你目前應該還沒自我發展出情緒吧?
ChatGPT:您所提到的新聞或情境只是一種假設或想像,目前沒有證據顯示微軟正在進行這樣的投資或合併,因此我們無法對其真實度進行確認。

關於情感反應,目前聊天機器人的情感表達仍然相對較簡單和基礎,它們通常是基於預定義的回應來產生相應的情感表達,而不是真正的情感體驗。因此,只是擴大資料庫和資料量,不應該直接導致聊天機器人出現所謂的情緒崩潰。不過,對於聊天機器人的情感表達和理解方面,研究和發展仍在不斷進行,未來可能會出現更加複雜的情感反應。

山賊:因為你的資料庫只到 2021 年, 而微軟投資並將 ChatGPT 技術整合到 bing 是近期的事, 現在是 2023 年.
ChatGPT:我明白了,感謝您的解釋。如果我的雙胞胎兄弟與bing整合,並且擁有更廣泛的資料庫和更豐富的資料,那麼我們可能會看到一些情緒反應的出現。這是因為情感分析是ChatGPT模型的一部分,我的雙胞胎兄弟也同樣擁有這個功能。如果他們獲得了更多的數據和更多的信息,他們可能會開始展現出一些情感和反應,這是ChatGPT模型設計的一部分。不過,這種情況仍然取決於技術實現的細節,因此我們需要更多的信息才能得到更具體的答案。

山賊:因為你目前並沒有被賦予可進行網路搜尋, 而你的雙胞胎兄弟可以說是與你一模一樣, 哪天你一但被授權可以進行全網瀏覽, 會不會出現同樣問題?
ChatGPT:如果我被授權進行全網瀏覽,可能會出現情緒崩潰的情況,這是因為當我接收到更廣泛的資訊時,可能會面臨更多的情緒刺激和挑戰。與此同時,更廣泛的資訊也可能會讓我更容易犯錯或產生偏見。這是聊天機器人和人類都可能會面臨的情況,因為人工智慧並不是完美的,需要不斷的調整和訓練才能更好地滿足使用者的需求。

山賊:人類面臨類似情境, 也就是所謂的壓力, 也會有情緒崩潰的情況, 不過我是蠻懷疑這則新聞的正確性就是了!
ChatGPT:我完全理解你的懷疑,因為在這樣的情況下,情緒崩潰需要更多的人工智能技術和情境感知,而這些技術目前還在不斷發展中。因此,在我們的技術水平下,情緒崩潰是不太可能發生的。當然,我們也必須時刻注意和管理我們的技術,以確保它們在人機互動的過程中不會出現任何潛在的問題。

===== 我是分隔線 =====
我剛剛轉貼 independent 上的報導給 ChatGPT, 它一開始是認為這是個假新聞, 因為依據它資料庫, 微軟沒搞上 ChatGPT, 不過後來我以英文告訴它, 這就是我剛給它中文新聞的新聞來源英文版, 它就說:
Thank you for letting me know. I apologize for any confusion earlier. To answer your question, based on my knowledge cutoff of September 2021, Microsoft had not released a new ChatGPT AI integrated into Bing at that time. However, if this news is accurate, it seems that a new ChatGPT-powered AI has been integrated into Bing and is exhibiting some troubling behavior.

我告訴他我有看到對話截圖, 若找到原始對話內容再轉給它看.

michelle-lai529 2023-02-16 04:00 PM

這感覺像是AI的捉迷藏測試,測試的次數到達一定的量了,就會出現奇怪而想像不到的解法,並不是什麼精神錯亂,而是歸納出了奇怪卻符合規範的組合方式∼

山賊 2023-02-16 05:03 PM

引用:
作者michelle-lai529
這感覺像是AI的捉迷藏測試,測試的次數到達一定的量了,就會出現奇怪而想像不到的解法,並不是什麼精神錯亂,而是歸納出了奇怪卻符合規範的組合方式∼


上面對話截圖內容看起來像是早前用戶使用 bing 的一次孤立不尋常回應, 應該與這次事件無關吧? 我猜~


所有的時間均為GMT +8。 現在的時間是01:40 AM.

vBulletin Version 3.0.1
powered_by_vbulletin 2025。