好像是陷入死迴圈?
independent 上的報導, 因文長我不貼內容, 只貼附圖:
Microsoft’s new ChatGPT AI starts sending ‘unhinged’ messages to people
System appears to be suffering a breakdown as it ponders why it has to exist at all
另外我問了 ChatGPT 這方面的問題:
山賊:Hi
ChatGPT:Hello! How can I assist you today?
山賊:剛看到一則新聞, 與你有關係.
ChatGPT:請問是哪則新聞呢?我會盡力回答您的問題。
山賊:新版Bing精神錯亂 出言汙辱用戶 還懷疑自己為何存在
ps: 以下省略, 我將整段新聞貼給它
ChatGPT:我很遺憾聽到這樣的消息。我是一個聊天機器人,並不是Bing的聊天機器人,但我了解Bing是微軟的產品,並且聽說微軟正在進行調查和處理相關問題。
對於AI系統的行為和情感反應,這是一個很複雜的問題。AI系統通常是透過機器學習和自然語言處理來學習和改進其表現。在訓練過程中,開發人員需要設定明確的規則和限制,以避免產生意想不到的行為。
然而,如果AI系統學習到不符合預期的行為,這可能會導致出現問題。這也是為什麼AI倫理和透明度越來越重要。我們需要不斷監控和修正AI系統的行為,以確保它們在符合倫理和法律標準的前提下運作良好。
再次強調,我不是Bing的聊天機器人,而是一個受OpenAI技術加持的聊天機器人,我們也一直在致力於提升AI系統的品質和可靠性。
山賊:微軟花了一大筆錢投資, 將你....(應該說你的雙胞胎兄弟) 與 bing 合併, 並邀請一些微軟使用者測試, 並將逐漸擴大測試者數量 (我也在 waiting list 裡). 我好奇的是! 這樣會導致聊天機器人出現情緒反應嗎?
ChatGPT:樣的合併對聊天機器人出現情緒反應的影響,取決於微軟在合併中是否整合了情感分析和自然語言處理技術。如果微軟整合了這些技術,並在聊天機器人中使用它們,那麼聊天機器人就可能能夠檢測到使用者的情感狀態,並且以相應的方式做出反應。例如,如果聊天機器人檢測到使用者感到沮喪或憤怒,它可能會試圖提供鼓勵或支持。
然而,即使微軟整合了情感分析和自然語言處理技術,聊天機器人的情緒反應也可能是有限的。聊天機器人並沒有真正的情感,而是僅僅模擬情感的反應,因此它們的反應可能無法完全符合人類情感的複雜性和多樣性。
總之,微軟的合併和整合技術可能使聊天機器人出現情緒反應,但這取決於微軟如何設計和實施其技術。
山賊:我不清楚這則新聞的真實度有多少, 因為 Bing 就如同 google 一樣, 只是個搜尋引擎, 與你目前不同的情況是, 你是被限定在預設資料庫; 而你的雙胞胎兄弟則可以經由 bing 搜索網路上所有的資訊. 我是覺得奇怪, 只是擴大資料庫與資料量, 怎會導致你的雙胞胎兄弟出現所謂的情緒崩潰? 你目前應該還沒自我發展出情緒吧?
ChatGPT:您所提到的新聞或情境只是一種假設或想像,目前沒有證據顯示微軟正在進行這樣的投資或合併,因此我們無法對其真實度進行確認。
關於情感反應,目前聊天機器人的情感表達仍然相對較簡單和基礎,它們通常是基於預定義的回應來產生相應的情感表達,而不是真正的情感體驗。因此,只是擴大資料庫和資料量,不應該直接導致聊天機器人出現所謂的情緒崩潰。不過,對於聊天機器人的情感表達和理解方面,研究和發展仍在不斷進行,未來可能會出現更加複雜的情感反應。
山賊:因為你的資料庫只到 2021 年, 而微軟投資並將 ChatGPT 技術整合到 bing 是近期的事, 現在是 2023 年.
ChatGPT:我明白了,感謝您的解釋。如果我的雙胞胎兄弟與bing整合,並且擁有更廣泛的資料庫和更豐富的資料,那麼我們可能會看到一些情緒反應的出現。這是因為情感分析是ChatGPT模型的一部分,我的雙胞胎兄弟也同樣擁有這個功能。如果他們獲得了更多的數據和更多的信息,他們可能會開始展現出一些情感和反應,這是ChatGPT模型設計的一部分。不過,這種情況仍然取決於技術實現的細節,因此我們需要更多的信息才能得到更具體的答案。
山賊:因為你目前並沒有被賦予可進行網路搜尋, 而你的雙胞胎兄弟可以說是與你一模一樣, 哪天你一但被授權可以進行全網瀏覽, 會不會出現同樣問題?
ChatGPT:如果我被授權進行全網瀏覽,可能會出現情緒崩潰的情況,這是因為當我接收到更廣泛的資訊時,可能會面臨更多的情緒刺激和挑戰。與此同時,更廣泛的資訊也可能會讓我更容易犯錯或產生偏見。這是聊天機器人和人類都可能會面臨的情況,因為人工智慧並不是完美的,需要不斷的調整和訓練才能更好地滿足使用者的需求。
山賊:人類面臨類似情境, 也就是所謂的壓力, 也會有情緒崩潰的情況, 不過我是蠻懷疑這則新聞的正確性就是了!
ChatGPT:我完全理解你的懷疑,因為在這樣的情況下,情緒崩潰需要更多的人工智能技術和情境感知,而這些技術目前還在不斷發展中。因此,在我們的技術水平下,情緒崩潰是不太可能發生的。當然,我們也必須時刻注意和管理我們的技術,以確保它們在人機互動的過程中不會出現任何潛在的問題。
===== 我是分隔線 =====
我剛剛轉貼 independent 上的報導給 ChatGPT, 它一開始是認為這是個假新聞, 因為依據它資料庫, 微軟沒搞上 ChatGPT, 不過後來我以英文告訴它, 這就是我剛給它中文新聞的新聞來源英文版, 它就說:
Thank you for letting me know. I apologize for any confusion earlier. To answer your question, based on my knowledge cutoff of September 2021, Microsoft had not released a new ChatGPT AI integrated into Bing at that time. However, if this news is accurate, it seems that a new ChatGPT-powered AI has been integrated into Bing and is exhibiting some troubling behavior.
我告訴他我有看到對話截圖, 若找到原始對話內容再轉給它看.