瀏覽單個文章
Earstorm-5
Senior Member
 

加入日期: Apr 2017
文章: 1,447
引用:
作者GOLDHAN
現在 AI 應用愈來愈廣,而且也愈來愈好用
好用到很容易產生依賴 讓我覺得日後一定會出現在災難
EX.餵AI吃一堆作業規範影片跟法規說明後
只要指令夠明確,把AI角色定位清楚後 它可以回答到非常詳盡
該準備的文件 說明的一件不漏,或許現階段還處在輔助諮詢情況
但其實這種行為日後一定會再做更深層的整合 使其作業更加自動化
所以日後如果掌握到了AI的演算法漏洞,難保不會出現有心人用錯誤的資料來誤導AI
很可能導致連續性骨牌式的災難


我之前提過一些北美公務體系的問題就是因此, 而且... 舉例好了.

經過網路收集資料去了解流程以及需求, 經過AI來重複確認, 然後提交的整份檔案.
=> 被承辦人員對於"個體強勢弱勢"攔下來, 然後目前陷入死循環的申請案.

問他們依資料哪裡有做錯? 說不出來, 只強調需要收集更多資訊跟"弱勢一方看法."
? 所以對錯變成可以"弱勢選擇?" 公務體系可以強制推翻正確與否的判定條件?

PS. 這種事情屢見不鮮, 另一串提過欠錢上法院結果, 或其實很多車禍判決雙方賠償.
很多時候都過度"人性偏好." => 不論規範或對錯, 判決者依照自身喜好推翻標準.
     
      
舊 2025-09-14, 07:22 AM #51
回應時引用此文章
Earstorm-5離線中