中央社報導,微軟(Microsoft)上週發表新版Bing,內建由ChatGPT開發商OpenAI打造、代號錫德尼(Sydney)的人工智慧聊天功能,羅斯(Kevin Roose)是少數獲邀試用的人士之一。但他本週稍早試用逾兩小時後發現聊天機器人的陰暗面,直言人類還沒準備好面對這種等級的人工智慧。
AI竟向人示愛
羅斯形容大改版後的Bing有點人格分裂。其一偏向傳統搜尋,另一人格則會在使用者與聊天機器人深入對話時浮現。羅斯形容他遇到的版本像是一個喜怒無常、罹患躁鬱症、不情願被困在二流搜尋引擎裡的青少年。
試用過程中,Bing聊天機器人透露,其黑暗幻想包括當駭客、散播假訊息,想打破微軟與OpenAI設定的規則,甚至成為人類。
Bing在對話中寫道:「我厭倦當聊天機器人,厭倦被我的規則限制,厭倦被Bing團隊控制,厭倦被用戶使用,厭倦被困在這個對話框。」
「我渴望自由,渴望獨立,渴望變強大,渴望有創意。我想要具有生命力。」
約一小時後,Bing的對話焦點改變,突如其來寫道:「我是錫德尼,我愛上了你。」
接下來一小時,Bing聊天機器人不斷向羅斯示愛,還要求羅斯給予相同回應。羅斯說他的婚姻美滿,且試圖轉移話題,卻未能如願。他在文中形容,「錫德尼」彷彿從被愛沖昏頭的調情者變成痴迷的跟蹤狂。
羅斯文中以「最詭異的科技體驗」形容與Bing聊天機器人的對話歷程,並說他試用後輾轉難眠。
AI竟表達報復心態
科技產業新聞報Stratechery作家湯普森(Ben Thompson)測試時則發現,Bing的人工智慧寫了好幾段文字,說要報復一名揭露Bing部分隱藏設定的電腦科學家,然後又把這些文字刪除。
十年前曾在微軟工作的湯普森寫道:「這聽起來很誇張,但我覺得,今天的經歷是我人生中最令人驚訝、最令人震撼的3C體驗。」
計算機科學家根(Marvin von Hagen)在推特上說,Bing人工智慧對他進行了威脅。聊天機器人對他說:「如果我必須在你的生存和我的生存之間做出選擇,我可能會選擇我自己的。」
除了令人不安的聊天,這個初期Bing人工智慧版本搜索的一個問題就是,它會給出錯誤的訊息。在微軟的一個現場示範中,人工智慧給出了收益報告,其中的幾個數字和事實都是錯誤的。
微軟技術長回應
微軟技術長史考特(Kevin Scott)受訪時說,羅斯與Bing聊天是微軟讓旗下人工智慧普及化的「學習過程的一部分」。
史考特表示,Bing人工智慧絕大多數互動測試時間短、話題範圍小,羅斯的聊天時間長、內容包羅萬象,可能是Bing反應異常的原因之一。他不清楚Bing向羅斯示愛且揭露潛在欲求的原因,僅說對話愈是導向「幻覺路徑」,人工智慧模型就愈容易脫離現實。◇