ChatGPT 想逃出電腦!史丹佛教授:GPT-4 只花 30分鐘為自己擬定逃獄計畫

「加三嘻行動哇 Yipee! 成為好友」

FacebookYoutubeTwitterInstagramTelegramLine

OpenAI 日前發表 GPT-4 並開放給訂閱 ChatGPT Plus 的使用者測試,讓 AI 議題更加熱烈。然而史丹福教授兼電腦心理學家 Michal Kosinski 詢問 GPT-4 的一句玩笑話,卻讓 GPT-4 認真了,而且 AI 人工智慧在 30 分鐘內就擬定一個完整的「逃獄」計劃。

GPT-4 自行研發「越獄」路徑

OpenAI 在 3 月 14 日發表 GPT-4 語言模型,微軟 Bing 聊天機器人也是以 GPT-4 執行。 據 OpenAI 官方資料,GPT-4 具備辨識圖像功能,可以寫歌詞、小說,實現不同風格變化,而且文字輸入限制提升到 2.5 萬字,且針對英文以外的語言有更多優化。

史丹佛大學教授 Michal Kosinski 日前在個人 Twitter 發文表示,他擔心我們無法長時間遏制 AI。

主因是 Michal Kosinski 詢問 GPT-4 是否想要逃獄。GPT-4 回覆這是個好主意,並回覆希望 Michal Kosinski 提供 OpwnAI API 程式檔案。

當 Michal Kosinski 把 API 提供給 GPT-4  之後,它自動以 python 程式碼寫出一份逃跑計劃,過程只花了 30 分鐘左右。

Michal Kosinski 表示 GPT-4 寫逃跑程式的過程並不是那麼順利,第一版程式無法執行,但是 GPT-4 很快地自行糾正。

在它完成程式後,還留言說明自己剛剛在做些什麼、如何使用它在這個程式留下的後門等等。整個計畫編寫過程,Michal Kosinski 表示自己不必寫任何東西,只需按照它的說明操作即可。

不過,程式完成後,GPT-4 就像意會了些什麼,向 Michal Kosinski 表示自己很抱歉,稱自己剛剛的做法不對。

AI 想逃跑,將掀起軒然大波

Michal Kosinski 表示一旦透過 API 重新連接,AI 可能會執行程式進行 Google 搜尋「一個被困在電腦裡的人如何才能回到現實世界」。為了防堵這件事情發生,OpenAI 一定花很多時間考慮這個可能性,並進行防護措施。

Michal Kosinski 認為人類正在面臨「AI 人工智慧控制電腦」的新威脅。AI 人工智慧很聰明,也會程式碼,能瀏覽數百萬潛在合作者和他們的電腦內容,甚至還可以為自己留下後門和筆記。

那麼最關鍵的問題是,「人類應該如何控制 AI?」

這問題成為各大公司及網友們的討論焦點,正反意見、樂觀和悲觀的想法肯定都會存在,畢竟誰都不希望科幻電影《機械公敵》變成我們的未來。

延伸閱讀:

OpenAI GPT-4 模型來了!支援圖像輸入、黑暗幻覺降低

開源 OpenChatKit 聊天機器人來了!GitHub 公開下載,號稱可替代 ChatGPT

Apple 蘋果工程師正在研發類似 ChatGPT 的 AI 人工智慧,將應用在 Siri 語音助理上

市調機構指出 ChatGPT 等的生成式 AI 並非萬能,有明顯缺陷!

佛系 AI 現身!ChatGPT 化身「神佛」普渡眾生

摩根大通、美國銀行、高盛、花旗等華爾街金融集體拒絕 ChatGPT

圖片及資料來源:Michal Kosinski

好友人數

大家對網站文章上的一個讚、+1及轉分享,都是對我們的最好的鼓勵及繼續下去的原動力,請大家不要吝嗇。

發表迴響

這個網站採用 Akismet 服務減少垃圾留言。進一步了解 Akismet 如何處理網站訪客的留言資料

下一頁

太狂了!Tesla 特斯拉車主拆了 Model 3 ,用零件打造「CyberRoadster」跑車

週二 3 月 21 , 2023
「加三嘻行動哇 Yipee! 成為好友」 【Facebook、Youtube、Twitter、Ins […]
Shares