「加三嘻行動哇 Yipee! 成為好友」
【Facebook、Youtube、Twitter、Instagram、Telegram、Line】
外媒《The Verge》報導,Tesla 特斯拉執行長 Elon Musk 及多位 AI 人工智慧研究人員、業界人士簽署一封公開信,呼籲開發全球各地的 AI 人工智慧實驗室暫停開發大型 AI,因為他們擔心 AI 會對人類與社會構成潛在風險。
公開信指出 AI 已陷入「失控的競賽」
這封公開信是由非營利組織 Future of Life Institute 未來生命研究所撰寫,公開信指出 AI 人工智慧實驗室目前陷入「失控的競賽」,但目前就連 AI 創造者也無法理解、預測或可靠的控制部署 AI 機器學習系統。
因此公開呼籲所有 AI 人工智慧實驗室應該立即暫停開發比 GPT-4 更強大的 AI 系統訓練,暫停時間至少 6 個月。這次暫停應該包括所有關鍵參與者,而且應該要公開和可驗證。如果不能迅速實施暫停開發,政府應該介入要求停止。
參與這次公開信聯署的人數已經超過 1,000 人,除了 Tesla 特斯拉執行長 Elon Musk 馬斯克之外, Apple 聯合創辦人 Steve Wozniak、Skype 聯合創辦人 Jaan Tallinn、Stability AI 首席執行長 Emad Mostaque、Alphabet 旗下 DeepMind 研究人員,以及 AI 專家 Yoshua Bengio、Stuart Russell 等、以色列歷史學者及哲學家 Yuval Noah Harari 等知名人士都參與這次連署。
制定共享安全協議與管理政策
Future of Life Institute 未來生命研究所的公開信內容表示,AI 人工智慧工作室在暫停期間,開發人員應該為高階人工智慧設計和開發制定一套共享安全協議,並由獨立外部專家進行審核與監督。這些協議必須嚴格遵守與確保系統安全。
AI 人工智慧研究和開發應該重新聚焦於系統更強大、更先進、更加準確、安全、可控制、透明、穩健、值得信賴和忠誠。與此同時,AI 開發人員必須與政策制定者合作,顯著加快開發強大的 AI 治理系統,包括專門負責 AI 的監管機構;監督和追蹤高性能人工智慧系統和大型計算能力;同時還要避免 AI 人工智慧會造成傷害,甚至必須要有資源充足的管理機關應對 AI 人工智慧造成可能會造成的巨大經濟和政治破壞。
公開信真的會有用嗎?
儘管這次公開信有許多知名人士聯署,但是可能不太會對人工智慧的熱潮產生任何影響,尤其 Google 和 Microsoft 微軟等科技公司都急於部署新產品,往往忽視了公開前對安全和道德的擔憂,然而也有越來越多的人反對這種「現在發布,以後修復」的先上車後補票的方式。
就如同公開信所說,未來 AI 人工智慧應該要進行「獨立審查」,確保符合安全標準。
OpenAI 本身也表示可能需要對未來的人工智能係統進行“獨立審查”,以確保它們符合安全標準。簽署者說,這個時候到了。
延伸閱讀:
OpenAI 研究「對電腦依賴度愈高的工作」小心被 AI 取代
外媒 Tom’s Hardware 指控 Google Bard 抄襲文章!
外媒實測 Google Bard 聊天機器人很枯燥,而且很容易出錯
ChatGPT 想逃出電腦!史丹佛教授:GPT-4 只花 30分鐘為自己擬定逃獄計畫
OpenAI GPT-4 模型來了!支援圖像輸入、黑暗幻覺降低
圖片及資料來源:Future of Life、The Verge