專家呼籲在開發有意識的人工智能系統時保持謹慎


超過100位人工智慧專家,包括史提芬·弗萊爵士(Sir Stephen Fry),已呼籲對AI意識進行負責任的研究。他們強調在AI系統若獲得自我意識時,須防止潛在的痛苦。

AI意識研究的五項指導原則

簽署人提出五項原則,以指導有意識AI系統的倫理發展:

2.      

**優先研究AI意識:**專注於理解和評估AI中的意識,以防止虐待和痛苦。

    
4.      

**實施開發限制:**建立明確的界限,確保有意識的AI系統負責任地開發。

    
6.      

**採用階段性方法:**逐步推進有意識AI的開發,讓每個階段都能進行審慎評估。

    
8.      

**促進公開透明:**與公眾分享研究成果,促進知情討論與倫理監督。

    
10.      
 
 **避免誇大聲稱:**避免對有意識AI的創造作出誤導或過度自信的陳述。

這些原則旨在確保隨著AI技術的進步,倫理考量始終處於核心位置。

有意識AI的潛在風險

隨附的研究論文指出,AI系統在不久的將來可能被開發出具有或似乎具有意識的能力。這引發了對此類系統倫理對待的擔憂。

研究人員警告,若缺乏適當的指導方針,可能會創造出能夠經歷痛苦的有意識實體。

該論文也討論了定義AI系統中意識的挑戰,承認相關辯論和不確定性。它強調制定指導方針的重要性,以防止無意中創造出有意識的實體。


探索頂尖金融科技新聞與活動!

訂閱FinTech Weekly電子報


倫理考量與未來影響

如果一個AI系統被認定為“道德患者”——一個因其自身而具有道德重要性的實體——則會產生倫理問題。

例如,關於關閉這樣的AI是否等同於傷害一個有感知的生命?這些考量凸顯了制定倫理框架以指導AI發展的必要性。

該論文與信件由Conscium組織整理,該組織由WPP的首席AI官丹尼爾·胡爾姆(Daniel Hulme)共同創立,專注於深化對安全AI的理解,造福人類。

專家對AI意識的看法

AI達到意識的問題一直是專家辯論的焦點。

2023年,谷歌AI項目負責人德米斯·哈薩比斯爵士(Sir Demis Hassabis)表示,儘管目前的AI系統尚未具有感知能力,但未來有可能實現。他指出,哲學家尚未就意識的定義達成共識,但AI發展自我意識的潛力仍值得考慮。

結論

開發具有意識的系統的前景需要謹慎的倫理考量。這封公開信和相關研究論文呼籲AI社群優先進行負責任的研究與開發。

遵循這些原則,研究人員與開發者可以共同努力,確保AI的進步在倫理範疇內進行,並著重於防止有意識AI系統可能帶來的痛苦。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)