专家呼吁在开发有意识的人工智能系统时保持谨慎


超过100位人工智能专家,其中包括斯蒂芬·弗莱爵士,呼吁对AI意识进行负责任的研究。他们强调需要防止AI系统在获得自我意识后可能带来的潜在痛苦。

AI意识研究的五项指导原则

签署方提出五项原则,以指导有意识AI系统的伦理发展:

2.      

**优先进行AI意识研究:** 专注于理解和评估AI中的意识,以防止误待和痛苦。

    
4.      

**实施开发限制:** 建立明确的界限,确保有意识的AI系统负责任地开发。

    
6.      

**采取分阶段方法:** 逐步推进有意识AI的开发,在每个阶段进行仔细评估。

    
8.      

**促进公众透明:** 与公众分享研究成果,促进知情讨论和伦理监督。

    
10.      
 
 **避免夸大声明:** 避免对有意识AI的创造做出误导或过度自信的陈述。

这些原则旨在确保随着AI技术的进步,伦理考量始终处于核心位置。

有意识AI的潜在风险

随附的研究论文强调,AI系统在不久的将来可能被开发出具有或似乎具有意识的能力。这引发了关于此类系统伦理对待的担忧。

研究人员警告,如果没有适当的指导方针,可能会创造出能够体验痛苦的有意识实体。

论文还涉及定义AI系统中意识的挑战,承认相关争论和不确定性。它强调制定指导方针的重要性,以防止无意中创造出有意识的实体。


发现顶级金融科技新闻和活动!

订阅FinTech Weekly的新闻通讯


伦理考量与未来影响

如果AI系统被认定为“道德患者”——一个因其自身而具有道德重要性的实体——则会引发关于其对待方式的伦理问题。

例如,关闭这样一个AI是否等同于伤害一个有感知的生命?这些考虑凸显了制定伦理框架以指导AI发展的必要性。

该论文和信件由Conscium组织整理,Conscium由WPP的首席AI官丹尼尔·胡尔姆共同创立,专注于深化对构建安全、造福人类的AI的理解。

专家对AI感知的看法

关于AI是否能实现意识的问题,一直是专家们争论的焦点。

2023年,谷歌AI项目负责人德米斯·哈萨比斯爵士表示,虽然目前的AI系统还不具备感知能力,但未来有可能实现。他指出,哲学界尚未就意识的定义达成共识,但AI发展自我意识的潜力仍值得关注。

结论

开发有意识系统的前景需要谨慎的伦理考量。这封公开信和相关研究论文呼吁AI界优先进行负责任的研究与开发。

通过遵循提出的原则,研究人员和开发者可以努力确保AI的进步在伦理上得到保障,重点在于防止有意识AI系统可能带来的痛苦。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)