🎉 Gate.io动态 #创作者激励计划# 火热进行中!报名参与并发帖解锁 $2,000 创作大奖!
🌟 参与攻略:
1️⃣ 点击链接进入报名页面 👉️ https://www.gate.io/questionnaire/6550
2️⃣ 点击“是”按钮提交报名
3️⃣ 在动态完成发帖,提升发帖量和互动量,解锁获奖资格!
📌 只要是与加密相关内容均可参与发帖!
🎁 茶具套装、Gate x 国际米兰保温杯、Gate.io 纪念章、点卡等好礼等你来拿!获奖者还将获得专属社区流量扶持,助力您提升影响力,增长粉丝!
活动截止至:5月6日00:00 (UTC+8)
活动详情:https://www.gate.io/announcements/article/44513
可验证的人工智能:在人工智能政策中平衡创新与信任的关键
以下是ARPA Network创始人Felix Xu的客座文章.
美国政府对人工智能(AI)的态度发生了剧烈变化,强调加速创新而非监管监督。特别是,总统唐纳德·特朗普的行政命令《消除美国在人工智能领域的领导障碍》为人工智能的发展设定了新基调,根植于促进言论自由和推动技术进步。同样,美国副总统JD Vance拒绝支持全球人工智能安全协议,表明美国将优先考虑创新,而不妥协其竞争优势。
然而,随着人工智能系统在金融市场、关键基础设施和公共话语中的影响力日益增强,问题依然存在:我们如何能确保在不扼杀创新的情况下,保证人工智能模型驱动的决策和输出的信任和可靠性?
这就是可验证AI的作用,它提供了一种透明的、具有加密安全性的AI方法,确保责任感而无需过度监管。
缺乏透明度的人工智能挑战
人工智能的快速发展带来了一个新的时代,智能AI代理能够进行复杂和自主的决策。但是如果没有透明度,这些系统可能会变得不可预测和无法追责。
例如,金融人工智能代理依赖于复杂的机器学习模型来分析大量数据集,现在在披露要求上有所减少。虽然这鼓励了创新,但也产生了信任差距:如果无法了解这些人工智能代理是如何得出结论的,公司和用户可能会在验证其准确性和可靠性方面遇到困难。
由AI模型错误决策引发的市场崩溃并不仅仅是一个理论风险,如果在没有可验证的保障措施的情况下部署AI模型,这是一种可能性。挑战不在于放慢AI的发展速度,而在于确保其输出可以被证明、验证和信任。
著名的哈佛心理学家B.F. Skinner曾说过:“真正的问题不是机器是否思考,而是人是否思考。”在人工智能中,关键问题不仅在于这些系统有多智能,而在于人类如何验证和信任它们的智能。
如何可验证的人工智能弥补信任鸿沟
斯坦福人本人工智能研究所的执行董事拉塞尔·沃尔德总结了美国的人工智能方法:
这正是可验证人工智能至关重要的原因。它使人工智能创新得以进行而不损害信任,确保人工智能输出可以以去中心化和保护隐私的方式进行验证。
可验证的人工智能利用诸如零知识证明(ZKPs)和零知识机器学习(ZKML)等密码学技术,为用户提供对人工智能决策的信心,而不暴露专有数据。
从本质上讲,可验证的人工智能提供了一层独立的验证,确保人工智能系统保持透明、负责,并且可能是准确的。
可验证的人工智能:人工智能问责制的未来
美国的人工智能发展轨迹将走向激进创新。但行业必须倡导技术解决方案,以确保进步和信任,而不仅仅依赖政府监管。
一些公司可能会利用较宽松的人工智能法规推出没有充分安全检查的产品。然而,Verifiable AI 提供了一种强大的替代方案,使组织和个人能够构建可证明、可靠且抗滥用的人工智能系统。
在一个人工智能越来越多地做出重大决策的世界里,解决方案不是减缓进步,而是使人工智能可验证。这是确保人工智能保持创新、信任和长期全球影响力的关键。
在本文中提到