🔥 Gate 动态大使专属发帖福利任务第三期报名正式开启!🏆 第二期获奖名单将于6月3日公布!
👉️ 6月3日 — 6月8日期间每日发帖,根据帖子内容评级瓜分 $300奖池
报名即可参与:https://www.gate.com/zh/questionnaire/6761
报名时间:6月3日10:00 - 6月8日 24:00 UTC+8
🎁 奖励详情:
一、S级周度排名奖
S级:每周7日均完成发帖且整体帖子内容质量分数>90分可获S级,挑选2名优质内容大使每人$50手续费返现券。
二、A/B 等级瓜分奖
根据各位动态大使发帖数量及帖子内容质量获评等级,按评定等级获奖:
A级:每周至少5日完成发帖且整体帖子内容质量90>分数>80可获A级,从A级用户中选出5名大使每人$20手续费返现券
B级:每周至少3日完成发帖且整体帖子内容质量80>分数>60可获B级,从B级用户中选出10名大使每人$10手续费返现券
📍 活动规则:
1.每周至少3日完成发帖才有机会获奖。
2.根据发帖天数和整体发帖内容质量分数给予等级判定,分为S/A/B等级,在各等级下选择幸运大使获奖。
💡 帖子评分标准:
1.每帖不少于30字。
2.内容需原创、有独立见解,具备深度和逻辑性。
3.鼓励发布市场行情、交易知识、币种研究等主题,使用图例或视频可提高评分。
4.禁止发布FUD、抄袭或诋毁内容,违规将取
人工智能制造商警告他们的技术存在“灭绝的风险”
领导人工智能革命的人们也在呼吁制定法规,将其与流行病和核战争进行比较。
振作起来:人工智能可能导致人类灭绝。
周二,数百名人工智能行业领袖和研究人员;包括来自微软、谷歌和 OpenAI 的高管发出了一个发人深省的警告。他们声称,他们正在设计的人工智能技术有朝一日可能会对人类的生存构成真实而现实的威胁。除了流行病和核战争的恐怖之外,他们还认为人工智能是一种类似程度的社会风险。
在人工智能安全中心 (Center for AI Safety) 发表的一封信中,人工智能专家提出了这一简洁明了的声明:“减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”
就是这样,他们就是这么说的。
资料来源:人工智能安全中心
该声明将人工智能描述为迫在眉睫的威胁,类似于核灾难或全球流行病。但签署人,这些技术行业的奇才,未能扩大他们不祥的警告。
这种末日情景究竟应该如何下降?我们应该什么时候标记我们的日历以迎接我们的机器人霸主的崛起?为什么人工智能这种人类创新的发明会背叛它的创造者?这些人工智能架构师的沉默是响亮的,他们没有给出任何答案。
事实上,这些行业领导者提供的信息并不比带有预设回复的聊天机器人多。在全球威胁领域,人工智能似乎突然插队,战胜了气候变化、地缘政治冲突,甚至是外星人入侵的谷歌关键词搜索。
与战争、外星人入侵和气候变化等其他全球问题相比,谷歌搜索人工智能。图片:谷歌
有趣的是,当法规符合他们的利益时,公司往往会提倡法规。这可以被视为他们表达“我们希望参与制定这些法规”的方式,这类似于狐狸在鸡舍中请求新规则。
同样值得注意的是,OpenAI 的首席执行官 Sam Altman 一直在推动美国的监管。尽管如此,如果欧洲大陆的政客继续试图监管人工智能,他仍威胁要离开欧洲。“我们会努力遵守,” Altman在伦敦大学学院的一个小组会议上说。“如果我们能遵守,我们会的。如果做不到,我们将停止运营。”
公平地说,几天后他又改口说 OpenAI 没有离开欧洲的计划。当然,这是在他有机会在“非常富有成效的一周”中与监管机构讨论这个问题之后发生的。
人工智能有风险,但风险有那么大吗?
专家们并未忽视人工智能的潜在危害。此前一封由 31,810 名代言人签署的公开信呼吁暂停强大的 AI 模型的训练,其中包括 Elon Musk、Steve Wozniak、Yuval Harari 和 Andrew Yang。
信中说:“这些协议应确保遵守它们的系统是安全的,无可置疑,”并澄清说,“这并不意味着总体上暂停 AI 开发具有紧急功能的黑盒模型,只是从危险的竞赛中倒退到更大的不可预测的竞赛中。”
潜在的AI Foom问题(其中 AI 能够改进自己的系统,将其能力提高到超越人类智能的程度)已经讨论了多年。然而,当今快速的变化步伐,加上媒体的大量报道,使这场辩论成为全球关注的焦点。
资料来源:Columbia Journalism Review
这引发了关于 AI将如何影响社交互动的未来的不同观点。
一些人设想了一个乌托邦式的时代,人工智能与人类互动,技术进步至高无上。其他人则认为人类将适应人工智能,围绕该技术创造新的就业机会,类似于汽车发明后的就业增长。然而其他人坚持认为,人工智能很有可能会成熟并变得无法控制,从而对人类构成真正的威胁。
在那之前,人工智能世界一切如常。密切关注你的 ChatGPT、你的 Bard 或你的 Siri,它们可能只需要一次软件更新就可以统治世界。但就目前而言,人类最大的威胁似乎不是我们自己的发明,而是我们无限的夸张天赋。