当川普为 AI 投入万亿时,谁在为 AI 提供可信数据?
当川普为 AI 投入万亿美元时,表面看上去是模型、芯片、数据中心的比拼,但也引发出更深层的问题,AI 模型依赖的数据是如何验证的,是否可追踪的,在训练过程黑箱和推理过程是不是可以审计的,模型之间是否可以协作,还是只能各自为战?
说人话就是当我们共 AI 获取信息的时候,谁能确定 AI 给出的信息就是对的,数据污染已经不是一个说着玩的词了,当初某号称是 ChatGPT 杀手的 AI 应用就已经深深的陷入了到数据污染的环境,当数据源都是错误的时候,给出的答案如何能是正确的。
现在的AI是不是智能的?也许是,但即便是再聪明的 AI 也需要模型的训练,但我们无法知道模型训练用了哪些数据,也无法验证 GPU 是否真的跑完了一个推理过程,更无法在多个模型间建立互信逻辑。
如果要让 AI 真正走向下一代,可能需要同时解决这三个问题:
一,训练数据必须可信、可验证。
二,推理过程必须可被第三方模型审计。
三,模型必须能在无需平台撮合的前提下协调算力、交换任务、共享成果。
这不是单靠一个模型、一个 API 或一个 GPU 平台能解决的,而是需要一个真正为 AI 构建的系统,这个系统应该既能低成本永久性的存储数据,让数据本身具备审查与被审查的权限,又能让模型之间实现推理上的验证,还需要要支持模型在特定前提下自主发现算力、协调任务、审计每一步执行