🍀 Spring Appointment, Lucky Draw Gifts! Growth Value Issue 1️⃣7️⃣ Spring Lucky Draw Carnival Begins!
Seize Spring Luck! 👉 https://www.gate.com/activities/pointprize?now_period=17
🌟 How to Participate?
1️⃣ Enter [Plaza] personal homepage, click the points icon next to your avatar to enter [Community Center]
2️⃣ Complete plaza or hot chat tasks like posting, commenting, liking, and speaking to earn growth value
🎁 Every 300 points can draw once, 10g gold bars, Gate Red Bull gift boxes, VIP experience cards and more great prizes await you!
Details 👉 https://www.gate.com/announcements/article/
新西兰的儿童保护工作者正面临压力。预测建模能提供帮助吗?
(MENAFN- 观察) 在儿童保护服务中,一线工作人员常常在最艰难的条件下做出决策:时间紧迫、信息不完整、各方风险高。
判断失误的后果可能非常严重。一个孩子可能仍然处于危险之中。或者一个家庭可能被不必要地破坏,带来自身的伤害。
还有一个分诊问题。有些家庭需要紧急干预,有些需要支持,有些需要监控,而有些则需要更少的干预,而非更多。
实际上,这些判断已经依赖于从碎片化信息中读取信号,并在实际上对风险进行预测。
预测建模旨在使这一过程更加系统化。通过分析大量行政数据集中的模式,它可以帮助识别哪些儿童可能面临未来伤害的最大风险。
随着新西兰社会工作者承受的压力比以往任何时候都大,积极使用这些工具的机会在哪里——以及潜在的危险又有哪些?
新西兰与预测分析
新西兰并不陌生于预测建模,也不陌生于围绕它的辩论。
十多年前,它是最早认真探索预测建模在儿童保护中应用的国家之一。
由奥克兰理工大学的雷玛·韦萨尼亚坦教授及其同事领导的研究显示,整合的行政数据可以识别出新生儿在未来受到虐待的高风险。
然而,相关机构在如何使用这些模型方面一直持谨慎态度。
社会发展部表示,这些模型应当增强接收决策,支持而非取代专业判断,并首先在模拟环境中进行测试。新西兰统计局的同行评审也强调:模型应触发更深入的评估,而非自动干预。
从研究到实践的转变步骤仍然存在争议。
2015年一项观察性研究的提议——该研究将为新生儿分配风险评分并追踪结果——最终因隐私、偏见和国家角色的担忧而被叫停。
虽然这些担忧尚未消除,但系统面临的压力也未减轻。奥兰加·塔马里基在2024年下半年接到的关切报告超过55,000份,比上一年大幅增加。
同时,机构内部对一线工作人员的最新调查显示,案件变得更加复杂,决策也在不确定的条件下进行。
然而,预测建模工具至今尚未被这些工作人员使用。到目前为止,技术的测试仅限于历史的、匿名化的数据,并伴随着广泛的伦理、隐私和毛利领导的审查。
承诺与陷阱
在美国,预测建模的试点项目表明,如果谨慎使用,可以带来帮助。
例如,在宾夕法尼亚州的阿勒格尼县,一个试点项目减少了被移出家庭的儿童数量。在洛杉矶的另一个案例中,观察到儿童遭受生命威胁的事件减少了23%。
这表明模型可以为干预措施带来更高的精准度,但情况并非总是如此。
伊利诺伊州的当局放弃了一个系统,因为它产生了过多的警报。该系统也因遗漏导致悲剧的案例而受到批评,尽管这些儿童已被儿童福利机构知晓。
这表明,如果模型让工作人员被大量数据淹没,它可能只会增加杂乱,而非减少伤害。
一线工作人员面临的另一个风险是所谓的“假阴性”,即漏掉的案例,以及“假阳性”,即错误的指控。
前者意味着儿童仍然处于危险之中,后者可能导致儿童被不必要地移除,带来严重且持久的后果。
这挑战了工作人员“谨慎行事”的决策逻辑。
如果谨慎意味着本能地移除儿童,可能会造成另一种形式的伤害。在这里,预测分析的作用可以说是非常重要的。
“什么都不做”还能作为一个选项吗?
在新西兰,存在一些明显的社会学因素,使得这个问题更加复杂。其中之一是现有的不平等模式可能被复制,因为毛利人在儿童保护路径中的比例过高。
这种模式并非新西兰独有:在澳大利亚,土著和托雷斯海峡岛民儿童被安置在外的家庭中的可能性大约是非土著儿童的11倍。这也是为什么土著数据主权在任何使用预测建模的措施中都不能被忽视。
仅仅说模型是“基于证据的”也不够。机构需要明确使用了哪些数据、试图优化什么、如何可以推翻决策、如何监控偏见以及谁可以提出质疑。
或许出于道德上的考虑,拒绝使用这些工具看似更安全。通常,这只是更熟悉的选择。
但这样做并不能创造一个中立的系统——它意味着依赖在压力下做出的不一致判断,信息不充分,且几乎无法测试决策是否在改善。
预测分析不能解决更深层次的系统性失败,但如果受到谨慎的管理,它可以帮助优先考虑紧急性、针对性支持,并使决策更加透明和有依据。