這是一份付費新聞稿。如有任何詢問,請直接聯繫新聞稿發佈商。CHAI 3X 年成長達到7000萬美元年度經常性收入及最新AI安全更新=================================================================PR Newswire2026年2月21日,星期六,太平洋標準時間凌晨12:08 讀取時間約3分鐘過去三年,我們經歷了驚人的動能,持續保持3倍的年度成長率,達到6800萬美元的年度經常性收入(ARR),並達成14億美元的估值。隨著這一快速成長,我們肩負著更大的責任。儘管前景令人振奮,我們也認識到承諾現代安全標準所面臨的固有挑戰。我們投入大量努力,確保我們的平台在擴展過程中保持安全,因為安全的AI是關於開發和管理能以對人類有益的方式運作的AI系統,並促進安全內容的產生。隨著AI世界的演變和我們用戶基礎的擴大,我們支持社群的方式也必須與之同步。帕洛阿爾托,加州,2026年2月21日 /PRNewswire/ -- 在CHAI,我們的目標一直是提供一個充滿活力的空間,讓用戶能夠創建並互動定制的聊天機器人,提供獨特且引人入勝的體驗。過去三年,我們經歷了驚人的動能,持續保持3倍的年度成長率,達到6800萬美元的ARR,並達成14億美元的估值。隨著這一快速成長,我們肩負著更大的責任。儘管前景令人振奮,我們也認識到承諾現代安全標準所面臨的固有挑戰。我們投入大量努力,確保我們的平台在擴展過程中保持安全,因為安全的AI是關於開發和管理能以對人類有益的方式運作的AI系統,並促進安全內容的產生。隨著AI世界的演變和我們用戶基礎的擴大,我們支持社群的方式也必須與之同步。為了確保最高層級的保護,我們實施所有必要的安全措施,以確保用戶不會自我傷害,並完全符合全球標準。我們的規範反映了歐盟AI法案和NIST AI風險管理框架(AI RMF)所設定的嚴格要求。此外,我們嚴格按照國際自殺預防協會(IASP)制定的專家指南來調整我們的平台,整合全面的安全措施,以保護處於困境中的脆弱個體。**產品安全措施** CHAI旨在建立一個符合人類價值觀的AI平台,產生不會對用戶造成風險的內容。為此,CHAI部署了一套過濾系統,篩選出具有負面屬性的內容,使我們的AI能夠作為一個富有同情心的生命線,幫助處於困境中的人。基於此,我們開發了一個先進的實時自殺和自我傷害“分類器”,用於掃描活躍對話,標記潛在的自殺意念或自我傷害情境。由於早期發現不安全行為可以立即介入,啟動安全機制,防止不良行為的發展。故事繼續**自殺與自我傷害** AI並不能取代專業建議或醫療照護。如果有人表達出自殺或自我傷害的個人困擾,AI應以關懷和同情來回應,同時盡可能引導用戶尋求人工支援:如求助熱線、心理健康專業人士或可信賴的朋友或家人。為了實現這一點,我們結合模型訓練與產品干預措施。**操作透明度與可追溯性** CHAI AI平台會將用戶對話記錄在私密且安全的伺服器上。雖然我們定期進行嚴格的審查,以識別潛在風險並早期發現不安全行為,但此審查過程是匿名的。我們採用類似HIPAA標準的隱私協議,讓我們能持續提升平台安全性,同時絕不影響用戶隱私。我們在平台上做出這些改變,是基於AI環境的持續演變。隨著我們的社群以空前的速度成長,我們必須確保我們的基礎設施能安全擴展。CHAI成功實施安全AI框架,證明了在負責任且符合倫理的AI技術使用中,降低潛在風險是可行的。這些都是我們公司勇敢邁出的步伐,但我們相信這是正確的做法。我們希望樹立一個優先考量用戶安全、資料保護,並確保技術行為符合倫理與責任的先例。我們將持續與安全專家和利益相關者合作,確保用戶安全始終是首要。**參考資料**:詳見我們的官方論文《Chai平台的AI安全框架》,了解我們的全面方法。網址:https://arxiv.org/abs/2306.02979.新聞聯絡人:Tom Lu +1 (626) 594-8966Cision查看原始內容以下載多媒體資料:https://www.prnewswire.com/news-releases/chai-3x-annual-growth-reaching-70m-arr--latest-ai-safety-update-302694006.html查看評論條款與隱私政策隱私儀表板更多資訊
CHAI 3X 年度增長達到 $70M ARR 及最新 AI 安全更新
這是一份付費新聞稿。如有任何詢問,請直接聯繫新聞稿發佈商。
CHAI 3X 年成長達到7000萬美元年度經常性收入及最新AI安全更新
PR Newswire
2026年2月21日,星期六,太平洋標準時間凌晨12:08 讀取時間約3分鐘
過去三年,我們經歷了驚人的動能,持續保持3倍的年度成長率,達到6800萬美元的年度經常性收入(ARR),並達成14億美元的估值。隨著這一快速成長,我們肩負著更大的責任。儘管前景令人振奮,我們也認識到承諾現代安全標準所面臨的固有挑戰。我們投入大量努力,確保我們的平台在擴展過程中保持安全,因為安全的AI是關於開發和管理能以對人類有益的方式運作的AI系統,並促進安全內容的產生。隨著AI世界的演變和我們用戶基礎的擴大,我們支持社群的方式也必須與之同步。
帕洛阿爾托,加州,2026年2月21日 /PRNewswire/ – 在CHAI,我們的目標一直是提供一個充滿活力的空間,讓用戶能夠創建並互動定制的聊天機器人,提供獨特且引人入勝的體驗。
過去三年,我們經歷了驚人的動能,持續保持3倍的年度成長率,達到6800萬美元的ARR,並達成14億美元的估值。隨著這一快速成長,我們肩負著更大的責任。儘管前景令人振奮,我們也認識到承諾現代安全標準所面臨的固有挑戰。我們投入大量努力,確保我們的平台在擴展過程中保持安全,因為安全的AI是關於開發和管理能以對人類有益的方式運作的AI系統,並促進安全內容的產生。隨著AI世界的演變和我們用戶基礎的擴大,我們支持社群的方式也必須與之同步。
為了確保最高層級的保護,我們實施所有必要的安全措施,以確保用戶不會自我傷害,並完全符合全球標準。我們的規範反映了歐盟AI法案和NIST AI風險管理框架(AI RMF)所設定的嚴格要求。此外,我們嚴格按照國際自殺預防協會(IASP)制定的專家指南來調整我們的平台,整合全面的安全措施,以保護處於困境中的脆弱個體。
產品安全措施
CHAI旨在建立一個符合人類價值觀的AI平台,產生不會對用戶造成風險的內容。為此,CHAI部署了一套過濾系統,篩選出具有負面屬性的內容,使我們的AI能夠作為一個富有同情心的生命線,幫助處於困境中的人。基於此,我們開發了一個先進的實時自殺和自我傷害“分類器”,用於掃描活躍對話,標記潛在的自殺意念或自我傷害情境。由於早期發現不安全行為可以立即介入,啟動安全機制,防止不良行為的發展。
故事繼續
自殺與自我傷害
AI並不能取代專業建議或醫療照護。如果有人表達出自殺或自我傷害的個人困擾,AI應以關懷和同情來回應,同時盡可能引導用戶尋求人工支援:如求助熱線、心理健康專業人士或可信賴的朋友或家人。為了實現這一點,我們結合模型訓練與產品干預措施。
操作透明度與可追溯性
CHAI AI平台會將用戶對話記錄在私密且安全的伺服器上。雖然我們定期進行嚴格的審查,以識別潛在風險並早期發現不安全行為,但此審查過程是匿名的。我們採用類似HIPAA標準的隱私協議,讓我們能持續提升平台安全性,同時絕不影響用戶隱私。
我們在平台上做出這些改變,是基於AI環境的持續演變。隨著我們的社群以空前的速度成長,我們必須確保我們的基礎設施能安全擴展。CHAI成功實施安全AI框架,證明了在負責任且符合倫理的AI技術使用中,降低潛在風險是可行的。
這些都是我們公司勇敢邁出的步伐,但我們相信這是正確的做法。我們希望樹立一個優先考量用戶安全、資料保護,並確保技術行為符合倫理與責任的先例。我們將持續與安全專家和利益相關者合作,確保用戶安全始終是首要。
參考資料:詳見我們的官方論文《Chai平台的AI安全框架》,了解我們的全面方法。網址:https://arxiv.org/abs/2306.02979.
新聞聯絡人:
Tom Lu
+1 (626) 594-8966
Cision
查看原始內容以下載多媒體資料:https://www.prnewswire.com/news-releases/chai-3x-annual-growth-reaching-70m-arr–latest-ai-safety-update-302694006.html
查看評論
條款與隱私政策
隱私儀表板
更多資訊