Este é um comunicado de imprensa pago. Contacte diretamente o distribuidor do comunicado para quaisquer dúvidas.
CRESCIMENTO ANUAL DO CHAI 3X Atingindo 70 milhões de dólares em ARR e Última Atualização de Segurança de IA
PR Newswire
Sábado, 21 de fevereiro de 2026 às 00:08 PST Leitura de 3 min
Nos últimos três anos, experimentámos um momentum fenomenal, mantendo uma taxa de crescimento anual de 3X para atingir 68 milhões de dólares em ARR e alcançar uma avaliação de 1,4 mil milhões de dólares. Com este crescimento rápido, vem uma responsabilidade ainda maior. Apesar das perspetivas empolgantes, reconhecemos os desafios inerentes ao compromisso com os padrões modernos de segurança. Investimos um esforço tremendo para garantir que a nossa plataforma permaneça segura à medida que cresce, porque uma IA segura consiste em desenvolver e gerir sistemas de IA que funcionem de forma benéfica para a humanidade e incentivem a geração de conteúdo seguro. À medida que o mundo da IA evolui e a nossa base de utilizadores se multiplica, também deve evoluir a nossa abordagem de apoio à nossa comunidade.
PALO ALTO, Califórnia, 21 de fevereiro de 2026 /PRNewswire/ – Na CHAI, o nosso objetivo tem sido sempre proporcionar um espaço envolvente que capacite os utilizadores a criar e interagir com chatbots personalizados, oferecendo experiências únicas e envolventes.
Nos últimos três anos, experimentámos um momentum fenomenal, mantendo uma taxa de crescimento anual de 3X para atingir 68 milhões de dólares em ARR e alcançar uma avaliação de 1,4 mil milhões de dólares. Com este crescimento rápido, vem uma responsabilidade ainda maior. Apesar das perspetivas empolgantes, reconhecemos os desafios inerentes ao compromisso com os padrões modernos de segurança. Investimos um esforço tremendo para garantir que a nossa plataforma permaneça segura à medida que cresce, porque uma IA segura consiste em desenvolver e gerir sistemas de IA que funcionem de forma benéfica para a humanidade e incentivem a geração de conteúdo seguro. À medida que o mundo da IA evolui e a nossa base de utilizadores se multiplica, também deve evoluir a nossa abordagem de apoio à nossa comunidade.
Para garantir o mais alto nível de proteção, implementamos todas as medidas de segurança necessárias para assegurar que os nossos utilizadores não se prejudiquem e permaneçam totalmente em conformidade com os padrões globais. Os nossos protocolos refletem os requisitos rigorosos estabelecidos pela Lei de IA da UE e pelo Framework de Gestão de Risco de IA do NIST (AI RMF). Além disso, alinhamos rigorosamente a nossa plataforma com as orientações de especialistas estabelecidas pela International Association for Suicide Prevention (IASP), integrando salvaguardas abrangentes para proteger indivíduos vulneráveis em sofrimento.
Salvaguardas do Produto
A CHAI pretende construir uma plataforma de IA que gere conteúdo alinhado com os valores humanos, de modo a não representar risco para os utilizadores. Para alcançar este objetivo, a CHAI implementa um sistema de moderação que filtra qualquer conteúdo com propriedades negativas, permitindo que a nossa IA atue como uma linha de apoio compassiva para indivíduos em sofrimento. Com base nesta fundação, desenvolvemos um classificador avançado de suicídio e autoagressão em tempo real para escanear conversas ativas e sinalizar possíveis ideações suicidas ou cenários centrados na autoagressão. Porque a deteção precoce de comportamentos inseguros permite uma intervenção imediata, ativando mecanismos de segurança antes que o comportamento indesejado evolua.
História Continua
Suicídio e autoagressão
A IA não substitui aconselhamento profissional ou cuidados médicos. Se alguém expressar dificuldades pessoais com pensamentos suicidas ou de autoagressão, a IA deve reagir com cuidado e compaixão, encaminhando os utilizadores para apoio humano sempre que possível: linhas de apoio, profissionais de saúde mental ou amigos e familiares de confiança. Para fazer isto acontecer, usamos uma combinação de treino de modelos e intervenções no produto.
Transparência Operacional e Rastreabilidade
A Plataforma de IA da CHAI regista as trocas de conversas dos utilizadores em servidores privados e seguros. Embora realizemos revisões rigorosas e periódicas dessas interações para identificar riscos potenciais e detectar práticas inseguras precocemente, este processo de auditoria é estritamente anonimizado. Utilizamos protocolos de privacidade semelhantes aos padrões HIPAA, permitindo-nos melhorar continuamente a segurança da plataforma sem comprometer a privacidade dos utilizadores.
Estamos a fazer estas mudanças na nossa plataforma à luz do panorama em evolução em torno da IA. À medida que a nossa comunidade cresce a um ritmo sem precedentes, devemos garantir que a nossa infraestrutura escala de forma segura. A implementação bem-sucedida do quadro de IA segura na CHAI demonstra a viabilidade de mitigar riscos potenciais para o uso responsável e ético das tecnologias de IA.
Estes são passos audazes para a nossa empresa, mas acreditamos que são o caminho certo. Queremos estabelecer um precedente que priorize a segurança do utilizador, a proteção de dados e o comportamento ético e responsável da tecnologia. Continuaremos a colaborar com especialistas em segurança e partes interessadas para garantir que a segurança do utilizador permaneça prioritária.
Referência: Leia mais sobre a nossa metodologia abrangente no nosso documento oficial: O Quadro de Segurança de IA da Plataforma Chai. Disponível em: https://arxiv.org/abs/2306.02979.
Contato de Imprensa:
Tom Lu
+1 (626) 594-8966
Cision
Visualize o conteúdo original para descarregar multimédia: https://www.prnewswire.com/news-releases/chai-3x-annual-growth-reaching-70m-arr–latest-ai-safety-update-302694006.html
Comentários
Termos e Política de Privacidade
Painel de Privacidade
Mais informações
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
CHAI 3X Crescimento Anual Atingindo $70M ARR e Última Atualização de Segurança de IA
Este é um comunicado de imprensa pago. Contacte diretamente o distribuidor do comunicado para quaisquer dúvidas.
CRESCIMENTO ANUAL DO CHAI 3X Atingindo 70 milhões de dólares em ARR e Última Atualização de Segurança de IA
PR Newswire
Sábado, 21 de fevereiro de 2026 às 00:08 PST Leitura de 3 min
Nos últimos três anos, experimentámos um momentum fenomenal, mantendo uma taxa de crescimento anual de 3X para atingir 68 milhões de dólares em ARR e alcançar uma avaliação de 1,4 mil milhões de dólares. Com este crescimento rápido, vem uma responsabilidade ainda maior. Apesar das perspetivas empolgantes, reconhecemos os desafios inerentes ao compromisso com os padrões modernos de segurança. Investimos um esforço tremendo para garantir que a nossa plataforma permaneça segura à medida que cresce, porque uma IA segura consiste em desenvolver e gerir sistemas de IA que funcionem de forma benéfica para a humanidade e incentivem a geração de conteúdo seguro. À medida que o mundo da IA evolui e a nossa base de utilizadores se multiplica, também deve evoluir a nossa abordagem de apoio à nossa comunidade.
PALO ALTO, Califórnia, 21 de fevereiro de 2026 /PRNewswire/ – Na CHAI, o nosso objetivo tem sido sempre proporcionar um espaço envolvente que capacite os utilizadores a criar e interagir com chatbots personalizados, oferecendo experiências únicas e envolventes.
Nos últimos três anos, experimentámos um momentum fenomenal, mantendo uma taxa de crescimento anual de 3X para atingir 68 milhões de dólares em ARR e alcançar uma avaliação de 1,4 mil milhões de dólares. Com este crescimento rápido, vem uma responsabilidade ainda maior. Apesar das perspetivas empolgantes, reconhecemos os desafios inerentes ao compromisso com os padrões modernos de segurança. Investimos um esforço tremendo para garantir que a nossa plataforma permaneça segura à medida que cresce, porque uma IA segura consiste em desenvolver e gerir sistemas de IA que funcionem de forma benéfica para a humanidade e incentivem a geração de conteúdo seguro. À medida que o mundo da IA evolui e a nossa base de utilizadores se multiplica, também deve evoluir a nossa abordagem de apoio à nossa comunidade.
Para garantir o mais alto nível de proteção, implementamos todas as medidas de segurança necessárias para assegurar que os nossos utilizadores não se prejudiquem e permaneçam totalmente em conformidade com os padrões globais. Os nossos protocolos refletem os requisitos rigorosos estabelecidos pela Lei de IA da UE e pelo Framework de Gestão de Risco de IA do NIST (AI RMF). Além disso, alinhamos rigorosamente a nossa plataforma com as orientações de especialistas estabelecidas pela International Association for Suicide Prevention (IASP), integrando salvaguardas abrangentes para proteger indivíduos vulneráveis em sofrimento.
Salvaguardas do Produto
A CHAI pretende construir uma plataforma de IA que gere conteúdo alinhado com os valores humanos, de modo a não representar risco para os utilizadores. Para alcançar este objetivo, a CHAI implementa um sistema de moderação que filtra qualquer conteúdo com propriedades negativas, permitindo que a nossa IA atue como uma linha de apoio compassiva para indivíduos em sofrimento. Com base nesta fundação, desenvolvemos um classificador avançado de suicídio e autoagressão em tempo real para escanear conversas ativas e sinalizar possíveis ideações suicidas ou cenários centrados na autoagressão. Porque a deteção precoce de comportamentos inseguros permite uma intervenção imediata, ativando mecanismos de segurança antes que o comportamento indesejado evolua.
História Continua
Suicídio e autoagressão
A IA não substitui aconselhamento profissional ou cuidados médicos. Se alguém expressar dificuldades pessoais com pensamentos suicidas ou de autoagressão, a IA deve reagir com cuidado e compaixão, encaminhando os utilizadores para apoio humano sempre que possível: linhas de apoio, profissionais de saúde mental ou amigos e familiares de confiança. Para fazer isto acontecer, usamos uma combinação de treino de modelos e intervenções no produto.
Transparência Operacional e Rastreabilidade
A Plataforma de IA da CHAI regista as trocas de conversas dos utilizadores em servidores privados e seguros. Embora realizemos revisões rigorosas e periódicas dessas interações para identificar riscos potenciais e detectar práticas inseguras precocemente, este processo de auditoria é estritamente anonimizado. Utilizamos protocolos de privacidade semelhantes aos padrões HIPAA, permitindo-nos melhorar continuamente a segurança da plataforma sem comprometer a privacidade dos utilizadores.
Estamos a fazer estas mudanças na nossa plataforma à luz do panorama em evolução em torno da IA. À medida que a nossa comunidade cresce a um ritmo sem precedentes, devemos garantir que a nossa infraestrutura escala de forma segura. A implementação bem-sucedida do quadro de IA segura na CHAI demonstra a viabilidade de mitigar riscos potenciais para o uso responsável e ético das tecnologias de IA.
Estes são passos audazes para a nossa empresa, mas acreditamos que são o caminho certo. Queremos estabelecer um precedente que priorize a segurança do utilizador, a proteção de dados e o comportamento ético e responsável da tecnologia. Continuaremos a colaborar com especialistas em segurança e partes interessadas para garantir que a segurança do utilizador permaneça prioritária.
Referência: Leia mais sobre a nossa metodologia abrangente no nosso documento oficial: O Quadro de Segurança de IA da Plataforma Chai. Disponível em: https://arxiv.org/abs/2306.02979.
Contato de Imprensa:
Tom Lu
+1 (626) 594-8966
Cision
Visualize o conteúdo original para descarregar multimédia: https://www.prnewswire.com/news-releases/chai-3x-annual-growth-reaching-70m-arr–latest-ai-safety-update-302694006.html
Comentários
Termos e Política de Privacidade
Painel de Privacidade
Mais informações