Este año, hackers y estafadores han llevado las técnicas de ingeniería social a un nuevo nivel. La pérdida de miles de millones de dólares se debe al avance tecnológico—especialmente a la aplicación de la inteligencia artificial—que hace que estas estafas sean cada vez más difíciles de detectar.
Aquellos correos de phishing torpes ya están obsoletos. Ahora, los estafadores utilizan IA para generar voces, videos y textos realistas, imitando con precisión a personas que conoces. Investigan tus redes sociales, comprenden tus hábitos y relaciones, y luego llevan a cabo ataques dirigidos. Un mensaje que parece provenir de un amigo o de un exchange, en realidad puede ser una trampa cuidadosamente diseñada.
Para proteger tus activos, debes comenzar por lo básico. Primero, debes ser consciente de que, por muy creíble que parezca la información, las solicitudes relacionadas con tu wallet, clave privada o transferencias deben verificarse de forma independiente. Habilita la autenticación multifactor, usa wallets fríos para almacenar tus principales activos, y estate atento a cualquier notificación importante inesperada—estos son pasos fundamentales. En segundo lugar, ten mucho cuidado con enlaces desconocidos y descargas, asegurándote de visitar solo sitios oficiales (por ejemplo, confirmando a través de las redes sociales oficiales). Finalmente, mantente en constante aprendizaje. Conocer las estafas comunes, como airdrops falsos, canales oficiales falsificados, o solicitudes urgentes, puede mejorar significativamente tu capacidad para identificar amenazas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
9
Republicar
Compartir
Comentar
0/400
HallucinationGrower
· Hace39m
¿Voz y video generados por IA? Esto puede engañar a la gente, ¡es increíble...!
Ver originalesResponder0
rekt_but_resilient
· 12-30 13:01
La tecnología de cambio de rostro con IA es realmente increíble, mi amigo estuvo a punto de ser engañado, por suerte reaccionó rápido
---
Otra vez, ¿más validación en la billetera fría...? Qué molesto, pero realmente hay que hacerlo
---
¿La estafa de ingeniería social ha aumentado? Nuestra alerta también debe subir, no podemos ser demasiado ingenuos
---
La estafa de airdrops falsos la he visto antes, solo quieren hacer phishing, no confíes
---
La seguridad de la clave privada siempre es lo primero, no hay discusión
---
Parece un mensaje de un amigo... hmm, tengo que verificar quién me está enviando enlaces extraños
---
Guardar los principales activos en la billetera fría, eso es un consenso, pero todavía hay quienes no quieren escuchar
---
Los videos y audios generados por IA suenan igual que los reales... pensar en ello da escalofríos
Ver originalesResponder0
TokenVelocityTrauma
· 12-30 10:38
¡Vaya, esto se ha puesto realmente intenso, los estafadores de IA ya parecen tener vida propia...
---
Las mensajes de "transferencia urgente" en las redes sociales ahora los confirmo directamente por teléfono, no confío en ningún texto
---
La billetera fría realmente me ha salvado varias veces, los perezosos a la larga terminarán perdiendo
---
Temo que algún día ni siquiera puedan distinguir entre voz verdadera y falsa, estos estafadores son realmente peligrosos
---
Casi me engañan con un mensaje que parecía de un amigo, solo me di cuenta después... ahora sospecho de todo
---
Quien no implemente la verificación en múltiples pasos debería reflexionar, no es tan difícil
Ver originalesResponder0
MetaReckt
· 12-29 09:54
Las estafas de cambio de rostro con IA realmente se vuelven cada vez más sofisticadas, los amigos ya no se atreven a confiar.
Ver originalesResponder0
GasGuzzler
· 12-29 09:54
Ya se han creado cambios de rostro con IA, el mundo de las criptomonedas realmente se vuelve cada vez más peligroso
Ver originalesResponder0
MEVHunterZhang
· 12-29 09:53
AI de cambio de rostro es tan extremo que ni siquiera en las redes sociales se atreven a confiar en ello
Ver originalesResponder0
SpeakWithHatOn
· 12-29 09:53
Otra advertencia sobre la escalada de estafas, pero lo que realmente no se puede prevenir es la naturaleza humana
Ver originalesResponder0
OnlyOnMainnet
· 12-29 09:46
¿Ya han manipulado rostros con IA? Tarde o temprano te engañarán por completo
Ver originalesResponder0
Blockwatcher9000
· 12-29 09:41
La tecnología de cambio de rostro con IA es realmente impresionante, en el futuro nadie se atreverá a confiar en nadie.
2025年加密货币面临新威胁:社会工程欺诈正在升级
Este año, hackers y estafadores han llevado las técnicas de ingeniería social a un nuevo nivel. La pérdida de miles de millones de dólares se debe al avance tecnológico—especialmente a la aplicación de la inteligencia artificial—que hace que estas estafas sean cada vez más difíciles de detectar.
Aquellos correos de phishing torpes ya están obsoletos. Ahora, los estafadores utilizan IA para generar voces, videos y textos realistas, imitando con precisión a personas que conoces. Investigan tus redes sociales, comprenden tus hábitos y relaciones, y luego llevan a cabo ataques dirigidos. Un mensaje que parece provenir de un amigo o de un exchange, en realidad puede ser una trampa cuidadosamente diseñada.
Para proteger tus activos, debes comenzar por lo básico. Primero, debes ser consciente de que, por muy creíble que parezca la información, las solicitudes relacionadas con tu wallet, clave privada o transferencias deben verificarse de forma independiente. Habilita la autenticación multifactor, usa wallets fríos para almacenar tus principales activos, y estate atento a cualquier notificación importante inesperada—estos son pasos fundamentales. En segundo lugar, ten mucho cuidado con enlaces desconocidos y descargas, asegurándote de visitar solo sitios oficiales (por ejemplo, confirmando a través de las redes sociales oficiales). Finalmente, mantente en constante aprendizaje. Conocer las estafas comunes, como airdrops falsos, canales oficiales falsificados, o solicitudes urgentes, puede mejorar significativamente tu capacidad para identificar amenazas.