#CriptoCrimen #InteligenciaArtificial #Elliptic #Deepfakes #EstafasCripto #Criptomonedas #Ciberseguridad #Tecnología
Elliptic, una firma de análisis blockchain, ha publicado recientemente un informe detallado titulado “El Estado del Crimen Cripto Habilitado por Inteligencia Artificial: Tipologías Emergentes y Tendencias a Vigilar”. Este informe arroja luz sobre el preocupante aumento de la inteligencia artificial (IA) para facilitar diversos crímenes cripto. Aunque la IA ha sido un gran avance para muchas industrias, su mal uso en el ámbito cripto se está convirtiendo en una preocupación significativa.
El informe de Elliptic identifica cinco tipologías principales de cómo se está utilizando la IA en los crímenes cripto. Uno de los más notorios es el uso de deepfakes generados por IA. A menudo, los estafadores utilizan imágenes o videos falsos de figuras públicas para crear estafas convincentes. Estos deepfakes se distribuyen en plataformas de redes sociales como TikTok y X.com, engañando a inversores desprevenidos. Para combatir estas estafas, Elliptic aconseja estar atentos a señales específicas de alerta.
Otro delito prevalente facilitado por la IA es la creación de tokens de estafa. En muchas blockchains, es relativamente fácil crear un nuevo token, lo que los estafadores explotan para generar hype e inflar artificialmente los precios antes de ejecutar un esquema de “rug-pull” o “pump-and-dump”. Tokens con nombres que hacen referencia a la IA, como “GPT”, han sido objetivos especialmente populares. La investigación de Elliptic reveló numerosas estafas de salida que involucran tales tokens, enfatizando la necesidad de vigilancia en las inversiones en tokens.
Los ciberdelincuentes también han adoptado modelos de lenguaje grandes como ChatGPT para ayudar en sus actividades ilícitas. Estas herramientas de IA pueden generar nuevo código o auditar código existente, que puede ser mal utilizado para identificar y explotar vulnerabilidades. A pesar de que empresas como Microsoft y OpenAI han reportado un uso malicioso por parte de actores estatales de Rusia y Corea del Norte, la tecnología aún no ha alcanzado un punto en el que pueda facilitar consistentemente ciberataques exitosos. Sin embargo, la aparición de herramientas de IA poco éticas como HackedGPT y WormGPT en foros de la dark web plantea una amenaza significativa, ofreciendo servicios para phishing, creación de malware y hacking.
Comments are closed.