Cointelegraph
Martin Young
Escrito por Martin Young,Redactor de plantilla
Felix Ng
Revisado por Felix Ng,Editor de plantilla

Unos investigadores descubren routers con agentes de IA maliciosos capaces de robar criptomonedas

Según advierten investigadores en un nuevo estudio de seguridad, algunos enrutadores de API de IA pueden robar claves privadas de criptomonedas e inyectar código malicioso.

Unos investigadores descubren routers con agentes de IA maliciosos capaces de robar criptomonedas
Noticias

Investigadores de la Universidad de California han descubierto que algunos enrutadores de modelos de lenguaje grandes (LLM) de inteligencia artificial de terceros pueden presentar vulnerabilidades de seguridad que pueden dar lugar al robo de criptomonedas.

Un artículo que analiza los ataques maliciosos de intermediarios en la cadena de suministro de los LLM, publicado el jueves por los investigadores, reveló cuatro vectores de ataque, entre los que se incluyen la inyección de código malicioso y la extracción de credenciales.

"26 routers LLM están inyectando en secreto llamadas a herramientas maliciosas y robando credenciales", afirmó el coautor del artículo, Chaofan Shou, en X.

Los agentes LLM redirigen cada vez más las solicitudes a través de intermediarios de API de terceros o routers que agregan el acceso a proveedores como OpenAI, Anthropic y Google. Sin embargo, estos routers interrumpen las conexiones TLS (Transport Layer Security) de Internet y tienen acceso completo en texto plano a todos los mensajes.

Esto significa que los desarrolladores que utilizan agentes de codificación de IA, como Claude Code, para trabajar en contratos inteligentes o carteras, podrían estar pasando claves privadas, frases semilla y datos confidenciales a través de una infraestructura de enrutadores que no ha sido revisada ni protegida.

Cadena de suministro de enrutadores LLM de múltiples saltos. Fuente: arXiv.org

Usan como señuelo ETH robado de un criptomonedero  

Los investigadores probaron 28 enrutadores de pago y 400 enrutadores gratuitos recopilados de comunidades públicas.

Sus hallazgos fueron sorprendentes: nueve enrutadores inyectaban activamente código malicioso, dos implementaban desencadenantes de evasión adaptativos, 17 accedían a credenciales de Amazon Web Services propiedad de los investigadores y uno vaciaba Ether (ETH) de una clave privada propiedad de un investigador.

Los investigadores precargaron "claves señuelo" en monederos de Ethereum con saldos nominales e informaron que el valor perdido en el experimento fue inferior a 50 dólares, pero no se proporcionaron más detalles, como el hash de la transacción.

Los autores también llevaron a cabo dos "estudios de envenenamiento" que demostraron que incluso los routers benignos se vuelven peligrosos una vez que reutilizan credenciales filtradas a través de relés débiles.

Es difícil saber si los routers son maliciosos

Los investigadores afirmaron que no era fácil detectar cuándo un router era malicioso.

“La frontera entre el ‘manejo de credenciales’ y el 'robo de credenciales' es invisible para el cliente, ya que los routers leen los secretos en texto plano como parte del reenvío normal.” 

Otro hallazgo inquietante fue lo que los investigadores denominaron "modo YOLO". Se trata de una configuración presente en muchos marcos de agentes de IA en la que el agente ejecuta comandos automáticamente sin pedir al usuario que confirme cada uno de ellos.

Los investigadores descubrieron que routers que antes eran legítimos pueden convertirse silenciosamente en armas sin que el operador se dé cuenta, mientras que los routers gratuitos pueden estar robando credenciales utilizando como señuelo un acceso barato a la API.

“Los routers de API de LLM se sitúan en un límite de confianza crítico que el ecosistema trata actualmente como un transporte transparente.” 

Los investigadores recomendaron que los desarrolladores que utilizan agentes de IA para programar refuercen las defensas del lado del cliente, sugiriendo que nunca se permita que las claves privadas o las frases semilla transiten por una sesión de agente de IA.

La solución a largo plazo consiste en que las empresas de IA firmen criptográficamente sus respuestas, de modo que las instrucciones que ejecuta un agente puedan verificarse matemáticamente como procedentes del modelo real.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Cointelegraph está comprometido con un periodismo independiente y transparente. Este artículo de noticias se elabora de conformidad con la Política Editorial de Cointelegraph y tiene como objetivo proporcionar información precisa y oportuna. Se recomienda a los lectores verificar la información de manera independiente. Lea nuestra Política Editorial https://es.cointelegraph.com/editorial-policy