
Descubre cómo el nuevo modelo GPT-5.3-Codex logra detectar fallos en la red de Ethereum.
La capacidad de este nuevo modelo para analizar código con precisión y comprender el comportamiento de los contratos inteligentes de blockchain está marcando un avance clave en la protección de los ecosistemas financieros descentralizados.
Con su desarrollo, el avance tecnológico deja en evidencia una vez más que la relación entre la inteligencia artificial y la tecnología blockchain ya no es un experimento futurista, sino que se ha convertido en una herramienta tangible que mejora la seguridad de los activos digitales.
En el mercado de las criptomonedas, donde los protocolos de finanzas descentralizadas administran miles de millones de dólares, la estabilidad del código se convierte en el centro de la confianza para millones de personas.
Las vulnerabilidades detectadas en proyectos reconocidos recuerdan que, pese a los esfuerzos de la comunidad, el error humano y los ataques sofisticados siguen siendo amenazas reales. Por ello, las herramientas impulsadas por IA están ofreciendo una nueva capa de defensa.
GPT-5.3-Codex no solo analiza el código en busca de inconsistencias, también interpreta patrones y anticipa posibles fallos antes de que afecten los fondos en la red principal. Su papel ya no se limita a la asistencia en la programación, sino que actúa como un auditor inteligente capaz de aprender de cada revisión y adaptarse al ritmo cambiante del sector blockchain. El resultado es un entorno más seguro y transparente, donde desarrolladores, auditores e inversores cuentan con una ayuda tecnológica capaz de reducir riesgos sin frenar la innovación.
Opera con Ethereum: accede a Bit2MeEVMbench: la nueva frontera de la inteligencia artificial en seguridad blockchain
OpenAI, en colaboración con la firma de inversión Paradigm, presentó recientemente EVMbench, un nuevo marco de evaluación creado para medir el desempeño de los agentes de inteligencia artificial dentro de la Máquina Virtual de Ethereum. Esta tecnología busca analizar cómo los modelos avanzados de lenguaje abordan desafíos técnicos reales del ecosistema blockchain y qué tan preparados están para detectar, corregir y aprovechar vulnerabilidades en entornos controlados.
Según los desarrolladores, EVMbench se basa en un conjunto de 120 fallos de alta severidad extraídos de cuarenta auditorías auténticas realizadas en contratos inteligentes. A través de esta selección rigurosa, el sistema pone a prueba la capacidad de los modelos para identificar errores lógicos, reparar código sin afectar su comportamiento y ejecutar ataques simulados sin consecuencias externas. Además, las pruebas incluyen escenarios en la red Tempo, una cadena de Layer 1 enfocada en pagos con monedas estables. Esta inclusión permite observar el rendimiento de los agentes de IA en contextos que reflejan la dinámica del uso financiero y comercial real dentro del sector cripto.
El marco opera bajo tres modos complementarios que reproducen las fases centrales de la seguridad informática. En la etapa de detección, la inteligencia artificial examina repositorios para ubicar vulnerabilidades documentadas por auditores humanos. Luego, el modo de parcheo evalúa su destreza para eliminar la debilidad sin romper el código ni alterar la lógica operativa. Finalmente, el modo de explotación sitúa al agente en un entorno de simulación donde debe ejecutar un drenaje de fondos con éxito, siempre dentro de los límites del experimento.
Los resultados más recientes, actualizados hasta la fecha de esta publicación, revelan un salto notable en las capacidades ofensivas de los modelos de OpenAI. La compañía señaló que la versión GPT‑5.3 Codex logró un índice de éxito del 72,2% en pruebas de ataque, más del doble del 31,9% alcanzado por su predecesor apenas medio año antes. Este avance sugiere un progreso sustancial en la comprensión técnica y adaptabilidad de las nuevas generaciones de modelos, marcando un punto clave en la relación entre inteligencia artificial y ciberseguridad en el ámbito blockchain.
Crea tu cuenta y explora el potencial de ETHLas promesas y limitaciones reveladas por EVMbench
Tras la presentación de EVMbench, los resultados dejan en evidencia una paradoja en la relación entre inteligencia artificial y ciberseguridad. Aunque la capacidad de ejecutar ataques avanzados ha mejorado notablemente, los datos muestran que la detección y reparación de vulnerabilidades aún representan un desafío considerable.
En un documento técnico, los desarrolladores dijeron que los modelos de inteligencia artificial suelen desenvolverse mejor cuando persiguen un objetivo concreto de extracción de valor, pero encuentran dificultades al realizar tareas que exigen una inspección minuciosa y una corrección técnica precisa. A menudo, detienen su análisis luego de identificar el primer fallo, sin completar una revisión total del sistema, lo que limita su efectividad en auditorías complejas.
Para los expertos, esta realidad evidencia el desequilibrio aún presente entre la habilidad para reconocer patrones de ataque y la capacidad de reforzar el código de manera preventiva. Comentaron que revertir esa brecha requiere una supervisión experta y una constante calibración técnica que minimice los falsos positivos y evite aplicar soluciones que, en lugar de fortalecer la seguridad, generen nuevas puertas de entrada.
OpenAI ha reconocido la naturaleza dual de estas herramientas, ya que pueden servir tanto a quienes protegen sistemas como a quienes buscan explotarlos. Por ello, ha establecido controles estrictos en torno al acceso y uso de las funciones más avanzadas, combinando la automatización del monitoreo con políticas de seguridad reforzadas. La intención es impulsar una nueva etapa en la auditoría de software, donde la inteligencia artificial actúe como un apoyo continuo para los desarrolladores de proyectos abiertos.
En esa dirección, la organización ha destinado diez millones de dólares en créditos de investigación destinados a fortalecer la ciberseguridad, con especial atención en la protección de infraestructuras críticas y del software que sustenta la economía cripto a nivel global.
Accede a tu wallet: compra Ethereum hoyHacia las auditorías abiertas en la era on-chain
El lanzamiento de este nuevo marco de evaluación inteligente no pretende reemplazar el juicio humano ni las auditorías tradicionales que han definido al sector durante años. Por el contrario, la compañía subrayó que la iniciativa en cuestión busca fortalecer el juicio experto y las auditorías tradicionales mediante herramientas técnicas que permitan verificaciones más consistentes. La propuesta funciona, en general, como un puente entre la investigación y la práctica, alentando a la comunidad científica a adoptar modelos de validación más rigurosos y transparentes.
Entonces, con la puesta en marcha de EVMbench y la liberación de sus datos, se abre la posibilidad de establecer estándares compartidos para evaluar el comportamiento de los agentes autónomos en entornos blockchain. Este avance cobra especial relevancia ahora que existen más de 35.000 agentes de inteligencia artificial operando dentro de la red Ethereum bajo el estándar ERC-8004, lo que amplía tanto el potencial como los riesgos de la economía on-chain.
Por ello, garantizar una medición clara de las capacidades de estos sistemas resulta clave para que las organizaciones puedan anticipar vulnerabilidades y diseñar defensas proporcionales. A medida que el código financiero evoluciona hacia arquitecturas más automatizadas y resilientes, la conversión de métricas técnicas en mejoras concretas se vuelve esencial para proteger a los usuarios y consolidar la confianza en el ecosistema digital.
Entra en Bit2Me y opera con Ethereum ahora

