La capacidad de IA detectar backdoors en software compilado es uno de los desafíos más relevantes en ciberseguridad actual. El proyecto BinaryAudit, desarrollado por el equipo de Quesma, pone a prueba si los modelos de lenguaje modernos pueden identificar puertas traseras ocultas en binarios de aproximadamente 40MB sin acceso al código fuente original.
El experimento combina agentes de inteligencia artificial con Ghidra, herramienta profesional de ingeniería inversa desarrollada originalmente por la NSA, para analizar código desensamblado.
El experimento: backdoors ocultos en binarios compilados
Para evaluar si la IA puede detectar backdoors, el equipo diseñó un benchmark controlado:
- Seleccionaron proyectos open-source.
- Inyectaron vulnerabilidades deliberadas.
- Compilaron binarios sin símbolos de depuración.
- Entregaron los ejecutables a modelos como Claude y Gemini.
- Midieron verdaderos positivos, falsos positivos y falsos negativos.
El objetivo era simular condiciones reales donde no existe acceso al código fuente ni documentación interna.
Resultados: ¿puede la IA detectar backdoors?
Los resultados muestran un panorama mixto.
Éxitos parciales
La IA logró detectar:
- Patrones de ejecución anómalos.
- Funciones sospechosas.
- Llamadas ocultas con comportamiento irregular.
- Backdoors que seguían patrones conocidos.
La combinación IA + Ghidra permitió analizar flujo de ejecución y comparar con patrones legítimos.
Limitaciones críticas
Sin embargo, el experimento reveló obstáculos importantes al intentar que la IA detecte backdoors de forma totalmente automatizada:
| Problema | Impacto |
|---|---|
| Falsos negativos | Vulnerabilidades sofisticadas no detectadas |
| Falsos positivos | Código legítimo marcado como sospechoso |
| Escalabilidad | Binarios grandes exceden contexto eficiente |
| Ofuscación | Técnicas avanzadas evaden análisis automatizado |
Los modelos actuales aún enfrentan limitaciones de contexto y razonamiento profundo en ingeniería inversa compleja.
Aplicaciones prácticas para startups
Aunque la IA no reemplaza a expertos en reversing, sí puede aportar valor inmediato.
1️⃣ Auditoría preliminar acelerada
Permite realizar un primer filtro automatizado antes de revisión humana, reduciendo tiempo de análisis inicial.
2️⃣ Due diligence técnico
En adquisiciones o integración de software de terceros, puede identificar áreas de riesgo temprano.
3️⃣ Formación en seguridad
Sirve como asistente educativo para desarrolladores que aprenden análisis binario y ciberseguridad.
IA en seguridad informática: el futuro
El experimento BinaryAudit sugiere que la IA detectar backdoors será cada vez más viable conforme mejoren:
- Modelos especializados en código de bajo nivel.
- Integración profunda con herramientas como Ghidra.
- Pipelines CI/CD con auditoría automatizada.
- Entrenamiento en datasets específicos de vulnerabilidades.
Es probable que veamos sistemas híbridos donde:
- La IA realiza detección inicial.
- Expertos humanos validan hallazgos.
- El proceso se integra en desarrollo continuo.

La capacidad de la IA detectar backdoors en binarios aún no reemplaza la experiencia humana en ingeniería inversa, pero ya ofrece valor como herramienta de asistencia.
BinaryAudit demuestra que la combinación de modelos de lenguaje y herramientas profesionales como Ghidra puede acelerar auditorías, democratizar acceso a análisis de seguridad y fortalecer procesos de revisión técnica.
La clave no es sustituir expertos, sino amplificar su capacidad.
¡Tu turno de jugar!
Elige tu reacción o deja tu comentario, en Old School Club tu voz cuenta.