Agentes de IA Autónomos y Criptoactivos: Hacia una Economía de Máquinas Descentralizada
Agentes de IA Autónomos y Criptoactivos: Hacia una Economía de Máquinas Descentralizada
BLOCKCHAIN-CRIPTOACTIVOS


AGENTES DE IA AUTÓNOMOS Y CRIPTOACTIVOS: HACIA UNA ECONOMÍA DE MÁQUINAS DESCENTRALIZADA
Análisis jurídico de la personalidad jurídica, capacidad contractual y responsabilidad civil de los agentes autónomos on-chain
La intersección entre inteligencia artificial y blockchain está generando una de las narrativas más disruptivas de 2026: agentes de IA autónomos que operan on-chain, ejecutan transacciones financieras, celebran contratos inteligentes y gestionan activos sin intervención humana. Hashdex proyecta que el mercado de IA Cripto alcanzará los 10.000 millones de dólares en 2026, impulsado por la necesidad de una capa de liquidación financiera descentralizada para sistemas autónomos.
Coinbase Ventures señala que 2026 podría ser el año decisivo para el desarrollo de smart contracts con agentes de IA que permitirán que fundadores no técnicos lancen negocios on-chain mediante generación automática de código y monitoreo de seguridad. Este artículo analiza los desafíos jurídicos fundamentales que plantea esta revolución: ¿tienen los agentes de IA personalidad jurídica? ¿pueden celebrar contratos válidos? ¿quién responde por los daños que causan? ¿cómo se aplica el RGPD a decisiones automatizadas con impacto significativo en personas físicas?
– Los agentes de IA autónomos on-chain son una innovación muy reciente. La doctrina jurídica es inexistente y la regulación aún está por definirse.]
2. INTRODUCCIÓN: LA ECONOMÍA DE MÁQUINAS DESCENTRALIZADA
Un agente de IA autónomo on-chain es un programa informático que utiliza modelos de lenguaje de gran escala (LLM) para tomar decisiones, ejecutar transacciones financieras, interactuar con smart contracts y gestionar criptoactivos sin necesidad de intervención humana continua. A diferencia de los smart contracts tradicionales, que ejecutan código predeterminado cuando se cumplen ciertas condiciones, los agentes de IA pueden adaptarse a situaciones imprevistas, aprender de sus experiencias y tomar decisiones complejas en tiempo real.
Estos agentes operan en una blockchain, poseen billeteras cripto, pueden recibir pagos, contratar servicios de otros agentes o de humanos, y ejecutar estrategias de inversión autónomas. La visión de largo plazo es una economía de máquinas descentralizada donde agentes de IA comercian entre sí, ofrecen servicios, compiten por recursos y evolucionan sin supervisión humana directa.
La AEPD publicó en enero de 2026 una guía sobre smart contracts y datos personales, señalando que cuando las decisiones automatizadas tienen un impacto significativo en personas físicas, deben cumplir los requisitos del artículo 22 del RGPD. Esta guía es el punto de partida para analizar el marco jurídico aplicable a los agentes de IA on-chain.
3. PERSONALIDAD JURÍDICA Y CAPACIDAD CONTRACTUAL
3.1 ¿PUEDEN LOS AGENTES DE IA TENER PERSONALIDAD JURÍDICA?
En el ordenamiento jurídico español, el artículo 29 del Código Civil establece que el nacimiento determina la personalidad. La persona jurídica, por su parte, se regula en el artículo 35 y siguientes, reconociendo personalidad a corporaciones, asociaciones y fundaciones de interés público y a las sociedades civiles o mercantiles. Un agente de IA no es una persona física ni encaja en ninguna de las categorías de personas jurídicas reconocidas.
La ausencia de personalidad jurídica implica que un agente de IA no puede, por sí mismo, ser titular de derechos ni obligaciones. No puede poseer bienes, celebrar contratos válidos ni ser demandado ante los tribunales. Esta conclusión no es pacífica en la doctrina europea: algunos autores han propuesto la creación de una 'personalidad electrónica' para robots y agentes autónomos, permitiéndoles ser titulares de un patrimonio específico y responder por sus actos mediante un fondo de garantía.
El Parlamento Europeo rechazó esta propuesta en su Resolución de 20 de octubre de 2020 con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial. La posición actual de la UE es que los daños causados por sistemas de IA deben atribuirse a personas físicas o jurídicas que diseñan, fabrican, operan o supervisan dichos sistemas, sin reconocer personalidad jurídica autónoma a las máquinas.
3.2 VALIDEZ DE LOS CONTRATOS CELEBRADOS POR AGENTES DE IA
El artículo 1261 del Código Civil establece que todo contrato requiere el consentimiento de los contratantes. Si un agente de IA no tiene personalidad jurídica, no puede prestar consentimiento válido. Por tanto, un contrato 'celebrado' por un agente de IA actuando por sí mismo sería nulo de pleno derecho por falta de consentimiento.
Sin embargo, si el agente de IA actúa como representante de una persona física o jurídica —por ejemplo, ejecutando instrucciones preprogramadas de su propietario— el contrato podría ser válido bajo la teoría de la representación. El artículo 1259 del Código Civil reconoce que los contratos se perfeccionan por el mero consentimiento, y puede manifestarse a través de cualquier medio, incluidos dispositivos automáticos (artículo 1262). La cuestión clave es si el agente de IA está ejecutando la voluntad previa de su propietario o si está tomando decisiones autónomas no previstas.
4. RESPONSABILIDAD CIVIL POR DAÑOS CAUSADOS POR AGENTES DE IA
4.1 RÉGIMEN DE RESPONSABILIDAD BAJO EL CÓDIGO CIVIL
El artículo 1902 del Código Civil establece el principio general de responsabilidad extracontractual: quien por acción u omisión causa daño a otro, interviniendo culpa o negligencia, está obligado a reparar el daño causado. La cuestión es: ¿quién es el responsable cuando un agente de IA autónomo causa un daño?
Si el agente de IA está bajo el control directo de una persona física o jurídica, esta persona responde por los daños conforme al artículo 1903 del Código Civil, que establece la responsabilidad del empresario por los daños causados por sus dependientes en el servicio de los ramos en que los tuvieren empleados. Sin embargo, si el agente de IA opera de forma verdaderamente autónoma —tomando decisiones no previstas por su creador— surge la pregunta de si el creador debe responder por actos imprevisibles de su creación.
La Propuesta de Directiva sobre responsabilidad por inteligencia artificial, presentada por la Comisión Europea en septiembre de 2022, establece un régimen de responsabilidad por defecto del producto para sistemas de IA de alto riesgo. Según esta propuesta, el proveedor del sistema de IA responde por los daños causados sin necesidad de probar culpa, salvo que demuestre que el daño se debe a una causa ajena. Esta Directiva aún no ha sido adoptada, pero marca la dirección futura de la regulación europea.
4.2 RESPONSABILIDAD DEL OPERADOR DE LA BLOCKCHAIN
Cuando un agente de IA opera on-chain, surge la cuestión de si la plataforma blockchain puede ser responsable por los daños causados por el agente. En blockchains descentralizadas como Ethereum, no existe un operador central que pueda ser demandado. Sin embargo, en blockchains permisionadas o consorciadas, los validadores o el consorcio pueden tener un deber de supervisión.
La jurisprudencia española sobre responsabilidad de intermediarios de internet (STJUE de 3 de octubre de 2019, Glawischnig-Piesczek) establece que los intermediarios no tienen un deber general de supervisión, pero deben actuar con diligencia cuando tienen conocimiento de contenidos ilícitos. Por analogía, los operadores de blockchains podrían tener un deber de actuación cuando tienen conocimiento efectivo de que un agente de IA está causando daños.
5. PROTECCIÓN DE DATOS Y DECISIONES AUTOMATIZADAS
El artículo 22 del RGPD establece que el interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar. Este derecho admite excepciones cuando la decisión es necesaria para la celebración o ejecución de un contrato, está autorizada por el Derecho de la Unión o de los Estados miembros, o se basa en el consentimiento explícito del interesado.
Los agentes de IA on-chain que toman decisiones con impacto significativo en personas físicas —por ejemplo, concesión o denegación de crédito, determinación de precios personalizados, selección de candidatos para empleo— deben cumplir con las garantías del artículo 22.3 del RGPD: derecho a obtener intervención humana, derecho a expresar su punto de vista y derecho a impugnar la decisión.
La AEPD señala en su guía de enero de 2026 que los smart contracts que ejecutan decisiones automatizadas con impacto significativo deben incorporar desde el diseño los requisitos del artículo 22 del RGPD. Esto implica que los agentes de IA on-chain deben diseñarse con mecanismos de intervención humana y explicabilidad de las decisiones.
6. EL MERCADO DE IA CRIPTO EN 2026
Hashdex proyecta que el mercado de IA Cripto alcanzará los 10.000 millones de dólares en 2026. Coinbase Ventures ha invertido en proyectos como Bastion (14,6 millones de dólares en septiembre de 2025), Vana (5 millones de dólares) y Mesh (agosto de 2025), todos enfocados en la infraestructura de agentes autónomos on-chain.
El caso de uso más desarrollado actualmente es la generación automática de código para smart contracts. Los fundadores no técnicos pueden describir en lenguaje natural lo que quieren construir, y el agente de IA genera el código, lo audita en busca de vulnerabilidades y lo despliega en blockchain. Esta automatización reduce barreras de entrada y acelera el desarrollo, pero también genera riesgos de seguridad si el código generado contiene errores o vulnerabilidades no detectadas.
7. CONCLUSIONES
Los agentes de IA autónomos on-chain representan una innovación transformadora que plantea desafíos jurídicos fundamentales sin precedentes. La ausencia de personalidad jurídica implica que los contratos celebrados por agentes de IA son nulos salvo que actúen como representantes de personas físicas o jurídicas. La responsabilidad civil por los daños causados recae en los creadores, operadores o supervisores del agente, conforme al régimen de responsabilidad por defecto que está desarrollándose en la propuesta de Directiva europea sobre IA.
El RGPD establece garantías estrictas para las decisiones automatizadas con impacto significativo en personas físicas, incluyendo el derecho a la intervención humana y la explicabilidad de las decisiones. Los agentes de IA on-chain deben diseñarse desde el origen con estos requisitos incorporados.
El mercado de IA Cripto crecerá significativamente en 2026, pero la regulación aún está en desarrollo. Los inversores, desarrolladores y asesores jurídicos deben estar atentos a los desarrollos normativos en la Comisión Europea, la AEPD y la CNMV.
Creado por. Gasp VD
Fecha creación: Febrero 2026.
8. REFERENCIAS
Código Civil, artículos 29, 35, 1259, 1261, 1262, 1902, 1903
Reglamento (UE) 2016/679 (RGPD), artículo 22.
Propuesta de Directiva sobre responsabilidad por inteligencia artificial (COM/2022/496 final).
Resolución del Parlamento Europeo de 20 de octubre de 2020 con recomendaciones sobre responsabilidad civil en IA.
AEPD (enero 2026). Smart contracts y datos personales.
Hashdex (2025). Crypto Investment Outlook 2026.
Coinbase Ventures (2025). Prioridades de inversión 2026.


