{"id":303,"date":"2025-11-27T22:59:06","date_gmt":"2025-11-27T21:59:06","guid":{"rendered":"https:\/\/carlosarranz.es\/?p=303"},"modified":"2025-11-27T23:15:47","modified_gmt":"2025-11-27T22:15:47","slug":"model-context-protocol","status":"publish","type":"post","link":"https:\/\/carlosarranz.es\/en\/model-context-protocol\/","title":{"rendered":"Beyond the Prompt: Context Engineering with MCP"},"content":{"rendered":"\n<h1 class=\"wp-block-heading\"><strong>M\u00e1s All\u00e1 del \u00abPrompt\u00bb<\/strong><\/h1>\n\n\n\n<h2 class=\"wp-block-heading\">En el vertiginoso mundo de la inteligencia artificial, el t\u00e9rmino \u00abingenier\u00eda de prompts\u00bb se ha convertido en una palabra de moda. La mayor\u00eda de la gente cree que dominar el arte de escribir la pregunta o instrucci\u00f3n perfecta es la clave para desbloquear todo el potencial de los Modelos de Lenguaje Grandes (LLM). Se percibe como la principal forma de interactuar con la IA, un di\u00e1logo creativo entre el humano y la m\u00e1quina.<\/h2>\n\n\n\n<p>Sin embargo, esta visi\u00f3n es solo la punta del iceberg. Mientras el mundo se centra en perfeccionar los prompts, una revoluci\u00f3n m\u00e1s profunda y sistem\u00e1tica est\u00e1 teniendo lugar en una disciplina llamada \u00abIngenier\u00eda de Contexto\u00bb. Este campo emergente no trata la interacci\u00f3n con la IA como un arte, sino como un riguroso problema de ingenier\u00eda. Considera toda la informaci\u00f3n que se le proporciona a un LLM: instrucciones, documentos, herramientas y memoria, no como un simple prompt, sino como una compleja \u00abcarga \u00fatil de informaci\u00f3n\u00bb que debe ser dise\u00f1ada, optimizada y gestionada cient\u00edficamente.<\/p>\n\n\n\n<p>Este art\u00edculo desvelar\u00e1 cinco revelaciones impactantes extra\u00eddas de investigaciones recientes que cambiar\u00e1n tu forma de pensar sobre los LLMs. Dejaremos atr\u00e1s la idea de los prompts aislados para adentrarnos en la ciencia del contexto, el verdadero motor que impulsa a los sistemas de IA m\u00e1s avanzados y capaces de la actualidad.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>2. Takeaway 1: Ya no es \u00abIngenier\u00eda de Prompts\u00bb, es \u00abIngenier\u00eda de Contexto\u00bb<\/strong><\/h2>\n\n\n\n<p>El primer cambio fundamental de mentalidad es reconocer que el campo est\u00e1 madurando. Estamos pasando del \u00abarte del dise\u00f1o de prompts\u00bb a la \u00abciencia de la log\u00edstica de la informaci\u00f3n\u00bb. La conversaci\u00f3n ya no se centra en encontrar las palabras m\u00e1gicas para un solo prompt, sino en c\u00f3mo construir y gestionar sistem\u00e1ticamente todo el ecosistema de informaci\u00f3n que un agente de IA necesita para realizar tareas complejas.<\/p>\n\n\n\n<p>La \u00abIngenier\u00eda de Contexto\u00bb es una disciplina formal que consiste en optimizar sistem\u00e1ticamente toda la \u00abcarga \u00fatil de informaci\u00f3n\u00bb que recibe un LLM. Esta carga no es solo una consulta del usuario, sino un conjunto estructurado de componentes distintos, cada uno con un prop\u00f3sito espec\u00edfico:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Instrucciones (<\/strong><code class=\"\" data-line=\"\">&lt;strong&gt;c_instr&lt;\/strong&gt;<\/code><strong>):<\/strong> La \u00abmisi\u00f3n\u00bb o las \u00ableyes de la rob\u00f3tica\u00bb del agente. Definen su prop\u00f3sito y sus l\u00edmites.<\/li>\n\n\n\n<li><strong>Conocimiento Externo (<\/strong><code class=\"\" data-line=\"\">&lt;strong&gt;c_know&lt;\/strong&gt;<\/code><strong>):<\/strong> Su acceso a una \u00abbiblioteca\u00bb en tiempo real, obtenida de fuentes como documentos o bases de datos a trav\u00e9s de RAG.<\/li>\n\n\n\n<li><strong>Definiciones de Herramientas (<\/strong><code class=\"\" data-line=\"\">&lt;strong&gt;c_tools&lt;\/strong&gt;<\/code><strong>):<\/strong> El \u00abmanual de usuario\u00bb de las herramientas que puede usar, como APIs o funciones de software.<\/li>\n\n\n\n<li><strong>Memoria (<\/strong><code class=\"\" data-line=\"\">&lt;strong&gt;c_mem&lt;\/strong&gt;<\/code><strong>):<\/strong> Su \u00abcuaderno de notas\u00bb o \u00abdiario de trabajo\u00bb, donde almacena informaci\u00f3n de interacciones pasadas para mantener la coherencia.<\/li>\n\n\n\n<li><strong>Consulta del Usuario (<\/strong><code class=\"\" data-line=\"\">&lt;strong&gt;c_query&lt;\/strong&gt;<\/code><strong>):<\/strong> La solicitud inmediata y espec\u00edfica del usuario que desencadena la tarea.<\/li>\n<\/ul>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignright size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/susurrador.png\" alt=\"\" class=\"wp-image-304\" style=\"width:420px;height:auto\" srcset=\"https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/susurrador.png 1024w, https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/susurrador-300x300.png 300w, https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/susurrador-150x150.png 150w, https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/susurrador-768x768.png 768w, https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/susurrador-12x12.png 12w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n<\/div>\n\n\n<p>Este cambio es crucial porque nos permite pasar de crear simples chatbots a construir sistemas de IA complejos, fiables y capaces. Al tratar el contexto como un problema de ingenier\u00eda, podemos dise\u00f1ar agentes que manejan tareas de varios pasos, interact\u00faan con el mundo exterior y mantienen un estado coherente a lo largo de interacciones prolongadas.<\/p>\n\n\n\n<p>\u00abCambia el enfoque del &#8216;arte&#8217; del dise\u00f1o de prompts a la &#8216;ciencia&#8217; de la log\u00edstica de la informaci\u00f3n y la optimizaci\u00f3n de sistemas.\u00bb<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Implicaci\u00f3n Pr\u00e1ctica<\/h3>\n\n\n\n<p>Para un desarrollador o l\u00edder t\u00e9cnico, este cambio significa pasar de pensar como un \u00absusurrador de IA\u00bb a pensar como un arquitecto de sistemas. En lugar de ajustar prompts de forma reactiva, el enfoque se centra en dise\u00f1ar de forma proactiva el flujo de informaci\u00f3n. Esto conduce a sistemas m\u00e1s predecibles, depurables y escalables, que son esenciales para aplicaciones de nivel de producci\u00f3n.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>3. Takeaway 2: El Mayor Reto de la IA no es Entender, sino Crear<\/strong><\/h2>\n\n\n\n<p>Aqu\u00ed es donde las cosas se vuelven contraintuitivas. Gracias a la ingenier\u00eda de contexto y a t\u00e9cnicas como RAG, los sistemas de IA modernos han alcanzado una capacidad de comprensi\u00f3n asombrosa. Un LLM puede analizar miles de p\u00e1ginas de documentos t\u00e9cnicos, encontrar conexiones sutiles y responder preguntas espec\u00edficas sobre su contenido. Sin embargo, su capacidad para generar contenido de una complejidad y longitud equivalentes desde cero es notablemente inferior. Este desequilibrio es precisamente uno de los problemas centrales que la Ingenier\u00eda de Contexto busca mitigar.<\/p>\n\n\n\n<p>El informe \u00ab<a href=\"https:\/\/arxiv.org\/abs\/2507.13334\">A Survey of Context Engineering<\/a>\u00ab, que analiz\u00f3 m\u00e1s de 1400 art\u00edculos de investigaci\u00f3n, identifica este fen\u00f3meno como una \u00abasimetr\u00eda fundamental\u00bb. <strong>Existe una brecha significativa entre la comprensi\u00f3n y la generaci\u00f3n<\/strong>. En otras palabras, el LLM es como un cr\u00edtico de literatura de clase mundial que puede deconstruir \u00abCien A\u00f1os de Soledad\u00bb con una precisi\u00f3n asombrosa, pero que si se le pide que escriba una novela con una complejidad similar, produce algo incoherente y sin alma.<\/p>\n\n\n\n<p>Este es uno de los desaf\u00edos m\u00e1s sorprendentes y cr\u00edticos para el futuro de la IA, ya que limita su capacidad para pasar de ser un analista de informaci\u00f3n a un creador aut\u00f3nomo de conocimiento complejo.<\/p>\n\n\n\n<p>\u00abMientras que los modelos actuales, aumentados por una ingenier\u00eda de contexto avanzada, demuestran una notable competencia para <em>comprender<\/em> contextos complejos, exhiben limitaciones pronunciadas para <em>generar<\/em> contenidos extensos e igualmente sofisticados.\u00bb<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Implicaci\u00f3n Pr\u00e1ctica<\/h3>\n\n\n\n<p>Este conocimiento te obliga a dise\u00f1ar flujos de trabajo de IA que jueguen con las fortalezas del modelo. En lugar de pedirle a un agente que \u00abescriba un informe completo sobre X\u00bb, un enfoque m\u00e1s robusto es dividir la tarea (lo que yo llamo t\u00e9cnica de \u00abdivide y vencer\u00e1s\u00bb): \u00abPrimero, analiza estos documentos y extrae los puntos clave. Luego, crea un esquema detallado. Finalmente, redacta cada secci\u00f3n bas\u00e1ndote en el esquema y los puntos extra\u00eddos\u00bb. Este enfoque por etapas utiliza la excelente capacidad de comprensi\u00f3n del LLM para guiar su generaci\u00f3n, m\u00e1s d\u00e9bil, lo que resulta en un producto final de mayor calidad.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>4. Takeaway 3: Los Agentes de IA No Memorizan; Toman Notas y Buscan Informaci\u00f3n<\/strong><\/h2>\n\n\n\n<p>Una de las mayores ideas err\u00f3neas sobre los agentes de IA es imaginarlos con una memoria perfecta y masiva. La realidad es mucho m\u00e1s ingeniosa. Para resolver el problema de la memoria finita, las arquitecturas de agentes modernos adoptan un principio de \u00abinformaci\u00f3n justo a tiempo\u00bb (<em>just-in-time<\/em>).<\/p>\n\n\n\n<p>En lugar de cargar bases de datos enteras en la memoria, el agente almacena referencias ligeras, como rutas de archivos o consultas de bases de datos. Cuando necesita informaci\u00f3n espec\u00edfica, utiliza sus herramientas para recuperarla exactamente en el momento en que es relevante. A menudo, este mecanismo de \u00abb\u00fasqueda\u00bb se basa en la misma arquitectura de RAG (descrita en el siguiente punto) que utiliza embeddings y bases de datos vectoriales para encontrar la informaci\u00f3n sem\u00e1nticamente m\u00e1s relevante.<\/p>\n\n\n\n<p>Adem\u00e1s, los agentes emplean una forma de \u00abtoma de notas estructurada\u00bb. Un agente puede mantener su propio archivo <code class=\"\" data-line=\"\">NOTES.md<\/code> o una lista de tareas para registrar su plan, las decisiones arquitect\u00f3nicas que ha tomado y los resultados intermedios. Estas notas persisten fuera de la ventana de contexto principal, que es limitada. En cada paso, el agente puede consultar sus notas para recordar el plan general, evitando ahogarse en informaci\u00f3n potencialmente irrelevante y permiti\u00e9ndole abordar problemas complejos que se desarrollan a lo largo de miles de pasos.<\/p>\n\n\n\n<p>\u00abEste enfoque refleja la cognici\u00f3n humana: generalmente no memorizamos corpus enteros de informaci\u00f3n, sino que introducimos sistemas externos de organizaci\u00f3n e indexaci\u00f3n como sistemas de archivos, bandejas de entrada y marcadores para recuperar informaci\u00f3n relevante bajo demanda.\u00bb<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Implicaci\u00f3n Pr\u00e1ctica<\/h3>\n\n\n\n<p>Esto cambia la forma en que dise\u00f1amos tareas para agentes. En lugar de proporcionar toda la informaci\u00f3n por adelantado, debemos equipar a los agentes con las herramientas adecuadas para que <em>encuentren<\/em> la informaci\u00f3n por s\u00ed mismos. Esto implica darles acceso a motores de b\u00fasqueda, bases de datos o sistemas de archivos. Tambi\u00e9n significa que parte del \u00abprompt\u00bb es ense\u00f1arles a ser buenos \u00abtomadores de notas\u00bb, instruy\u00e9ndoles para que actualicen un plan o un borrador a medida que avanzan.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>5. Takeaway 4: Los Datos No Estructurados Aprenden a \u00abHablar Matem\u00e1ticas\u00bb<\/strong><\/h2>\n\n\n\n<p>Se estima que m\u00e1s del 80% de los datos del mundo no est\u00e1n estructurados: texto, im\u00e1genes, PDFs. Los LLMs, que son fundamentalmente m\u00e1quinas matem\u00e1ticas, no pueden procesar esta informaci\u00f3n directamente. La clave para desbloquearla es un proceso llamado \u00abembeddings\u00bb (incrustaciones). Un \u00abembedding\u00bb convierte los datos no estructurados en un vector de alta dimensi\u00f3n, que es esencialmente una larga lista de n\u00fameros.<\/p>\n\n\n\n<p>Para entenderlo, usemos una analog\u00eda. Imagina que queremos crear un vector para la palabra \u00abRey\u00bb. Un modelo de embedding, de forma autom\u00e1tica y sin intervenci\u00f3n humana, aprende a generar caracter\u00edsticas sem\u00e1nticas como \u00abg\u00e9nero\u00bb, \u00abriqueza\u00bb o \u00abpoder\u00bb y a asignarles valores num\u00e9ricos. El resultado podr\u00eda ser un vector como <code class=\"\" data-line=\"\">[1, 1, 1, 0.8, 1]<\/code>. Lo crucial es que estas caracter\u00edsticas no son predefinidas por nosotros, sino que son dimensiones abstractas en un espacio sem\u00e1ntico que el modelo descubre durante su entrenamiento.<\/p>\n\n\n\n<p>Estos vectores se almacenan en una \u00abBase de Datos Vectorial\u00bb. La magia es que los conceptos sem\u00e1nticamente similares terminan con vectores matem\u00e1ticamente cercanos en este espacio. El vector de \u00abReina\u00bb estar\u00eda muy cerca del de \u00abRey\u00bb. Cuando un agente necesita encontrar informaci\u00f3n, convierte su pregunta en un vector y busca en la base de datos los vectores m\u00e1s cercanos. Este es el mecanismo fundamental detr\u00e1s de la Generaci\u00f3n Aumentada por Recuperaci\u00f3n (RAG).<\/p>\n\n\n\n<p>(Analog\u00eda que uso para explicar embeddings en mi curso de IA como representaci\u00f3n vectorial de significado)<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/image.png\" alt=\"embeddings\" class=\"wp-image-305\"\/><figcaption class=\"wp-element-caption\">embeddings<\/figcaption><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Implicaci\u00f3n Pr\u00e1ctica<\/h3>\n\n\n\n<p>Dominar los embeddings y las bases de datos vectoriales es fundamental para cualquier aplicaci\u00f3n de IA que necesite utilizar conocimiento propio. Permite construir sistemas de \u00abpregunta a tus documentos\u00bb, chatbots de soporte al cliente que conocen tus manuales de productos o herramientas de investigaci\u00f3n que pueden encontrar informaci\u00f3n relevante en miles de art\u00edculos. Es el puente entre el conocimiento gen\u00e9rico del LLM y los datos espec\u00edficos de tu dominio.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>6. Takeaway 5: La IA Necesita un \u00abPuerto USB\u00bb para Hablar con el Mundo (y se Llama MCP)<\/strong><\/h2>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignleft size-large is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"926\" src=\"https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/image-1-1024x926.png\" alt=\"model context protocol\" class=\"wp-image-306\" style=\"width:425px;height:auto\" srcset=\"https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/image-1-1024x926.png 1024w, https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/image-1-300x271.png 300w, https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/image-1-768x695.png 768w, https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/image-1-13x12.png 13w, https:\/\/carlosarranz.es\/wp-content\/uploads\/2025\/11\/image-1.png 1509w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n<\/div>\n\n\n<p>Para que los agentes de IA sean \u00fatiles, necesitan interactuar con el mundo exterior: buscar c\u00f3digo en un repositorio, crear un <em>issue<\/em> en GitHub o acceder a una base de datos en Salesforce. Hist\u00f3ricamente, cada integraci\u00f3n era un proyecto a medida, lo que llevaba a una \u00abfragmentaci\u00f3n arquitect\u00f3nica\u00bb que dificultaba la construcci\u00f3n de sistemas complejos.<\/p>\n\n\n\n<p>El Protocolo de Contexto del Modelo (MCP) es un est\u00e1ndar abierto que resuelve este problema. Define una forma com\u00fan para que los LLMs se comuniquen con herramientas externas, actuando como la implementaci\u00f3n estandarizada del componente <code class=\"\" data-line=\"\">c_tools<\/code> de la carga \u00fatil de contexto. La mejor analog\u00eda para entenderlo es la siguiente:<\/p>\n\n\n\n<p>\u00abPiensa en el MCP como un traductor universal para aplicaciones de IA: al igual que los puertos USB te permiten conectar cualquier dispositivo a tu ordenador, el MCP permite que los modelos de IA se conecten a cualquier herramienta o servicio de forma estandarizada.\u00bb<\/p>\n\n\n\n<p>Esta estandarizaci\u00f3n es un cambio radical. Permite a los desarrolladores construir herramientas que cualquier agente compatible con MCP puede utilizar sin adaptaciones personalizadas, lo que es crucial para crear sistemas complejos con m\u00faltiples agentes. Gracias a MCP, ya est\u00e1 creciendo un ecosistema de servidores para herramientas como GitHub, Salesforce, Slack y PostgreSQL, sentando las bases para una nueva generaci\u00f3n de aplicaciones de IA interoperables.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Implicaci\u00f3n Pr\u00e1ctica<\/h3>\n\n\n\n<p>MCP es la clave para la escalabilidad y la componibilidad en la IA ag\u00e9ntica. Para los arquitectos, significa que pueden dise\u00f1ar sistemas donde los agentes son intercambiables y las herramientas son reutilizables. En lugar de construir integraciones monol\u00edticas y fr\u00e1giles, puedes construir un ecosistema de \u00abmicroservicios\u00bb para IA, donde cada herramienta expone una interfaz MCP est\u00e1ndar. Esto acelera el desarrollo y aumenta la robustez del sistema general.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>7. Conclusi\u00f3n: La Nueva Frontera de la IA<\/strong><\/h2>\n\n\n\n<p>Los cinco puntos anteriores revelan un cambio de paradigma fundamental. La verdadera innovaci\u00f3n ya no reside en el arte de formular un prompt perfecto, sino en la disciplina de ingenier\u00eda de dise\u00f1ar el contexto completo en el que opera un LLM. La Ingenier\u00eda de Contexto es el campo unificador que aborda los desaf\u00edos sist\u00e9micos de la IA moderna: mitiga la brecha entre comprensi\u00f3n y generaci\u00f3n, implementa sistemas de memoria eficientes, traduce el mundo no estructurado a las matem\u00e1ticas y estandariza la interacci\u00f3n con el mundo real.<\/p>\n\n\n\n<p>Estos no son trucos aislados; son los pilares interconectados de una nueva realidad de la ingenier\u00eda. Dominar la ciencia del contexto, no solo el arte de los prompts, es la habilidad que definir\u00e1 la pr\u00f3xima era del desarrollo de IA. Esta disciplina es la que nos permitir\u00e1 crear la pr\u00f3xima generaci\u00f3n de agentes m\u00e1s potentes, fiables y aut\u00f3nomos, capaces de abordar problemas de una complejidad que hasta ahora estaba fuera de nuestro alcance.<\/p>\n\n\n\n<p>A medida que dominemos esta ciencia, se nos plantea una pregunta apasionante: \u00bfqu\u00e9 nuevas posibilidades se abrir\u00e1n cuando la IA no solo pueda entender casi cualquier cosa, sino tambi\u00e9n crear y actuar de forma fiable sobre esa comprensi\u00f3n en el mundo real?<\/p>\n","protected":false},"excerpt":{"rendered":"<p>M\u00e1s All\u00e1 del \u00abPrompt\u00bb En el vertiginoso mundo de la inteligencia artificial, el t\u00e9rmino \u00abingenier\u00eda de prompts\u00bb se ha convertido en una palabra de moda. La mayor\u00eda de la gente cree que dominar el arte de escribir la pregunta o instrucci\u00f3n perfecta es la clave para desbloquear todo el potencial de los Modelos de Lenguaje&hellip;&nbsp;<a href=\"https:\/\/carlosarranz.es\/en\/model-context-protocol\/\" rel=\"bookmark\"><span class=\"screen-reader-text\">Beyond the Prompt: Context Engineering with MCP<\/span><\/a><\/p>","protected":false},"author":1,"featured_media":310,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"neve_meta_sidebar":"","neve_meta_container":"","neve_meta_enable_content_width":"","neve_meta_content_width":0,"neve_meta_title_alignment":"","neve_meta_author_avatar":"","neve_post_elements_order":"","neve_meta_disable_header":"","neve_meta_disable_footer":"","neve_meta_disable_title":"","footnotes":""},"categories":[12],"tags":[19,20],"class_list":["post-303","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","tag-ia","tag-mcp"],"_links":{"self":[{"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/posts\/303","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/comments?post=303"}],"version-history":[{"count":2,"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/posts\/303\/revisions"}],"predecessor-version":[{"id":308,"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/posts\/303\/revisions\/308"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/media\/310"}],"wp:attachment":[{"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/media?parent=303"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/categories?post=303"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/carlosarranz.es\/en\/wp-json\/wp\/v2\/tags?post=303"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}