Cuando los agentes aceleran todo: qué le pasa a tu equipo técnico

Dos desarrolladores de diferentes géneros y etnias colaborando en una oficina moderna con múltiples pantallas de código y paneles de integración de IA, rodeados de plantas y arte abstracto.

Tradicionalmente, mantener una aplicación en versiones antiguas de sus frameworks y librerías era caro. Muy caro. Migrar de Java 8 a Java 17, o saltar de un framework viejo a uno moderno, requería tiempo, dinero y riesgo que muchas organizaciones preferían no asumir. Era más barato dejar el sistema tal cual estaba.

Así que pasaban los años. Y mientras el mundo avanzaba, tú seguías en tu aplicación. Eras muy productivo ahí: sabías dónde estaba todo, conocías sus rincones, sus peculiaridades. Era tu dominio.

La IA convierte la migración en algo viable

Ahora imagina que esos agentes de IA pueden migrar esas aplicaciones automáticamente. No solo a versiones más nuevas del mismo framework, sino incluso entre tecnologías. De Java a Go, de un ORM viejo a Hibernte moderno, de arquitectura monolítica a microservicios.

De repente, ese coste que justificaba «no tocar nada» desaparece.

Y con él desaparece también algo que nadie menciona: el lastre económico que permitía vivir de lo que ya sabías. Si migrar era caísimo, entonces seguías manteniendo la aplicación vieja, y tú seguías siendo el único que sabía cómo funcionaba. Eras productivo, eras necesario, y ese conocimiento era específico.

Pero si migrar se vuelve barato —casi gratis—, entonces la pregunta ya no es «¿modernizamos?» sino «¿por qué no?» Y la respuesta a eso recae en los equipos técnicos.

El ciclo de mantenimiento se acelera

Aquí es donde las cosas se ponen incómodas. Si antes podías vivir cinco, diez, quince años de una aplicación en versión antigua, ahora los ciclos se comprimen.

Ya no es «Java 8 hasta la jubilación». Ahora es «Java 8, luego Java 11, luego Java 17». Con cada salto viene no solo una nueva sintaxis: vienen nuevos patrones, nuevas herramientas, nuevas formas de estructurar el código.

Y eso significa que los técnicos ya no pueden permitirse el lujo de la especialización profunda en una única aplicación. Porque esa aplicación está en movimiento.

Dos fuerzas que se solapan

Hay un detalle que me preocupa más: los agentes y sistemas de IA que asisten este trabajo evolucionan más rápido que incluso las versiones de los lenguajes.

Si eres especialista en Java, ya tienes un reto: mantenerte al día con las nuevas versiones, los nuevos patrones, las nuevas librerías. Eso cuesta tiempo. Cuesta atención.

Pero ahora, encima, tienes agentes que cambian cada mes. Nuevas capacidades, nuevos «skills», nuevas formas de resolver problemas. Como he contado en otros posts, la velocidad con la que todo esto evoluciona es casi desorbitada.

¿Cómo se supone que una persona sigue siendo competente en Java moderno y en todos los agentes de IA que están emergiendo? No es una pregunta teórica: es lo que está pasando ahora mismo en los equipos.

La bifurcación que se aproxima

Esta tensión me lleva a una reflexión que seguramente veremos materializarse: la separación de los técnicos en dos perfiles.

De un lado, los que se especializan en el conocimiento técnico profundo: programación, arquitectura, patrones, frameworks. Gente que entiende Java moderno, que sigue el ritmo de las versiones, que domina el stack técnico.

Del otro, los que se especializan en sistemas de inteligencia artificial e integración: cómo estructurar agentes, cómo entrenarlos, cómo conectarlos con los sistemas existentes, cómo gestionar el conocimiento que alimenta la IA.

No es que uno sea mejor que el otro. Es que los ciclos de evolución son distintos, y las habilidades requeridas divergen. Hace años pasó algo similar: antes tenías al desarrollador del backend y al del frontend. Evolucionaban juntos, pero cada uno conocía su terreno. Ahora, pero en otra escala.

La implicación estructural

Esto no es un problema de productividad. Es un cambio en la forma de organizar los equipos.

Si antes tenías un equipo «Java» y todos evolucionaban juntos, ahora puede ser que tengas:

  • Un grupo que sigue siendo la punta de lanza técnica (Java moderno, arquitecturas de microservicios, etc.)
  • Otro grupo que lidia con la integración de agentes, el entrenamiento de sistemas, la arquitectura de prompts y skills

Y claro, estos dos grupos tienen que trabajar juntos. No puedes tener uno sin el otro. Pero sus presiones de actualización son distintas. Sus curvas de aprendizaje divergen.

Moraleja

La IA no solo hace el trabajo más rápido: hace que el coste de cambiar sea bajo suficiente para que cambiar sea inevitable. Y eso significa que el conocimiento que podía mantener a una persona productiva durante años ya no te basta. Porque el trabajo no está quieto, y los agentes que te ayudan a mantenerlo tampoco.


¿En tu equipo ya estáis viendo esta bifurcación? ¿O seguís esperando que una misma persona maneje Java moderno y la integración de agentes sin que se le vuelva la cabeza? Cuéntame en LinkedIn.

Relacionados sugeridos

La IA cuando no te sale a cuenta un profesional

Mujer trabajando en un portátil con un asistente de IA, con una lista de tareas y un armario ordenado al fondo.

Llevo unos meses usando ChatGPT para casi todo lo que se me ocurre, y con ese uso más intensivo se me han reafirmado un par de ideas.

La primera: la IA no es “mejor” que un buen profesional. La segunda: para mucha gente (yo incluido), la IA sí cambia el juego por una razón mucho más prosaica: el coste.

No es mejor que un buen profesional (y eso no es el punto)

No creo que la inteligencia artificial sea mejor que un buen profesional en su campo.

Un buen «marketer» o un buen copywriter probablemente escriba mejores artículos que los de mi web. Igual que un buen asesor de imagen o un personal shopper elegiría ropa mejor de lo que puede hacer ChatGPT.

Hasta aquí, nada polémico.

El punto es el acceso (cuando el presupuesto manda)

La diferencia, en mi caso, es que económicamente no me compensa contratar:

  • Un marketer o un copywriter.
  • Un asesor de imagen.

Y aquí es donde la IA sí tiene algo que decir: gente que antes no podía acceder a ciertos conocimientos o servicios porque no le salía rentable, ahora puede hacerlo por un coste irrisorio.

No es calidad “premium”, pero es acceso. Y, bien usada, puede ser muy útil.

Lo que a mí me está aportando (de forma muy práctica)

En mi caso, me ha ayudado muchísimo con cosas muy concretas:

La sensación es clara: para un uso “no crítico”, el retorno es muy alto.

La idea de Claudio Serrano (y el corte del 7 al 10)

Recuerdo una entrevista/podcast a Claudio Serrano sobre el impacto de la IA en el doblaje.

Decía algo así como que, en una escala del 0 al 10, a los actores con un nivel de 0 a 7 la IA les iba a comer terreno porque iba a ser capaz de hacerlo tan “mediocre” como ellos… y que solo iban a quedar del 7 al 10: los que aportan ese plus que, a día de hoy, la IA no aporta.

Puede que tenga bastante razón.

Donde me lo pienso más: salud, finanzas y derecho

Otra cosa es cuando el tema es más delicado: salud, finanzas, derecho…

Ahí el riesgo cambia, y la tolerancia al error también. Y, por tanto, el umbral para “fiarme” no puede ser el mismo que para elegir ropa o pulir un texto.

¿Bajará el precio de los profesionales?

Un último matiz: puede que el precio de los profesionales baje si ellos mismos se apoyan en la IA y pueden ofrecer el mismo servicio por menos.

Si eso ocurre, puede que termines teniendo lo mejor de ambos mundos: la calidad de una persona con experiencia, apoyada por una IA que le ayuda a hacer el trabajo de forma más eficiente.

Moraleja

La IA no va a reemplazar al “10/10”, pero sí puede cubrir un “6/10” a un coste tan bajo que cambia quién puede acceder a ciertos servicios. La diferencia no está en la “magia” de la herramienta, sino en el uso que hagas de ella… y en saber dónde no merece la pena asumir el riesgo.

¿En qué te está ayudando a ti la IA (o dónde no te fiarías)? Te leo en LinkedIn.

Diseñado en la cabeza de Iñigo, made in ChatGPT.

Relacionados sugeridos

¿Quién supervisa a la IA cuando sabe más que tú?

Una supervisora observa a varios androides trabajando con ordenadores en una oficina, con expresión de duda sobre cómo validar lo que hacen.

Hace unos días me encontré en una situación curiosa: le pido algo a un agente de Codex y, para resolverlo, se pone a generarse “sus herramientas” en Python.

El resultado que me entrega funciona, pero hay una parte que me deja incómodo: yo no conozco Python. Y si no conozco Python, mi capacidad de validar si ese script está bien hecho o si está a punto de romperse es, siendo honestos, limitada.

Y ahí me saltó una alarma que va mucho más allá del lenguaje.

El «humano en el bucle»… ¿qué humano?

En teoría, la adopción de IA en desarrollo se apoya en una idea tranquilizadora: siempre hay un humano supervisando.

Eso funciona cuando el humano entiende el terreno. Si la IA me ayuda en un proyecto Java y yo conozco Java, puedo juzgar si lo que propone encaja con lo que el proyecto requiere, si huele raro, o si me estoy comprando un problema para dentro de dos sprints.

Pero cuando la IA decide que la mejor forma de ayudar es construirse piezas en un lenguaje que yo no domino, el «humano en el bucle» empieza a parecerse más a un sello de “aprobado” que a una supervisión real. No porque haya mala fe. Porque el bucle se rompe por asimetría de conocimiento.

Cuando la IA migra cosas que tu equipo no conoce

Pienso en un escenario bastante plausible: migraciones. Por ejemplo, coger aplicaciones heredadas tipo J2EE y moverlas a frameworks más modernos, como Spring.

En el momento en que estas herramientas hagan esas migraciones “bien” de forma automática, el humano que está supervisando puede no ser quien más sabe del destino. Y entonces aparece una tensión incómoda:

  • La IA puede saber más que el humano sobre “ese tema concreto”.
  • Y el humano puede quedar relegado a validar por intuición, por pruebas indirectas o por confianza.

No es un problema abstracto: es un cambio de responsabilidades.

El desajuste que se cuela en los equipos

Esto conecta con otro desajuste que ya he comentado en algún post previo: cuando una parte del equipo gana productividad por la IA más rápido que otra.

Si llega un punto en el que los programadores producen mucho más de lo que un analista es capaz de “alimentar”, tienes un cuello de botella nuevo. Y si, además, la IA está empujando trabajo hacia tecnologías que el equipo no domina, el cuello de botella puede convertirse en algo peor: una revisión superficial de decisiones que nadie está en posición de discutir.

La velocidad es lo que más me preocupa

De todo esto, lo que más me inquieta no es que ocurra, sino la velocidad a la que está ocurriendo.

En mi caso, la forma de gestionar este blog en verano no tiene nada que ver con cómo lo estoy gestionando en Navidades, y no han pasado ni seis meses. Eso, llevado al desarrollo de software, es una señal clara: nuestros hábitos de validación y supervisión tienen que evolucionar al mismo ritmo que la herramienta.

Si no, el «humano en el bucle» se queda como una frase bonita… justo cuando más falta hace.

Moraleja

La promesa no era “una IA que hace cosas”, sino “una IA que hacemos responsablemente”. Y para eso, el humano en el bucle no puede ser decorativo: tiene que ser competente en lo que está validando, o el bucle deja de ser un control y pasa a ser un trámite.

¿En tu equipo quién está validando de verdad lo que hace la IA cuando el trabajo cae fuera de vuestro stack? Te leo en LinkedIn.

Diseñado en la cabeza de Iñigo, made in ChatGPT.

Relacionados sugeridos

Innovación a seis meses vista

Un androide en una reunión de oficina mira un reloj de bolsillo, sugiriendo que la IA acelera los tiempos.

Cuando trabajaba en Iberdrola como consultor de innovación al negocio, solía decir una frase muy simple: la innovación es Iberdrola dentro de tres o cinco años.

No era postureo. Era una forma práctica de justificar por qué merece la pena dedicar un poquito de recursos a hacer pequeñas pruebas de concepto: para eliminar dudas (o confirmar límites) sobre cosas que, si íbamos bien encaminados, en tres a cinco años serían parte del día a día.

Sigo pensando que esa definición es válida. Lo que ha cambiado —y mucho— es el reloj.

Mi definición de innovación (y por qué funcionaba)

En un contexto grande, la innovación no es solo “hacer cosas nuevas”. Es gestionar el riesgo y el aprendizaje.

Por eso las pruebas de concepto encajan tan bien: buscan despejar incertidumbre. Si lo tuviésemos todo claro, no sería innovación: sería un proyecto.

Con IA, el horizonte se ha comprimido

Con la inteligencia artificial he vivido una sensación nueva: la innovación ya no es a tres o cinco años. En estas cosas, muchas veces es a seis meses vista, y un año como máximo.

Lo he notado incluso en algo tan cotidiano como mantener mi web en WordPress: lo que hacía en verano, y cómo lo hacía, no se parece a lo que puedo hacer ahora en Navidades. La tecnología ha avanzado lo suficiente como para obligarte a revisar tu forma de trabajar.

Déjà vu: cuando Internet era “cada día algo nuevo”

Esto me recuerda mucho a cuando empezó todo el tema de Internet, con Java, los Servlets y los EJB.

Era una época muy dinámica: cada día salían cosas que pegaban un avance significativo sobre lo anterior. Estamos hablando de hace más de 25 años.

Hoy, en cambio, muchas tecnologías están más estables. Y, precisamente por eso, esta época de la IA me resulta tan familiar: vuelve esa sensación de revolución, de sorpresa constante y de adaptación continua.

Una época bonita… si la innovación te viene de serie

Si eres de los que llevan la innovación de serie —como yo, que siempre he tendido a probar, medir y ajustar antes de dar nada por sentado— esta etapa es preciosa: desafiante, sí, pero muy bonita.

Si tu planteamiento es más inmovilista, probablemente no estés tan contento. Pero es lo que toca, porque esto difícilmente se puede parar: la mejora de productividad que tienes es brutal.

Y, encima, cada nada salen cosas que te obligan a adaptarte para dar un salto de calidad y de productividad… otra vez.

Moraleja

Durante años, innovar era mirar a tres o cinco años. Con la IA, el horizonte se ha encogido y el ritmo se ha disparado.

No es solo “usar una herramienta”: es aceptar que tu forma de trabajar cambia más rápido. Y decidir cómo te adaptas.

¿A ti qué te está obligando a replantearte este ritmo? Te leo en LinkedIn.

Diseñado en la cabeza de Iñigo, made in ChatGPT.

Relacionados sugeridos

Cuando ChatGPT me ayudó a comprar ropa (sin decirme a todo que sí)

Hombre con camisa azul recibe una camisa verde musgo de un androide con chaqueta en un probador.

Durante un tiempo he estado usando ChatGPT casi a diario. Empecé como mucha gente: lo trataba como un “Google vitaminado”. Le hacía preguntas y, en vez de leer diez enlaces, me quedaba con un resumen.

Pero poco a poco empecé a pedirle cosas más específicas. Y una de las más inesperadas ha sido esta: usarlo para ayudarme a comprar ropa.

El detonante: un armario que ya no encaja

Hace aproximadamente un año empecé con una serie de problemas (nada grave), como consecuencia, perdí bastante peso.

En pantalones bajé tres tallas. Cuando llegué a mi peso ideal, lo obvio ocurrió: casi toda la ropa que tenía dejó de servirme y tuve que comprar de nuevo.

Comprar ropa nueva es un desembolso importante. Y yo no soy asesor de imagen, ni personal shopper, ni nada por el estilo.

De entrevista de trabajo a entrevista de estilo

Con ChatGPT ya había hecho una cosa que me funcionó muy bien: pedirle que me hiciera preguntas para darle contexto.

En su momento lo utilicé para temas del blog. Para ropa, repetí el enfoque: le pedí que me empezase a preguntar sobre estilo, preferencias y hábitos, para que entendiera “cómo visto” antes de recomendar nada.

Un proyecto, un manifiesto y un inventario

La experiencia fue más interesante de lo que esperaba. Tuve muchas conversaciones y, para ordenarlo, me creé un proyecto donde fui guardando:

  • Un “manifiesto de estilo” creado a partir de esas conversaciones.
  • Un inventario de la ropa que iba comprando.

Con eso, empecé a preguntarle prácticamente todo lo que me planteaba comprar.

“¿Te apetece?” No: a veces me dijo que no

Podrías pensar que una IA siempre te va a decir que sí, que compres la prenda que le enseñas. Pero no fue así.

Hubo prendas que pensé comprar (por ejemplo, aprovechando el Black Friday) y me dijo que no me lo recomendaba. Y cuando le pregunté el porqué, me lo explicó.

Contexto > “cómo se lo pidas” (cuando el contexto está bien)

Con suficiente contexto, muchas “técnicas de cómo pedirlo” me dieron igual. Llegué a hacer esto: ver una camisa en El Corte Inglés, sacarle una foto y preguntarle, sin más:

“Esta camisa, ¿qué tal?”

Y, como ya tenía el contexto, me respondía si encajaba o no con mi estilo y con lo que ya tenía.

Iterar, depurar y comprobar (como con software)

Eso sí: el contexto tiene que estar pulido. A veces me proponía combinaciones que no me cuadraban.

Recuerdo una en la que me sugirió una chaqueta con un pantalón y le dije que no pegaba. Su respuesta fue muy útil: “sí pega, pero en un estilo inglés; tú tienes un estilo más mediterráneo”.

Ahí entendí que el “manifiesto” no era un documento estático, sino un artefacto vivo. Si algo generaba confusión, había que reflejarlo para que no volviese a pasar.

Y empecé a hacerle pruebas, literalmente como si fuese software: “¿esta camisa con este pantalón pega?”. Dependiendo de lo que respondía, veía si estaba alineado con lo que a mí me parecía o no.

Moraleja

Cuanto más contexto tienes, mejor trabaja. Y cuanto más iteras, más útil se vuelve ese contexto. La IA no sustituye tu criterio: lo amplifica, siempre que le enseñes (con paciencia) cómo piensas tú.

¿Tú qué estás quitando (o manteniendo) de tu stack de IA? Te leo en LinkedIn.

Relacionados sugeridos

De GPTs a agentes y skills: del flujo del verano al de Navidad

En una oficina luminosa, una persona cambia el ‘empleado del mes’: el androide de verano acaba en la papelera y el androide navideño queda en el marco.

En verano conté en el blog que estaba usando ChatGPT y GPTs personalizados para automatizar tareas de edición: borradores, estructura, tono… y, sobre todo, para quitarme trabajo rutinario que me estaba robando tiempo. Lo conté en: El GPT de mi web me ha abierto los ojos (y no solo para escribir mejor).

Sigue siendo cierto: ese enfoque me descargó de un montón de “micro-tareas” que no aportan valor, y me dejó más energía para lo importante.

Pero en verano el flujo seguía teniendo una pega: mucha IA… y demasiado “pica y pala” con ficheros (esto me llevó a ordenar contexto y estructura: Del Prompt Engineer al Context Engineer: cómo la IA me obligó a reorganizar mi web (y mis esquemas mentales)). En Navidad he hecho el cambio que me faltaba: pasar de usar GPTs como herramienta a usar agentes y skills como parte del proceso.

Lo que funcionaba… y lo que no

El problema no era la calidad del texto que me devolvía la IA. El problema era el flujo.

Un GPT te puede generar un fichero, pero después lo tienes que guardar tú, moverlo a su sitio y subirlo a WordPress. Y cuando estás iterando (un ajuste de tono, un cambio de estructura, una idea nueva), esa fricción se acumula.

He intentado tirar por el camino de los MCP (Model Context Protocol) — lo comenté también en Y si el valor ya no está en las respuestas —, pero a día de hoy no lo tengo fino como para que me compense: no me termina de encajar en el flujo y seguía con demasiada gestión manual.

En vacaciones es cuando más “paz mental” tengo para mantenimiento: ordenar, limpiar, y dejar preparado el terreno para el resto del año.

Y este año he aprovechado para cambiar la forma de trabajo. Mantener la web, al final, es mucho de texto… pero también es muchísimo de manejar ficheros: Markdown, estructura de carpetas, persistencia del contexto, versiones.

Para mí, esto es innovación en pequeño: bajar fricción y riesgo hasta que el hábito sea sostenible.

Por qué me he pasado a Codex

He empezado a usar Codex, la herramienta de OpenAI, para el flujo del blog.

Lo interesante es que, aunque sea una herramienta pensada para desarrollo, en mi caso encaja porque mi “producto” también vive en un repositorio: contenido en Markdown, contexto, y un conjunto de automatizaciones alrededor.

De GPTs a agentes (y de prompts a trabajo reproducible)

Lo que he hecho ha sido coger los GPTs que tenía, con sus prompts, y meterlos en una carpeta dentro de Codex. Luego le he dado el contexto y le he pedido que los transforme en agentes y también en skills (dos estándares que están apareciendo para este tipo de flujos).

Y aquí ha llegado la sorpresa práctica: cuando algo no me ha funcionado, o no lo ha hecho como yo quería, le he pedido a la IA que me lo modifique… y lo ha modificado directamente.

Ya no es “te propongo un cambio y tú lo copias y lo pegas”: es iterar sobre el propio sistema de trabajo, con persistencia.

Lo que más me ha cambiado: los scripts dejan de ser “manuales”

Antes, para tareas concretas (por ejemplo, descargar artículos del blog y dárselos a la IA) tiraba de scripts en Python. Me los había generado la IA, sí, pero luego tenía que ejecutarlos yo a mano en el ordenador.

Ahora, con el enfoque de skills, esa automatización pasa a formar parte del flujo: se ejecuta desde dentro, con menos fricción y más continuidad.

Lo que me llevo (por ahora)

Partía con ventaja: ya tenía trabajo hecho (los GPTs, los prompts, y un estilo más o menos definido). Pero aun así, el salto en productividad es muy grande.

No porque el modelo “escriba mejor”, sino porque el flujo es más sencillo: menos pasos manuales, más persistencia, más capacidad de ajustar el sistema cuando se atasca.

Y otra cosa que me parece interesante es que este tipo de estándares se están empezando a soportar en más herramientas, como Claude y Cursor. Es un hilo que también conecta con: De Google a agentes: mi curva de aprendizaje con la IA.

En resumen: no va de “la herramienta ganadora”, sino de montar un sistema repetible que te quite pasos manuales.

Moraleja

La mejora de productividad no viene solo de pedirle cosas a un modelo: viene de integrarlo en un flujo que no te obligue a pelearte con ficheros y pasos manuales. Si la IA puede trabajar con tu contexto y tu estructura, iteras más rápido y con menos desgaste. Y eso, para mantener un blog, es la diferencia entre “lo haré cuando tenga tiempo” y “esto ya va solo”.

Relacionados sugeridos

¿Tú qué estás quitando (o manteniendo) de tu stack de IA? Te leo en LinkedIn.

Diseñado en la cabeza de Iñigo, made in ChatGPT.

La economía de las suscripciones llega a las herramientas de productividad con IA

Persona sorprendida ante una interfaz de chat de IA mientras varios androides con etiquetas de precio y una factura sugieren el coste acumulado de suscripciones.

Hay un patrón que ya conocemos de sobra: empiezas pagando una suscripción “pequeña”, luego otra, y otra… y, cuando te das cuenta, estás en modo Netflix/Amazon Prime/lo-que-toque, pero aplicado a herramientas de productividad.

Con la IA está pasando algo parecido, solo que el “contenido” no son series: es tu tiempo, tu foco y tu forma de trabajar.

Mi caso: escribir con voz y apoyarme en modelos

Para escribir las entradas del blog estoy usando una herramienta que graba y luego genera transcripción, y después paso ese texto por un modelo de IA para convertirlo en un borrador utilizable. En mi caso la herramienta es Plaud.

El motivo es simple: me automatiza partes pesadas del proceso. En vez de “ponerme a escribir” desde cero, hablo, lo vuelco a texto, y trabajo sobre un material que ya tiene estructura.

Y esto engancha con otra idea que llevo tiempo defendiendo: hablarle al modelo (en vez de teclear) suele ser más cómodo y flexible. Cuando dictas, no te frenas tanto “palabra a palabra”. Piensas en voz alta, y eso, para explorar ideas, es oro.

Tres variaciones del mismo concepto (y por qué se solapan)

En mi día a día he acabado viendo tres familias de herramientas que, en el fondo, hacen lo mismo con distinto envoltorio:

  1. Grabación de conversaciones y reuniones → se orientan a capturar audio “largo”, transcribir y ayudarte a generar un resumen o un borrador. Aquí encaja Plaud (por cómo lo uso).
  2. Interfaces tipo ChatGPT/Claude → puedes hablarle al modelo y trabajar en modo conversación, pero normalmente hay límites de minutos, cuotas o planes.
  3. Dictado como interfaz del sistema → herramientas como SuperWhisper que sustituyen el dictado del Mac por algo que no solo transcribe, sino que además puede “pasarlo por un modelo” con una instrucción. Por ejemplo: responder un email con la voz y pedir que lo reescriba en un tono formal.

Las tres familias tienen sentido. El problema llega cuando las usas todas: empiezas a pagar varias suscripciones para resolver tareas muy parecidas.

El detalle que cambia el cálculo: lo que ya viene incluido

En mi caso, por ejemplo:

  • La suscripción de ChatGPT sí la estoy pagando.
  • Con Plaud tengo 300 minutos al mes incluidos, que para mí suele ser suficiente, así que no necesito pagar un extra por uso.
  • SuperWhisper es algo que me atrae para el “día a día” (sustituir teclado por voz), pero si lo adoptas de verdad, es otra suscripción que se suma.

Y aquí aparece la pregunta práctica: ¿estoy pagando por complementariedad o por solape?

Una regla simple para no acabar pagando tres veces por lo mismo

Sin meterme en números (porque cada caso es un mundo), a mí me ayuda un criterio muy directo:

  • Si la herramienta me cambia el flujo (hace posible algo que antes no hacía) → tiene sentido pagar.
  • Si la herramienta solo optimiza un 10–20% algo que ya hago con otra → sospecha de solape.

En otras palabras: no se trata de “cuál es mejor”, sino de cuántas capas estoy comprando para el mismo trabajo: capturar voz → transcribir → transformar → ejecutar.

Y, sobre todo, intentar tratar la adopción de estas herramientas como lo que es: innovación como gestión del riesgo y del aprendizaje, no como coleccionismo de suscripciones.

Empresas vs. uso doméstico: la diferencia del retorno

Para una empresa, pagar varias herramientas puede ser viable si hay retorno: ahorro de tiempo, calidad de comunicación, menos fricción en tareas repetitivas, etc.

En cambio, a nivel doméstico (o de marca personal), llega un punto en el que es difícil sostenerlo: no puedes estar pagando 20 euros/dólares al mes por un montón de herramientas parecidas. Aunque cada una sea “barata”, el conjunto se convierte en una factura fija.

¿Convergencia o fatiga?

No tengo claro hacia dónde irá esto.

Por un lado, sería lógico que unas herramientas absorban funcionalidades de otras (y acabes con una única suscripción “completa”). Por otro, ahora mismo da la sensación de que estamos entrando de lleno en una economía de suscripciones de productividad con IA, donde el mercado premia el “paquete” más que la herramienta puntual.

Mi intención, al menos, es vigilar dos cosas:

  • Qué parte de mi proceso necesito de verdad (y cuál es capricho tecnológico).
  • Qué herramienta se queda como “base” y cuáles tienen que justificar su sitio sin duplicar a las demás.

Si tú también te estás montando tu stack de IA, quizá la mejor pregunta no sea “¿qué herramienta me falta?”, sino: ¿qué suscripción me sobra?

Relacionados sugeridos

De domótica a inteligencia: cuándo una Smart Home es realmente “smart”

Mujer sentada en un sofá conversando con un androide de ojos iluminados que pulsa el interruptor de un aplique de pared para encender la luz, al atardecer, en un salón moderno de Smart Home con plantas y una obra estilo Pollock.

Cuando empecé a domotizar mi casa, lo hice como informático: “automatizar todo para trabajar menos”. Instalé bombillas, interruptores y lo conecté todo a Home Assistant. Pero tras varias anécdotas (como pedirle al Apple Watch que encendiera la luz del baño y acabar poniendo una cadena de radio en medio de una reunión), descubrí que la verdadera inteligencia de una Smart Home va mucho más allá de comandos de voz o apps móviles.

¿Qué diferencia una casa domotizada de una casa inteligente?

  • Casa domotizada: requiere tu orden explícita. Cambias un interruptor por un botón en la app o por “Oye Siri…”.
  • Casa inteligente: actúa sin que se lo pidas; infiere estado y contexto para tomar decisiones autónomas.

La clave está en saber cuándo y cómo debe encender o apagar algo sin que tú levantes un dedo.

La farsa de los comandos de voz

Aunque en su día era lo “cool”, descubrí rápidamente sus límites:

  1. Latencia: hay un retraso desde que le das la orden con la voz hasta que se enciende la luz.
  2. Errores de interpretación: el Apple Watch interpretó “enciende baño” como “reproducir radio”.
  3. Dependencia de la infraestructura cloud: si falla Internet, no hay luz.

En cambio, una solución local basada en sensores y automatizaciones bien definidas funciona siempre.

Aprendizajes prácticos

  • Transparencia manual: conserva siempre la posibilidad de interruptores físicos; los invitados y tu familia lo agradecerán.
  • Simplicidad sobre complejidad: no todo debe automatizarse; prioriza las situaciones que realmente disfrutes tener libres de clics.
  • Resiliencia: contempla fallos (cortes de luz, pilas bajas en sensores) y diseña recuperaciones automáticas o notificaciones.

Tu casa, tu laboratorio de innovación

Las reglas que aplicas en tu hogar valen para cualquier proyecto tecnológico: evita el exceso de automatización, itera con datos reales y pon siempre al usuario (tú mismo) en el centro.

Moraleja

No se trata de llenar la casa de tecnología, sino de usar la justa. La verdadera comodidad está en que no notes que hay un sistema detrás, que la casa trabaje para ti no tú para la casa.


¿Y tú has convertido tu hogar en un sistema verdaderamente inteligente? Comparte tus retos y triunfos en los comentarios o en LinkedIn.

De momento el Diseñado en la cabeza de Iñigo, made in ChatGPT es solo para el web mi SmartHome sigue siendo diseñada y automatizada por mi.

Relacionados sugeridos

ChatGPT como copiloto: conclusiones de un experimento personal

Científico y androide colaborando en un laboratorio de alta tecnología

Hace meses decidí usar mi web como laboratorio para ChatGPT. Siempre ha sido una mezcla de tarjeta de presentación y laboratorio. Ahora, esa faceta laboratorio de inteligencia artificial ha tomado el mando.

¿Qué he aprendido trasteando con ChatGPT?

Después de darle bastante cera, hay cosas que tengo claras:

  1. Si sabes del tema, ChatGPT no es mejor que tú. Puede aportar puntualmente, pero a veces alucina. Eso sí, lo hace mucho más rápido.
  2. Si no sabes del tema, es oro. No será el mejor copywriter del mundo, pero escribe mejor que yo y en menos tiempo.
  3. Es un copiloto, no un piloto. Para temas sensibles (salud, decisiones críticas) necesita supervisión. Para otros, como optimizar un post, me sobra.
  4. Puede hacer mucho más de lo que creemos. Pero hay que darle contexto y cuidar el formato de entrada, si no, alucina.
  5. Conviene preguntarle cuando se va por las ramas. Suele explicar por qué y ajusta el tiro.

ChatGPT cambia la forma de trabajar

Lo veo claro: tenemos que adaptar nuestros procesos para incorporar a este “ayudante digital”. No es solo prompt engineering; es repensar cómo estructuramos la información para que saque su máximo potencial.

En mi caso, lo estoy usando para todo: desde posts de blog hasta elegir perfumes o renovar ropa. ¿El resultado? Me descarga de tareas repetitivas y me deja energía para lo creativo, justo donde quiero estar.

Moraleja

La IA no viene a sustituirte, viene a multiplicar lo que puedes hacer… siempre que sepas pilotar. Y si no, al menos deja que el copiloto te lleve un rato 😉.


💬 ¿Tú también estás probando IA en tu día a día? Cuéntamelo en LinkedIn y seguimos la conversación.

Ya sabes que esta entrada está Diseñada en la cabeza de Iñigo, made in ChatGPT

No es falta de ganas, es falta de idea: por qué cuesta tanto aprovechar la IA

Androide cubierto de polvo y telarañas en una esquina de una oficina moderna de color azul petróleo, mientras un equipo diverso de profesionales trabaja sin prestarle atención.

El otro día leía un artículo —juraría que era sobre el País Vasco— que decía que el uso de la IA estaba bastante extendido, pero que apenas se le sacaba beneficio. Y lo cierto es que me sonó. Bastante.

¿Tienes IA, pero no sabes qué hacer con ella?

Cada vez veo más gente que ha probado a jugar con GPT, Copilot o similares… pero como mucho lo usan como un Google un poco más listo. Ya hemos hablado alguna vez de eso.

El tema es que no se trata solo de «perderle el miedo». El problema no es tanto la resistencia al cambio, sino que muchas veces ni se nos pasa por la cabeza que ciertas cosas se pueden hacer de otra manera.

Y eso lo veo tanto en lo profesional como en lo personal. Me pasa a mí, y lo veo a mi alrededor. Hay una brecha de aprovechamiento muy clara.

Lo que a mí me sirvió, igual a ti también

Yo mismo he aprendido algunos usos que ni me había planteado gracias a gente que sigo en YouTube o LinkedIn. Uno, por ejemplo: dictar una idea suelta y luego dejarle a la IA que lo estructure como un post, incluso con imagen generada.

¿Aplicación profesional? Más de la que parece.

  • Si puedes dictar una entrada de blog, puedes dictar una historia de usuario.
  • Si puedes pedirle que reordene ideas para publicar, puedes pedirle que lo haga con un acta de reunión.
  • Si puedes resumir tu día para ti, puedes hacerlo para tu equipo.

La clave está en cambiar el prompt, no el hábito.

Nueva serie: La IA en el día a día

Por eso voy a abrir una nueva línea de artículos más cotidianos: ejemplos de cómo uso la IA en mi día a día. No necesariamente en cosas de curro, pero sí cosas que pueden inspirar otras ideas aplicables a lo profesional.

No se trata de postureo ni de trucos mágicos. Se trata de abrir el radar.

Moraleja

La IA no es una varita mágica, pero tampoco es solo para frikis. A veces, lo que necesitas no es más formación, sino más ejemplos.


Si tú también usas IA para cosas raras o útiles, ¡me encantará seguir la conversación en LinkedIn! 😉

Tu tambien puedes tener un Diseñado en la cabeza de Iñigo, made in ChatGPT