Un día decidí medir algo. Estaba scrolleando en Facebook, en uno de esos ratitos que empiezan como «nada más uno» y se convierten en veinte minutos, y noté que prácticamente todo lo que aparecía era IA. Plataformas nuevas, prompts, agentes, comparativas, casos de uso, más plataformas. Decidí anotar el patrón. Una «a» por cada reel de IA, y el número de reels de otra cosa que aparecían entre uno y otro.
Esto fue lo que salió: a-1-a-2-a-6-a-2-a-8-a-4-a-3-a-6-a-a-a-12.
No sé exactamente qué significa. Pero el algoritmo sabe cuánto aguantas antes de que necesites algo diferente. En ciertos momentos te manda tres seguidos. En otros te da un respiro de 12. No le importa tanto lo que consumes sino cuánto tiempo sigues ahí. Eso me parece más interesante que cualquier plataforma que haya visto ese día.
Y eso me llevó a algo que había leído semanas antes: que el conocimiento especializado ya no vale nada. Que si antes estudiabas años para saber lo que sabe un abogado, un programador, un ingeniero de redes, ahora cualquiera con teléfono le pregunta a una IA y listo. El conocimiento fue democratizado. Quedó plano. Vale cero.
No compro eso del todo. Aunque lo que he visto últimamente me hace entender de dónde viene.
Cuando la IA se convierte en el procedimiento oficial
En distintas empresas donde hemos estado, hay algo que se repite: el equipo de TI usa la IA — ChatGPT, Copilot, Gemini, lo que sea — como si fuera parte del procedimiento oficial. No como herramienta de apoyo. Como instrucción. Y cuando preguntas por qué, casi siempre es una de dos cosas: desconocimiento real de cómo hacer el trabajo, o querer hacerlo más rápido sin que importe si el resultado es correcto.
Las dos son distintas. Las dos son un problema.
El problema no es usar ChatGPT. Es no tener con qué calibrar lo que te responde. Un modelo de inteligencia artificial te puede dar el comando exacto para algo y también puede darte uno que funciona en apariencia pero rompe otra cosa en silencio. Sin el criterio técnico para distinguir, estás ejecutando instrucciones a ciegas.
Eso es lo que se va cuando el conocimiento se sustituye en vez de complementarse.
El FOMO empresarial con IA que nadie quiere admitir
He tenido varias juntas con empresas en los últimos meses. Todas quieren hacer algo con IA. Muchas no saben qué. Literalmente: desde dirección les dijeron que «hay que hacer algo con IA» y están buscando el qué. Sin caso de uso. Sin problema concreto. Con la sensación de que si no se mueven ya, se quedan atrás de algo, aunque no sepan bien de qué.
Eso me genera más ruido que cualquier incidente técnico que haya visto.
Los equipos que usan ChatGPT sin criterio al menos tienen un problema que resolver. Las empresas que van a implementar IA porque alguien en una junta vio un artículo de Forbes… esas sí van a gastar tiempo y dinero en algo que no van a saber si funcionó.
La diferencia real entre acceso al conocimiento y criterio técnico
Vuelvo al argumento del conocimiento que vale cero.
Lo que sí vale cero es el conocimiento de procedimiento puro: memorizar pasos, recitar comandos, saber configuraciones de memoria. Eso la IA lo hace mejor. Sin discusión.
Pero hay otra capa. El criterio. Saber cuándo el comando es técnicamente correcto pero la estrategia es mala. Saber que el cliente pide una cosa pero necesita otra. Saber que la recomendación aplica para un caso genérico, no para tu arquitectura con diez años de decisiones acumuladas que nadie documentó bien.
Eso no te lo da el scroll. No te lo da ver cincuenta reels de plataformas nuevas de inteligencia artificial.
Acceso no es lo mismo que saber
Lo que está pasando es que se está confundiendo el acceso con el criterio.
Tener acceso a toda la información médica del mundo no te hace médico. Tener acceso a todos los libros de derecho no te hace abogado. Y tener acceso a una IA que responde cualquier pregunta técnica no te hace ingeniero.
Lo que cambia con la inteligencia artificial no es quién sabe. Es quién puede aparentar que sabe. Y esa diferencia, en situaciones donde las decisiones tienen consecuencias reales, importa bastante más de lo que los reels sugieren.
El que sabe hoy no es el que más consume. Es el que sabe cuándo la IA se equivoca.