Jon Hernández, formador y consultor en IA generativa, lanza un aviso que incomoda: usar ChatGPT para “buscar conocimiento” es confundir el mapa con el territorio. Dice que no es una biblioteca ni una enciclopedia, sino otra cosa: una máquina de lenguaje que razona con lo que le das. Ese matiz cambia todo, desde cómo estudiamos hasta cómo tomamos decisiones.
El aula es un cowork ruidoso a las nueve de la mañana. Un grupo de marketers abre sus portátiles mientras Jon Hernández camina entre mesas y lanza una pregunta que suena a bofetada: “¿Cuántos usáis ChatGPT como si fuera Google?”. Varias manos suben. Él sonríe, pero no es una sonrisa amable. Cuenta que la IA no “sabe”, solo predice, y que buscar certezas en un generador de texto es como pedirle memoria a una ola. Alguien frunce el ceño. Otra persona vuelve a mirar la pantalla. Te quedas con una pregunta que pica.
No es una biblioteca: es un motor de juego mental
Jon repite una idea incómoda: el modelo no almacena verdades, procesa patrones y devuelve lenguaje plausible. Esto significa que, si lo tratas como una enciclopedia, acabas recibiendo respuestas confiadas pero frágiles, a veces brillantes, a veces falsas. La herramienta brilla en otra cosa: explorar ángulos, sintetizar contextos, proponer caminos de trabajo. En su taller, una simple consigna cambia el aire de la sala: “No preguntes ‘¿qué es?’, pregunta ‘¿cómo lo haríamos?’”. De pronto, los prompts pierden solemnidad y ganan músculo táctico.
Una diseñadora plantea un reto real: “Necesito convencer al equipo de producto de reducir el onboarding a tres pasos”. ChatGPT genera dos páginas de argumentos pulidos. Jon levanta la mano y pide rehacer el prompt: “Formula las objeciones que podrían derribar esta propuesta y ordena por severidad”. La respuesta se vuelve una hoja de ruta, no un panfleto. Todos hemos vivido ese momento en que una idea nos encanta y buscamos datos que la acaricien. Aquí, el giro es inverso: que la IA presione la idea hasta que suene verdadero.
La explicación técnica ayuda a situar el riesgo. Un LLM predice la próxima palabra condicionada al contexto, no navega fuentes en tiempo real ni distingue con certeza entre lo cierto y lo casi cierto. Generaliza bien, cita regular, inventa si lo aprietas mal. Por eso Jon propone mover el objetivo: no “saber más”, sino “pensar mejor con ayudas”. **ChatGPT no es una biblioteca, es un motor de juego mental.** Cuando te acercas así, la precisión deja de ser magia y pasa a ser proceso: iteras, contrastas, aterrizas, y solo entonces decides.
El método que baja a tierra: preguntar, contrastar, concretar
Jon trabaja con una regla de tres pasos. Primero, preguntar en modo proceso: “Dame un esquema operativo para…”, “Simula a un evaluador escéptico y ataca mi idea”, “Genera preguntas que un experto haría antes de responder”. Segundo, contrastar: pedir fuentes, términos clave y criterios de verificación para ir a buscarlos fuera. Tercero, concretar: traducir la síntesis en checklist, métrica, calendario, prototipo mínimo. Una pregunta bien formulada no es la que luce, es la que empuja. De esta coreografía sale menos brillantez superficial y más trabajo que respira.
Surgen las trampas clásicas. Pedir “la respuesta” en vez de un rango plausible. Confiar en citas inventadas sin cruzarlas. Quedarse con la primera salida por prisa o pereza. Jon no juzga; entiende el hambre de atajo. “Seamos honestos: nadie hace eso todos los días.” Lo que propone es factible en diez minutos: un primer borrador, un bloque de contraargumentos, tres palabras clave para buscar en fuentes externas, y una versión resumida de 120 palabras. Ese mini-ritual cambia la relación con la herramienta y con tu propio criterio.
En un punto del taller, Jon respira y condensa su posición en una sola frase.
“La gente está usando ChatGPT para buscar conocimiento y ese es el mayor error. No le pidas verdades, pídele estructura para encontrar las tuyas.”
Para que no quede en eslogan, anota un encuadre de uso diario:
- Pregunta por procesos, no por definiciones.
- Exige criterios de verificación y sal a la web a confirmarlos.
- Vuelve con datos y pide una síntesis que no borre matices.
**La verificación externa no es opcional.** No por desconfianza a la máquina, sino por respeto a la realidad.
Lo que cambia cuando cambias la pregunta
El giro práctico se nota en el cuerpo. La ansiedad por “acertar” se convierte en curiosidad por “iterar”. Un periodista sale del bloqueo con una escaleta de cinco apartados y preguntas guía para cada uno. Una abogada convierte un párrafo legal en una lista de riesgos priorizados y escenarios de negociación. Un docente pide al modelo tres formas de evaluar una competencia sin exámenes y una rúbrica de 10 puntos. **Tu prompt no necesita ser perfecto, necesita ser honesto.** Si le das tu contexto real, tus restricciones y tus dudas, la ayuda se vuelve útil y menos teatral.
Hay trucos que sostienen esta forma de trabajar. Encargar al modelo el “papel” correcto: tutor socrático, crítico hostil, traductor entre jergas, planificador con presupuesto fijo. Pedir siempre un “modo transparencia”: qué asume, qué ignora, dónde es más débil. Evitar palabras infladas y preferir números, límites y ejemplos. Y cuando algo suene demasiado bonito, pedir la versión “aburrida y verificable”. Parece pequeño, pero reduce la distancia entre el texto y la realidad operativa. Te quedas con menos fuegos artificiales y más piezas que encajan.
El tema de las fuentes no se resuelve con fe, sino con práctica. RAG, citación asistida, búsquedas paralelas, todo suma, pero el gesto crucial es otro: volver al mundo. Pide términos clave y autorías posibles y abre tres pestañas fuera del chat. Si dos fuentes confiables convergen, avanzas; si divergen, replantéalo y pide al modelo que explicite el conflicto. La IA deja de ser oráculo y se vuelve buen sparring. Cuando eso pasa, cambia hasta tu forma de aprender: pasas de coleccionar respuestas a fabricar criterio, y el criterio te acompaña más que cualquier copia y pega.
Hablemos de los sesgos, que no son una anécdota. Todo modelo hereda patrones del corpus con el que fue entrenado y de cómo lo afinamos con feedback humano. Pueden aparecer lagunas culturales, ceguera de datos, preferencias arbitrarias. Jon sugiere una maniobra simple: pedir al modelo la misma salida desde dos lentes opuestas (“Optimiza para velocidad” vs “Optimiza para seguridad”) y comparar. Si la diferencia es grande, no hay verdad única, hay trade-offs. Ese ejercicio te vacuna contra el dogma y te coloca en el lugar del responsable, no del espectador.
Queda la pregunta que a todos nos pincha: ¿y el tiempo? ¿No es más rápido pedir la respuesta y ya? Sí, en apariencia. Aunque la tasa de error luego te cobra con intereses: correcciones, excusas, reputación. El método “preguntar-contrastar-concretar” parece más lento y termina recortando horas porque previene retrabajo. También educa una memoria distinta: no recuerdas solo datos, recuerdas caminos. Eso se nota cuando la presión sube. Improvisas menos, decides mejor y te arrepientes menos. No suena épico, suena sostenible.
El último tema del día es el aprendizaje. Jon propone usar el chat como un tutor que pregunta más de lo que afirma. “Enséñame X nivel por nivel”, “Examíname con 5 preguntas crecientes y dime dónde flojeo”, “Dame analogías con mi industria”, “Oblígame a justificar con métricas”. La promesa no es convertirte en experto por osmosis, sino en alguien que practica con feedback inmediato. Si además cruzas con libros, papers y conversaciones, el salto es serio. Lo llamamos IA, pero aquí el músculo que crece es el tuyo.
¿Y qué pasa cuando la IA alucina? Va a pasar. Tu trabajo no es indignarte, es crear las condiciones para que pase menos y te afecte poco. Plantillas de verificación, hábitos de contraste y humildad para corregir. No hay glamour ahí, hay oficio. Y ese oficio es lo que separa una presentación bonita de una decisión que resiste. La gente no paga por frases perfectas, paga por resultados que se sostienen.
Una cosa más, que suena obvia hasta que no lo es: comparte tus prompts y tus comprobaciones con el equipo. Cuando el proceso es visible, la confianza sube y los errores se reparan antes. También te haces menos dependiente de “la persona que sabe usar el chat”. La inteligencia deja de ser “artificial” en el peor sentido y se vuelve social. Eso, para una empresa, vale oro silencioso.
Y si vienes del lado creativo, no temas esta postura. No te quita chispa, te quita autoengaño. Te obliga a diferenciar entre una imagen que seduce y un concepto que aguanta. La IA puede ayudarte a fallar rápido y barato, a interrogar la idea, a forzarla a funcionar con limitaciones reales. El romanticismo de la chispa por la chispa ya tuvo su momento. Ahora la chispa tiene que pagar la cuenta.
Una síntesis que no cierra: cambiar la intención cambia el resultado
Si tratas a ChatGPT como un buscador de certezas, te devuelve certezas de cartón. Si lo tratas como una máquina de estructura, te da preguntas mejores, caminos viables y lenguaje que empuja el trabajo. El mensaje de Jon no es anti-IA, es anti-fe ciega. Pide una inteligencia más lenta, con verificación y contexto, que te haga responsable de la última palabra. Ese movimiento, pequeño en pantalla, es grande en cultura. Cambia reuniones, informes, clases, contratos. Te convierte en alguien que no colecciona respuestas, sino que fabrica criterio en voz alta y en equipo. Ahí es donde la tecnología se vuelve adulta y nosotros, quizá, también.
| Punto clave | Detalle | Interés para el lector |
|---|---|---|
| No uses el chat como enciclopedia | Los LLM generan lenguaje plausible, no conocimiento verificado | Evita errores de base y decisiones débiles |
| Método 3P: preguntar, contrastar, concretar | Prompts de proceso, verificación externa y aterrizaje operativo | Produce resultados útiles en menos tiempo total |
| Roles y transparencia | Asignar papeles al modelo y pedir supuestos, límites y sesgos | Más control, menos sorpresas y mejor aprendizaje |
FAQ :
- ¿Entonces no debo usar ChatGPT para informarme?Puedes explorarlo para entender marcos y preguntas, pero la información factual hay que corroborarla en fuentes externas confiables.
- ¿Cómo reduzco las “alucinaciones” del modelo?Define contexto y límites, pide criterios de verificación, usa términos clave para buscar fuera y vuelve con datos para re-sintetizar.
- ¿Cuál es un buen prompt de arranque?“Actúa como [rol]. Formula 7 preguntas críticas antes de responder. Después, propone un plan de 3 pasos con riesgos y señales de éxito.”
- ¿Sirve para estudiar temas complejos?Sí, si lo usas como tutor: niveles, ejemplos, contraejemplos, mini-exámenes y justificaciones con métrica o citas verificables.
- ¿Cómo lo integro en equipo sin caos?Crea una guía breve de roles, plantillas de verificación y un repositorio común de prompts y decisiones con enlaces a fuentes.







Deja una respuesta