Mejora tu prompting para usar IA en la investigación
- Tesicafé

- hace 2 horas
- 4 Min. de lectura
Diana López Garcia
Desde la perspectiva del doctorante Carlos Carrizales y el doctor Josué Lugo Sánchez, la inteligencia artificial (IA) no es un método de investigación, sino una herramienta metodológica que se integra, con límites y responsabilidades claras, dentro de un diseño de investigación previamente construido.
En este ámbito, la IA no sustituye la reflexión epistemológica ni el trabajo analítico del investigador. Por el contrario, exige mayor claridad conceptual, dominio del objeto de estudio y conciencia metodológica, especialmente cuando se utiliza para tareas como búsqueda de literatura, organización de corpus o apoyo en la escritura académica.

La IA como “red de pesca” metodológica
El Dr. Josué Lugo Sánchez, director de Tesicafé, propone una metáfora clave para comprender el lugar de la IA en el proceso investigativo: funciona como una red de pesca. No define qué se investiga ni para qué, sino cómo se captura la información. El tamaño de la red, su forma y profundidad dependen de las decisiones del investigador.
Un prompt mal formulado equivale a lanzar una red sin criterio: los resultados serán genéricos, poco pertinentes o incluso erróneos. En cambio, uno metodológicamente diseñado permite acotar, profundizar y dialogar críticamente con la información generada por la máquina.
Esta lógica se inserta en un proceso humano–máquina que no es lineal ni automático, sino reflexivo.
Uno de los ejes centrales es el prompt como mediación metodológica. Lejos de ser una simple instrucción técnica, el prompt es entendido como la unidad mínima de sentido que articula lenguaje, contexto y objetivo de investigación.
El prompt como mediación lingüística
La calidad de las respuestas generadas por los modelos de lenguaje depende directamente de la precisión conceptual, claridad semántica y delimitación metodológica del prompt. No se trata de “pedir información”, sino de formular problemas de manera situada.
Estos prompts son descritos como "nivel cero" o funcionalistas, con poco contexto y objetivos vagos:
Instrucción simple: "Ayúdame a traducir".
Petición general: "Hazme mi objetivo de una tesis sobre ética e IA" o "Hazme mi marco teórico".
Resumen básico: "Hola. Ayúdame a realizar un texto sobre comunicación y globalización. Quiero que sea de tres párrafos que incluyan contexto internacional y mexicano. Susténtalo con teorías de autores relevantes”
Conciencia contextual
Los modelos de IA carecen de experiencia situada, historicidad y conocimiento cultural fino. Por ello, el investigador debe proveer contexto simbólico, delimitar marcos teóricos, espacios, tiempos y tradiciones epistemológicas. Sin esta mediación, la IA tiende a producir respuestas estandarizadas o acríticas.
En estos casos, la mediación lingüística se vuelve más específica para evitar que la IA ignore detalles o experiencias:
Instrucción refinada: "Ayúdame a realizar un texto sobre comunicación y globalización cuyo enfoque sea hablar de cómo las prácticas monopólicas deformaron la comunicación. Incluye contexto internacional y mexicano basándote en autores como Ramonet, toma los conceptos de cuarto poder, positivismo y mundialización. Sigue una estructura que combine reflexión y cita".
Búsqueda especializada: "Soy investigador en ciencias políticas... no encuentro conceptos relacionados a ética decolonial... Dame una tabla con cuatro autores/as diversos que me permitan ir a la fuente directa. No alucines"
Verificación y corroboración
Uno de los riesgos más comunes es la "alucinación” de fuentes". La IA puede inventar autores, artículos o citas verosímiles pero inexistentes. De ahí que toda información generada deba verificarse mediante repositorios académicos y lectura directa de las fuentes. Algunas alternativas son el Repositorio Institucional UNAM, TESIUNAM, entre otros.
Taxonomía de prompts
A continuación se presenta una escala progresiva de prompts que permite pasar de usos instrumentales a usos investigativos avanzados:

Esta taxonomía no es técnica, sino pedagógica y metodológica. Busca que el investigador aprenda a dialogar críticamente con la máquina.
Asistentes de búsqueda, organización y análisis de corpus propio
Perplexity: motor de búsqueda estructurado con referencias directas.
Undermind: búsqueda profunda con retroalimentación para mejorar prompts.
Google NotebookLM: permite trabajar exclusivamente con fuentes cargadas por el investigador, dialogar con documentos y ubicar citas específicas.

Modelos de lenguaje y asistentes complementarios
Un modelo de lenguaje (LLM) es el "motor" o sistema de relaciones tecnocientíficas subyacente que funciona como una caja negra alojada en centros de datos, capaz de procesar información masiva para generar respuestas basadas en probabilidades y secuencias. En contraste, las aplicaciones son las interfaces o herramientas que actúan como la mediación lingüística necesaria para que el humano interactúe con dicha inteligencia, permitiendo enviar instrucciones y recibir resultados organizados en formatos específicos.
LLM´s
ChatGPT : apoyo en redacción y estructura, dependiente de la calidad del prompt.
Mistral y Gemini: alternativas con distintos ecosistemas y alcances.
Aplicaciones
Research Rabbit y Litmaps (Aplicacion): mapeo visual de literatura mediante grafos.
Límites de los detectores de IA
Finalmente, se subraya que los sistemas antiplagio y detectores de IA presentan altas tasas de falsos positivos (30% – 70%), debido a que la producción textual con IA avanza más rápido que las herramientas de detección. Esto refuerza la necesidad de declarar explícitamente el uso de IA como parte de una ética de la investigación responsable.
El enfoque metodológico del Seminario de IA de Tesicafé parte de una premisa clara: usar IA no es acelerar la tesis, sino complejizar la responsabilidad del investigador. Investigar con esta tecnología implica saber preguntar, saber verificar y, sobre todo, saber decidir.
La mejora de prompts no es una habilidad técnica aislada, sino una competencia metodológica, estrechamente ligada al diseño de investigación, la ética académica y la escritura situada. En este sentido, la IA no reemplaza al investigador: lo obliga a ser más riguroso.
Escucha el capítulo nuestro nuevo episodio del podcast Tesitips en Spotify basado en el Seminario de IA para la Investigación. ¡Reproduce el podcast y continúa aprendiendo cómo integrar éticamente herramientas IA en tu investigación!
Si deseas conocer más herramientas para incorporar en tus procesos, te invitamos a visitar nuestro sitio web: www.tesicafe.com, donde encontrarás información sobre nuestros cursos y capacitaciones disponibles.
Esta nota fue desarrollada con ayuda de inteligencia artificial (ChatGPT) para su redacción. No obstante, hubo intervención humana en el proceso por parte de Diana López para las siguientes actividades: selección de información, adaptación del lenguaje, y supervisión y revisión del texto final (con ayuda de Angelina Mijares y Arlette Morales).

.png)



Comentarios