[INVESTIGACIÓN] LA IA Y LA INVESTIGACIÓN CIENTÍFICA: El debate que debemos llegar a consenso para bien de nuestra salud educativa
El elefante en el aula
En la actualidad, la escritura híbrida (humano + IA) nos permite redactar a una velocidad sin precedentes. Sin embargo, surge una pregunta crítica para nuestra formación como investigadores: Si la IA puede resumir textos y sugerir bibliografía, ¿siguen siendo necesarios los gestores de referencias (Zotero, Mendeley) y los softwares de análisis cualitativo (MAXQDA, NVivo)? Muchos argumentan que estas herramientas son "tecnología del pasado", mientras que otros sostienen que son el único salvaguarda contra la falta de profundidad y el plagio involuntario.
Este artículo no pretende dar respuestas definitivas, sino abrir un debate honesto sobre cómo estamos navegando —o evadiendo— esta transición tecnológica en nuestros espacios académicos.
I. El futuro ya está aquí: la inevitabilidad histórica de la IA
Definitivamente el futuro inminente es la IA, como lo fueron en su momento todas las tecnologías anteriores: la transición de las reglas de cálculo y calculadoras logarítmicas a las calculadoras electrónicas, de las máquinas de escribir a los procesadores de texto, de las fichas bibliográficas físicas a los gestores digitales. Ese es el camino y el futuro presente desde ya.
Mi único temor real es que se arme un efecto Uróboro donde dependamos tanto de la IA por aquello de la optimización, que se pierda esa alimentación del pensamiento humano para generar saberes nuevos. Porque sí, Zotero y demás tienen que reformular su propuesta de negocio y aplicación para sobrevivir integrándose a la IA, eso es obvio.
Lo único malo de eso —y que ya estoy viendo que están abusando de ello— es que están integrando la IA con precios abusivos, heurística deficiente y desarrollo no fructífero que te vende eficiencia, pero que al final, como decimos acá, "sale más cara la sal que el chivo". Por ejemplo, Grammarly ahora cobra $30 mensuales por funciones de IA que básicamente hacen lo que ChatGPT gratuito ya hace. O Notion AI que te cobra $10 extra al mes por resumir notas que ya tienes escritas.
Entonces no me molesta que haya avance o integración de IA, me molesta que no haya integridad, como pasa en negocios y startups cuando la avaricia se impone y se pierde de vista el enfoque primario del desarrollo de la app. Mira Elicit o Research Rabbit: prometían revolucionar la búsqueda bibliográfica con IA, pero terminan dándote sugerencias genéricas que cualquier búsqueda en Google Scholar te da mejor.
Al final, tanto el plagio involuntario como la falta de profundidad son consecuencias de esa mala integración: herramientas mal diseñadas que te prometen autonomía pero te dejan más dependiente y menos crítico. Si la IA solo te resume sin que entiendas la metodología del estudio, terminas citando conclusiones sin poder defender su validez.
II. El caso MAXQDA: ¿legitimidad técnica o sociológica?
Aunque sé que muchos investigadores confían bastante en los resultados de MAXQDA como herramienta investigativa, en mi práctica he observado que hay ciertas IA bien pulidas que logran niveles de eficiencia comparables a MAXQDA, ya que su fórmula heurística de hacer análisis cualitativo —estructura de código, árbol con conjuntos y códigos y todo lo demás— son en diseño aspectos que para una IA bien entrenada y con los datos precisos, resultan viables de replicar.
Si analizamos la base del diseño de MAXQDA como software y la de una IA avanzada como agente de saberes, encontramos que operan con lógicas bastante similares. Una transición a una buena IA en versión plus (que es donde se explotan mejor sus características, considerando que MAXQDA también es de pago) podría representar una inversión igualmente inteligente, o incluso superior en términos de costo-beneficio. Ejemplos concretos: Claude AI Pro ($20/mes), Gemini Advanced, o ChatGPT Plus, frente a licencias de MAXQDA que oscilan entre $600-$1,200 USD.La trampa de la comparación asimétrica
Lo del "valor científico" me parece un punto interesante de debate, porque se lo estamos concediendo a un software cuando el mismo programa, aun con IA integrada, puede dar también valores equívocos y no siempre tan agudos. Eso es lo que debemos cuidar, porque aunque la heurística interna de MAXQDA sea cerrada y sistemática, el análisis cualitativo siempre necesitará cierta agudeza analítica y mirada de contexto que al final nunca es de ignorar cuando "analizamos" percepciones, opiniones o validaciones de seres humanos cambiantes y flexibles.
Cuando mencionamos IA como sustento metodológico y la consideramos poco confiable, generalmente estamos evaluando versiones gratuitas o limitadas que, por diseño, están determinadas para ser ineficaces o funcionales solo parcialmente. Estas versiones son claramente invitaciones a explorar las versiones robustas (Pro, Max, Business) donde realmente se despliega la capacidad analítica completa de una IA bien entrenada.
Aquí radica un problema de equidad en el análisis: MAXQDA es una herramienta de pago —lo que significa que su calidad está condicionada a su capacidad de monetización y rentabilidad— entonces, ¿por qué no aplicamos el mismo criterio de comparación con las IA? Si MAXQDA dice "si te cobro, es porque cumplo lo que prometo", las infinidades de herramientas IA serias operan bajo la misma lógica.
La realidad es que cada vez más —y esto es lo notable aquí— a pesar del poco tiempo (menos de 3 años desde la explosión de IA generativa), hay herramientas en versiones de pago cada vez más eficientes en servicios de codificación, categorización y análisis cualitativo. Ejemplos concretos: Claude AI Pro puede realizar codificación sistemática con justificación de cada código, ChatGPT Plus con análisis avanzado permite construcción categorial iterativa, Copilot en su versión empresarial ofrece trazabilidad de decisiones analíticas, y Grok (especialmente) es muy aguda y potente en análisis contextual.
La legitimidad es más sociológica que técnica
Reconozco que MAXQDA tiene ventajas institucionales importantes: la validación académica establecida, la capacidad de generar reportes metodológicos automáticos, y la trazabilidad para auditorías de investigación. Sin embargo, si el fuerte de MAXQDA es CODIFICAR Y CATEGORIZAR, vale la pena reconocer que estas funciones pueden ser desarrolladas por IAs responsables en versiones de pago con resultados funcionalmente equivalentes, y los ejemplos no escasean.
Sin desconocer la calidad de MAXQDA, considero que su legitimidad es más sociológica (tradición académica, aceptación institucional) que técnica (superioridad funcional absoluta). La relación experiencia-precio merece una reflexión crítica, especialmente para estudiantes, frente al reconocimiento casi incuestionable que recibe en ciertos espacios académicos.
La pregunta no debería ser si la IA puede hacer análisis cualitativo riguroso, sino cuánto tiempo más las instituciones tardarán en validarlo con los mismos criterios que aplican a software tradicional.
El paradigma tecnológico está cambiando
La caja negra de MAXQDA es la justificación más fuerte que encuentro para conservarla como herramienta fija de investigación —esos elementos base de prueba y error usados en el proceso— es una evidencia que le da cientificidad. Pero, ¿será siempre así en un ecosistema tecnológico que cada día depende más de la nube que de un software?
MAXQDA es producto de su época tecnológica: software descargable, procesamiento local, archivos guardados en tu máquina. Esa época está terminando. Todo se mueve a la nube, APIs, procesamiento distribuido. Las IAs son nativas de la nueva época, entonces tienen ventaja estructural a largo plazo.
Creo que debe ser la justicia del análisis para igualar la comparación: herramientas de pago vs herramientas de pago, metodologías robustas vs metodologías robustas. Solo entonces podremos establecer conclusiones objetivas sobre valor científico, trazabilidad y rigor metodológico.
El debate es interesante.
III. Trazabilidad y fuentes: el verdadero campo de batalla
Una de las críticas más comunes a la IA en investigación es: ¿Cómo garantizas la trazabilidad de tus fuentes en un texto co-creado con IA si no utilizas un gestor de referencias externo? ¿Es la IA capaz de distinguir entre una fuente primaria fiable y una alucinación?
La realidad objetiva de cómo funcionan las IAs
Bueno, en mi experiencia parto de una realidad objetiva: la IA se alimenta de internet, no es que solo alucine o mienta, es que dice cosas que salen de cualquier lugar que pueden no ser mentiras pero sí carecer de evidencias concretas, ya que la misma genera a partir de inferencia de datos y produce en tiempo real en base a esos hallazgos encontrados. Por eso se llama generativa transformacional: porque su intención de diseño es ofrecer respuestas relevantes cada vez sin verse repetitiva en contexto (no en lenguaje, porque sigue siendo robot —hay que indicarle tipo de contexto lingüístico en que debe operar a pesar de los esfuerzos de mejorar su prosa, como Gemini o Grok que suelen sonar más naturales, menos algorítmicos).
Mi flujo de trabajo para garantizar trazabilidad
Entonces, tengo un flujo de pensamiento para resolver ese proceso:
Primero, reconozco que la IA suele pensar en inglés porque en ese idioma es que suele entrenarse, por lo que su mejor nivel es cuando consulta fuentes que nacen de esa lengua.
Segundo, mi prompt es referirla directamente a repositorios académicos o a Google Scholar, ya que gracias a la capacidad de leer enlaces y revistas completas (estas funcionalidades se explotan mejor en versiones Pro o Max; por defecto es más limitada en versiones gratuitas por razones intencionales de monetización —olvidamos que es un negocio), suele encontrar artículos acordes a lo que necesito.
Tercero, cuando la IA me ofrece un argumento pero no sé de dónde trazarlo, busco el paper específico que ella me sugiere y localizo ese pensamiento o cita que puede avalar o coincidir con esa realidad o argumento, y lo indexo manualmente. Para garantizar la trazabilidad formal, uso Scribbr junto con bloc de notas para el listado de todas mis referencias —un sistema que he usado durante años sin problemas al colaborar en cientos de investigaciones. Aunque para trabajos más profundos me está pareciendo más viable Mendeley que Zotero en esta etapa de mi carrera, y creo que sumaría mucho a la experiencia previa que tengo. Ya que como paráfrasis es válida una interpretación de un párrafo cualquiera, eso no altera el respeto científico al argumento ni a la idea.
Cuarto, claro, aún la IA no puede discernir con eficiencia fuentes primarias o secundarias porque todavía está diseñada en modo de asistente —es lo que realmente la IA es: un asistente artificial. Pero ahora con la modalidad de agente que muchas marcas de IA están implementando en sus modelos, el futuro inevitable es el perfeccionamiento de esas herramientas para darle cierta autonomía y así poder hacer equivalencia entre filtro metodológico y metodólogo de cabecera.
El investigador sigue siendo responsable
Sonará loco, pero ya esto está acá y los cambios notables con el avance de desarrollo que lleva la IA son inminentes. La pregunta no es "si pasará", sino cuándo pasará. Mientras tanto, la trazabilidad sigue siendo responsabilidad del investigador —yo la garantizo con mi sistema probado de Scribbr + registro manual y ahora explorando Mendeley para proyectos más complejos— pero ahora con herramientas exponencialmente más potentes para lograrlo.
IV. El consenso necesario: propuestas para avanzar
Si queremos llegar a un consenso productivo para bien de nuestra salud educativa, necesitamos:
1. Dejar de comparar versiones gratuitas de IA con software profesional de pago
Es metodológicamente deshonesto comparar ChatGPT free con MAXQDA licenciado. La comparación justa es: herramientas profesionales de pago vs herramientas profesionales de pago.
2. Reconocer que la legitimidad institucional no es superioridad técnica
MAXQDA tiene validación académica porque ha existido más tiempo y porque las instituciones son lentas en adoptar nuevas tecnologías. Eso no significa que sea técnicamente superior a IAs bien entrenadas en análisis cualitativo.
3. Documentar rigurosamente el uso de IA en investigación
Si queremos que las IAs sean validadas institucionalmente, investigadores como nosotros tenemos la responsabilidad de documentar rigurosamente su uso, demostrar trazabilidad, y publicar metodologías replicables. No podemos esperar a que las revistas "aprueben" la IA mientras ya la estamos usando.
4. Exigir integridad en las integraciones de IA
No basta con que una herramienta tradicional añada "IA" a su nombre y cobre el doble. Debemos exigir que las integraciones sean genuinas, eficientes y que realmente agreguen valor, no solo capitalicen el hype.
5. Mantener el pensamiento crítico como núcleo
La agudeza analítica y mirada de contexto nunca serán reemplazables por algoritmos. Ni MAXQDA ni Claude AI pueden sustituir al investigador pensante. Son herramientas, no metodólogos.
6. Prepararnos para el cambio de paradigma tecnológico
El modelo de software descargable y procesamiento local está siendo reemplazado por la nube, APIs y procesamiento distribuido. Las herramientas que no se adapten a este paradigma quedarán obsoletas, sin importar cuánta legitimidad institucional tengan hoy.
El debate que no podemos seguir evadiendo
La IA ya está aquí. Ya la estamos usando. Ya está cambiando cómo investigamos, escribimos y analizamos datos. La pregunta no es si debemos integrarla a nuestras prácticas académicas —ya lo hicimos— sino cómo lo haremos de manera rigurosa, ética y metodológicamente defendible.
Podemos seguir aferrándonos a las herramientas tradicionales por pura inercia institucional, o podemos ser honestos sobre sus limitaciones y abrirnos a evaluar alternativas emergentes con el mismo rigor con que validamos las herramientas del pasado.
El efecto Uróboro es una amenaza real: si la IA se alimenta de contenido generado por IA hasta diluir el pensamiento original humano, enfrentaremos un colapso epistemológico. Pero ese colapso no vendrá por usar IA, sino por usarla mal: delegando el pensamiento crítico, confiando ciegamente en sus outputs, y perdiendo la capacidad de validar, cuestionar y construir conocimiento original.
La salud educativa de nuestras instituciones depende de que lleguemos a un consenso: la IA es una herramienta poderosa que debe ser usada con rigor metodológico, trazabilidad y pensamiento crítico. Ni la hagiografía tecnófila ni el ludismo académico nos llevarán a buen puerto.
El debate es interesante. Pero más que interesante, es urgente.