El conocimiento científico siempre se ha generado de maneras intrincadas e incluso enigmáticas: ha operado en la frontera ambigua entre la colaboración y la competencia, entre la originalidad individual y las fuerzas impersonales del contexto histórico y tecnológico. Los grandes científicos, esos héroes románticos que imaginamos solitarios y geniales, jamás actuaron en un vacío absoluto. Así, desde Newton y Leibniz peleando por la paternidad del cálculo hasta los físicos del CERN tratando de negociar el crédito de sus hallazgos colectivos, la noción de autoría ha estado marcada por tensiones y ambigüedades profundas. Hoy, más que nunca, cuando las investigaciones exigen esfuerzos interdisciplinarios y redes globales, estas dinámicas revelan con claridad cómo el avance científico depende tanto del ingenio personal como de complejas negociaciones institucionales.
La incorporación de inteligencias artificiales generativas (GAI, por sus siglas en inglés) y modelos grandes de lenguaje (LLMs, por sus siglas en inglés) en la investigación científica exacerba estas interacciones y dinámicas. Aunque la inteligencia artificial (IA) introduce la cuestión inédita de si una máquina puede ser un autor, sobre todo intensifica una incertidumbre profundamente arraigada en la historia de la ciencia. Lo novedoso radica en el grado sin precedentes en que estas tecnologías desafían nuestra percepción tradicional de agencia, originalidad y responsabilidad. Al difuminar las fronteras entre lo creado por la máquina y lo ideado por el ser humano, obligan a replantear criterios fundamentales en la asignación del crédito científico. Así, en vez de cerrar la discusión sobre autoría, la IA nos invita a enfrentar con mayor agudeza preguntas incómodas y necesarias: ¿qué significa realmente ser el autor de una idea?, ¿hasta qué punto debemos distinguir entre la herramienta y quien la usa?, y, sobre todo, ¿cómo garantizamos la responsabilidad intelectual en un contexto donde la creatividad ya no es exclusivamente humana? Estas cuestiones, lejos de ser meras curiosidades filosóficas, adquieren relevancia práctica inmediata, afectando desde la evaluación académica hasta los fundamentos éticos mismos del quehacer científico contemporáneo.
Históricamente, la figura del autor ha sido entendida de manera un tanto ingenua: un individuo excepcional cuyo intelecto individual le permite producir conocimiento de manera autónoma. Esta imagen idealizada no solo es filosóficamente insostenible, sino que simplifica en exceso la dinámica real del trabajo científico, siempre colaborativa y profundamente condicionada por herramientas técnicas, comunidades epistémicas y contextos sociales complejos. El investigador, lejos de operar como una mente solitaria y autosuficiente, se constituye en la intersección de múltiples influencias sociales, prácticas institucionales y tecnologías disponibles en cada época. Su identidad como autor no deriva únicamente del ingenio personal, sino de su capacidad para actuar como nodo articulador dentro de una red extendida de interacciones, diálogos, tensiones y negociaciones. Comprender la autoría científica en estos términos implica reconocer el carácter inherentemente colectivo y distribuido del conocimiento, así como el papel crucial que desempeñan las condiciones materiales, culturales y tecnológicas en su producción.
La llegada de los LLMs pone al descubierto algo que, en realidad, siempre hemos intuido, pero que preferimos no afrontar directamente: que la autoría no es un concepto binario y sencillo, sino uno gradual, complejo y vago. Cuando un investigador utiliza modelos como GPT únicamente para pulir aspectos estilísticos del texto o recomendar referencias complementarias, la autoría humana permanece relativamente intacta y no se cuestiona seriamente. Sin embargo, cuando la participación del modelo comienza a moldear significativamente las ideas centrales, el desarrollo argumental o incluso la estructura conceptual del trabajo, emergen inevitables dudas acerca de quién (o qué) merece el crédito intelectual correspondiente. Esto sucede porque los LLMs, al ofrecer no sólo recursos estilísticos sino propuestas sustantivas, comienzan a ocupar un espacio tradicionalmente reservado a la mente creativa humana. La frontera, antes cómoda y aparente, ahora se convierte en una zona de profunda incertidumbre epistémica y ética, que nos obliga a preguntarnos nuevamente cómo definimos la agencia creativa, cómo establecemos límites claros entre lo humano y lo artificial, y en última instancia, cómo concebimos la responsabilidad intelectual en la era de la GAI.
¿Por qué entonces la interacción con LLMs genera esta incomodidad intuitiva tan marcada? En gran medida, porque estas tecnologías proyectan una ilusión notablemente convincente de agencia autónoma. A diferencia de las herramientas científicas clásicas —un telescopio, un microscopio electrónico— cuya operación técnica puede describirse claramente en términos físicos y cuya contribución al proceso de conocimiento resulta relativamente transparente, los modelos generativos trabajan desde una opacidad profunda y desorientadora. No sólo sus mecanismos internos permanecen parcialmente inaccesibles e inexplicables, sino que además, sus productos presentan cualidades que históricamente se han considerado exclusivamente humanas, como la creatividad, la originalidad aparente y la espontaneidad discursiva. Esta “caja negra” algorítmica desestabiliza nuestras intuiciones sobre responsabilidad intelectual porque ya no queda claro dónde termina la agencia humana y dónde comienza la del sistema artificial. Así, la incomodidad que sentimos no es meramente circunstancial, sino estructural: los LLMs nos obligan a replantear radicalmente conceptos fundamentales de autoría, autonomía cognitiva y responsabilidad en la producción científica.
Para aclarar estos matices, resulta útil clasificar las interacciones entre científicos y LLMs en categorías claras. En primer lugar, existen interacciones mínimas, de carácter puramente instrumental, donde el LLM realiza tareas triviales o auxiliares, como corregir la ortografía, mejorar la claridad estilística o sugerir referencias complementarias. Por ejemplo, un investigador podría emplear GPT únicamente para redactar de manera más fluida la introducción de un artículo, sin que el contenido original se vea alterado de manera sustancial. En segundo lugar, están las interacciones moderadas, donde la inteligencia artificial asume funciones más activas y colaborativas, participando en procesos cognitivos intermedios. En estos casos, el LLM ayuda a formular preguntas de investigación, organizar la estructura argumental de un artículo cintífico o proponer nuevas conexiones entre conceptos previamente conocidos. Un ejemplo sería utilizar GPT como asistente para identificar lagunas en un marco teórico, o sugerir variaciones en la hipótesis de estudio que podrían conducir a resultados más sólidos. En tercer lugar, encontramos interacciones profundas, en las cuales la intervención del modelo generativo influye significativamente en el núcleo intelectual del trabajo, llegando a determinar en buena medida las ideas principales, la elección de métodos o las conclusiones mismas. Por ejemplo, esto ocurriría cuando un LLM propone una hipótesis inédita, identifica patrones novedosos en datos complejos, o incluso recomienda enfoques metodológicos que el investigador no había considerado inicialmente, reorientando sustancialmente la dirección de la investigación.
Esta clasificación, aunque general, permite visibilizar la diversidad y el espectro gradual de implicación cognitiva y creativa de los modelos generativos, ofreciendo criterios prácticos para evaluar con mayor precisión las responsabilidades, límites y consecuencias en cada tipo de interacción. Este espectro también evidencia que no todas las interacciones entre humanos y máquinas son igualmente problemáticas. La autoría, en última instancia, debe evaluarse según el grado en que la IA influya sobre las decisiones conceptuales clave del trabajo científico. Esta evaluación no puede ser simplista ni moralista, sino necesariamente contextual y crítica.
Algunos casos resultan claros: el investigador que únicamente utiliza la IA para corregir errores gramaticales o para afinar la claridad estilística de un artículo conserva plenamente la autoría tradicional. Por ejemplo, si una investigadora emplea GPT solo para pulir una sección ya desarrollada, la contribución sustantiva es claramente humana. En el otro extremo, si un LLM genera hipótesis originales, identifica patrones en datos complejos o propone estrategias metodológicas sin una intervención significativa por parte del investigador, resulta evidente que la autoría clásica se diluye y se compromete. El verdadero desafío, sin embargo, está en los casos intermedios, esos espacios grises donde la interacción humano-IA es intensa, pero no completamente determinante. Por ejemplo, supongamos que un investigador propone una pregunta inicial y el LLM la reformula sustancialmente, sugiriendo enfoques alternativos que la enriquecen significativamente. O imaginemos un equipo científico que utiliza un modelo generativo para explorar variantes metodológicas de un experimento; la IA aporta diversas opciones, algunas de las cuales terminan definiendo el enfoque central del proyecto. Otro caso podría darse cuando el modelo ofrece interpretaciones novedosas de resultados preliminares, que luego el investigador adopta y amplía de manera decisiva.
Estos ejemplos revelan la sutileza del problema: ¿qué tan determinante debe ser la contribución de un LLM para cuestionar la autoría tradicional? ¿Dónde marcamos el límite entre una interacción instrumental y una colaboración genuina? La ambigüedad intrínseca a estos escenarios obliga a repensar nuestros criterios éticos y legales, ya que las prácticas científicas actuales avanzan más rápido que nuestra capacidad para categorizarlas claramente.
Es aquí donde se requiere una reflexión profunda sobre qué significa exactamente comprometer la autoría. Más allá del temor inmediato a perder reconocimiento personal, surge una cuestión filosófica más sustancial sobre las responsabilidades epistémicas y éticas del investigador. La autoría científica no es solo un mecanismo de prestigio académico o de asignación de crédito; implica también la responsabilidad de justificar, sostener y responder por las ideas y resultados generados. En otras palabras, quien aparece como autor asume la obligación de garantizar la validez, precisión y honestidad intelectual de lo que firma.
Cuando introducimos tecnologías como los LLMs en el proceso científico, estas responsabilidades intelectuales se vuelven difusas y problemáticas. La dificultad radica en que resulta complejo atribuir responsabilidad a una IA que, muchos asumen por definición, no posee intencionalidad ni conciencia. Así, incluso cuando un modelo generativo contribuye significativamente en la formulación de hipótesis, en el análisis de datos o en la interpretación de resultados, no siempre es posible exigirle rendición de cuentas. Por ende, la responsabilidad completa puede recaer inevitablemente sobre el investigador humano. (Aunque pudiera ocurrir que nadie sea responsable en absoluto). Esto implica una tensión crítica: el investigador podría beneficiarse de la creatividad generada por un LLM, pero sigue siendo moral y académicamente responsable de defender y justificar ideas cuya génesis no comprende plenamente o que tal vez no hubiera podido producir por sí mismo. Este desajuste entre autoría y responsabilidad intelectual exige repensar urgentemente las normas académicas y éticas para reflejar las nuevas realidades tecnológicas. Necesitamos desarrollar criterios claros que permitan asignar no solo créditos, sino responsabilidades reales y definidas, con el fin de mantener intacta la integridad intelectual en una era en la que la producción del conocimiento ya no es un acto exclusivamente humano.
La nueva generación de científicos debe entender que las tecnologías como los LLMs no vienen a reemplazar ni eliminar la autoría, sino a hacer explícitas las ambigüedades inherentes a ella. Ignorar esta complejidad no la resuelve, sino que la profundiza, generando controversias interminables sobre integridad científica y responsabilidad intelectual. Las instituciones académicas y las políticas editoriales tienen aquí una responsabilidad fundamental: proporcionar criterios claros y flexibles que permitan juzgar cuándo una interacción con IA compromete la autoría y cuándo no. Estas pautas deben ser transparentes, coherentes y adaptables, capaces de lidiar con la evolución constante de las tecnologías.
En definitiva, la era de los LLMs no marca el fin de la autoría, sino el comienzo de una discusión más honesta sobre su verdadera naturaleza. Este debate, aunque incómodo, resulta imprescindible, porque sin una comprensión clara de lo que implica ser autor en el siglo XXI, corremos el riesgo de perder no solo la precisión conceptual, sino también nuestra capacidad genuina de responsabilizarnos por nuestras ideas y descubrimientos.
Tal vez, en realidad, la llegada de estas tecnologías solo ha evidenciado que nuestra noción tradicional de autoría nunca reflejó plenamente la realidad profunda del trabajo científico ni las dinámicas reales de la comunidad académica. Quizá la figura del autor individual, autónomo y excepcional no ha sido más que una idealización persistente, heredada de una época en que el conocimiento se narraba como hazaña heroica, ocultando así las interacciones colectivas y los condicionantes materiales y culturales que siempre la han definido. Ahora, frente a los desafíos que plantea la GAI, estamos ante la oportunidad histórica de abandonar esa mitología y construir un marco conceptual más honesto, claro y responsable sobre lo que realmente significa participar en la creación colectiva del conocimiento.
Si aspiramos a conservar el valor central de la autoría —la capacidad de responder por lo que se afirma—, debemos enfrentar sin ingenuidades la complejidad que la ciencia moderna siempre ha tenido, y que hoy los LLMs hacen imposible seguir ignorando. De otra manera, estaremos condenados a movernos en un territorio intelectual permanentemente difuso, donde la claridad ética y epistémica sea solo una ilusión perdida.