Del prompt ideal a la humanización del texto

José Alfredo Sabatino Pizzolante
Correo: jose.sabatino@sabatinop.com

Un nuevo oficio ha surgido al calor de las múltiples herramientas de la IA como ChatGPT, Gemini, Copilot, DeepSeek, entre otras. Se trata del Promptólogo ese personaje que a diario nos bombardea por las redes sociales con infinidad de publicaciones, explicando cómo deben ser hechas las preguntas o planteamientos para obtener las respuestas apropiadas. Sean prompts breves o extensos, cada uno de estos expertos insisten en las bondades del suyo, como si se tratara de un santo grial que no garantiza la vida eterna sino la respuesta deseada. Más temprano que tarde, imaginamos, veremos diplomados y maestrías en promptología, especialidad dirigida a preparar a los interesados acerca de la forma de preguntar a la IA, de interactuar con los grandes modelos de lenguaje (LLM) para sacar mejor provecho del conocimiento que han acumulado estos últimos a través de su entrenamiento, pues ahora se invierten los papeles ya que a estas herramientas se les entrena – aprenden ellas, por decirlo de algún modo– mientras el hombre simplemente se limita a preguntarles, a suministrarles el prompt apropiado. Mientras tanto, hay instituciones educativas que se esmeran, incluso, en diseñar manuales para la formulación de aquéllos, a veces bajo el eufemismo de guía para docentes innovadores.

Se echan por la borda siglos de filosofía del conocimiento, se ignora la epistemología y la dialéctica, sepultándose así el pensamiento crítico. Nada que pensar, ninguna idea que confrontar, solo una palabra o palabras mágicas que habrán de producir la respuesta sin importar la calidad del contenido. Se trata de saciar el apetito intelectual o la imaginación de quien usa la herramienta, pero no de comprender o asimilar la respuesta. Gracias a la IA se investigará, leerá y estudiará menos. Un reciente artículo del historiador británico Niall Ferguson, apuntaba a la IA como una de las razones por las cuales los estudiantes pasan tan poco tiempo estudiando, citando las palabras de James D. Walsh quien afirma –no sin cierta exageración– que todo el mundo está sacando su carrera mediante engaño. De hecho, Ferguson, hacía referencia a una encuesta entre 1.000 estudiantes universitarios de Norteamérica que reveló que, solo dos meses después de lanzado ChatGPT, casi el 90% de ellos lo había utilizado para hacer los trabajos asignados a la casa. (The Times, 4 de julio 2025)

Esta visión distorsionada de la IA, ese afán de encontrar la respuesta inmediata, obtener la imagen recreada y ficticia, el vídeo de lo que nunca ocurrió o vivimos, el que nos convierte en seres ideales pero falsos, oradores que no somos, escritores sin libros, compositores sin conocimiento musical, en fin, ese deseo de escribir o decir algo, aparentar lo que no somos, plantea serios problemas existenciales y dilemas éticos de difícil solución, en todo caso, para el hombre cuyos principios y valores son tan cambiantes y relativos. Nos empeñamos en hablar de la Inteligencia Artificial, olvidando que inteligente es el hombre, a pesar de todas sus imperfecciones. John Searle, el filósofo crítico, ya insistía sobre el punto cuando formuló su famoso experimento de la Habitación China: las computadoras no pueden tener mente o conciencia genuinas, solo simularlas, de allí que rechazara la idea de que una máquina programada pudiera tener entendimiento humano,
distinguiendo entre la simulación y la realidad. (Minds, brains and science, Harvard University Press, 1984)

No podemos generalizar al referirnos a la visión distorsionada que algunos tienen respecto de la IA, sería un craso error. Sin embargo, es una preocupación razonable la nuestra cuando pensamos en aquellos jóvenes en temprana etapa de aprendizaje y, en verdad, en los estudiantes en general. Si todos estamos a merced de los algoritmos, los que apenas transitan tempranamente su formación, cualquiera sea el campo de conocimiento, son sus víctimas directas. De hecho, ya los expertos hablan de evidencias que apuntan a fallas en la lectura y habilidades cognitivas en los jóvenes, como consecuencia del uso prolongado de la IA, que afectan definitivamente la compresión. No por casualidad un reporte avalado por el National Literacy Trust (Reino Unido), encontró que: «A muchos docentes también les preocupa el impacto de estas nuevas herramientas en la alfabetización de los estudiantes, incluida su motivación para escribir, su comprensión lectora y su resistencia y, más ampliamente, en el valor percibido de desarrollar habilidades de escritura y lectura en general». (Picton, I. (2025) Teachers’ use of AI to support literacy in 2025) Algunos entendidos, incluso, hablan hoy de “Analfabetas eruditos”.

Tampoco el mal uso de estas herramientas son exclusividad de los estudiantes, pues ya hemos comenzado a ver profesionales de distintas disciplinas haciendo uso inapropiado de ellas para el desempeño de sus labores, resultando en sanciones e incluso despidos. Ingenieros que resuelven problemas técnicos, mediante información exclusiva y confidencial de la empresa, bajo el peligro de ser asimilados por IA; contadores que elaboran reportes contables e informes financieros sin transparencia e incurriendo en plagios; y abogados que redactan demandas citando como precedentes litigios inexistentes, se cuentan entre los muchos casos reportados por la prensa y que involucran a reconocidas empresas transnacionales. A mediados de este año, un tribunal del Reino Unido encontró inaceptable el mal uso de la IA por parte de los abogados litigantes, enviando sus consideraciones a los entes reguladores, a los fines de que decidieran qué otros pasos pudieran darse para asegurar el cumplimiento de las buenas prácticas. (R (Ayinde) v London Borough of Haringey; R (Al-Haroun) v Qatar National Bank QPSC, Divisional Court (King’s Bench Division), sentencia de 6 de junio de 2025).

Se impone, desde luego, no solo el dominio práctico de la IA, sino también su debido uso, es decir, su utilización apegada a principios éticos que no comprometan o coloquen en riesgo el contenido. ¡Hay que erradicar la idea de que el buen uso de la IA depende tan solo de utilizar el prompt correcto! No se trata de rechazar el uso de la IA, mucho menos abolirlo, tan solo de considerarla una herramienta muy útil, pero siempre complementaria, que debe acompañarse del razonamiento crítico que solo se adquiere en la medida que se estudia, se lee, se investiga, se discute y se somete el producto final a un proceso hermenéutico y devalidación. Se trata, además, de un aprendizaje colectivo responsabilidad de todos en el hogar, establecimientos educativos, empresas e instituciones públicas y privadas. Para decirlo de otra manera, urge una nueva cultura en torno a las posibilidades, limitaciones y riesgos de la IA. Cada día leemos más sobre códigos o lineamientos éticos para el uso de la IA, pero de nada servirán tales declaraciones de principios, si la educación a todos los niveles no advierte sobre sus riesgos, contribuyendo a modelar programas que ubiquen a estas tecnologías disruptivas en el marco del conocimiento convencional en el que la lectura, la escritura y la comprensión juegan un papel fundamental.

Por otra parte, frente a los problemas que ya de por sí suponen el uso de la IA, también debemos hacer frente a la avalancha de nuevos productos que el mercado ofrece a diario. Nos referimos, en particular, a los detectores de IA como solución para erradicar supuestas marcas existentes en el texto originalmente obtenido con la herramienta y, posteriormente, humanizarlo. Con mucha sorpresa hemos visto que algunos de estos productos son muy pocos confiables, al punto de que luego de suministrarle algunos de nuestros textos con más de una década de antigüedad o, en otras ocasiones, textos nuestros elaborados con información primaria inédita, la herramienta ha dictaminado que los textos al menos en un 90% a 95% han mostrado signos de IA. Lo curioso es que acto seguido al ofrecer la herramienta la humanización del texto (versión optimizada), solicita los detalles del modo de pago que habrá de utilizarse. El tema sería realmente preocupante, a no ser porque al suministrarle a la misma herramienta el Capítulo VIII del Don Quijote, ésta encontró que el texto de Cervantes al menos en un 96% había utilizado IA. Esto tampoco debe extrañarnos, ya que hace poco tiempo una noticia reportaba que igual suerte corrió el Acta de Independencia de los Estados Unidos que, de acuerdo con estos detectores, habrían encontrado una altísima probabilidad) (superior al 95%) de que fuera creada por IA.

Lo anterior ratifica lo que ya los expertos vienen señalando sobre de la poca confiabilidad de estos productos. En un estudio en el que se evaluó la eficacia de seis detectores populares frente a textos generados por modelos de lenguaje, incluso cuando estos textos eran manipulados con técnicas de evasión (reescritura, variación de estilo, errores ortográficos controlados, etc.), los autores concluyeron que tales herramientas no son recomendables para juzgar violaciones de integridad académica debido a su baja fiabilidad en escenarios realistas. (Perkins et al. (2024) GenAI Detection Tools, Adversarial Techniques and Implications for Inclusivity in Higher Education. Disponible en: arXiv:2403.19148) Lo que nos preocupa, y hacemos énfasis en ello, no es la poca o ninguna confiabilidad de estos detectores, sino el uso de estos instrumentos por parte de docentes con limitadas habilidades o pobres criterios en su manejo.

La oferta misma que ellas hacen de humanizar el texto nos luce risible, porque nadie podrá hacerlo de mejor forma que nosotros mismos. No corresponde a los algoritmos, mucho menos a una inteligencia entrenada con el conocimiento producido por el ingenio humano a través de los siglos, sino que es exclusiva responsabilidad del hombre de carne y hueso, ese con cerebro, quien armado de su intelecto debe evaluar el producto final, las fuentes utilizadas, someterlo a la crítica, reescribir las ideas para darle coherencia, en fin, hacerlo verdaderamente suyo.

28 de diciembre de 2025