Platón ante la Inteligencia Artificial: entre la cueva, la escritura y ChatGPT

En “Paedrus” (Fedro) (274e7–275b2), Platón relata el mito del rey egipcio Thamus y el dios Theuth, inventor de la escritura. Movido por el deseo de popularizar su invención, Theuth se la presenta a Thamus como “un elixir de la memoria y la sabiduría” (274e), el mejor remedio (pharmakon) contra el olvido y la ignorancia. Pero el rey argumenta que no es un elixir de la memoria (mneme), sino del recuerdo (hypomnesis), y que puede ser un veneno.

El rey Thamus le preguntó entonces qué utilidad tenía escribir, y Theuth le replicó: —“Este conocimiento, ¡oh rey!, hará más sabios a los egipcios; es el elixir de la memoria y de la sabiduría”. Entonces Thamus le dijo: —“¡Oh Theuth!, por ser el padre de la escritura le atribuyes ventajas que no tiene. Es olvido lo que producirán las letras en quienes las aprendan, al descuidar la memoria, ya que, fiándose de los libros, llegarán al recuerdo desde fuera. Será, por tanto, la apariencia de la sabiduría, no su verdad, lo que la escritura dará a los hombres; y, cuando haya hecho de ellos entendidos en todo sin verdadera instrucción, su compañía será difícil de soportar, porque se creerán sabios en lugar de serlo.»

Platón, Phaedrus (274e7–275b2), siglo IV a.C.

La obra de Platón, filósofo griego del siglo IV a.C., continúa iluminando los dilemas del presente, y en la actualidad es un referente en el análisis de la realidad y efectos de la inteligencia artificial (IA). Aunque nunca imaginó ordenadores ni algoritmos, sus reflexiones sobre el conocimiento, la memoria, la verdad y la apariencia ofrecen una poderosa lente para analizar los riesgos y oportunidades que plantea la IA, especialmente los modelos de lenguaje como ChatGPT.

…debemos recordar que lo que parece sabiduría no siempre lo es. La escritura —como la IA— debe ser guiada por el pensamiento crítico, y no sustituirlo.

El mito de Theuth y Thamus: crítica platónica a la escritura y la IA

En el diálogo Fedro, Platón presenta el famoso mito en el que el dios Theuth, inventor de la escritura, ofrece su invención al rey egipcio Thamus como un «elixir de memoria y sabiduría». Thamus, sin embargo, rechaza el ofrecimiento con estas palabras:

“Será, por tanto, la apariencia de la sabiduría, no su verdad, lo que la escritura dará a los hombres; y, cuando haya hecho de ellos entendidos en todo sin verdadera instrucción, su compañía será difícil de soportar, porque se creerán sabios en lugar de serlo.”

Esta crítica encaja perfectamente con uno de los grandes riesgos de la IA generativa y los grandes modelos de lenguaje: su capacidad de producir texto coherente y persuasivo sin entenderlo realmente, lo que puede generar una ilusión de conocimiento. Tal como señalamos en el artículo “And Plato Met ChatGPT[1], esta analogía revela que los peligros detectados por Platón ante la escritura se repiten hoy ante los chatbots: pérdida de memoria, desplazamiento de la reflexión crítica, y el riesgo de confundir verosimilitud con verdad.

La alegoría de la cueva: IA y las sombras del conocimiento

En La República, Platón describe la Alegoría de la Cueva, donde unos prisioneros, encadenados de por vida, solo ven sombras proyectadas en la pared, sin conocer los objetos reales que las producen. Cuando uno de ellos escapa y ve la realidad por primera vez, comprende la ilusión en la que vivía.

La analogía con la IA es aquí también evidente: los modelos de IA, como ChatGPT, no acceden a la realidad sino solo a “sombras lingüísticas”: datos, textos, patrones. Su conocimiento no es experiencial ni reflexivo, sino estadístico. Aprenden relaciones entre palabras, no entre conceptos verdaderos. Como los prisioneros, la IA ve solo fragmentos, sin comprender el todo. Esta analogía se refuerza al considerar que los modelos de IA carecen de acceso directo al mundo físico y no pueden distinguir entre hechos verificables y ficciones lingüísticas. Aunque una IA entrenada con datos precisos y de calidad puede aproximarse a una representación más coherente de la realidad, siempre persiste el riesgo de que los sesgos contenidos en esos textos afecten su capacidad para ofrecer conocimiento fiable.

Platón y los textos vivos: ¿puede ChatGPT ser autor?

Platón no condenó la escritura; todo lo contrario, es autor de una amplia colección de diálogos filosóficos que han perdurado por siglos y que constituyen la base de la tradición filosófica occidental. Aunque en Fedro critica la escritura por su incapacidad para sostener el diálogo vivo y generar conocimiento verdadero sin mediación, Platón elige precisamente el formato escrito para preservar las ideas de su maestro Sócrates y para desarrollar sus propias propuestas filosóficas.

Esto revela que su crítica no es absoluta, sino que distingue entre una escritura «muerta», que repite sin comprender, y una escritura «viva», capaz de sembrar preguntas en mentes filosóficas y generar pensamiento crítico. Bajo esta perspectiva, el texto filosófico es válido si promueve la reflexión, el cuestionamiento y la búsqueda de la verdad.

En el contexto de la IA, especialmente con modelos de lenguaje como ChatGPT, esta distinción platónica sigue siendo pertinente. La IA generativa puede producir textos coherentes, pero si no están guiados por discernimiento ni orientados a un propósito reflexivo, corren el riesgo de ser “textos sin sentido vital”. Como discutimos R. Calderón y F. Herrera en “And Plato Met ChatGPT”, un chatbot no puede justificar ni defender sus afirmaciones, carece de conciencia y de responsabilidad epistémica, y por tanto no puede ser considerado autor. Su rol puede ser auxiliar, pero el juicio, la intención y la responsabilidad recaen en el autor humano.

Por ejemplo, un texto generado por IA puede construir un argumento aparentemente coherente sobre la justicia o el amor platónico, citando frases relevantes e incluso emulando el tono de un diálogo socrático. Sin embargo, si se le exige justificar su postura o responder a una crítica filosófica imprevista, el modelo no podrá sostener un intercambio verdaderamente reflexivo. Lo que parece un diálogo es, en realidad, una secuencia de repeticiones entrenadas: un “texto muerto” disfrazado de conversación viva. No obstante, si se emplea con intención crítica, este tipo de texto puede actuar como un espejo heurístico: aunque no posea conciencia ni comprensión, puede estimular el pensamiento del lector, provocando preguntas y reflexiones. En ese sentido, como la escritura según Platón, su valor depende del uso que le dé quien filosofa. 

El legado platónico: entre pharmakon y verdad

Platón usó el término pharmakon para describir la escritura, y esta palabra tiene una ambigüedad esencial en griego antiguo: puede significar remedio o veneno —o incluso ambos a la vez.  Lo mismo puede decirse hoy de la IA. Es veneno si reemplaza la reflexión, genera desinformación o simula sabiduría. Pero puede ser remedio si se usa con juicio crítico, con responsabilidad y con el alma del filósofo: la que busca la verdad más allá de las apariencias.

¿Qué nos enseñaría Platón hoy sobre la IA?

Platón nos ofrece dos advertencias esenciales para el uso responsable de la IA generativa:

  1. No confundir apariencia con verdad.
  2. No ceder el juicio humano a herramientas que no pueden responder ni razonar.

ChatGPT puede colaborar con escritores, científicos o educadores. Pero como afirmaba Thamus ante Theuth, debemos recordar que lo que parece sabiduría no siempre lo es. La escritura —como la IA— debe ser guiada por el pensamiento crítico, y no sustituirlo.

En este tiempo de tecnologías cada vez más persuasivas, nuestra mayor responsabilidad es no delegar la facultad de pensar. La IA puede acompañarnos, incluso desafiarnos, pero nunca debe reemplazarnos. Hemos de avanzar hacia procesos de “cointeligencia[2], que promuevan una colaboración genuina entre humanos e IA, sin pérdida del juicio humano, porque solo así será posible distinguir entre la sombra y la verdad.

[1] Calderon, R., & Herrera, F. (2025). And Plato met ChatGPT: an ethical reflection on the use of chatbots in scientific research writing, with a particular focus on the social sciences. Humanities and Social Sciences Communications12(1), 1-13. (Acceso abierto en: https://www.nature.com/articles/s41599-025-04650-0 )

[2] Mollick, E. (2024). Cointeligencia: Vivir y trabajar con la IA. Penguin Random House

Abel Santos / «Talentos con Acento»

Francisco Herrera (Jódar, Jaén, 1966) es catedrático del Dpto. Ciencias de la Computación e IA de la Universidad de Granada, director del Instituto de Investigación DaSCI de dicha Universidad y miembro de la Real Academia de Ingeniería de España. Ha desarrollado una intensa actividad científica en el ámbito de la inteligencia artificial, destacando sus más de cuatrocientas publicaciones en revistas de impacto en temáticas de inteligencia artificial, con desarrollos en: Inteligencia Computacional (sistemas difusos, algoritmos evolutivos, deep learning, computación de palabras en toma de decisiones), fusión de información, bibliometría, biometría y ciencia de datos (preprocesamiento de datos, predicción, análisis de sentimentos y big data).

Sus publicaciones científicas han recibido más de 70.000 citas en la base de base de datos del Google Scholar (http://scholar.google.es/citations?user=HULIk-QAAAAJ&hl=es), con índice h en Scholar Google de 134 (Mayo 2019). Está nominado como «Highly Cited Researcher» por Clarivate Analytics en las áreas de «Computer Sciences»  e «Engineering»  (Fuente: Highly Cited Researchers, desde 2014, http://highlycited.com/).