Hace solo unos años, la IA parecía poco más que un bonito juguete: un chatbot que simulaba inteligencia al construir frases completas en respuesta a las indicaciones de los usuarios, pero que, en última instancia, no era mucho más sofisticado que un motor de búsqueda avanzado. Sin embargo, ahora ha demostrado ser una herramienta increíble capaz de realizar tareas que nunca pensé que serían posibles en mi vida.

Por ejemplo, he utilizado la IA para localizar conjuntos de datos en línea, manipularlos, realizar pruebas estadísticas y generar tablas y gráficos pulidos, acompañados de comentarios sensatos sobre lo que significan los resultados, cómo se relacionan con la literatura académica y los puntos fuertes y débiles del análisis. En menos de media hora, la IA puede hacer un trabajo que a un asistente de investigación le llevaría varios días.
A veces, los modelos de IA actuales parecen casi capaces de leer la mente. A diferencia de lo que ocurre en la programación o al escribir código, no es necesario especificar con gran precisión lo que se busca, sin dejar margen para malinterpretaciones. El modelo «intuirá» lo que se busca y completará los detalles que faltan (aunque es mejor comprobarlos siempre, como pueden atestiguar los bufetes de abogados que han presentado escritos generados por IA con citas ficticias). O, en su defecto, la interfaz te guiará hasta que hayas aclarado tu consulta.
Es reconfortante pensar que la IA podría ser una herramienta que nos ayude a todos a ser más productivos y mejores en lo que hacemos. Sin duda, me ha hecho más eficiente en la investigación. Reduce los costes de los emprendedores al proporcionar servicios de marketing y consultoría a bajo precio. Permite a los agentes junior de atención al cliente aprovechar las habilidades y la experiencia del personal con más antigüedad. Y permite a los trabajadores temporales o a los artesanos prestar servicios más sofisticados y técnicamente exigentes.
A diferencia de muchas tecnologías anteriores, la IA se encuentra en una posición única para ayudar a quienes tienen menos habilidades y menos formación: los trabajadores que ocupan los peldaños más bajos de la economía. Al dotarnos a cada uno de nosotros de mayores capacidades, ofrece ventajas que son potencialmente más significativas para quienes partían con mayores desventajas iniciales. Eso significa que podría funcionar de manera muy diferente a, por ejemplo, la automatización, cuyo principal objetivo es sustituir a los trabajadores de la cadena de montaje o en tareas de ventas o administrativas.
La preocupación, por supuesto, es que la IA también haga mucho más que eso, con consecuencias inciertas. Por ahora, considero que elegir y formular las preguntas de investigación es mi prerrogativa y la principal fuente de mi ventaja competitiva. Pero en algún momento, me imagino sintiéndome tentado a pedirle a la IA que genere las preguntas por sí misma. De hecho, las herramientas de IA que utilizo ya me están animando a hacerlo. Al final de un ejercicio del tipo que he esbozado anteriormente, me sugieren amablemente nuevas vías de análisis fructífero que podría seguir.
La IA sustituye al pensamiento de otras formas más sutiles. Ya está moldeando mi forma de pensar sobre la investigación existente. No solo resume lo que hay disponible; también me indica cómo la investigación adyacente se relaciona con mi trabajo y cómo debería planteármelo. Establece conexiones entre diferentes partes de la bibliografía que no se me habían ocurrido.
Ahí radica el mayor peligro. El debate público sobre el impacto de la IA en la sociedad se centra en gran medida en el posible desplazamiento de trabajadores y la pérdida de puestos de trabajo. Pero un riesgo aún mayor es el desplazamiento del pensamiento humano. Cuando permitimos que la IA haga el trabajo de pensar por nosotros, cruzamos un umbral importante. Nuestra capacidad colectiva para pensar se degrada, al igual que nuestro incentivo para aprender a pensar. Y dado que la línea entre aplicar el pensamiento a un problema y el pensamiento en sí mismo ya es difusa, se cruza fácilmente.
En un interesante artículo reciente, Daron Acemoglu, Dingwen Kong y Asuman Ozdaglar, del MIT, formalizan una intuición sobre cómo esa descarga cognitiva puede producir resultados catastróficos. Se preguntan qué ocurre cuando los modelos de IA se vuelven muy buenos a la hora de proporcionar el tipo de conocimiento específico del contexto que puede ayudar a las personas a realizar cualquier tarea concreta en la que estén inmersas. Esos resultados permitirían a las personas lograr mejores resultados, incluso con menos aprendizaje.
Pero aquí hay un problema, porque el conocimiento tiene una externalidad importante. Al pensar en cómo resolver mi problema, también contribuyo al acervo general de conocimientos sobre cómo otros pueden resolver los suyos. Cuando invierto menos en mi propio aprendizaje, el acervo general de conocimientos se resiente. En el caso límite y distópico, el conocimiento general desaparece por completo.
Es cierto que, por ahora, esto es solo una posibilidad teórica y, dependiendo de lo que se suponga sobre la fuerza de los efectos contrapuestos, también son posibles mejores resultados. Pero el peligro es real. Cuando permitimos que la IA aprenda y piense por nosotros, degradamos nuestras propias capacidades humanas y corremos el riesgo de acabar destruyendo la base de conocimiento en la que se sustenta la propia IA.
Abordar estas cuestiones requerirá el desarrollo de normas sociales y profesionales sobre el uso adecuado de la IA. Por ejemplo, es posible que los investigadores tengan que incluir información detallada sobre cómo han utilizado la IA —un proceso que podrían automatizar las propias herramientas de IA— y que las decisiones sobre publicación y promoción se inclinen claramente hacia los productos de la mente humana. Organizaciones como la Partnership on AI pueden ayudar a desarrollar y difundir principios generales. También necesitaremos nuevas formas de regulación gubernamental, como ha requerido prácticamente toda nueva tecnología.
Una condición necesaria para tales soluciones es una nueva forma de pensar sobre la IA. Por encima de todo, el discurso público necesita un enfoque diferente. La pregunta que deberíamos estar debatiendo no es qué nos hará la IA, sino qué queremos que haga por nosotros.
Dani Rodrik, profesor de Economía Política Internacional en la Harvard Kennedy School, es expresidente de la Asociación Económica Internacional y autor de Shared Prosperity in a Fractured World: A New Economics for the Middle Class, the Global Poor, and Our Climate (Princeton University Press, 2025).