Ensayo | ¿Quién tiene derecho a ser considerado inteligente? Sesgos y resistencias ante el uso de la inteligencia artificial

Ensayo | ¿Quién tiene derecho a ser considerado inteligente? Sesgos y resistencias ante el uso de la inteligencia artificial

Resumen

Este ensayo propone que la inteligencia artificial generativa (IAG) opera simultáneamente como nuevo medio de comunicación y como herramienta cognitiva, y que esta dualidad comienza a ser asimilada por los usuarios, mientras persisten resistencias que pueden traducirse en sesgos interdependientes capaces de distorsionar la evaluación pública y académica de quienes recurren a esta tecnología. A partir del marco teórico de Lev Manovich sobre los nuevos medios, y en diálogo con las aportaciones de Karl Mannheim, Thomas Kuhn y Pierre Bourdieu, se identifican seis sesgos articulados, de esfuerzo, funcionalidad, legitimidad, utilidad, credibilidad y accesibilidad, que parecen surgir durante un periodo de asimilación tecnológica como parte de una resistencia orientada a preservar jerarquías intelectuales existentes de reconocimiento social ante la normalización del uso de la IAG y ante la percepción de una posible amenaza estructural.

1. Introducción

El debate público sobre la IAG ha quedado atrapado, en buena medida, en una pregunta de baja densidad epistémica: ¿quién escribió el texto y debe validarse si fue producido con inteligencia artificial? Aunque esta pregunta no carece de pertinencia en ciertos contextos, tiende a oscurecer un fenómeno más relevante: hay personas que utilizan estos sistemas no para producir textos en su nombre, sino para extender el alcance y la profundidad de su propio pensamiento.

La distinción parece sencilla, pero sus implicaciones son considerables. Usar la IA para expresarse implica delegar en la herramienta la superficie del discurso. Usarla para pensar implica incorporarla al proceso mismo mediante el cual se forman criterios, se exploran consecuencias y se construye conocimiento. Se trata de dos relaciones epistémicas distintas con un mismo objeto tecnológico, y confundirlas ha generado un conjunto de malentendidos con consecuencias reales para el reconocimiento del trabajo intelectual.

Este fenómeno puede estar vinculado con una serie de sesgos cognitivos y sociales que operan de manera articulada y cuya función, no siempre consciente, parecería ser la protección de estructuras de legitimación intelectual preexistentes frente a una herramienta que las desafía. Para desarrollar este argumento, se propone primero un marco conceptual que sitúe la IAG como nuevo medio en el sentido de Lev Manovich; se formula después la distinción central entre uso expresivo y uso cognitivo; y se describen finalmente seis sesgos que, más que aparecer de forma aislada, podrían conformar un sistema con efectos prácticos sobre la evaluación del trabajo intelectual mediado por IA.

2. La IAG como nuevo medio

En The Language of New Media (2001), Lev Manovich argumenta que los medios digitales no son simplemente canales nuevos para contenidos preexistentes, sino formas inéditas de organizar la cultura y el pensamiento. Los nuevos medios, sostiene, poseen una lógica propia, marcada por principios como la modularidad, la automatización, la variabilidad y la transcodificación, que transforma no solo lo que se produce, sino también la manera en que se piensa la producción cultural.

Desde esta perspectiva, la inteligencia artificial generativa puede entenderse como un nuevo medio. Lo es cuando el producto generado, un texto, una imagen, un video u otra forma simbólica, adquiere existencia pública y circula como contenido. Pero también funciona como herramienta cognitiva en el proceso, en la zona de trabajo previa al producto, allí donde el usuario explora ideas, tensiona argumentos, formula preguntas y ensaya respuestas en interacción con el sistema.

Las redes sociodigitales ya habían alterado la unidireccionalidad de los medios tradicionales, pero la IA generativa introduce una diferencia adicional. Mientras las redes habilitan intercambios entre personas, la IA permite una forma de interlocución entre una persona y un sistema capaz de procesar, reformular y responder con una densidad argumentativa que ninguna red social ofrece por sí misma. En ese sentido, no se limita a transmitir contenidos: participa en operaciones de elaboración simbólica que antes estaban reservadas a otras mediaciones.

Esta condición dual, como medio y como herramienta cognitiva, da lugar a una controversia en el momento en que se difumina la línea entre ambas funciones. Las categorías con las que solemos evaluar los medios, como autoría, originalidad o expresión, no son las mismas con las que evaluamos las herramientas cognitivas, como profundidad, criterio o rigor. Aplicar las primeras a prácticas que pertenecen, al menos en parte, a las segundas puede producir juicios sistemáticamente distorsionados.

3. Uso expresivo y uso cognitivo

La distinción que buena parte del debate público ha dejado de lado puede formularse así: usar la IA para expresarse sitúa a la herramienta en la capa visible del discurso, en la producción del texto, el formato o el tono. Usarla para pensar la sitúa en la capa donde se forma el criterio, es decir, en la exploración de lo que no se comprende, en la puesta a prueba de argumentos, en la simulación de consecuencias y en la identificación de las preguntas que importan.

Esta distinción tiene una implicación metodológica relevante: usar la IA para pensar exige ya saber pensar. Requiere reconocer cuándo una respuesta es insuficiente, cuándo el modelo evade el problema central, cuándo la pregunta inicial estaba mal planteada o cuándo una línea de exploración carece de sustento. Sin ese criterio previo, incluso la interacción con un sistema sofisticado puede producir resultados vacíos o superficiales. La herramienta amplifica una dirección de pensamiento, pero no la sustituye por completo ni la genera por sí sola.

Lo que sí parece cambiar de manera estructural es el costo de explorar una idea hasta sus consecuencias más lejanas. Durante mucho tiempo, llevar una intuición a un desarrollo riguroso exigía años de formación especializada o acceso a equipos e instituciones. Hoy esa distancia puede reducirse para personas con curiosidad, disciplina y capacidad de formular buenas preguntas. Esto no elimina las diferencias de formación ni garantiza resultados valiosos, pero sí modifica los cuellos de botella operativos que antes separaban el pensamiento de su ejecución.

4. El sistema de sesgos: descripción y articulación

A continuación se describen seis sesgos identificables en la evaluación pública y académica del uso de IA. El término “sesgo” no se utiliza aquí únicamente en el sentido psicológico de error individual de razonamiento, sino también como patrón recurrente de evaluación social e intelectual. La hipótesis es que estos sesgos no operan de manera aislada, sino que pueden reforzarse mutuamente como parte de una estructura de resistencia más amplia.

4.1 Sesgo de esfuerzo

Se entiende por sesgo de esfuerzo la tendencia a no reconocer el trabajo cognitivo involucrado en el uso de IA porque este no siempre deja huellas visibles en el resultado final. El supuesto implícito es que el esfuerzo intelectual legítimo debe manifestarse en rastros observables, como borradores, tachaduras, versiones sucesivas o largas inversiones de tiempo. Cuando esas huellas no aparecen, el proceso tiende a interpretarse como ausencia de trabajo o como simple automatización.

Sin embargo, formular una pregunta precisa, problematizar un tema, evaluar la pertinencia de una respuesta, detectar evasiones del modelo o verificar una afirmación son operaciones que exigen esfuerzo real, aunque no siempre sean perceptibles para un observador externo. La invisibilidad del proceso no equivale a la inexistencia del trabajo intelectual.

4.2 Sesgo de funcionalidad

El sesgo de funcionalidad consiste en no distinguir entre usar la IA como herramienta de expresión y usarla como herramienta de pensamiento. Esta confusión puede generar juicios equivocados en ambas direcciones. No es lo mismo utilizar un modelo para corregir o reformular un texto ya elaborado que recurrir a él para redactarlo desde el inicio; tampoco es equivalente emplearlo para producir contenido publicable que utilizarlo para investigar, analizar o desarrollar ideas propias antes de cualquier comunicación pública.

Con frecuencia, ambos usos se entrelazan, porque el trabajo cognitivo antecede o acompaña al uso expresivo. Sin embargo, no distinguir entre estas funciones conduce a una subestimación de la complejidad del proceso cuando la IA interviene en la producción de conocimiento y, al mismo tiempo, puede inflar la idea de automatización cuando solo se observa el resultado final. Este sesgo resulta especialmente difícil de revertir porque, desde afuera, el producto puede parecer el mismo aunque los procesos hayan sido radicalmente distintos.

4.3 Sesgo de legitimidad del contenido

El sesgo de legitimidad del contenido se refiere a la tendencia a no reconocer valor intelectual en un texto o en otro tipo de producción simbólica por el solo hecho de haber sido elaborado con apoyo de IA, independientemente de su calidad, su pertinencia o su aporte.

La IA no crea por sí misma este problema, pero puede intensificarlo al ofrecer una justificación aparentemente técnica para una resistencia que tiene raíces sociales y psicológicas más profundas. En lugar de discutir el contenido, la atención se desplaza al instrumento, y el juicio sobre la herramienta termina desplazando la evaluación del aporte.

4.4 Sesgo de utilidad de la herramienta

El sesgo de utilidad consiste en no reconocer la IA como una herramienta legítima para el pensamiento o para el trabajo intelectual. Un paralelo histórico útil puede encontrarse en la resistencia que generó la calculadora en el siglo XX, bajo el argumento de que su uso impediría el desarrollo del razonamiento matemático genuino. Con el tiempo, esa crítica perdió fuerza frente a la evidencia de que la calculadora no anulaba el pensamiento, sino que liberaba recursos cognitivos para problemas de mayor complejidad.

En el ámbito académico, este sesgo adopta una forma particular: la idea de que usar una herramienta que reduce costos operativos invalida el resultado. Sin embargo, buena parte de la historia del conocimiento puede leerse como una sucesión de herramientas que simplificaron tareas antes más costosas, sin que ello implicara, retrospectivamente, la descalificación de los resultados producidos con ellas. La cuestión relevante no parece ser si hubo mediación técnica, sino de qué manera esa mediación intervino en la calidad del proceso y del resultado.

4.5 Sesgo de credibilidad

El sesgo de credibilidad es quizá el más revelador del sistema. Consiste en aceptar el uso de IA cuando lo realiza alguien dotado de alto estatus institucional, como un investigador reconocido o un laboratorio prestigioso, y rechazarlo o minimizarlo cuando lo realiza alguien situado en un entorno social o institucional próximo al observador.

El mecanismo subyacente puede comprenderse a la luz de la teoría del capital cultural de Pierre Bourdieu (1979): un mismo contenido intelectual no siempre vale lo mismo, porque su valor depende también de quién lo porta y desde qué posición circula. La institución funciona entonces como permiso para admirar sin amenaza, ya que el prestigio lejano no compite directamente con el observador ni cuestiona su posición inmediata. En cambio, el par sí puede hacerlo. Reconocer inteligencia en alguien del propio círculo, especialmente cuando emplea herramientas que parecen redistribuir capacidades, puede resultar más incómodo que reconocérsela a alguien ya legitimado por la distancia simbólica.

Este sesgo parece operar en paralelo con una dificultad más general y más antigua: la renuencia a reconocer la inteligencia del otro cuando esta no se ajusta a los canales tradicionales de validación. La credibilidad no depende únicamente del contenido o de la herramienta empleada, sino también de la posición social e institucional desde la cual una persona habla y es evaluada.

Esto no implica que toda crítica al uso de IA esté motivada por intereses de conservación simbólica o por mecanismos de distinción social. Implica, más modestamente, que parte de esas críticas puede operar de ese modo, en particular cuando la evaluación de la herramienta varía según la posición social o institucional de quien la utiliza.

4.6 Sesigo de accesibilidad:

A esta discusión se suma una dimensión ética adicional: la condena indiscriminada del uso de IA puede invisibilizar a personas que recurren a estas herramientas no para sustituir el pensamiento, sino para hacer inteligible su expresión, compensar dificultades cognitivas o mejorar su comunicación con una audiencia. En esos casos, la IA no opera solo como medio o herramienta cognitiva, sino también como tecnología de accesibilidad. Ignorar esta dimensión puede convertir ciertos juicios normativos sobre su uso en mecanismos involuntarios de exclusión.

5. Los seis sesgos como sistema

Los seis sesgos descritos no son completamente independientes. Más bien, pueden leerse como partes de un sistema en la medida en que comparten una función latente y se refuerzan mutuamente para producir un efecto que ninguno alcanzaría por separado.

El sesgo de esfuerzo y el de funcionalidad operan en la capa del proceso, pues condicionan la forma en que se percibe el trabajo intelectual realizado. El de utilidad y el de legitimidad operan en la capa de la herramienta y del producto, ya que determinan qué tan válido se considera el recurso técnico y qué valor se concede a lo producido con él. El de credibilidad actúa en la capa social, donde se define quién tiene permiso para ser reconocido. Y por último el de accesibilidad abre una dimensión ética que es omitida. Estos niveles no se excluyen entre sí, sino que se solapan y sostienen de manera recíproca.

La función latente compartida podría formularse del siguiente modo: preservar jerarquías existentes de reconocimiento intelectual frente a una herramienta que parece tener la capacidad de redistribuir, al menos parcialmente, ciertas condiciones de acceso a la producción de conocimiento. Esa función no tiene por qué ser consciente en quienes participan en ella. Suele presentarse como juicio sobre la herramienta, acerca de su legitimidad, su utilidad o su relación con el esfuerzo, cuando en ocasiones también involucra un juicio implícito sobre la persona que la usa y sobre las consecuencias sociales de reconocerla.

Este planteamiento dialoga con Karl Mannheim en Ideología y utopía (1929), donde el conocimiento aparece como socialmente situado y las formas de pensamiento se entienden en relación con la posición social, las condiciones de vida y los marcos colectivos desde los que se produce la interpretación del mundo. También puede vincularse con Thomas Kuhn en La estructura de las revoluciones científicas (1962), en la medida en que las comunidades de conocimiento no solo resisten nuevos marcos por razones estrictamente epistémicas, sino también por razones sociales e institucionales ligadas a la conservación de los paradigmas que sostienen su propia autoridad.

6. Conclusiones

La inteligencia artificial generativa representa, desde la teoría de los medios, un objeto genuinamente nuevo: un medio que también puede funcionar como interlocutor cognitivo y no solo como canal, soporte o repositorio. Esta novedad exige categorías analíticas más finas de las que el debate público suele emplear, y la insuficiencia de esas categorías contribuye a producir algunos de los malentendidos que este ensayo ha intentado describir.

El sistema de seis sesgos aquí propuesto, esfuerzo, funcionalidad, legitimidad, utilidad y credibilidad, no debe entenderse como una simple lista de errores individuales corregibles con más información. Más bien, puede interpretarse como una estructura de resistencia orientada a preservar jerarquías de reconocimiento frente a una herramienta que las desafía. Nombrarlos como sistema, y no como opiniones dispersas, permite analizarlos con mayor precisión y distinguir mejor los niveles en los que operan.

La pregunta que permanece abierta es si, por debajo de estos seis, existe un sesgo aún más fundamental: la resistencia a redistribuir el derecho a ser considerado inteligente. Si esa fuera la tensión de fondo, entonces el debate sobre la IA no sería primariamente un debate sobre tecnología, sino sobre reconocimiento intelectual y sobre las formas en que se defienden las estructuras que regulan ese acceso.

Responder con rigor a esta pregunta requeriría una investigación empírica que este ensayo no pretende sustituir. Lo que sí propone es que dicha investigación vale la pena y que los marcos teóricos para emprenderla ya existen. Lo que quizá falta es la disposición a aplicarlos a un objeto que incomoda precisamente porque obliga a examinar zonas de legitimación intelectual que con frecuencia preferimos dejar intactas.

Referencias

Bourdieu, P. (1979). La distinction: Critique sociale du jugement. Les Éditions de Minuit.

Kuhn, T. S. (1962). The structure of scientific revolutions. University of Chicago Press.

Mannheim, K. (1929). Ideologie und Utopie. Friedrich Cohen.

Manovich, L. (2001). The language of new media. MIT Press.