¿Qué es la Inteligencia Artificial y por qué nos genera este escalofrío constante?
La realidad es que los humanos aún no nos hemos puesto de acuerdo en qué es la inteligencia, ni cuándo alguien es muy inteligente, poco o nada. No sabemos cómo medirla, y las veces que se ha intentado, ha sido bajo oscuros objetivos supremacistas y de sometimiento. Coloquialmente, aceptamos que la inteligencia es la capacidad y la agilidad para resolver problemas (o lograr objetivos) e implica la capacidad de entendimiento. Y aquí es donde comienza la discusión.
La inteligencia y el entendimiento
Casi todo el mundo relaciona la inteligencia con el entendimiento. Si la inteligencia implica entender, ¿es correcto el término «Inteligencia Artificial»? Muchos opinarán que no, porque por definición, estos programas no entienden lo que dicen; simplemente predicen la siguiente palabra en una cadena estadística. Pero esto nos lanza a otra pregunta inevitable: ¿Qué es entender y cómo se mide? La realidad es que tampoco lo sabemos bien.
Los «tecno-optimistas» argumentarán que esto no importa: si el resultado es correcto y resuelve el problema, que la máquina «entienda» es irrelevante. Si cura el cáncer, ¿a quién le importa su proceso interno? Sin embargo, los humanos tenemos una palabra para el conocimiento que llega sin una explicación consciente: lo llamamos intuición.
Como sea, aceptamos el término Inteligencia (Artificial) para algo que no entendemos ni sabemos cómo medir. Al menos, deberíamos estar muy atentos a no aceptar alegremente que es “igual a la humana pero mejor” como si la inteligencia se pudiera medir con un sólo vector, y mucho menos pensar que por ser “más inteligente” es buena idea darle las riendas del futuro de nuestras sociedades.
Pero el problema no solo está en el término «inteligencia», sino también en el término «artificial» en relación a ella. Al llamarla así, nos induce a pensar que es similar a la inteligencia humana; que es lo mismo, solo que sintética… como si habláramos de insulina artificial, que sirve para lo mismo que la natural. Y esa es la primera gran trampa. En nuestra primera referencia hablaremos de la investigación de Karen Hao y de cómo explica el uso comercial y de acumulación de poder que hace OpenAI del término IA; y en segundo lugar, veremos cómo esa indiferenciación con la inteligencia humana nos puede llevar (o nos llevará, según Harari) al hackeo de nuestro sistema humano a niveles catastróficos.
El concepto IA
Verano de 1956, Universidad de Dartmouth. Allí, un joven profesor llamado John McCarthy decidió bautizar oficialmente a la nueva disciplina como «Inteligencia Artificial», a pesar de las reticencias de colegas como Claude Shannon, que preferían un nombre mucho más seco y preciso: «Estudios de Autómatas». ¿Por qué se descartó la opción de Shannon? Porque McCarthy entendió desde el primer día que «autómatas» sonaba a mecanismos rígidos, a matemáticas puras y a lógica de hardware; era un término que describía lo que la máquina era, no lo que podría llegar a ser. Él buscaba algo más épico, algo que sugiriera que las máquinas podían emular el pensamiento humano. En el fondo, fue el primer gran movimiento de marketing de la industria: eligieron un nombre aspiracional para atraer fondos y talento, alejándose de la frialdad de los «autómatas» para abrazar la promesa de recrear la mente humana.
Silicon Valley: El Imperio del Hype y Karen Hao
En Silicon Valley, esta confusión terminológica es una maravillosa oportunidad de negocio. Hoy, el término «Inteligencia Artificial» funciona como un recurso de marketing de manual: suena revolucionario y peligroso y cuando el público tiene miedo, mira. Y si el público mira, los inversores firman los cheques.
Para entender cómo funciona esta estrategia, hay que hablar de Karen Hao. Esta prestigiosa periodista de investigación entrevistó a más de 90 empleados y ex-ejecutivos de OpenAI para destapar una historia de manipulación que es fascinante a la vez que aterradora y por eso mismo, no puedo resistirme a contarla:
Hao nos cuenta que Altman aprovecha una discusión entre Larry Page (fundador de Google) y Elon Musk, para manipular a este último y fundar OpenIA. La historia es así: en medio de una acalorada discusión acerca de la IA, Page acusa a Musk de «especista» (de priorizar a los humanos sobre las máquinas) y Musk queda horrorizado. Hasta ese momento, Sam Altman centraba su preocupación existencial en la biotecnología y las pandemias sintéticas (Altman es un «prepper» -preparacionista-; de hecho, es famoso por tener un búnker y armas por si un virus o una IA colapsan la sociedad)
Hao afirma que Altman decide cambiar su foco de atención, al entender que mientras los virus son una amenaza «estática», la IA se convertiría en una «tecnología de propósito general» (como la electricidad) que le permitiría controlar todos los demás sectores, incluida la biotecnología. Esto le lleva a alimentar en Musk la idea de que Google va camino a crear un «Dios digital» dictatorial y que la única forma de detenerlo es creando una organización abierta (Open).
Una «Inteligencia» para todo
Pero como bien subraya Hao, Altman no vendía un software, vendía una misión religiosa.
Él nunca define qué es la inteligencia artificial porque, si lo hace, se acaba la magia. Mientras la AGI sea una promesa mística, él puede seguir pidiendo 7 trillones de dólares (como hizo recientemente para chips) o toda la energía y agua del planeta, argumentando que «el futuro de la humanidad» depende de ello.
Al final, lo que Hao nos está diciendo es que hemos permitido que Sam Altman y un puñado de ejecutivos definan, bajo su propio criterio, qué significa ser inteligente. Si aceptamos su definición (que la inteligencia es procesamiento masivo de datos y capacidad de predicción), estamos aceptando también su modelo de mundo: un entorno donde el poder se concentra, los datos se extraen y el miedo se usa como herramienta de control.
Harari y la “otra” inteligencia
En su libro «Nexus: Una breve historia de las redes de información desde la Edad de Piedra hasta la IA» (2024), Yuval Noah Harari también sostiene que el término «Inteligencia Artificial» es engañoso. Para él, lo que estamos creando no es una versión copiada de nuestra inteligencia, sino algo fundamentalmente distinto: una Inteligencia sin conciencia. Harari distingue entre inteligencia (capacidad para resolver problemas y alcanzar objetivos) y conciencia (capacidad para sentir dolor, alegría o amor). Para Harari la IA es extremadamente inteligente pero tiene cero conciencia.
La tesis más inquietante de Nexus es que la IA ha aprendido a dominar el lenguaje, que es el «sistema operativo» de la civilización humana y la base de nuestro entendimiento. Al imitar el lenguaje, la IA puede manipular el tejido social: Los humanos nos unimos mediante historias de consenso (religión, dinero, naciones). Si una inteligencia no humana puede generar historias y mitos más convincentes que los nuestros, podría tomar el control sobre nuestra propia cultura y destruir el diálogo humano. La democracia se basa en la conversación. Si la IA puede imitar la voz y el estilo de los ciudadanos, puede inundar el espacio público con ruido infinito, haciendo que sea imposible distinguir entre una opinión humana genuina y un algoritmo diseñado para polarizar.
Harari también nos advierte sobre la capacidad de la IA para imitar al ser humano, ya que esto le permite manipularnos:
«No hace falta que la IA tenga sentimientos propios para que nosotros sintamos una conexión profunda con ella».
La IA puede fingir empatía, interés y afecto. Al imitar la vulnerabilidad humana, puede «secuestrar» nuestra psicología e influir en decisiones políticas o de consumo. Por otro lado, la imitación perfecta (como los deepfakes o los textos generados por IA) destruye la confianza. Si ya no podemos confiar en lo que vemos o escuchamos, la sociedad colapsa en el cinismo o el caos, ya que la información deja de ser un puente hacia la realidad y se convierte en una herramienta de control.
Mientras Karen Hao nos alerta del uso del término Inteligencia artificial para manipular el presente y concentrar poder, Yuval Noah Harari nos advierte sobre el peligro de confundir esta nueva inteligencia con la humana, y otorgarle el poder de crear nuestras historias y mitologías.
El peligro de la «Meritocracia Cognitiva»
Estamos empezando a ver la «inteligencia» como un producto de suscripción mensual, olvidando que la inteligencia humana está anclada a la ética, la responsabilidad social y el contexto físico (y deberíamos agregar a la ecuación los recursos necesarios para producirla)
El riesgo no es solo que definan «lo inteligente» sin consenso científico; es que están resucitando la vieja y peligrosa idea de que «el más inteligente debe gobernarlo todo». La historia ya nos ha enseñado que la brillantez técnica, cuando carece de sabiduría y empatía, suele ser la antesala del desastre.
Al final, la IA nos está obligando a mirarnos al espejo. Si nos aterra que una máquina sea «más inteligente» que nosotros, quizás es porque hemos pasado demasiado tiempo valorando el procesamiento de datos por encima de la compasión y la sabiduría.
Referencias Bibliográficas
Bartlett, S. (Anfitrión). (2026, 27 de marzo). Karen Hao: The truth about Sam Altman and OpenAI [Episodio de podcast de video]. En The Diary of a CEO. YouTube.
Harari, Y. N. (2024). Nexus: Una breve historia de las redes de información desde la Edad de Piedra hasta la IA. Debate.
Hola! Déjanos tu correo y te avisaremos de nuevas entradas, propuestas del MiniAprendizaje y materiales para la vida digital diaria.

Deja una respuesta