Jon Hernández, ¿Experto o Charlatán de la Inteligencia Artificial?
Disclaimer:
El contenido de este vídeo es educativo, de opinión personal, humorístico y un acto de activismo neurodivergente y de sufrimiento mental.
Durante la grabación de este contenido ningún bebé de Gran Modelo de Lenguaje ha sufrido daño.
He intentado ser riguroso con el contenido de las fuentes. En ningún caso se puede suponer que la interpretación que se vierte del contenido de las fuentes represente la opinión de los autores de dichas fuentes.
El autor principal de este contenido, soy yo, Xavi Mir, aka marxattac; un orgulloso neurodivergente en el espectro autista. Es posible que mi forma de decir las cosas, las bromitas o el contenido, puedan herir ciertas sensibilidades. En ningún caso es mi intención hacer padecer ningún sufrimiento a nadie; aparezca mencionado o no en el vídeo. Si alguien se siente ofendido, ruego contacte conmigo en la dirección que aparece en la descripción del canal.
Si quien se siente ofendido es un creador de contenido, o supuesto experto al que estoy analizando: tienes dos trabajos, ofenderte y desofenderte.
¡Palestina libre!
Intro, cabecera o whatever
Jon Hernández se autoproclama “el mayor divulgador de IA en habla hispana” y vende cursos con “titulación universitaria”. Pero, ¿es un verdadero experto o un charlatán aprovechándose del bombo de la IA Generativa?
Hemos puesto sus creencias a prueba con una herramienta de IA y la sabiduría de Ramón López de Mántaras, un genuino experto.
¡Vamos a descubrirlo!
Este es Jon Hernández.
https://criptotendencia.com/2024/04/01/jon-hernandez-en-talent-land-2024-la-ia-transformara-el-mundo-2/
Él mismo ha dicho que no es un experto en Inteligencia Artificial (IA), sino un divulgador. Pero ojo, no un divulgador cualquiera, sino “el mayor divulgador de Inteligencia Artificial en habla hispana”, según un email que recibí porque estoy investigándole desde hace semanas.
Lleva más de cien ponencias hablando sobre IA. Vende cursos y asesoría sobre IA. Incluso es director de un “Máster en Inteligencia Artificial con Titulación Universitaria” en The big School, una escuela online de negocios y centro de formación online en marketing digital.
Este es Ramón López de Mántaras i Badia.
https://www.iiia.csic.es/~mantaras/
Él sí es un experto en IA. Y un excepcional comunicador y divulgador. Lleva desde 1973, más de cincuenta años, investigando en IA. Tiene varios libros publicados. Usaremos dos: “Las 100 cosas que hay que saber sobre Inteligencia Artificial” y Es tan importante que tiene su propia entrada en Wikipedia. Además de tener una paciencia que ni Jon pudo quebrar… casi. También hablaremos de esto en un rato.
Este es Alvin Ira Goldman (me hace gracias que sus iniciales sean AI)
https://es.wikipedia.org/wiki/Alvin_Goldman
Profesor de filosofía cuyos trabajos sobre Autoridad epistémica de Bartsch et al. nos permiten saber si estamos frente a un Experto o un Charlatán.
Expertismo
En la Autoridad epistémica de Goldman, según Bartsch et al.,
se define de dos formas:
i.- Es un experto S sobre un dominio D, quien tiene mayor número de creencias verdaderas, y menor número de falsas respecto a D, que la mayoría de la gente. Además, el número de creencias verdaderas debe de ser sustancial.
ii.- Es un experto S sobre un dominio D, quien tiene la capacidad de ayudar a otros (especialmente a personas no expertas) a resolver una variedad de problemas en D o ejecutar una variedad de tareas en D, que las personas no iniciadas no podrían resolver o ejecutar por su cuenta.
No me he presentado. Yo soy Xavi. Un experto en expertos de IA. Y un bailarín excepcionalmente torpe.
Yo, como Jon, llevo pocos años estudiando la IA. Y la verdad es que le veo cosas muy útiles. Incluso veo cosas útiles en esta porquería de IA Generativa en la que nos encontramos metidos. Ya verás a qué me refiero con lo de porquería.
Tenemos tres grupos de creencias que Jon expone en su vídeo “La gran mentira de la Inteligencia Artificial | ️ Ramón L. de Mántaras – Pocast IA”
Naturaleza de la Inteligencia Artificial (y el pensamiento mágico)
Capacidades actuales de la Inteligencia Artificial
Riesgos de la Inteligencia Artificial
- I) Naturaleza de la IA (y el pensamiento mágico)
1.- Usar el término Inteligencia es adecuado
Jon insiste en rebatir a Ramón sobre lo adecuado del uso del término Inteligencia. Da dos argumentos. Primero, que gente muy inteligente dice que está justificado.
Segundo, que, centrándonos en los resultados (minuto 23), si son indistinguibles de los que produciría un humano, se puede hablar de inteligencia del algoritmo.
Ramón le explica pacientemente que antropomorfizar induce a sobreestimar las capacidades de la IA. Que es algo que las empresas tecnológicas usan porque tienen inmensos intereses económicos en juego. Y que no es suficiente ver los resultados, ya que es imprescindible analizar el proceso que sigue el sistema para llegar a esos resultados, para poder categorizarlo como inteligente o no.
Ese es uno de los primeros puntos del libro de Ramón “100 Cosas que hay que saber sobre inteligencia artificial”. Libro que te recomiendo, Jon. Se lee muy rápido. Y te será muy útil.
Voy a ir usando distintos momentos del vídeo para dar definiciones de los conceptos clave para comprender la Inteligencia Artificial. He preparado un glosario al que podrás acceder desde la descripción. Si hay algún concepto que te interese en especial, siempre puedes parar el vídeo cuando aparezca la entrada del glosario. He creado un curso gratuito que servirá como repositorio para acceder a fuentes fiables para quien quiera introducirse en el mundo de la IA.
https://app2.foligade.es/course/view.php?id=284
Inteligencia Artificial: La inteligencia artificial es una tecnología que adopta múltiples formas. De hecho, se trata de una multitud de tecnologías que se transforman y evolucionan, no solo por su mérito técnico, sino también por las motivaciones ideológicas de quienes las crean y la influencia de la publicidad y la comercialización. Si bien ChatGPT y otros modelos de lenguaje a gran escala o aplicaciones de IA generativa han acaparado la atención, no son más que una manifestación de la IA, una manifestación que encarna una visión particular y notablemente limitada sobre cómo es el mundo y cómo debería ser. El surgimiento de esta forma de IA, e incluso su mera existencia, no fue inevitable; fue la culminación de miles de decisiones subjetivas, tomadas por quienes tenían el poder de decisión. Del mismo modo, las futuras generaciones de tecnologías de IA no están predeterminadas. (Hao, Karen. Empire of AI, 2025)
IA Generativa (IA cuando la usamos en este vídeo): son sistemas que generan lenguaje aparentemente humano y también pueden generar imágenes o vídeos de acuerdo con una descripción textual de lo que queremos obtener. Son loros digitales. Su inteligencia es aparente, ya que estos sistemas no comprenden ni aprenden nada en el sentido humano de lo que entendemos por comprender i aprender. (López de Mántaras, 2023) Se crea con Modelos de Aprendizaje Profundo (Deep Learning Models) de propósito Generalista (Wikipedia 2025)
1.- Usar el término Inteligencia es adecuado
Jon, te has ganado un punto negativo: (-1,0)
2.- Existe una división de opiniones sustancial en la comunidad científica sobre si los LLMs “razonan” y “comprenden el lenguaje”.
Jonatan Isaac Hernández (ese es su nombre completo) parece creer genuinamente que la IA Generativa razona. I que se sorprendió al saber que el consenso científico es que NO razona (minuto 55).
En esta parte del vídeo, Ramón demuestra una paciencia fuera de serie. Se pasa varios minutos intentando explicarle a Jon lo que son los contrafactuales, la ausencia de sentido común en LLM’s, y como son la prueba de que no hay ningún constructo remotamente parecido a lo que podemos llamar razonamiento, dentro de los algoritmos de la IA. Le habla de Levesque y otros investigadores que han trabajado con esta problemática de la IA. Pero Jon es inmune a la lógica. Y en mi opinión de profesor, no entendió nada de lo que Ramón le estaba explicando. Y no será porque ese pobre señor no lo intentase de la forma más diáfana posible.
Un contrafactual consiste en expresar una realidad contraria al estado de cosas.
Deep Learning (Aprendizaje Profundo): familia de métodos que aprenden representaciones de datos con múltiples niveles de abstracción (LeCun et al., 2015). Estos algoritmos aplican en cascada un conjunto de transformaciones no lineales, de forma que cada nivel recibe en entrada la salida del nivel anterior y lleva a cabo una abstracción aprendiendo así representaciones cada vez más complejas. (Meseguer y López de Mántaras, 2017). Es una subdisciplina dentro del Aprendizaje Automático (Machine learning). (Wikipedia, 2025)
LLM’s Large Language Models (Grandes Modelos de Lenguaje): es un modelo de lenguaje de aprendizaje profundo, que consta de una red neuronal con muchos parámetros (normalmente miles de millones o más), entrenados en grandes cantidades de texto sin etiquetar mediante aprendizaje autosupervisado o aprendizaje semisupervisado. (Wikipedia, 2025). Consisten en miles de millones o incluso billones de parámetros que conforman las redes neuronales en las que basan su arquitectura. (Wikipedia, 2025)
Aquí, Hector Levesque y Ronald Brachman, hablan de una nueva ciencia del sentido común.
El Sentido Común es condición necesaria para tener Modelo del Mundo. A nosotros nos permite resolver el famoso acertijo de cómo hacer atravesar un río a un granjero con una cabra, un lobo y una lechuga. Su ausencia hace que las IA’s no diferencien entre el acertijo anterior y este enunciado: cómo hacer atravesar un río a un granjero y una cabra.
Un modelo del mundo es la capacidad de entender cómo funciona la realidad. Sólo puede darse en entes con capacidad deductiva, sentido común y sensores que procesen información del mundo real. Los LLM’s carecen de las tres cosas.
La inteligencia es una propiedad de sistemas que son capaces de responder adaptativamente a un entorno cambiante gracias a una comprensión profunda de las relaciones causales percibidas.
Sentido común: es el requerimiento fundamental para que las máquinas den el salto cualitativo de pasar de tener IA especializada a tener IA de tipo general, más cercana a la inteligencia humana. (López de Mántaras, 2023)
Modelo del mundo: es la capacidad de comprender cómo funcionan las cosas y la forma en que están conectadas. Para ello se necesita un razonamiento deductivo. Los LLM’s no están configurados para realizar deducciones, sino para reconocer patrones y reaccionar frente a ellos. Por tanto, los modelos de IA Generativa es imposible que tengan un modelo del mundo (IBM, 2025).
Verónica Barassi, en el Harvard data science review, explica estupendamente cómo funcionan ejemplos de falta de sentido común en LLM’s, como los propuestos por Douglas Hofstader y David Bander.
Me parecen unos contrafactuales bastante graciosos: tenemos el de preguntar a GPT-3 ¿cúal es el récord del mundo de caminar por el Canal de la Mancha? Cuya respuesta fue, de 18 horas y 33 minutos. O el de ¿en cuántas partes se rompe un violín si se le cae mermelada encima?, a lo que el GPT-3 indicó que en cuatro partes.
Contrafactual: Que implica un estado de cosas contrario al que expresa. (RAE) En inteligencia artificial se usan ejemplos contrafactuales para demostrar que la IA no razona. Por ejemplo, si se modifican las posiciones de las piezas de un tablero de ajedrez, la IA Generativa no puede detectarlo, lo que demuestra que los aciertos que consigue en ajedrez no se deben a ningún razonamiento.
Gary Marcus y Ernest Davis ahondan en la falta de sentido común.
Jon Isaac, esto son tres creencias negativas: la primera por decir que la IA Generativa razona, la segunda por decir que la IA Generativa comprende, la tercera por decir que el consenso científico es que razona y comprende. Ya llevas cuatro. (-4,0)
Sé que usar los dos nombres jode, porque mi padre me endilgó un Francesc antes del Xavier.
3.- La IA no es sólo software: es un ente y manifiesta signos de conciencia.
Jon señala que podemos hablar de un ente, como dijo Mustafá Suleyman (minuto 1:22), que muestra signos de conciencia, como dijo Geoffrey Hinton (minuto 58).
Jon, en su línea de ser un LLM con patas, no procesa razonadamente la información que tan generosamente le está aportando Ramón: suponer consciencia a una máquina no biológica es absurdo.
Para que te hagas una idea de lo lejos que están lo expertos de tratar esta cuestión de la consciencia de las máquinas en serio, puedes ver la mayor encuesta que se realiza a tales expertos. https://aiimpacts.org/wp-content/uploads/2023/04/Thousands_of_AI_authors_on_the_future_of_AI.pdf
Ni siquiera aparece. Lo que preguntan es respecto a la posibilidad de la singularidad o “explosión de la IA” que podría llevarnos a tener una inteligencia generalista capaz de realizar la mayoría de las tareas de los humanos, lo que suele llamarse IA General, AGI en inglés, de la que hablaremos después.
Jona, ¿puedo llamarte Jona?, léete el libro de Ramón, “100 cosas que…”, y entenderás lo que este santo varón te quería explicar. Es súper ameno. Te encantará.
Así que otro negativo para J.I. Hernández: (-5,0).
Además, casi sacas de sus casillas al pobre Ramón, y acaba diciendo que “Me importa un huevo lo que sea este señor”.
Ramón, en ese momento, minuto 1:22, dices que te sabe mal que gente como tú no tenga el impacto que tiene gente como Suleyman (y ahora mismo, en lo que respecta a habla hispana, nuestro amigo Jon: el profesor de máster). No puedo estar más de acuerdo. Por eso estoy esforzándome en darte más voz.
Siguiendo con lo de la emergencia de consciencia en las máquinas, el propio Suleyman dice que la consciencia sólo es posible en seres biológicos.
Respecto al pensamiento mágico de Hinton, al que llaman el padrino de la IA, te resumiré lo que dice Emily Bender, según lo relata Paris Marx: Hinton y otros como él, prefieren pensar en un villano imaginario, una máquina con consciencia, contra el que pueden luchar, que afrontar el papel que tienen en el daño que está haciendo la IA ahora.
Melanie Mitchell explica qué es el pensamiento mágico en IA: atribuirle capacidades a la IA que no existen. Eso sucede cuando toda la fuente de información sobre IA viene de prensa generalista que se dedica a reproducir las chorradas que sacan las empresas que se dedican a IA. Como le sucede a un columnista de prestigio del New York Times, Thomas Friedman. Si le sucede a alguien inteligente como Friedman, cómo no les va a suceder a Jon Hernández y sus seguidores.
Don Jonson, te has ganado el sexto negativo por divulgar que la IA tiene signos de consciencia. Y te pondría otro por no atender a lo que te dice el bueno de Ramón y ponerle nervioso, pero como estamos haciendo un experimento científico muy serio, no te contaré el último. (-6,0)
4.- Si la IA es una “caja negra” y no podemos ver su proceso interno, no es posible decir definitivamente que no está razonando.
Oh Long Jonson, ¿puedo llamarte Long Jonson?, si abrieses las orejas a lo que te explica Ramón, y dejases de interrumpirle, tu empanada mental sería mucho menor. Ve al minuto 1:08 de tu vídeo con Ramón y atiende a lo que te dice. Aquí estuviste a punto de hacerle perder la paciencia otra vez. Nunca te lo perdonaré.
No es sólo en la IA Generativa que nos están vendiendo ahora, sino que sucede con todas las redes neuronales desde los años 60.
Una red neuronal es una abstracción matemática que otorga ceros y unos a agrupaciones de información y es usada en unos tipos específicos de artilugios de inteligencia artificial, no en toda la IA.
Red neuronal: es una abstracción matemática con entradas (dendritas) y salidas (axones). El valor de la salida se calcula en función del resultado de una suma ponderada de las entradas, de forma que si dicha suma supera un umbral preestablecido entonces la salida es un 1, en caso contrario es 0. Conectando la salida de cada neurona con las entradas de otras neuronas se forma una red neuronal artificial. (Meseguer y López de Mántaras, 2017)
Se dice que estas redes neuronales tienen una caja negra porque, por su propia arquitectura, no se puede ver la línea de razonamiento que han seguido para justificar una respuesta (sacar un output).
Si hubiera un razonamiento, lo veríamos. Un sistema que “razona” no puede tener una caja negra. Por ejemplo, en sistemas con aprendizaje por refuerzo, sistemas expertos, redes bayesianas,,, sí que podemos ver por qué motivos ciertas acciones han recibido valoraciones positivas, y otras negativas.
En el aprendizaje por refuerzo se ayuda al sistema otorgando un valor numérico que refuerza las respuestas válidas.
El aprendizaje automático por áboles de decisión, es un tipo de algoritmo inductivo que usa categorías conocidas para otorgar puntuaciones a otros atributos que se estén valorando.
Los sistemas expertos se construyen dando reglas lógicas que simulan la forma d resolver problemas que tienen los humanos.
Una red bayesiana es una evolución de la inferencia bayesiana usada en los sistemas expertos, que se libera de la necesidad de tener que asignar probabilidades conjuntas a las combinaciones de las proposiciones del sistema.
Hay montones de reglas de aprendizaje que no funcionan como las redes neuronales. Nuestro amado Ramón, junto con Pedro Meseguer González, tienen un libro llamado Inteligencia artificial donde lo explican de una manera muy didáctica.
Como te dice Ramón, una forma de dar luz a la caja negra de las redes neuronales, es con la IA Explicativa. Donde se buscan reglas lógicas que acomoden los patrones de activación o desactivación de grupos de neuronas del sistema.
Jonny Molony: haznos un favor, y léetelo antes de dar tu próxima ponencia, ¿quieres? Te has ganado tu octavo negativo. (-8,0)
Como apunte personal. La caja negra de un avión, precisamente, lo que hace es dar la información de porqué ha ocurrido algo. Es curioso que su significado en el lenguaje común e incluso en el científico, se modifique para referirse a lo contrario: un objeto del que no podemos sacar información.
Aviso a los haters: Ramón es un enamorado de la IA. Yo también, así como de la tecnología en general. Lo mismo que todos los autores que uso para este experimento. Lo que criticamos es el Boom magnificador del IA Generativa y las cortinas de humo que se están creando. No la IA en general, ni siquiera toda la IA Generativa.
5.- Las “alucinaciones” no son un error, sino una característica necesaria para que la IA Generativa pueda ser creativa, como lo son los humanos.
Long Jonson, el gurú de la fotografía, cree que Sam Altman es un Dios omnisapiente y está en lo cierto cuando dice que las “alucinaciones” no son un error (bug), sino una característica (feature) necesaria para que la IA Generativa pueda ser creativa, como lo son los humanos (minuto 1:13).
Las confabulaciones no son un requisito para que la IA Generativa sea creativa, porque la IA es un software. No emerge ninguna idea genuina de un algoritmo. Es un sistema probabilístico que regurgita una secuencia de palabras (o píxeles o notas musicales o lo que leches sea para lo que lo hayan preparado) que ha adquirido en de la base de datos en la que se ha entrenado.
Una alucinación es una antropomorfización inadecuada para referirse a las confabulaciones típicas de los sistemas de IA Generativa.
Una confabulación es una propiedad inevitable de los sistemas de IA Generativa, que proviene de su arquitectura probabilística, que no tiene nada que ver con la creatividad humana. Son respuestas erróneas pero que suenan bien y pueden pasar por correctas si no las ponemos en duda y confirmamos.
Verónica Barassi, explica esto y muchas más cosas interesantísimas en el artículo del Harvard Data Science Review.
Jonípero! Ya llevas nueve negativos. (-9,0)
Vamos a ver qué tal se te dan las creencias en los otros apartados. Por ahora no parece muy razonable que la gente pague por hacer un máster del que eres el director.
- II) Capacidades actuales de la Inteligencia Artificial
1.- La IA generativa ofrece un “retorno de inversión increíble” y un “20% de productividad” a nivel individual y empresarial.
Jonatan Isaac de todos los santos y Olé cree, erróneamente, que el Retorno de la inversión (ROI) en IA es extraordinariamente alto, y que la productividad ha aumentado en un 20% (minuto 31).
“… nunca he visto algo tan barato que aumente tanto la productividad”
Normal, Jon, no lo has visto porque no ha pasado. Ya sabes que el MIT sacó un informe que indicaba que un 95% de las empresas no obtiene ningún retorno a la inversión. Y eso que los que hicieron el informe son unos amantes del bombo de la IA como tú.
Aver, Jon, pásame estos estudios done ves que has aumentado un 20% la productividad de las empresas donde implantas IA. Yo soy economista y te lo revisaré.
Jonsito, estás confundiendo el espíritu científico de Ramón, con incertidumbre. Ramón usa un lenguaje abierto a la posibilidad de estar equivocado porque es una persona inteligente. Y un gran científico que no acepta sus propias hipótesis sino que siempre las somete a prueba para ver si puede rechazarlas. Me consta que hay gente que ha visto tu entrevista con Ramón y también ha pensado que tus certezas tenían más valor que los argumentos de Ramón por ese motivo. Sólo dos tontos como tú y yo podemos estar seguros de que tenemos razón. La gente realmente inteligente no lo hace.
La única empresa (del mundillo IA Generativa) que está teniendo beneficios es Nvidia. El resto de los participantes en el universo de la IA Generativa (Open IA, Microsoft, Anthropic, Meta…) tienen pérdidas. Aunque intenten camuflar los Estados contables, que presentan como empresas cotizadas que son la mayoría. No se conoce ninguna aplicación ni empresa reales que estén dando beneficios usando las “nuevas” prestaciones de la IA Generativa. Aquí lo explica Ed Zitron.
Por otro lado, es cierto que hay multitud de tareas en las que la productividad aumenta en un 20%. Pero Acemoglu (último premio “nobel” de economía) explica deliciosamente como ese 20% inicial está condicionado a tareas sencillas y trabajadores de bajo desempeño. En cuanto las tareas son complejas o los trabajadores tienen capacidades excelentes, la ganancia es inexistente. Además, la traducción de aumentos a nivel micro, se traducen a una fracción bajísima a nivel macro.
Pues nada, Jonalcovic, te has ganado tu décimo negativo. (-10,0)
2.- Los LLMs están mejorando sustancialmente en la codificación y permiten a personas sin conocimientos previos crear aplicaciones funcionales con una simple orden como con manus. Y en Amazon se han ahorrado 4500 años de programador en actualizaciones de Java.
Es cierto que los asistentes de programación pueden ayudar a gente sin experiencia, como dice Jon (minuto 34). Por otro lado, según Jon, los Asistentes disparan la productividad de los programadores en general.
Jon reconoce que los asistentes de programación tienen un grave problema de depuración de errores y de seguridad. Pero se empeña en creer que el CEO de Amazon no podía estar engañándonos cuando dijo que se han ahorrado 4500 años (minuto 35) de programador con las actualizaciones de Java para las aplicaciones de Amazon.
Un asistente de programación es una funcionalidad de algunos editores de código que usan las propiedades de autocompletar a lo bestia de los LLM para generar código automáticamente. Este código se basa en el código en el que se han entrenado los modelos, suele estar lleno de errores y problemas de seguridad y sólo debe usarse si lo revisa un experto programador.
Un editor de código es un editor de texto, diseñado para programar. Algunos tienen asistentes de programación.
Por otro lado, como pasaba con las tareas, los programadores expertos no obtienen casi ganancias. Los mediocres pueden ser más eficientes. Pero de nuevo, los cuellos de botella y la cantidad de errores y problemas de seguridad hacen que la ganancia real para la empresa sea mínima o negativa. Colton, un programador experto, reflexiona sobre los asistentes de programación en esta entrada de su blog.
Don Jonson cree que a un agente como manus se le puede dar una orden totalmente abstracta y te crea un código funcional autónomamente (1:29). Se merece un saco de negativos. Uno por creer que manus es como acceder a un buen programador. Otro porque, Jonancio, me consta que a tus alumnos y seguidores les vendes la moto de que pueden ganar dinero usando manus. Pero sospecho que no les adviertes lo suficiente de los peligros que eso entraña.
Un agente es un programa que toma el control ejecutivo de otros programas. Sin tener un modelo del mundo, los agentes son muy dados a liarla parda.
No te contabilizo el negativo por falta de advertencia de peligros, ni creerte la patraña del ahorro de 4500 años de Amazon, poque no cumplen criterios de la Autoridad epistémica respecto a su contraste con el consenso científico.
David Gerard explica las cagadas y Bombo de la programación asistida, de una forma graciosísima en su blog (Pivot to AI) y canal de youtube.
Recomiendo esta entrada sobre la inexistencia de contribuciones a código abierto hechas con asistentes de programación autónoma.
¡Bravo, Long Jonson! Has conseguido tu primer positivo, por lo de que la gente puede usar asistentes de programación para hacer cosas sencillas que ya están hechas pero que pueden ser poco accesibles. Lástima que vayas diciendo que los programadores en general son más productivos. Y que propongas a la gente que te paga que lleven programas hecho con IA a producción final. Si fueseis conscientes de sus peligros, no lo haríais. Llevas doce negativos, pero ya tienes un positivo, no pierdas la esperanza. (-12,1)
3.- La IA muestra un progreso constante y sorprendente, con científicos que a menudo dicen que “nunca podrá hacer esto” y luego la IA lo logra en poco tiempo.
Jon cree que pensar que hay muchísimos casos de supuestos logros de la IA que son exagerados y poco realistas, como le está explicando Ramón, es una teoría conspiranoica (minuto 1:27).
Uno de los que lo explican mejor, bajo mi punto de vista, es Ed Zitron.
Jonsito! Que no es ninguna conspiración, que eres un crédulo, que te cuelan cualquier barbaridad que dice la gente que quiere ganar dinero con la IA. Ya llevas trece negativos. (-13, 1)
4.- La IA está aportando “conocimiento nuevo a la humanidad” (citando a Pep Martorell).
Jon cree que la IA está aportando conocimiento nuevo a la humanidad (minuto 1:17) .
Pero Jonatancio, ahora te llamo Jonatancio: se te olvida otorgar el peso que se merecen los humanos que usan esa IA como herramienta. Herramienta que les facilita el trabajo de crear ese conocimiento. Qué esos sistemas por sí solos no aportan nada, ni al conocimiento ni a nada de nada. Voy a ser generoso y te daré un positivo porque entiendes que con la IA conseguimos conocimiento nuevo. Y un negativo porque vuelves a antropomorfizar y otro para Pep Martorell por subirse al carro del Hype. Jonatancio, espabila, que la vida te va a comer (como dice el Baity). (-14, 2)
Ilustración 1https://www.youtube.com/@SrBaityBait
Jon Hernández, eres el divulgador más grande y guapo de Inteligencia Artifical en habla hispana. Si me lo permites, te regalo yo el libro de Ramón, “Las 100 cosas…” Pero tienes que leerlo. No vale con usar alguno de tus sistemas de IA para hacerte un resumen. Ahí verás que Ramón forma parte del Human-Centered AI. Y que tienen una guía de pautas para informar sobre robots, IA y ordenadores:
Léela y cumple con ella en tus próximas entrevistas y ponencias, por favor. Ah, y pásasela a Pep Martorell, que también parece que está un poco despistado.
5.- Las demostraciones de robots son creíbles.
Long Jonson, figura, entiendo que te refieres (minuto 1:49)
a uno de estos vídeos promocionales de la compañía Figure, presentando el robot Helix.
Está muy bien, oye. Otra cosa es que, de ahí, podamos extrapolar que vamos a tener robots generalistas, de los que podrán hacer casi cualquier cosa.
Un robot es una máquina programada para realiza una serie compleja de acciones de forma automática.
Un robot generalista es un robot capaz de llevar a cabo infinidad de tareas sin intervención humana en un entorno cambiante.
Un robot humanoide en 2025 es un robot que no aprenderá a ser diestro en infinidad de tareas, a pesar de los miles de millones de dólares que financien su entrenamiento, debido a dos problemas principales: tener dos piernas es una fuente de peligro para los humanos que estén cerca del robot. El otro problema tiene que ver con la imposibilidad técnica de usar el diseño de dedos articulados en manos similares a las humanas, que puedan ser tan hábiles y fuertes como nosotros. Rodney Brooks, el inventor de la famosa Roomba, nos advierte de que en 15 años tendremos un montón de robots, pero no estarán antropomorfizados.
Fíjate en lo que nos cuenta Benjie Holson sobre lo que hacen ahora los robots y las limitaciones que tienen:
Lo de los robots doblando ropa está muy bien, pero en el fondo sólo es algo un poco más sofisticado como las patrañas de Musk. Si quieres saber más sobre robots y sus limitaciones, lee a Rodney Brooks.
Te has ganado un positivo. ¡Ya llevas tres! (-14, 3)
6.- Sin un cuerpo, no hay modelo del mundo
Joooon! Sí, la corporeidad de los robots es condición necesaria para tener un modelo del mundo (minuto 1:47). Joer, estoy orgulloso, tío.
Fíjate como hasta Suleyman, dice que sin cuerpo no hay emociones, ni modelo del mundo, ni nada parecido a una consciencia.
Ahora sólo te falta conectar eso con el hecho de que la IA Generativa no tiene modelo del mundo. Te has ganado tu cuarto positivo. Bravo! (-14, 4)
Ramón explica muy bien los retos de la IA. Por ejemplo, en el de “100 cosas…”: estructuración de la información, creación de significado conectado con un modelo del mundo (corporeidad), la cuestión del origen de la cultura y la motivación intrínseca de los sistemas de IA.
7.- Estamos a punto de la AGI.
Jon se cree al pie de la letra las predicciones de AGI para antes de 2030, por figuras “muy potentes” como Sam Altman, Dario Amodei, Elon Musk, Hinton, LeCun, Techmark y Hassabis. Estas predicciones, para Jon son significativas y creíbles, unos por ser CEO’s y otros por ser “científicos” (minuto 43).
Ramón López de Mántaras explica estupendamente qué hace falta para conseguir una IA General, cómo es imposible que venga puramente de la IA Generativa, y lo lejos que estamos de conseguirlo, en su libro de las “100 cosas…”
La IA General en 2025, es una IA capaz de entender el mundo por sí misma y desarrollar casi todas las tareas de los humanos a un nivel igual o mejor que las mejores personas en cada ámbito. No puede darse debido al problema del significado. Es una mamarrachada del márquetin que desvirtúa el concepto de IA fuerte, y que usan los charlatanes de la IA.
La IA fuerte es una réplica de la inteligencia humana mediante máquinas.
La IA débil es la ciencia que permite programar ordenadores para realizar tareas de inteligencia hiper-especializada, que muchas veces supera las capacidades humanas. Como en el caso del ajedrez, donde ya no va a haber nadie capaz de ganar a los programas de ordenador, pero no hay forma de que esos programas de ordenador apliquen su técnica para ganarnos a las damas.
Los charlatanes de la IA, son individuos que alimentan los bulos, el bombo y las medias verdades de la IA para lucrarse.
El problema del significado es la barrera principal que hace que no podamos saber cómo conseguir IA’s Generalistas. Tiene cuatro componentes.
El problema de la estructuración de la información consiste en la dificultad de conseguir destilar la información clave desde grandes bases de datos con información redundante. La IA generativa es muy útil para ello.
El problema de la creación de significado implica usar la información del sistema para interactuar adecuadamente en la realidad cambiante. Sólo es posible mediante un cuerpo capaz de sentir el mundo para hacerse un modelo del mismo, por ello sólo puede solucionarse mediante robots.
El problema del origen de la cultura consiste en la capacidad de la interacción social, mediada por un cuerpo con un modelo del mundo.
El problema de la motivación intrínseca implica tener una respuesta a la pregunta de por qué hacemos las cosas.
“Las declaraciones de CEOs de grandes empresas tecnológicas sobre la productividad de la IA (ej. Andy Jassy de Amazon diciendo que se han ahorrado 4500 años de programadores) podrían ser ciertas y no son necesariamente por intereses económicos” (minuto 35).
Jon, ¿no hemos quedado que para conseguir IA General necesitamos robots con un modelo del mundo? Ramón ya te ha explicado que esta gente que usas como referente tiene unos enormes intereses económicos en hacernos creer las chorradas que sueltan. ¡Ibas remontando! Te has ganado un negativo por creer que la IA General está a punto de emerger, y otro por no ser crítico con las fuentes de tu conocimiento ni ver la influencia de sus intereses económicos. (-16,4)
Ya estamos acabando, Vamos con el tercer grupo de creencias:
III) Riesgos de la Inteligencia Artificial
1.- Los peligros derivados de la IA son los que señalan los CEO’s: una superinteligencia que intentará extinguir a la humanidad.
Los peligros en los que cree Long Jonson son una patraña (minuto 43). El tema es demasiado complejo para tratarlo aquí como se merece, pero los puntos negativos que voy a endosar a Long Jonson están más que justificados, y sólo le pondré dos.
La creencia en la Singularidad, el momento en que la IA puede crear otras IA más inteligentes – Melanie Mitchell -, es pseudociencia, por tanto, punto negativo para Long Jonson.
La singularidad es una visión religiosa, no científica, que supone que llegará un momento en el que la humanidad estará a expensas de una inteligencia artificial súper-evolucionada. La Singularidad tiene dos patas. La primera es la Ley de Moore, que predice incrementos exponenciales en la capacidad computación al. Esta ley ya está dejando de ser exponencial. La segunda pata necesita de la ingeniería inversa del cerebro. Como te explicará cualquier neurocientífico, estamos muy lejos de entender el cerebro y su conexión con la mente, por lo que puedes aplicarte el “Keep calm and forget about the singularity“ que comenta Ramón. Al final, la singularidad no es más que una jugada provechosa para la industria de la IA, porque les permite desviar el foco de los problemas reales que provoca esta industria.
Que los empresarios que hablan de IA tienen mayor credibilidad que los investigadores en IA, otra patraña, punto negativo.
Como te explica Ramón, los peligros infundados que divulgan los que no creen realmente en ellos, como Sam Altman, están motivados en el intento de conseguir regulaciones hechas por ellos mismos. Esto lo explica requetebién Karen Hao en su libro Empire of AI. Es un libro imprescindible para entender el cómo funciona el mundo de los negocios de la IA Generativa. Long Jonson: no puedes ir a más entrevistas sin haberte leído este libro. Jurámelo.
David Gerard llama a esto el criti-hype, una forma de “criticismo” que hace que los robots parezcan peligrosos de una manera molona.
Melanie Mitchell nos refiere a Margaret Mitchell (no son familia, que yo sepa), una investigadora en ética en IA, quien dice que “Mantener la creencia en propiedades mágicas de la IA y amplificarlas, sirve el programa de relaciones públicas de Google, y es desinformación”.
Melanie señala exactamente lo que te decía Ramón: el columnista del NYT saca la conclusión de que los humanos no podemos regular la Inteligencia Artificial. Sólo la IA puede regular la IA. Ello se debe a que los humanos no podemos prever cómo evolucionará la IA. Lo cual es una noticia estupenda para las empresas que le dan bombo, ya que no quieren ser reguladas. ¿Lo has entendido esta vez?
Ramón, en su libro sobre las “100 cosas…” detalla los peligros reales de la IA y muestra como desmontar la patochada de la Singularidad, en dos páginas. Este Ramón es un genio.
En el mismo libro sobre la “100 cosas …”, Ramón argumenta como suponer una pérdida masiva de empleo es sobreestimar a los robots.
De hecho, cuando lo LEAS (nada de hacer resúmenes con el NotebookLM, que te conozco Long Jonson), verás que Ramón da un listado enorme de problemas reales, actuales, pasados y futuros que te pondrán los pelos de punta y harán que las estupideces de los tecnofascistas y su doomsday te parezcan un chiste.
Los amigos de Some More News, lo explican de una forma extraordinariamente divertida.
En el vídeo de “La gran mentira de la IA…”, Ramón ya te enumera unos cuantos de los problemas reales (minuto 1:41): medioambiental por consumo de energía, agua, ruido… el poder que tiene media docena de empresas tecnológicas, los Deepfakes, la manipulación, la desinformación, los sesgos y discriminación por razón de raza, sexo, religión… la exacerbación de la desigualdad de ganancias entre asalariados y capital, etc.
Para saber más sobre estos peligros, recomiendo la maravillosa web de AI Incident database; además de los libros de Ramón.
Long Jonson, te llevas un negativo por divulgar el pensamiento mágico de la singularidad y otro por la divulgación de argumentos que favorecen la autorregulación de IA por empresas de IA. (-18, 4)
2.- La falta de replicabilidad de los resultados de artículos publicados sobre IA es una característica de la IA.
Jon cree que la falta de replicabilidad de los resultados de artículos publicados sobre IA es una característica de la IA (1:25).
Jonisito: Ramón te estaba hablando de un asunto muy serio que torpedea los argumentos megalomanIAcos de todos estos Boosters que tu divulgación engrandece todavía más. Puedes leer sobre ello en esta entrada de nature. Ahí verás como es un problema para la ciencia en general.
La irreproducibilidad de la ciencia en IA consiste en que en muchas ocasiones no se pueden replicar los resultados que supuestamente se han obtenido en el desarrollo de las aplicaciones. Esto debe hacernos muy suspicaces ante la información de los supuestos logros que vemos en la prensa.
Jojonancio, te has ganado el décimo-noveno negativo por intentar justificar la no reproducibilidad de la investigación en IA. (-19, 4)
3.- Los CEOS pueden ir a la cárcel si no invierten en IA. Por eso, aunque piensan que entraña peligros existenciales no pueden intentar salvar a la humanidad.
Soy profe de repaso de Administración y Dirección de empresas: esta me ha dolido. Jon parece que piensa que “los CEO’S pueden ir a la cárcel por intentar salvar a la humanidad”, (minuto 1:02). Long Jonson tiene la falsa creencia de que un ejecutivo de una empresa puede ir a la cárcel si cesa las inversiones en IA, aunque ponga en peligro a la humanidad.
Jon, Jon, acércate, que no te va a doler, que estoy para ayudar. Yo también vendo cursos online, como tú. Los míos son sobre las asignaturas del Grado de ADE (y aledaños) que se dan en la Universidad de les Illes Balears. Soy profe de repaso. Es mi vocación. Podría decir que soy un Experto intermediario del Dominio de la Administración y Dirección de Empresas, ajustándonos a las definiciones de la Autoridad epistémica. Y hago justo lo que explicaba Ramón respecto a entrenar a mi alumnado para que aprueben exámenes. En este caso los exámenes se los ponen los profes de la universidad.
Te lo digo porque te puedes quedar bien tranquilo: cuando tu seas el CEO de Divulgadores de IA en habla hispana S.A., podrás tomar la decisión de no avanzar en una tecnología que creas que puede llevarnos a la extinción, sin miedo a acabar en la cárcel.
Como se explica en las asignaturas de primero de ADE (por ejemplo en el libro de Ross, Westerfield y Jordan: Fundamentos de finanzas corporativas, pg.9)
Además, si lees al Ed Zitron, por ejemplo, podrás entender mejor los motivos que hay detrás de esta gilipollez neoclásica del tener que responder sólo frente a los accionistas.
Me encantaría que mi alumnado entendiese el origen y las implicaciones de este concepto.
Una última cosa. Cuando en el minuto 1:34 Ramón te explica que los titulares alarmistas se propagan rapidísimamente, se refiere a cosas como lo de Pichai. Tú lo entiendes al revés (como casi todo). Y, además, sugieres que Ramón no entiende realmente cómo funciona (eres el efecto Dunning-Kruger, con un pulgar oponible). Y que los vídeos de “debunking” de la IA se hacen porque consiguen muchas visualizaciones. No, tú y gente como tú es la que divulga bulos sensacionalistas pseudocientíficos. Los que creemos en la ciencia y amamos la verdad y los avances tecnológicos, nos vemos forzados a reducir el daño que causáis, en lugar de hacer cosas más productivas.
Tienes un negativo por divulgar esta gilipollez de la responsabilidad fiduciaria, otro por entender al revés quien está desinformando sobre IA. Veintiún puntos negativos por un solo vídeo, esto seguramente es un récord. (-21, 4)
Jon, tocayo! Estamos en la recta final. Aguanta un poco más, que se vienen cosas guapas. Y ya que estás, dale al botón de me gusta y suscríbete al canal.
__
Una última cosa sobre Jon:
La última creencia falsa de Jononmentero de la que voy a hablar es una intuición mía. A mí, me parece que Long Jonson confunde toda la IA con la IA Generativa. Esta es la última vez que uso este chascarrillo de cambiarte el nombre. Lo he copiado de este artículo (divertidísimo) de Nick “Ludic” Suresh. Al césar, lo que es del césar.
Si hubieses escuchado a Ramón, te habrías enterado de que la IA Generativa es una pequeñísima parte del campo de estudio de la IA. Siguiendo una ley de potencias (una de las que estudiamos en las ciencias de la Complejidad) cojonuda, esta pequeña parte está asfixiando al resto del dominio de la IA.
Te lo ruego, cuando recibas la copia del libro de Ramón que te regalo, “100 cosas…”, léela (ni se te ocurra resumirla con un LLM). Entonces será verdad que tomarás una visión crítica (minuto 1:26) de la información que recibes de los otros Charlatanes de la IA. Porque lo cierto es que pareces un LLM, cogiendo lo que dicen otros en inglés y traduciéndolo sin entender ni una palabra de lo que dices.
Es muy importante que leas el libro antes de ir a más ponencias, dar más entrevistas, cursos o asesoramiento a tus seguidores. Vas a causar mucho daño a alguien, si no lo has hecho ya. Yo te ayudaré a mitigar tus errores. Te puedo preparar un curso, gratis. Usaremos todo este material que he presentado en este video, para que sepas de qué cojones hablas, cuando divulgues conocimiento sobre Inteligencia Artificial.
Lo que te decía, Jonípero: el dominio de la Inteligencia Artificial NO es la Inteligencia Artificial Generativa. Otro punto negativo para ti. Este es gratis. (-22, 4)
Conclusiones:
Esto es Google NotebookLM
Como dije al principio, he usado una herramienta de IA que Jon recomienda: NotebookLM para que dictamine si Jon es un experto o un charlatán.
Conclusión del Notebook:
¿Jon Hernández es un Experto o un Charlatán?
“basándome en el análisis riguroso de sus creencias y la definición de expertismo de Goldman, considero que Jon Hernández, en este vídeo, se inclina más hacia la categoría de Charlatán en lo que respecta a sus afirmaciones sobre las capacidades y el impacto actual de la IA generativa. Como diría Zitron, parece ser uno de los que promueve una visión sobreoptimista, a menudo contradicha por la realidad científicamente contrastable.”
Mis conclusiones:
- La principal conclusión a la que llego es que Jon acumula 22 creencias falsas y cuatro verdaderas. Y, además, todas sus creencias son las que los medios generalistas nos han estado vertiendo desde que empezó el Bombo. No hay nada de lo que diga que pueda considerarse que viene de un experto. Así que podemos asegurar, científicamente, que es un Falso Experto o Charlatán según la definición primera de Goldman. Además, es un Falso Experto que le quita espacio a voces realmente expertas como la de nuestro admirado Ramón López de Màntara i Badia.
Recordemos las definiciones de Experto bajo la teoría de la Autoridad epistémica:
i.- Es un experto S sobre un dominio D, quien tiene mayor número de creencias verdaderas, y menor número de falsas respecto a D, que la mayoría de la gente. Además, el número de creencias verdaderas debe de ser sustancial.
- Veamos la segunda definición de experto:
ii.- Es un experto S sobre un dominio D, quien tiene la capacidad de ayudar a otros (especialmente a personas no expertas) a resolver una variedad de problemas en D o ejecutar una variedad de tareas en D, que las personas no iniciadas no podrían resolver o ejecutar por su cuenta.
Jon cree en las mismas chorradas que la mayoría de la gente. Las que cuentan los medios generalistas repitiendo lo que dicen los cuatro mangantes que controlan la IA Generativa.
Así que Jon tampoco es una Autoridad epistémica (un Experto) respecto a su capacidad de ayudar a otras personas a resolver problemas y ejecutar tareas de IA, más allá de usar información que está disponible en internet de forma gratuita.
- La tercera conclusión es sobre “Tu ayudante de investigación basado en IA”: NotbookLM. Con un total de N(-15,+6) quince resultados erróneos y seis acertados, mejor que Jon, pero tampoco para echar cohetes. Así que tampoco es una Autoridad epistémica de la que podamos fiarnos. La versión de informe que he analizado ha sido la cuarta que me ha devuelto el sistema NTBKLM, porque las anteriores eran increíblemente erróneas.
Estos sistemas sólo son útiles si anteriormente nos hemos leído y comprendido las fuentes. De otro modo, nos van a devolver resultados totalmente erróneos y no lo sabremos.
Por ejemplo, para este vídeo, los informes que me ha presentado NotebookLM han sido un desastre. Pero resultaban muy convincentes. Si no me hubiese pegado el curro de leer todas las fuentes i ver el vídeo de Ramón y Jon una decena de veces (haciendo mapas mentales y resúmenes del contenido), difícilmente hubiese podido detectar las cagadas que se presentaban en la pantalla del asistente.
- Jon, quiero añadir que lo mejor que podrías hacer para todos nosotros es, que cuando recibas una propuesta de entrevista o ponencia, contestes que hablen con Ramón. Cede espacio a quien sabe, y aplica un poco de pensamiento crítico al contenido que consumes y divulgas. Verás como todo irá mejor.
- Dos cosas más, tiene pinta de que se viene otro invierno en la IA, por si quieres ir cogiendo una mantita. Ah, Jon, y como se te ocurra empezar a hablar sobre computación cuántica, voy a hacerte otro vídeo, con el que este que estás viendo, parecerá un elogio.
- Espero que quien vea este vídeo entienda que hay expertos de verdad, muy críticos con la IA Generativa y la forma en que se está presentando al público en general. Hay mucho en juego.
Bueno pues, si has llegado hasta aquí, muchas gracias.
Si te ha gustado este vídeo, dale a me gusta y suscríbete al canal. Y deja un comentario diciendo si te parece que Jon es un experto o debería investigar más sobre IA antes de seguir divulgando contenido sobre IA.
También me encantaría saber sobre qué otros tópicos te gustaría ver un vídeo de este estilo. Tengo pensado hacerlo sobre salud mental, economía, formación universitaria y otras movidas. Tal vez puedas darme una idea que apetezca probar.
Ahora, sal a la calle y vive un poco, copón.
Fuentes
| Author | Title | Publication Year | Publication Title | Url |
| Sobre mi | José Fonta | https://josefonta.com/sobre-mi/ | |||
| Kalai, Adam Tauman | 2025 | |||
| Nair, Arjun S. | 2025 | |||
| Loyola-González, Octavio | Black-Box vs. White-Box: Understanding Their Advantages and Weaknesses From a Practical Point of View | 2019 | IEEE Access | https://ieeexplore.ieee.org/document/8882211/ |
| Wegner, Anatol | Why Language Models Hallucinate? | 2025 | Medium | https://medium.com/@AIchats/why-language-models-hallucinate-1292f8184981 |
| Substack | Introducing the Substack app | https://substack.com/app?utm_source=email | ||
| Liang, Shanchao | 2025 | |||
| Guan, Shengyue | 2025 | |||
| Ball, Philip | Is AI leading to a reproducibility crisis in science? | 2023 | Nature | https://www.nature.com/articles/d41586-023-03817-6 |
| Semmelrock, Harald | 2025 | |||
| Brachman, Ronald J. | 2022 | |||
| Barassi, Veronica | Toward a Theory of AI Errors: Making Sense of Hallucinations, Catastrophic Failures, and the Fallacy of Generative AI | 2024 | Harvard Data Science Review | https://hdsr.mitpress.mit.edu/pub/1yo82mqa/release/2 |
| Rodriguez, Salvador | Microsoft AI chief says only biological beings can be conscious | 2025 | CNBC | https://www.cnbc.com/2025/11/02/microsoft-ai-chief-mustafa-suleyman-only-biological-beings-can-be-conscious.html |
| Grace, Katja | Survey of 2,778 AI authors: six parts in pictures | 2024 | https://blog.aiimpacts.org/p/2023-ai-survey-of-2778-six-things | |
| Geoffrey Hinton’s misguided views on AI | 2024 | Disconnect | https://disconnect.blog/geoffrey-hintons-misguided-views-on-ai/ | |
| Don’t listen to the ‘godfather of AI’ | 2023 | Disconnect | https://disconnect.blog/dont-listen-to-the-godfather-of-ai/ | |
| Geoffrey Hinton’s misguided views on AI | 2024 | Disconnect | https://disconnect.blog/geoffrey-hintons-misguided-views-on-ai/ | |
| Why Today’s Humanoids Won’t Learn Dexterity – Rodney Brooks | 2025 | https://rodneybrooks.com/why-todays-humanoids-wont-learn-dexterity/ | ||
| Bartsch, Anne | 2025 | |||
| La gran mentira de la Inteligencia Artificial | ️ Ramón L. de Mántaras – Podcast IA – YouTube | https://www.youtube.com/watch?v=ieYadopst4s | |||
| 100 COSAS QUE HAY QUE SABER SOBRE INTELIGENCIA ARTIFICIAL | Ramon López de Mántaras Badia | Casa del Libro | https://www.casadellibro.com/libro-100-cosas-que-hay-que-saber-sobre-inteligencia-artificial/9788418735684/16393247?srsltid=AfmBOoqFWAo8qPnu0vQz6O71cUAJwBZJcvcwPo8kn4yMZ63KSp4B6jVe | |||
| Karen Hao | Karen Hao | https://karendhao.com | ||
| Modelo extenso de lenguaje | 2025 | Wikipedia, la enciclopedia libre | https://es.wikipedia.org/w/index.php?title=Modelo_extenso_de_lenguaje&oldid=169786280 | |
| Inteligencia artificial | Consejo Superior de Investigaciones Científicas | https://www.csic.es/es/cultura-cientifica/libros-de-divulgacion/coleccion-que-sabemos-de/inteligencia-artificial | |||
| Aprendizaje profundo | 2025 | Wikipedia, la enciclopedia libre | https://es.wikipedia.org/w/index.php?title=Aprendizaje_profundo&oldid=168943690 | |
| Brachman, Ronald J. | 2022 | |||
| Marcus, Gary | AlphaProof, AlphaGeometry, ChatGPT, and why the future of AI is neurosymbolic | 2024 | Marcus on AI | https://garymarcus.substack.com/p/alphaproof-alphageometry-chatgpt |
| How smart is machine intelligence? AI aces games but fails basic reality check | IBM | https://www.ibm.com/think/news/mit-study-evaluating-world-model-ai | |||
| Barassi, Veronica | Toward a Theory of AI Errors: Making Sense of Hallucinations, Catastrophic Failures, and the Fallacy of Generative AI | 2024 | Harvard Data Science Review | https://hdsr.mitpress.mit.edu/pub/1yo82mqa/release/2 |
| ASALE, RAE y | contrafactual | Glosario de términos gramaticales | 2024 | «Glosario de términos gramaticales» | https://www.rae.es/gtg/contrafactual |
| Substack | https://substack.com/session-attribution-frame | https://substack.com/session-attribution-frame | ||
| Grace, Katja | ||||
| Microsoft AI chief says only biological beings can be conscious | https://www.cnbc.com/2025/11/02/microsoft-ai-chief-mustafa-suleyman-only-biological-beings-can-be-conscious.html | |||
| Geoffrey Hinton’s misguided views on AI | 2024 | Disconnect | https://disconnect.blog/geoffrey-hintons-misguided-views-on-ai/ | |
| Mitchell, Melanie | Magical Thinking on AI | 2025 | AI: A Guide for Thinking Humans | https://aiguide.substack.com/p/magical-thinking-on-ai |
| Challapally, Aditya | ||||
| AI Is A Money Trap | 2025 | Ed Zitron’s Where’s Your Ed At | https://www.wheresyoured.at/ai-is-a-money-trap/ | |
| Acemoglu, Daron | The Simple Macroeconomics of AI | |||
| No, AI is not Making Engineers 10x as Productive | 2025 | https://colton.dev/blog/curing-your-ai-10x-engineer-imposter-syndrome/ | ||
| Manus: Manos a la IA | https://manus.im/ | |||
| DJ Shadow – Nobody Speak feat. Run The Jewels (Official Video) – YouTube | https://www.youtube.com/watch?v=NUC2EQvdzmY&t=18s | |||
| Search Results for “coding” | 2025 | Pivot to AI | https://pivot-to-ai.com/?s=coding&ct_post_type=post%3Apage | |
| Search Results for “coding” | 2025 | Pivot to AI | https://pivot-to-ai.com/?s=coding&ct_post_type=post%3Apage | |
| The Era Of The Business Idiot | 2025 | Ed Zitron’s Where’s Your Ed At | https://www.wheresyoured.at/the-era-of-the-business-idiot/ | |
| Años, 2 023 568 Visualizaciones Hace 4 | BaityBait | YouTube | https://www.youtube.com/channel/UCNnNCBgckxzqIh1Txw5cgSg | |
| Figure | Introducing Helix | 2025 | https://www.youtube.com/watch?v=Z3yQHYNXPws | |
| Why Today’s Humanoids Won’t Learn Dexterity – Rodney Brooks | https://rodneybrooks.com/why-todays-humanoids-wont-learn-dexterity/ | |||
| Holson, Benjie | Benjie’s Humanoid Olympic Games | 2025 | General Robots | https://generalrobots.substack.com/p/benjies-humanoid-olympic-games |
| Guardian News | Elon Musk unveils plan for ‘Tesla Bot’ with man dancing in a bodysuit | 2021 | https://www.youtube.com/watch?v=TsNc4nEX3c4 | |
| Mitchell, Melanie | Magical Thinking on AI | 2025 | AI: A Guide for Thinking Humans | https://aiguide.substack.com/p/magical-thinking-on-ai |
| Gerard, David | OpenAI fights the evil scheming AI! — which doesn’t exist yet | 2025 | Pivot to AI | https://pivot-to-ai.com/2025/09/18/openai-fights-the-evil-scheming-ai-which-doesnt-exist-yet/ |
| MMitchell [@mmitchell_ai] | Maintaining the belief in “magic” properties, and amplifying it to millions (thanks for nothin @60Minutes!) serves Google’s PR goals. Unfortunately, it’s disinformation. </> | 2023 | https://x.com/mmitchell_ai/status/1648035420058550273 | |
| Horgan, John | The Singularity and the Neural Code | Scientific American | https://www.scientificamerican.com/blog/cross-check/the-singularity-and-the-neural-code/ | |
| Some More News | ¿Cómo y por qué las grandes tecnológicas se inclinaron hacia la derecha? – MÁS NOTICIAS | 2025 | https://www.youtube.com/watch?v=oWEshQTz1uU | |
| List of taxonomies | https://incidentdatabase.ai/taxonomies/ | |||
| Ball, Philip | Is AI leading to a reproducibility crisis in science? | 2023 | Nature | https://www.nature.com/articles/d41586-023-03817-6 |
| The Shareholder Supremacy | 2024 | Ed Zitron’s Where’s Your Ed At | https://www.wheresyoured.at/tss/ | |
| Contra Ptacek’s Terrible Article On AI — Ludicity | https://ludic.mataroa.blog/blog/contra-ptaceks-terrible-article-on-ai/ | |||
| Flujo de trabajo con IA: Consigue en 3 minutos lo que llevaba semanas ⚙️ – Jon Hernández | https://www.jonhernandez.education/video-noticias/flujo-de-trabajo-con-ia-consigue-en-3-minutos-lo-que-llevaba-semanas-%E2%9A%99%EF%B8%8F%F0%9F%94%A5/ |

