Contacto

Análisis de Jon Hernández: un charlatán sobre IA

 

Disclaimer:

El contenido de este vídeo es educativo, de opinión personal, humorístico y un acto de activismo neurodivergente y de sufrimiento mental.

Durante la grabación de este contenido ningún bebé de Gran Modelo de Lenguaje ha sufrido daño.

He intentado ser riguroso con el contenido de las fuentes. En ningún caso se puede suponer que la interpretación que se vierte del contenido de las fuentes represente la opinión de los autores de dichas fuentes.

El autor principal de este contenido, soy yo, Xavi Mir, aka marxattac; un orgulloso neurodivergente en el espectro autista. Es posible que mi forma de decir las cosas, las bromitas o el contenido, puedan herir ciertas sensibilidades. En ningún caso es mi intención hacer padecer ningún sufrimiento a nadie; aparezca mencionado o no en el vídeo. Si alguien se siente ofendido, ruego contacte conmigo en la dirección que aparece en la descripción del canal.

Si quien se siente ofendido es un creador de contenido, o supuesto experto al que estoy analizando: tienes dos trabajos, ofenderte y desofenderte.

¡Palestina libre!

 

Aquí encontrarás el guión y las fuentes del vídeo de mi canal de @marxattac2

 

 

 Intro, cabecera o whatever

Jon Hernández se autoproclama “el mayor divulgador de IA en habla hispana” y vende cursos con “titulación universitaria”. Pero, ¿es un verdadero experto o un charlatán aprovechándose del bombo de la IA Generativa?

Hemos puesto sus creencias a prueba con una herramienta de IA y la sabiduría de Ramón López de Mántaras, un genuino experto.

¡Vamos a descubrirlo!

Este es Jon Hernández.

https://criptotendencia.com/2024/04/01/jon-hernandez-en-talent-land-2024-la-ia-transformara-el-mundo-2/

Él mismo ha dicho que no es un experto en Inteligencia Artificial (IA), sino un divulgador. Pero ojo, no un divulgador cualquiera, sino “el mayor divulgador de Inteligencia Artificial en habla hispana”, según un email que recibí porque estoy investigándole desde hace semanas.

 

Lleva más de cien ponencias hablando sobre IA. Vende cursos y asesoría sobre IA. Incluso es director de un “Máster en Inteligencia Artificial con Titulación Universitaria” en The big School, una escuela online de negocios y centro de formación online en marketing digital.

 

Este es Ramón López de Mántaras i Badia.

https://www.iiia.csic.es/~mantaras/

Él sí es un experto en IA. Y un excepcional comunicador y divulgador. Lleva desde 1973, más de cincuenta años, investigando en IA. Tiene varios libros publicados. Usaremos dos:  “Las 100 cosas que hay que saber sobre Inteligencia Artificial” y   Es tan importante que tiene su propia entrada en Wikipedia. Además de tener una paciencia que ni Jon pudo quebrar… casi. También hablaremos de esto en un rato.

 

Este es Alvin Ira Goldman (me hace gracias que sus iniciales sean AI)

https://es.wikipedia.org/wiki/Alvin_Goldman

Profesor de filosofía cuyos trabajos sobre Autoridad epistémica de Bartsch et al. nos permiten saber si estamos frente a un Experto o un Charlatán.

Expertismo

En la Autoridad epistémica de Goldman, según Bartsch et al.,

se define de dos formas:

i.- Es un experto S sobre un dominio D, quien tiene mayor número de creencias verdaderas, y menor número de falsas respecto a D, que la mayoría de la gente. Además, el número de creencias verdaderas debe de ser sustancial.

ii.- Es un experto S sobre un dominio D, quien tiene la capacidad de ayudar a otros (especialmente a personas no expertas) a resolver una variedad de problemas en D o ejecutar una variedad de tareas en D, que las personas no iniciadas no podrían resolver o ejecutar por su cuenta.

No me he presentado. Yo soy Xavi. Un experto en expertos de IA. Y un bailarín excepcionalmente torpe.

Yo, como Jon, llevo pocos años estudiando la IA. Y la verdad es que le veo cosas muy útiles. Incluso veo cosas útiles en esta porquería de IA Generativa en la que nos encontramos metidos. Ya verás a qué me refiero con lo de porquería.

 

Tenemos tres grupos de creencias que Jon expone en su vídeo  “La gran mentira de la Inteligencia Artificial | ️ Ramón L. de Mántaras – Pocast IA

Naturaleza de la Inteligencia Artificial (y el pensamiento mágico)

Capacidades actuales de la Inteligencia Artificial

Riesgos de la Inteligencia Artificial

 

  1. I) Naturaleza de la IA (y el pensamiento mágico)

1.- Usar el término Inteligencia es adecuado

Jon insiste en rebatir a Ramón sobre lo adecuado del uso del término Inteligencia. Da dos argumentos. Primero, que gente muy inteligente dice que está justificado.

 

Segundo, que, centrándonos en los resultados (minuto 23), si son indistinguibles de los que produciría un humano, se puede hablar de inteligencia del algoritmo.

 

Ramón le explica pacientemente que antropomorfizar induce a sobreestimar las capacidades de la IA. Que es algo que las empresas tecnológicas usan porque tienen inmensos intereses económicos en juego. Y que no es suficiente ver los resultados, ya que es imprescindible analizar el proceso que sigue el sistema para llegar a esos resultados, para poder categorizarlo como inteligente o no.

Ese es uno de los primeros puntos del libro de Ramón “100 Cosas que hay que saber sobre inteligencia artificial”. Libro que te recomiendo, Jon. Se lee muy rápido. Y te será muy útil.

 

1.- Usar el término Inteligencia es adecuado

 

Jon, te has ganado un punto negativo: (-1,0)

2.- Existe una división de opiniones sustancial en la comunidad científica sobre si los LLMs “razonan” y “comprenden el lenguaje”.

Jonatan Isaac Hernández (ese es su nombre completo) parece creer genuinamente que la IA Generativa razona. I que se sorprendió al saber que el consenso científico es que NO razona (minuto 55).

En esta parte del vídeo, Ramón demuestra una paciencia fuera de serie. Se pasa varios minutos intentando explicarle a Jon lo que son los contrafactuales, la ausencia de sentido común en LLM’s, y como son la prueba de que no hay ningún constructo remotamente parecido a lo que podemos llamar razonamiento, dentro de los algoritmos de la IA. Le habla de Levesque y otros investigadores que han trabajado con esta problemática de la IA. Pero Jon es inmune a la lógica. Y en mi opinión de profesor, no entendió nada de lo que Ramón le estaba explicando. Y no será porque ese pobre señor no lo intentase de la forma más diáfana posible.

Aquí, Hector Levesque y Ronald Brachman, hablan de una nueva ciencia del sentido común.

Verónica Barassi, en el Harvard data science review, explica estupendamente cómo funcionan ejemplos de falta de sentido común en LLM’s, como los propuestos por Douglas Hofstader y David Bander.

Gary Marcus y Ernest Davis ahondan en la falta de sentido común.

Jon Isaac, esto son tres creencias negativas: la primera por decir que la IA Generativa razona, la segunda por decir que la IA Generativa comprende, la tercera por decir que el consenso científico es que razona y comprende. Ya llevas cuatro. (-4,0)

Sé que usar los dos nombres jode, porque mi padre me endilgó un Francesc antes del Xavier.

3.- La IA no es sólo software: es un ente y manifiesta signos de conciencia.

Jon señala que podemos hablar de un ente, como dijo Mustafá Suleyman (minuto 1:22), que muestra signos de conciencia, como dijo Geoffrey Hinton (minuto 58).

 

 

 

Jon, en su línea de ser un LLM con patas, no procesa razonadamente la información que tan generosamente le está aportando Ramón: suponer consciencia a una máquina no biológica es absurdo.

Jona, ¿puedo llamarte Jona?, léete el libro de Ramón, “100 cosas que…”, y entenderás lo que este santo varón te quería explicar. Es súper ameno. Te encantará.

Así que otro negativo para J.I. Hernández: (-5,0).

Además, casi sacas de sus casillas al pobre Ramón, y acaba diciendo que “Me importa un huevo lo que sea este señor”.

 

Ramón, en ese momento, minuto 1:22, dices que te sabe mal que gente como tú no tenga el impacto que tiene gente como Suleyman (y ahora mismo, en lo que respecta a habla hispana, nuestro amigo Jon: el profesor de máster). No puedo estar más de acuerdo. Por eso estoy esforzándome en darte más voz.

Jonny, ¿puedo llamarte Jonny?, esto es para ti: yo tengo un máster en Pensamiento complejo, un máster oficial, no como el tuyo. Las propiedades emergentes sólo se dan en sistemas complejos. Si realmente te interesa saber sobre emergencia de propiedades, te recomiendo que hagas los cursos del Complexity Explorer del santa Fe Institute. Por ejemplo, el de introducción de Melanie Mitchell. Los sistemas complejos deben cumplir estas características:

Un software de ordenador sólo tiene interacciones determinísticas. Es totalmente determinístico, aunque use probabilidades. Esto significa que la IA Generativa no va a tener consciencia. ¿Otros tipos de IA que todavía no hemos descubierto combinados con la IA Generativa?, quién sabe. Pero de los sistemas que actualmente estamos construyendo, no va a emerger nada parecido a un razonamiento consciente.

Melanie Mitchell explica qué es el pensamiento mágico en IA: atribuirle capacidades a la IA que no existen. Eso sucede cuando toda la fuente de información sobre IA viene que prensa generalista que se dedica a reproducir las chorradas que sacan las empresas que se dedican a IA. Como le sucede a un columnista de prestigio del New York Times, Thomas Friedman. Si le sucede a alguien inteligente como Friedman, cómo no les va a suceder a Jon Hernández y sus seguidores.

Don Jonson, te has ganado el sexto negativo por divulgar que la IA tiene signo de consciencia. Y te pondría otro por no atender a lo que te dice el bueno de Ramón y ponerle nervioso, pero como estamos haciendo un experimento científico muy serio, no te contaré el último. (-6,0)

4.- Si la IA es una “caja negra” y no podemos ver su proceso interno, no es posible decir definitivamente que no está razonando.

Oh Long Jonson, ¿puedo llamarte Long Jonson?, si abrieses las orejas a lo que te explica Ramón, y dejases de interrumpirle, tu empanada mental sería mucho menor. Ve al minuto 1:08 de tu vídeo con Ramón y atiende a lo que te dice. Aquí estuviste a punto de hacerle perder la paciencia otra vez. Nunca te lo perdonaré.

No es sólo en la IA Generativa que nos están vendiendo ahora, sino que sucede con todas las redes neuronales desde los años 60. Se dice que estas redes neuronales tienen una caja negra porque, por su propia arquitectura, no se puede ver la línea de razonamiento que han seguido para justificar una respuesta (sacar un output). Si hubiera un razonamiento, lo veríamos. Un sistema que “razona” no puede tener una caja negra. Por ejemplo, en sistemas con aprendizaje por refuerzo, árboles de decisión, sistemas expertos, reglas bayesianas,,, sí que podemos ver por qué motivos ciertas acciones han recibido valoraciones positivas, y otras negativas. Hay montones de reglas de aprendizaje que no funcionan como las redes neuronales. Nuestro amado Ramón, junto con Pedro Meseguer González, tienen un libro llamado Inteligencia artificial donde lo explican de una manera muy didáctica.

Como te dice Ramón, una forma de dar luz a la caja negra de las redes neuronales, es con la IA Explicativa. Donde se buscan reglas lógicas que acomoden los patrones de activación o desactivación de grupos de neuronas del sistema.

Jonny Molony: haznos un favor, y léetelo antes de dar tu próxima ponencia, ¿quieres? Te has ganado tu octavo negativo. (-8,0)

Como apunte personal. La caja negra de un avión, precisamente, lo que hace es dar la información de porqué ha ocurrido algo. Es curioso que su significado en el lenguaje común e incluso en el científico, se modifique para referirse a lo contrario: un objeto del que no podemos sacar información.

Aviso a los haters: Ramón es un enamorado de la IA. Yo también, así como de la tecnología en general. Lo mismo que todos los autores que uso para este experimento. Lo que criticamos es el Boom magnificador del IA Generativa y las cortinas de humo que se están creando. No la IA en general, ni siquiera toda la IA Gen.

5.- Las “alucinaciones” no son un error, sino una característica necesaria para que la IA Generativa pueda ser creativa, como lo son los humanos.

Long Jonson, el gurú de la fotografía, cree que Sam Altman es un Dios omnisapiente y está en lo cierto cuando dice que las “alucinaciones” no son un error (bug), sino una característica (feature) necesaria para que la IA Generativa pueda ser creativa, como lo son los humanos (minuto 1:13).

Las confabulaciones no son un requisito para que la IA Generativa sea creativa, porque la IA es un software. No emerge ninguna idea genuina de un algoritmo. Es un sistema probabilístico que regurgita una secuencia de palabras (o píxeles o notas musicales o lo que leches sea para lo que lo hayan preparado) que ha adquirido en de la base de datos en la que se ha entrenado.

Verónica Barassi, explica esto y muchas más cosas interesantísimas en el artículo del Harvard Data Science Review.

Jonípero! Ya llevas nueve negativos. (-9,0)

Vamos a ver qué tal se te dan las creencias en los otros apartados. Por ahora no parece muy razonable que la gente pague por hacer un máster del que eres el director.

 

  1. II) Capacidades actuales de la Inteligencia Artificial

1.- La IA generativa ofrece un “retorno de inversión increíble” y un “20% de productividad” a nivel individual y empresarial.

Jonatan Isaac de todos los santos y Olé cree, erróneamente, que el Retorno de la inversión (ROI) en IA es extraordinariamente alto, y que la productividad ha aumentado en un 20% (minuto 31).

“… nunca he visto algo tan barato que aumente tanto la productividad”

Normal, Jon, no lo has visto porque no ha pasado. Ya sabes que el MIT sacó un informe que indicaba que un 95% de las empresas no obtiene ningún retorno a la inversión. Y eso que los que hicieron el informe son unos amantes del bombo de la IA como tú.

Aver, Jon, pásame estos estudios done ves que has aumentado un 20% la productividad de las empresas donde implantas IA. Yo soy economista y te lo revisaré.

La única empresa (del mundillo IA Generativa) que está teniendo beneficios es Nvidia. El resto de los participantes en el universo de la IA Generativa (Open IA, Microsoft, Anthropic, Meta…) tienen pérdidas. Aunque intenten camuflar los Estados contables, que presentan como empresas cotizadas que son la mayoría. No se conoce ninguna aplicación ni empresa reales que estén dando beneficios usando las “nuevas” prestaciones de la IA Generativa. Aquí lo explica Ed Zitron.

Por otro lado, es cierto que hay multitud de tareas en las que la productividad aumenta en un 20%. Pero Acemoglu (último premio “nobel” de economía) explica deliciosamente como ese 20% inicial está condicionado a tareas sencillas y trabajadores de bajo desempeño. En cuanto las tareas son complejas o los trabajadores tienen capacidades excelentes, la ganancia es inexistente. Además, la traducción de aumentos a nivel micro, se traducen a una fracción bajísima a nivel macro.

Pues nada, Jonalcovic, te has ganado tu décimo negativo. (-10,0)

2.- Los LLMs están mejorando sustancialmente en la codificación y permiten a personas sin conocimientos previos crear aplicaciones funcionales con una simple orden como con manus. Y en Amazon se han ahorrado 4500 años de programador en actualizaciones de Java.

Es cierto que los asistentes de programación pueden ayudar a gente sin experiencia, como dice Jon (minuto 34). Por otro lado, según Jon, los Asistentes disparan la productividad de los programadores en general.

Jon reconoce que los asistentes de programación tienen un grave problema de depuración de errores y de seguridad. Pero se empeña en creer que el CEO de Amazon no podía estar engañándonos cuando dijo que se han ahorrado 4500 años (minuto 35) de programador con las actualizaciones de Java para las aplicaciones de Amazon.

 

Por otro lado, como pasaba con las tareas, los programadores expertos no obtienen casi ganancias. Los mediocres pueden ser más eficientes. Pero de nuevo, los cuellos de botella y la cantidad de errores y problemas de seguridad hacen que la ganancia real para la empresa sea mínima o negativa. Colton, un programador experto, reflexiona sobre los asistentes de programación en esta entrada de su blog.

 

Don Jonson cree que a un agente como manus se le puede dar una orden totalmente abstracta y te crea un código funcional autónomamente (1:29). Se merece un saco de negativos. Uno por creer que manus es como acceder a un buen programador. Otro porque, Jonancio, me consta que a tus alumnos y seguidores les vendes la moto de que pueden ganar dinero usando manus. Pero sospecho que no les adviertes lo suficiente de los peligros que eso entraña.

No te contabilizo el negativo por falta de advertencia de peligros, ni creerte la patraña del ahorro de 4500 años de Amazon, poque no cumplen criterios de la Autoridad epistémica respecto a su contraste con el consenso científico.

David Gerard explica las cagadas y Bombo de la programación asistida, de una forma graciosísima en su blog (Pivot to AI) y canal de youtube.

Recomiendo esta entrada sobre la inexistencia de contribuciones a código abierto hechas con asistentes de programación autónoma.

 

¡Bravo, Long Jonson! Has conseguido tu primer positivo, por lo de que la gente puede usar asistentes de programación para hacer cosas sencillas que ya están hechas pero que pueden ser poco accesibles. Lástima que vayas diciendo que los programadores en general son más productivos. Y que propongas a la gente que te paga que lleven programas hecho con IA a producción final. Si fueseis conscientes de sus peligros, no lo haríais. Llevas doce negativos, pero ya tienes un positivo, no pierdas la esperanza. (-12,1)

 

3.- La IA muestra un progreso constante y sorprendente, con científicos que a menudo dicen que “nunca podrá hacer esto” y luego la IA lo logra en poco tiempo.

Jon cree que pensar que hay muchísimos casos de supuestos logros de la IA que son exagerados y poco realistas, como le está explicando Ramón, es una teoría conspiranoica (minuto 1:27).

Uno de los que lo explican mejor, bajo mi punto de vista, es Ed Zitron.

Jonsito! Que no es ninguna conspiración, que eres un crédulo, que te cuelan cualquier barbaridad que dice la gente que quiere ganar dinero con la IA. Ya llevas trece negativos. (-13, 1)

4.- La IA está aportando “conocimiento nuevo a la humanidad” (citando a Pep Martorell).

Jon cree  que la IA está aportando conocimiento nuevo a la humanidad (minuto 1:17) .

Pero Jonatancio, ahora te llamo Jonatancio: se te olvida otorgar el peso que se merecen los humanos que usan esa IA como herramienta. Herramienta que les facilita el trabajo de crear ese conocimiento. Qué esos sistemas por sí solos no aportan nada, ni al conocimiento ni a nada de nada. Voy a ser generoso y te daré un positivo porque entiendes que con la IA conseguimos conocimiento nuevo. Y un negativo porque vuelves a antropomorfizar y otro para Pep Martorell por subirse al carro del Hype. Jonatancio, espabila, que la vida te va a comer (como dice el Baity).  (-14, 2)

Ilustración 1https://www.youtube.com/@SrBaityBait

Jon Hernández, eres el divulgador más grande y guapo de Inteligencia Artifical en habla hispana. Si me lo permites, te regalo yo el libro de Ramón, “Las 100 cosas…” Pero tienes que leerlo. No vale con usar alguno de tus sistemas de IA para hacerte un resumen. Ahí verás que Ramón forma parte del Human-Centered AI. Y que tienen una guía de pautas para informar sobre robots, IA y ordenadores:

Léela y cumple con ella en tus próximas entrevistas y ponencias, por favor. Ah, y pásasela a Pep Martorell, que también parece que está un poco despistado.

5.- Las demostraciones de robots son creíbles.

Long Jonson, figura, entiendo que te refieres (minuto 1:49)

a uno de estos vídeos promocionales de la compañía Figure, presentando el robot Helix.

Esta muy bien, oye. Otra cosa es que, de ahí, podamos extrapolar que vamos a tener robots generalistas, de los que podrán hacer casi cualquier cosa.

Fíjate en lo que nos cuenta Benjie Holson sobre lo que hacen ahora los robots y las limitaciones que tienen:

Lo de los robots doblando ropa está muy bien, pero en el fondo sólo es algo un poco más sofisticado como las patrañas de Musk. Si quieres saber más sobre robots y sus limitaciones, lee a Rodney Brooks.

Te has ganado un positivo. ¡Ya llevas tres! (-14, 3)

6.- Sin un cuerpo, no hay modelo del mundo

Joooon! Sí, la corporeidad de los robots es condición necesaria para tener un modelo del mundo (minuto 1:47). Joer, estoy orgulloso, tío. Ahora sólo te falta conectar eso con el hecho de que la IA Generativa no tiene modelo del mundo. Te has ganado tu cuarto positivo. Bravo! (-14, 4)

Ramón explica muy bien los retos de la IA. Por ejemplo, en el de “100 cosas…”: estructuración de la información, creación de significado conectado con un modelo del mundo (corporeidad), la cuestión del origen de la cultura y la motivación intrínseca de los sistemas de IA.

 

7.- Estamos a punto de la AGI.

Jon se cree al pie de la letra las predicciones de AGI para antes de 2030, por figuras “muy potentes” como Sam Altman, Dario Amodei, Elon Musk, Hinton, LeCun, Techmark y Hassabis. Estas predicciones, para Jon son significativas y creíbles, unos por ser CEO’s y otros por ser “científicos” (minuto 43).

Ramón López de Mántaras explica estupendamente qué hace falta para conseguir una IA General, cómo es imposible que venga puramente de la IA Generativa, y lo lejos que estamos de conseguirlo, en su libro de las “100 cosas…”

“Las declaraciones de CEOs de grandes empresas tecnológicas sobre la productividad de la IA (ej. Andy Jassy de Amazon diciendo que se han ahorrado 4500 años de programadores) podrían ser ciertas y no son necesariamente por intereses económicos” (minuto 35).

Jon, ¿no hemos quedado que para conseguir IA General necesitamos robots con un modelo del mundo? Ramón ya te ha explicado que esta gente que usas como referente tiene unos enormes intereses económicos en hacernos creer las chorradas que sueltan. ¡Ibas remontando! Te has ganado un negativo por creer que la IA General está a punto de emerger, y otro por no ser crítico con las fuentes de tu conocimiento ni ver la influencia de sus intereses económicos. (-16,4)

Ya estamos acabando, Vamos con el tercer grupo de creencias:

III)  Riesgos de la Inteligencia Artificial

1.- Los peligros derivados de la IA son los que señalan los CEO’s: una superinteligencia que intentará extinguir a la humanidad.

Los peligros en los que cree Long Jonson son una patraña (minuto 43). El tema es demasiado complejo para tratarlo aquí como se merece, pero los puntos negativos que voy a endosar a Long Jonson están más que justificados, y sólo le pondré dos. La creencia en la Singularidad, el momento en que la IA puede crear otras IA más inteligentes – Melanie Mitchell -, es pseudociencia, por tanto, punto negativo para Long Jonson. Que los empresarios que hablan de IA tienen mayor credibilidad que los investigadores en IA, otra patraña, punto negativo.

 

Como te explica Ramón, los peligros infundados que divulgan los que no creen realmente en ellos, como Sam Altman, están motivados en el intento de conseguir regulaciones hechas por ellos mismos. Esto lo explica requetebién Karen Hao en su libro Empire of AI. Es un libro imprescindible para entender el cómo funciona el mundo de los negocios de la IA Generativa. Long Jonson: no puedes ir a más entrevistas sin haberte leído este libro. Jurámelo.

David Gerard llama a esto el criti-hype, una forma de “criticismo” que hace que los robots parezcan peligrosos de una manera molona.

Melanie Mitchell nos refiere a Margaret Mitchell (no son familia, que yo sepa), una investigadora en ética en IA, quien dice que “Mantener la creencia en propiedades mágicas de la IA y amplificarlas, sirve el programa de relaciones públicas de Google, y es desinformación”.

Melanie señala exactamente lo que te decía Ramón: el columnista del NYT saca la conclusión de que los humanos no podemos regular la Inteligencia Artificial. Sólo la IA puede regular la IA. Ello se debe a que los humanos no podemos prever cómo evolucionará la IA. Lo cual es una noticia estupenda para las empresas que le dan bombo, ya que no quieren ser reguladas. ¿Lo has entendido esta vez?

Ramón, en su libro sobre las “100 cosas…” detalla los peligros reales de la IA y muestra como desmontar la patochada de la Singularidad, en dos páginas. Este Ramón es un genio.

En el mismo libro sobre la “100 cosas …”, Ramón argumenta como suponer una pérdida masiva de empleo es sobreestimar a los robots.

De hecho, cuando lo LEAS (nada de hacer resúmenes con el NotebookLM, que te conozco Long Jonson), verás que Ramón da un listado enorme de problemas reales, actuales, pasados y futuros que te pondrán los pelos de punta y harán que las estupideces de los tecnofascistas y su doomsday te parezcan un chiste.

Los amigos de Some More News, lo explican de una forma extraordinariamente divertida.

 

En el vídeo de “La gran mentira de la IA…”, Ramón ya te enumera unos cuantos de los problemas reales (minuto 1:41): medioambiental por consumo de energía, agua, ruido… el poder que tiene media docena de empresas tecnológicas, los Deepfakes, la manipulación, la desinformación, los sesgos y discriminación por razón de raza, sexo, religión… la exacerbación de la desigualdad de ganancias entre asalariados y capital, etc.

Para saber más sobre estos peligros, recomiendo la maravillosa web de AI Incident database; además de los libros de Ramón.

Long Jonson, te llevas un negativo por divulgar el pensamiento mágico de la singularidad y otro por la divulgación de argumentos que favorecen la autorregulación de IA por empresas de IA. (-18, 4)

2.- La falta de replicabilidad de los resultados de artículos publicados sobre IA es una característica de la IA.

Jon cree que la falta de replicabilidad de los resultados de artículos publicados sobre IA es una característica de la IA (1:25).

Jonisito: Ramón te estaba hablando de un asunto muy serio que torpedea los argumentos megalomanIAcos de todos estos Boosters que tu divulgación engrandece todavía más. Puedes leer sobre ello en esta entrada de nature. Ahí verás como es un problema para la ciencia en general.

Jojonancio, te has ganado el décimo-noveno negativo por intentar justificar la no reproducibilidad de la investigación en IA. (-19, 4)

3.- Los CEOS pueden ir a la cárcel si no invierten en IA. Por eso, aunque piensan que entraña peligros existenciales no pueden intentar salvar a la humanidad.

Soy profe de repaso de Administración y Dirección de empresas: esta me ha dolido. Jon parece que piensa que “los CEO’S pueden ir a la cárcel por intentar salvar a la humanidad”, (minuto 1:02). Long Jonson tiene la falsa creencia de que un ejecutivo de una empresa puede ir a la cárcel si cesa las inversiones en IA, aunque ponga en peligro a la humanidad.

Jon, Jon, acércate, que no te va a doler, que estoy para ayudar. Yo también vendo cursos online, como tú. Los míos son sobre las asignaturas del Grado de ADE (y aledaños) que se dan en la Universidad de les Illes Balears. Soy profe de repaso. Es mi vocación. Podría decir que soy un Experto intermediario del Dominio de la Administración y Dirección de Empresas, ajustándonos a las definiciones de la Autoridad epistémica. Y hago justo lo que explicaba Ramón respecto a entrenar a mi alumnado para que aprueben exámenes. En este caso los exámenes se los ponen los profes de la universidad.

Te lo digo porque te puedes quedar bien tranquilo: cuando tu seas el CEO de Divulgadores de IA en habla hispana S.A., podrás tomar la decisión de no avanzar en una tecnología que creas que puede llevarnos a la extinción, sin miedo a acabar en la cárcel.

Como se explica en las asignaturas de primero de ADE (por ejemplo en el libro de Ross, Westerfield y Jordan: Fundamentos de finanzas corporativas, pg.9)

 

 

Además, si lees al Ed Zitron, por ejemplo, podrás entender mejor los motivos que hay detrás de esta gilipollez neoclásica del tener que responder sólo frente a los accionistas.

Me encantaría que mi alumnado entendiese el origen y las implicaciones de este concepto.

 

Una última cosa. Cuando en el minuto 1:34 Ramón te explica que los titulares alarmistas se propagan rapidísimamente, se refiere a cosas como lo de Pichai. Tú lo entiendes al revés (como casi todo). Y, además, sugieres que Ramón no entiende realmente cómo funciona (eres el efecto Dunning-Kruger, con un pulgar oponible). Y que los vídeos de “debunking” de la IA se hacen porque consiguen muchas visualizaciones. No, tú y gente como tú es la que divulga bulos sensacionalistas pseudocientíficos. Los que creemos en la ciencia y amamos la verdad y los avances tecnológicos, nos vemos forzados a reducir el daño que causáis, en lugar de hacer cosas más productivas.

Tienes un negativo por divulgar esta gilipollez de la responsabilidad fiduciaria, otro por entender al revés quien está desinformando sobre IA. Veintiún puntos negativos por un solo vídeo, esto seguramente es un récord. (-21, 4)

Jon, tocayo! Estamos en la recta final. Aguanta un poco más, que se vienen cosas guapas. Y ya que estás, dale al botón de me gusta y suscríbete al canal.

__

Una última cosa sobre Jon:

La última creencia falsa de Jononmentero de la que voy a hablar es una intuición mía. A mí, me parece que Long Jonson confunde toda la IA con la IA Generativa. Esta es la última vez que uso este chascarrillo de cambiarte el nombre. Lo he copiado de este artículo (divertidísimo) de Nick “Ludic” Suresh. Al césar, lo que es del césar.

Si hubieses escuchado a Ramón, te habrías enterado de que la IA Generativa es una pequeñísima parte del campo de estudio de la IA. Siguiendo una ley de potencias (una de las que estudiamos en las ciencias de la Complejidad) cojonuda, esta pequeña parte está asfixiando al resto del dominio de la IA.

Te lo ruego, cuando recibas la copia del libro de Ramón que te regalo, “100 cosas…”, léela (ni se te ocurra resumirla con un LLM). Entonces será verdad que tomarás una visión crítica (minuto 1:26) de la información que recibes de los otros Charlatanes de la IA. Porque lo cierto es que pareces un LLM, cogiendo lo que dicen otros en inglés y traduciéndolo sin entender ni una palabra de lo que dices.

Es muy importante que leas el libro antes de ir a más ponencias, dar más entrevistas, cursos o asesoramiento a tus seguidores. Vas a causar mucho daño a alguien, si no lo has hecho ya. Yo te ayudaré a mitigar tus errores. Te puedo preparar un curso, gratis. Usaremos todo este material que he presentado en este video, para que sepas de qué cojones hablas, cuando divulgues conocimiento sobre Inteligencia Artificial.

Lo que te decía, Jonípero: el dominio de la Inteligencia Artificial NO es la Inteligencia Artificial Generativa. Otro punto negativo para ti. Este es gratis. (-22, 4)

 

Conclusiones:

Esto es Google NotebookLM

Como dije al principio, he usado una herramienta de IA que Jon recomienda: NotebookLM para que dictamine si Jon es un experto o un charlatán.

Conclusión del Notebook:

¿Jon Hernández es un Experto o un Charlatán?

“basándome en el análisis riguroso de sus creencias y la definición de expertismo de Goldman, considero que Jon Hernández, en este vídeo, se inclina más hacia la categoría de Charlatán en lo que respecta a sus afirmaciones sobre las capacidades y el impacto actual de la IA generativa. Como diría Zitron, parece ser uno de los que promueve una visión sobreoptimista, a menudo contradicha por la realidad científicamente contrastable.”

Mis conclusiones:

  • La principal conclusión a la que llego es que Jon acumula 22 creencias falsas y cuatro verdaderas. Y, además, todas sus creencias son las que los medios generalistas nos han estado vertiendo desde que empezó el Bombo. No hay nada de lo que diga que pueda considerarse que viene de un experto. Así que podemos asegurar, científicamente, que es un Falso Experto o Charlatán según la definición primera de Goldman. Además, es un Falso Experto que le quita espacio a voces realmente expertas como la de nuestro admirado Ramón López de Màntara i Badia.

Recordemos las definiciones de Experto bajo la teoría de la Autoridad epistémica:

i.- Es un experto S sobre un dominio D, quien tiene mayor número de creencias verdaderas, y menor número de falsas respecto a D, que la mayoría de la gente. Además, el número de creencias verdaderas debe de ser sustancial.

  • Veamos la segunda definición de experto:

ii.- Es un experto S sobre un dominio D, quien tiene la capacidad de ayudar a otros (especialmente a personas no expertas) a resolver una variedad de problemas en D o ejecutar una variedad de tareas en D, que las personas no iniciadas no podrían resolver o ejecutar por su cuenta.

Jon cree en las mismas chorradas que la mayoría de la gente. Las que cuentan los medios generalistas repitiendo lo que dicen los cuatro mangantes que controlan la IA Generativa.

 

 

Así que Jon tampoco es una Autoridad epistémica (un Experto) respecto a su capacidad de ayudar a otras personas a resolver problemas y ejecutar tareas de IA, más allá de usar información que está disponible en internet de forma gratuita.

 

 

  • La tercera conclusión es sobre “Tu ayudante de investigación basado en IA”: NotbookLM. Con un total de N(-15,+6) quince resultados erróneos y seis acertados, mejor que Jon, pero tampoco para echar cohetes. Así que tampoco es una Autoridad epistémica de la que podamos fiarnos. La versión de informe que he analizado ha sido la cuarta que me ha devuelto el sistema NTBKLM, porque las anteriores eran increíblemente erróneas.

Estos sistemas sólo son útiles si anteriormente nos hemos leído y comprendido las fuentes. De otro modo, nos van a devolver resultados totalmente erróneos y no lo sabremos.

Por ejemplo, para este vídeo, los informes que me ha presentado NotebookLM han sido un desastre. Pero resultaban muy convincentes. Si no me hubiese pegado el curro de leer todas las fuentes i ver el vídeo de Ramón y Jon una decena de veces (haciendo mapas mentales y resúmenes del contenido), difícilmente hubiese podido detectar las cagadas que se presentaban en la pantalla del asistente.

 

  • Jon, quiero añadir que lo mejor que podrías hacer para todos nosotros es, que cuando recibas una propuesta de entrevista o ponencia, contestes que hablen con Ramón. Cede espacio a quien sabe, y aplica un poco de pensamiento crítico al contenido que consumes y divulgas. Verás como todo irá mejor.
  • Dos cosas más, tiene pinta de que se viene otro invierno en la IA, por si quieres ir cogiendo una mantita. Ah, Jon, y como se te ocurra empezar a hablar sobre computación cuántica, voy a hacerte otro vídeo, con el que este que estás viendo, parecerá un elogio.

 

  • Espero que quien vea este vídeo entienda que hay expertos de verdad, muy críticos con la IA Generativa y la forma en que se está presentando al público en general. Hay mucho en juego.

 

 

Bueno pues, si has llegado hasta aquí, muchas gracias.

Si te ha gustado este vídeo, dale a me gusta y suscríbete al canal. Y deja un comentario diciendo si te parece que Jon es un experto o debería investigar más sobre IA antes de seguir divulgando contenido sobre IA.

También me encantaría saber sobre qué otros tópicos te gustaría ver un vídeo de este estilo. Tengo pensado hacerlo sobre salud mental, economía, formación universitaria y otras movidas. Tal vez puedas darme una idea que apetezca probar.

Ahora, sal a la calle y vive un poco, copón.

 

Estudiante universitario de la UIB

Música para estudiar

Lo cierto es que, aunque el efecto de la música sea el de aumentar el ánimo, cuando ejecutamos tareas mentales la capacidad de carga cognitiva -de la que hablamos en otras entradas de este blog- que puede asumir nuestro cerebro es limitada.

Lee el artículo »