🕵 # 147 El "illusory truth effect": o por qué buscar en Google es nuestro horóscopo social
Semana 147: Microsoft supera a Apple y saca Copilot Pro
Hola, soy Alex Rayón Jerez. De #bilbao y #millennial (por los pelos).
Bienvenido/a a mi newsletter Digital & Data. Damos una especial bienvenida a los 159 nuevos suscriptores/as con los que somos ya 10.881 reflexionando sobre cómo los humanos no entendemos una tecnología hasta que no la adoptamos masivamente. Que es, precisamente, lo que está ocurriendo con las tecnologías digitales. Suscríbete aquí 👇
📷 Una imagen
Estos días, en Davos, se debaten muchas cosas. Una de ellas, es el devenir de nuestras economías a nivel mundial. Y, otra, la comparación entre regiones, en aras de reflexionar. Siendo Europeo, y por los tremendos vicios históricos que tenemos, es fácil pensar que seguimos siendo algo muy relevante en el mundo. Lo somos, sí. Pero vamos perdiendo terreno. Con la imagen de hoy, empecemos por lo básico: en 2011, la Unión Europea y Estados Unidos tenían casi el mismo PIB. Ahora la diferencia es dos dígitos. Las empresas europeas más grandes hacen coches (sin IA, more or less) y venden seguros. Mirad en otros lares qué hacen. En 1980, el 27% del PIB mundial era de la UE. Ahora es algo más del 14%. Ante un modelo económico tan asentado como principal motor de desarrollo y bienestar, los derechos fundamentales y la visión “pro-social” del estado vs. la relevancia económica mundial, parecen vectores ortogonales.
📚 Cinco lecturas
#1 La Inteligencia Artificial llega a la Educación (Universidades)
Ayer nos enterábamos que OpenAI anunciaba su primera alianza con una universidad (Arizona State University). Tendrán acceso completo sus grupos de interés (profesores, estudiantes, etc.) a ChatGPT y su ecosistema de soluciones. Por otro lado, el New York Times publicaba este artículo, muy citado estos días en mis foros, preguntándose si los chatbots serán también profesores/as de nuestros/as hijos/as. ¿Qué está llegando a educación realmente?
Detalles
No es la primera vez en la historia que una revolución tecnológica parece que va a cambiar la educación. En 1961 se llegó a publicar un libro con el mismo título que el artículo del New York Times. Algunas citas de dicho artículo: ¿será el profesor un mero cuidador/niñero? ¿Qué efecto tiene la enseñanza automatizada sobre el pensamiento crítico de los estudiantes? Abajo os dejo un pantallazo del New York Times de la época.
Tenemos evidencia científica sobre cómo la tecnología ayuda a aprender matemáticas o literatura, por ejemplo. Pero también sonoros fracasos, que no han reducido ninguna brecha de aprendizaje ni desigualdad. ¿Por qué iba a ser diferente esta tecnología?
¿Por qué es relevante?
Porque la IA Generativa no da respuestas a preguntas existentes. Expande, crea y personaliza las experiencias de aprendizaje. Khan Academy o Duolingo, por citar dos tutores-chatbot de aprendizaje, ayudan autónoma y personalizadamente a aprender algo. Microsoft ha liberado un tutor exclusivamente con recursos de aprendizaje. En EEUU ya está generando “problemas” en asignaturas, especialmente a nivel universitario. Los estudiantes usan mucho todo esto, claro. Mi madre se ganó la buena vida que nos dio con academias para todos los niveles pre-universitarios. Se sabía todos los exámenes de todos los colegios e institutos. Su valor añadido era ayudarte a preparar exámenes y que superaras todo. Le fue realmente bien. Si viera cómo ahora un chatbot hace literalmente lo mismo, y además, te permite expandir, crear, descubrir nuevos recursos, etc., qué diría :-)
#2 Noticias de Google: resultados búsqueda y cookies
Tres noticias que, aunque parezcan inconexas, me parece que tienen mucho en común. Un muy reciente estudio de Nature expone cómo un tema debatido en la sociedad, cuando es buscado en Google por el ciudadano, conforma la opinión. En otras palabras: si en Google lees constantemente que las vacunas son malas, te lo acabas creyendo. A la par, según esta publicación de investigadores alemanes, los resultados que saca Google son cada vez peores y más generados por IA de forma automática. Solo recordar que este año batiremos el récord de elecciones en el mundo: votaremos 4.000.000.000 de personas.
Detalles
Buscar en Google, como bien citan en el paper de Nature, es el ‘illusory truth effect’: rellenamos los huecos de información que nos faltan con aquella información que tenemos disponible. Googlear es fácil. Si sale muchas veces, nos lo terninamos de creer. Leer las manos, el horóscopo o las pseudociencias, viven de esto. En la era de Google, muchas compañías y negocios fraudulentos lo explotan.
La falta de confianza en las instituciones más tradicionales, trae estos problemas. ¿Por qué la gente va a Google? Porque no se termina de fiar de las instituciones más tradicionales, tanto a nivel informativo como de gestión de lo público.
¿Por qué es relevante?
Sabemos que el rendimiento económico que Google puede sacar a una página web cae un 30% sin cookies. Que es justo el fenómeno que viene ocurriendo. Si la calidad cae, pues vete a cantidad. Puede explicar todo esto mucho de lo que Google puede estar viviendo.
#3 Microsoft adelanta a Apple como la compañía de mayor valor del mundo
Esta semana, hemos visto cómo Microsoft adelantaba en valor de mercado a Apple. Sabemos que los mercados adelantan información. Al tener tanta información y expertos por detrás, tratan de adelantarse a sucesos que no han ocurrido.
Detalles
La Inteligencia Artificial, la gran apuesta de Microsoft en 2022 y 2023, empieza a ser noticia en múltiples frentes. Estuve con Microsoft esta semana probando Copilot Pro: es un game changer. Pasé de un Word de 20 páginas a un powerpoint de 12 páginas con mi estilo en literalmente 3 prompts de unas 5 líneas cada uno. Moveros, vienen curvas.
¿Por qué es relevante?
También veo algún riesgo de su movimiento con OpenAI. La "privatización de facto" que han hecho las herramientas de IA y sus modelos fundacionales subyacentes de los datos de entrenamiento es, cuando menos, cuestionable.
Utilizar datos disponibles en Internet no quiere decir que estén exentos de derechos. Construir un producto a partir de estos datos, "porque Google ya lo hacía", tampoco quiere decir que esté exento de responsabilidad. Éste es el punto en el que estamos. Como sabéis, un punto que llevo semanas destacando en mi newsletter digitaldata.substack.com. Esta semana, en Davos, lo ha dicho Marc Benioff, CEO de Salesforce - “All the training data has been stolen”. Quién sabe si Microsoft tenga que pagar alguna factura a futuro. Por cierto, mi admirado ex-jefe, Antiguo Rector de la Universidad de Deusto, José María Guibert, ha escrito un magnífico texto (como no podía ser de otra manera) sobre Ética e Inteligencia Artificial. Quizás lo deban leer los inversores alrededor de la IA.
#4 Noticias en medios sociales y valor de activos
Estoy tutorizando un proyecto fin de estudios en la Universidad de Comillas de un estudiante que tenía una hipótesis: las menciones en redes sociales afectan al valor de activos financieros, especialmente las criptomonedas. Estamos jugando con modelos de descarga masiva de menciones en Internet y modelos de correlación vs. causa-efecto para ver cuánto de real puede llegar a ser. Y justo sale esta noticia: según unos autores de la Universidad de California, las menciones en Reddit (que por cierto, parece que por fin saldrá a bolsa), predicen bien el valor de los criptoactivos. Para que luego la gente siga aislándose de este fenómeno social y digital.
Detalles
La cuestión es sencilla: si el número de menciones de un activo financiero aumenta durante varios días sucesivos en relación al día anterior, hay más interés. El valor probablemente subirá.
¿Por qué es relevante?
Me sorprende siempre que estos datos, de debate de una generación que llega incluso a la mía (pre-40 años), no se usen más por ejemplo para conectar con los grupos de interés. Quizás sea porque es difícil operar dos estrategias de comunicación y relación al mismo tiempo: son espacios de comunicación y relación diferentes los de los boomers y los nuestros. Y es caro mantener dos estrategias.
#5 Cerebro humano vs. Cerebro Artificial
Una reciente investigación ha expuesto una comparación en torno a la forma de aprender del cerebro humano y el de un cerebro artificial basado en redes neuronales. La conclusión parece clara: no están cerca el uno del otro. Veamos.
Detalles
El cerebro humano tiene muchas menos capas y neuronas que los últimos grandes modelos de IA. Tiene más ruido en el procesamiento (nos distraemos y estas cosas). Y, sin embargo, resolvemos tareas complejas que aún los “cerebros artificiales” no pueden.
El estudio expone cómo la eficiencia del cerebro humano, fruto de siglos de evolución, es tremenda. Pocos pisos de un edificio (capas neuronales), pero con muchas habitaciones conectadas de forma inteligente (neuronas), que hace que sea difícil replicar en una máquina esta complejidad.
¿Por qué es relevante?
Esta semana he estado en varios eventos donde he visto comparaciones constantes entre la capacidad (medido en neuronas) del cerebro humano y los artificiales. Como veis, no todo es tener neuronas.
🔊 Un audio
“En fuera de juego”, el caso de Dani Alves, expuesto en podcast. No están todos los capítulos aún disponibles, pero los dos primeros me han parecido una pasada. Más allá del caso en cuestión (el futbolista con más títulos de la historia que aparentemente comete un hecho muy condenable), la narración y reconstrucción te hace sentir partícipe de esa fatídica noche.
💬 Un comentario en redes sociales
Como decía anteriormente, Copilot Pro está ya a la venta en vuestras herramientas ofimáticas. Hoy, mucha gente abrirá Word o Excel para hacer alguna tarea. Comprobará su correo en Outlook. Pues imagínate tener ahí ya un asistente para ayudarte. ¿En qué te puede ayudar? ¿merece la pena pagar esos 20 dólares al mes? Abajo os dejo el enlace al tweet de Ethan Mollick, que ofrece sus primeras valoraciones. Y coincido mucho con ellas. Recordemos que el mayor impacto de la IA es en productividad: un nuevo estudio expone cómo puedes ahorrarte hasta 2 horas al día en tareas de menor valor añadido. Y así, centrarte en aquello que el humano es mejor: pensar.
https://twitter.com/emollick/status/1747359731595763817
🎲 Una lectura aleatoria
El 16 de julio de 2020 nacía en China un mono clonado. Hace unos días sabíamos de su existencia, con tres años de edad, y toda vez que parece ha superado todo examen clínico para saber que se encuentra con buena salud. El mono fue clonado a partir de células fetales, no adultas, y desarrolló su gestación en una placenta no clonada. Doy todos estos detalles, para que se entienda el subyacente y su potencial impacto en otros animales y seres. Como el Sapiens, por dar un ejemplo totalmente al azar. Dejando asuntos de la ética y los marcos legales de un lado (por un nanosegundo), esto nos recuerda a la oveja Dolly, nacida en 1996. También ha habido clones de perros. El del mono, sin embargo, ha sido noticia y está en varias revistas científicas, porque, está muchísimo más cerca de nosotros, los Sapiens. ¿Cuánto de cerca estamos de empezar a debatir sobre esto?
Muchas gracias por llegar hasta aquí. Gracias por tu tiempo ❤️
📰 En medios
“Los retos de la propiedad intelectual complican la era de la IA - El Periódico de España” [El Periódico de España, 15/1/2024] (Junto con Rafael García del Poyo, Osborne & Clarke)
“Los retos de la propiedad intelectual complican la era de la IA” [La Nueva España, 15/1/2024] (Junto con Rafael García del Poyo, Osborne & Clarke)
“La jornada del Gobierno Vasco sobre IA en la administración pública reunirá a un millar de expertos y agentes del sector” [Europa Press, 16/1/2024]
“El foro TEKgunea reúne este miércoles a medio millar de expertos en Inteligencia Artificial” [Noticias de Gipuzkoa, 17/1/2024]
“Publicado el cuarto número de la colección Erronkak: "Si el desarrollo de la Inteligencia Artificial es inevitable e imparable, es fundamental una regulación legal que garantice su buen uso y evite los abusos" [Gobierno Vasco, 19/1/2024]
¿Te gusta esta newsletter? ¡Suscríbete! ¡Compartid el enlace con vuestros amigos! ¡Enlazad el boletín en redes sociales!