tendencias

Reflexiones: tendencias en transformación digital – IA Generativa

No cabe ni la más mínima duda de que el gran bombazo del año en cuanto a tendencias digitales se refiere, es la explosión social de las herramientas de inteligencia artificial generativa.

La inteligencia artificial parecía una de esas promesas que esperábamos desde hace tiempo, pero que, a pesar de realidades ya existentes (generalizas en el mundo del marketing, la publicidad, los media o el consumo y puntualmente en la industria y otros sectores), no estábamos seguros de cuándo llegaríamos a manejar de forma masiva, ni en nuestras fábricas ni en nuestras vidas cotidianas.

Pero este año han bastado unos breves parpadeos para que una herramienta de IA, abierta al servicio de la gente, bata todos los récords de crecimiento al alcanzar los 100 millones de usuarios en tan solo dos meses.

Ni Instagram, ni TikTok, ni ninguna nueva red social adolescente… ChatGPT.

De pronto, todo el mundo hablando de inteligencia artificial (aunque con el novedoso apellido de «generativa») y, en cuestión de semanas, hasta la prensa generalista tratando como a viejos conocidos a personajes como ChatGPT, Dall-e, Bard, CoPilot, Midjourney…

Los servicios de noticias, atendiendo el despido y readmisión de un CEO hasta hace unos días desconocido para la mayoría, y acompañándonos, atónitos, con historias que parecen sacadas de una serie de alguna plataforma de contenidos audiovisuales, aflorando conspiraciones, intereses geopolíticos y económicos y juegos de poder.

Y además, enlaces viralizados, curadores de contenidos con nuevas e increíbles aplicaciones de IA generativa en los reels de Instagram, en los shorts de YouTube o hasta en TikTok.

La verdad es que la presentación en sociedad fue impactante. Recuerdo un whatsapp de un amigo con un enlace y una pregunta: «¿Has probado esto? Tienes que probarlo ya… estoy alucinando…» El enlace era a la web de ChatGPT-3 y dos horas más tarde ya estaba yo dejando los ojos como platos de dos personitas de la profesión médica.

La impresionante calidad semántica y sintáctica de la interacción conversacional, no solo en inglés sino también en castellano (enviando irremisiblemente al Pleistoceno al Google Translator), la manera en que se iba enlazando la conversación con ese bot extraordinario, profundizando, sintetizando, puntualizando o generalizando con solo pedirlo, la facilidad con que las respuestas se acomodaban a tonos, formas y estados emocionales en la expresión del lenguaje según gustos o deseos… simplemente resultaban increíbles.

Y siguen resultando increíbles, aunque el ser humano se acostumbra enseguida a todo, ¿no creen?

Desde el punto de vista de la empresa, al mes y medio del lanzamiento de ChatGPT alguien me preguntó (y muy en serio) si dándole los necesarios datos, la IA podía proponernos un plan de gestión. Mi respuesta, entre escéptica y sobre todo divertida… fue que claro que no… pero hoy no daría yo una respuesta tan concluyente, al menos para una buena parte del trabajo a realizar.

El paso de los meses nos ha ido mostrando las limitaciones de este generador de textos, sus imprecisiones (e incluso sus «alucinaciones» cuando no encuentra una respuesta fiable), su naturaleza de sumidero de seguridad, su aparente falta de respeto a información protegida en los procesos de aprendizaje…

También hemos ido descubriendo la cantidad de gente y de dinero que llevaba tiempo dedicada a la IA generativa, de texto… y de imagen, de música, de programación, de vídeo…

En realidad, ya lo sabíamos, pero «saber» y «ser conscientes de la dimensión del asunto»… no son la misma cosa. «Generativa» viene de «que genera», que es capaz de crear «productos» digitales que nunca antes habían existido.

Hacer nuevas melodías y canciones, obras de arte, programas informáticos, narrativas literarias, logos para empresas, textos de reclamaciones legales, presentaciones de diapositivas, discursos, memorias de proyecto, traducciones, anuncios, resúmenes de reuniones y otras tantas nuevas aplicaciones que van apareciendo (a un nivel de calidad muy razonable y sin reproducir lo preexistente), está hoy al alcance de casi cualquiera.

No será en este post en el que aborde los aspectos técnicos o las distinciones clave que anidan tras la IA generativa. Hay ya numerosos artículos sobre ello y alguno resulta bastante clarificador.

Déjenme que termine, sin embargo, comentando algunos factores de preocupación o incertidumbre que, aun siendo conocidos, no dejan de tener interés para la reflexión.

El primero es sobre privacidad… y es para decirles que, si quieren hablar con propiedad de ese término, solo cabe una breve frase: «olvídense de ella». Creo honestamente que ya hay suficiente información sobre personas y empresas en la red y que la densa maraña de interconexiones de datos es ya lo suficientemente capilar e intrincada como para considerar que la privacidad absoluta será imposible. Pero es más, todo el desarrollo de servicios de conocimiento basados en IA generativa, estará cimentado en el acceso a información (aunque sea anonimizada), con lo que los datos relacionados con individuos y organizaciones serán utilizados aunque se respete formal y legalmente la privacidad de los datos de carácter personal. Ir más allá en términos de privacidad implicará adoptar decididamente una posición de aislamiento activo y asumir una vida de ermitaño digital… que solo me parece accesible (y con dudas) para minorías militantes.

Seguro que ya lo saben, pero nunca viene mal recordarlo: cuiden lo que introducen en la pequeña casilla del chat: todo lo que incluyan en sus prompts será utilizado por OpenAI para seguir entrenando al monstruo (y por tanto se convertirá en información disponible para todo el mundo) y en esta ocasión, nadie puede decir que no esté formalmente avisado.

El segundo se refiere a lo que considero que es un derecho fundamental en nuestra era, que es el acceso universal al conocimiento abierto. Ya… ya sé que no está recogido en la Declaración Universal de los Derechos Humanos, pero es que no se trata ahora de tener o no información al alcance de la mano, a través de un acceso más o menos fácil a internet, sino que la IA generativa introduce diferencias de varios grados de magnitud en productividad personal, que va más allá del valor que a una persona le aporta el nivel de información al que puede acceder, que ya de por sí era importante. Y lo menciono, sobre todo, porque se está generalizando el que, hablando de IA generativa, convivan versiones gratuitas (que en las empresas se asuman como de uso general) y de pago (para minorías cualificadas): la brecha digital se agrandará, porque no solo afectará al acceso o no a determinado tipo de información (lo que puede estar justificado por razones de puesto o responsabilidad), sino a pura productividad personal, que es un factor absolutamente transversal.

Lo mismo aplica al resto de herramientas de IA generativa… pero por esta razón, me parece especialmente relevante en el caso del texto.

Claro que lo primero que a uno le viene a la cabeza es que, si partimos del postulado de que el carácter del acceso a las herramientas de IA generativa debiera acercarse a lo universal, éste debería ser gratuito, ¿no creen?

Pero claro, llegar al nivel de ChatGPT 3.5 que hoy podemos usar gratis, seguramente habrá implicado inversiones de centenares de millones de dólares… que alguien habrá financiado. Alguien que con seguridad no forma parte de las administraciones públicas y mucho menos de las europeas… y que lo ha hecho en un escenario de riesgo e incertidumbre que debe ser remunerado (y si me permiten, «adecuadamente» remunerado).

Tanto ChatGPT 3.5, como ChatGPT 4 (éste de pago, pero ambos parte del pasado), ChatGPT 5… y los que estén actualmente en desarrollo acelerado con el mismo dinero privado, que vendrán después. Me pueden hablar de los beneficios estratosféricos de las poderosas multinacionales que hay detrás y de turbios manejos económicos y sociales en defensa de egoístas intereses comerciales… pero eso es reproducir la eterna discusión sobre innovación en el sector farmacéutico, sobre la velocidad en el desarrollo de soluciones de interés universal y sobre la ética en la aplicación de los hallazgos.

Lo importante, a mi modo de ver, es si puede haber o no un modelo mejor que el que hay, que sea asumible para nuestras sociedades occidentales, más o menos liberales.

Personalmente creo que habrá un gran negocio alrededor de aplicaciones verticales, especializadas, con acceso de pago a bancos de datos protegidos o de acceso limitado (por ejemplo, para equipos de investigación de universidades, centros tecnológicos o corporaciones), en la línea de los servicios de vigilancia tecnológica. También parece evidente que habrá negocio en el desarrollo e implantación de soluciones cerradas, en el perímetro de cada empresa o grupo empresarial, donde se trabaje con el conocimiento explícito acumulado de esa organización, pero desde la seguridad de que ese conocimiento (soporte muchas veces de competencias esenciales) no saldrá fuera de sus muros.

En este sentido, cabría plantear que el acceso a servicios generalistas, como hoy es ChatGPT (o si me apuran, Wikipedia o el buscador de Google), fuera conceptualmente gratuito, una vez que se estructuren adecuadamente los canales de compensación económica al esfuerzo y al riesgo de desarrollo… y ahí, las regulaciones de las administraciones públicas sí podrían jugar un papel muy relevante. O eso… o por el contrario plantearse la prohibición de que hubiera niveles evolutivos de acceso gratuito (¡toma contradicción!) porque así, al menos se evitaría la discriminación de acceso a estas herramientas de productividad por razones económicas dentro del espacio de cada empresa. ¿Cómo lo ven?

El tercero se refiere a que estamos al borde de un mundo en el que no se podrá distinguir la realidad de la manipulación o la ficción. Si las fake news son ya un problema clamoroso, manipulado por demasiada gente de todo tipo desde el populismo o los intereses más dañinos, el horizonte se dibuja inquietante, multiplicado por infinito: empiezan a verse señales de que la explosión de la IA generativa de este año no ha sido más que un modestísimo anticipo de lo que está por venir a muy corto plazo. Vamos a ver cosas aún más extraordinarias… incluido el que muchas de ellas tal vez no las «veamos».

Las connotaciones económicas, sociales y políticas pueden ser de tal magnitud, que no es de extrañar que muchas grandes cabezas manifiesten de forma pública su preocupación y demanden con alarma el establecimiento de límites urgentes a lo que las organizaciones pueden hacer con la IA.

Europa acaba de aprobar la primera ley al respecto. La primera… que no significa que sea lo que se necesita, porque está llena de prohibiciones que son de puro sentido común y de otras que quizá no lo sean tanto (al optar por prohibir donde no se sabe cómo regular, condenando al terreno de lo prohibido aplicaciones que aportarían un innegable valor) y al estar dedicadas (como todas las prohibiciones) a los que están dispuestos a ser buenos y no a los malos (como bien que sufrimos cada día, de forma masiva, los efectos del afán de creadores y manipuladores de malware).

Sé de alguna empresa cuyo pequeño negocio está basado en la lectura de datos biométricos y emociones de manera legal y controlada, desde hace años, a la que no sé muy bien cómo le van a ir las cosas a partir de ahora. También me parece un ejemplo más de la inconmensurable y creciente capacidad de Europa para regular, solo comparable a la cada vez más comprobable incapacidad para activar investigación e innovación en campos de conocimiento y negocio emergentes… a los que nos vamos acostumbrando a llegar demasiado tarde (semiconductores, celdas, nubes…), sin que seamos capaces de ponerle luego puertas al campo, por la sencilla razón de que sirven para bien poco. En este sentido, hay declaraciones que solo me dan risa

Hay muchos otros aspectos de los que casi nadie habla y que será necesario abordar, porque están necesitados de soluciones que se alineen con los valores y principios que se están asentando firmemente en nuestras sociedades. Nos queda aún mucho asombro detrás de todo esto, mucha incertidumbre por despejar… y mucho trabajo por hacer.

Reflexiones: tendencias en transformación digital – Inmunidad Digital

Otra de las novedades que afloramos hace unos meses en nuestra revisión de tendencias en transformación digital, citada además en numerosas fuentes, fue el concepto de «inmunidad digital«.

Un sistema digital inmune es aquél en el que el diseño, el desarrollo, las operaciones y los procesos analíticos (en su conjunto), impulsan la mejora del rendimiento de negocio mediante la mitigación de la vulnerabilidad o reducción del riesgo.

Aproximarse a la inmunidad digital hace que las aplicaciones sean más resistentes e incluso, en escenarios de amenaza y alto riesgo, que haya mayor garantía de recuperación rápida y de continuidad del negocio. Un reciente informe de Gartner postula que, para 2025, las organizaciones que hayan invertido en construir modelos de inmunidad digital habrán reducido hasta un 80% las caídas de sistema, lo que obviamente tendrá un impacto claro en la mejora de los resultados empresariales.

La seguridad ha sido históricamente un ralentizador del progreso. La necesidad de garantizar que los protocolos de seguridad estuvieran en su lugar, ha sido una fuente de preocupación para los técnicos de sistemas y un auténtico, creciente e inacabable incordio para los usuarios: dañan la experiencia de uso, generan ineficiencias notables en la interacción hombre-máquina y, encima… no garantizan la ausencia de problemas, incluso de problemas de gran impacto.

Pero en 2022, probablemente también desde el impulso de los efectos de la pandemia, sucedió algo importante: el ya existente movimiento hacia la nube se vio notablemente reforzado. Es más, esa tendencia se ha acelerado desde entonces y hace hoy de la seguridad un facilitador, al reducirse numerosas brechas que organizaciones de todo tamaño, no bien preparadas, tenían en sus sistemas locales.

Las predicciones de seguridad de Google Cloud para 2023 abundan en ello: enfatizan la importancia de la tecnología en la nube en el refuerzo de la seguridad de las empresas, al servir de puerta de entrada a un “sistema inmunológico digital global“.

No es, sin embargo, el único factor clave en este asunto: la automatización de procesos refuerza la solidez de las operaciones. Los conocimientos basados ​​en datos, combinados mediante procesos automatizados para identificar y resolver problemas, garantizan procesos y resultados estables cuyas desviaciones frente a patrones de conducta son más fácilmente detectables y aislables.

La nube permite acceder a soluciones basadas en el uso de algoritmos avanzados y técnicas de aprendizaje automático para monitorizar el tráfico de la red, identificar amenazas potenciales y tomar medidas para neutralizarlas antes de que puedan causar daño: inteligencia artificial aplicada a la confiabilidad y seguridad (AI TRISM, por supuesto). Esto puede incluir acciones como bloquear el tráfico de direcciones IP sospechosas, aislar los dispositivos infectados de la red o alertar al personal de seguridad para que investigue más a fondo. Dicho de otra manera, brindar protección continua y automatizada contra una amplia gama de amenazas cibernéticas… sin necesidad de intervención humana.

En definitiva, estamos ante un mundo hiperconectado e inteligente en los próximos años, cuyo impacto se sentirá en casi todas las áreas (más temprano que tarde) y donde las interacciones máquina a máquina aumentarán, permitiéndolas trabajar de manera más eficiente y sin problemas.

Queda un asunto más en este camino: la seguridad vía hardware, la seguridad de lo que tenemos a pie de tierra, lo físico, el edge

Además de las soluciones clásicas de segmentación y securización de las redes de comunicaciones, también aquí las cosas están avanzando de forma notable, desde soluciones modestas pero eficaces para conectividad directa con entornos físicos, incluso aislados, hasta pura innovación tecnológica con promesas alentadoras.

En síntesis, la inmunidad digital combina información basada en datos sobre las operaciones, pruebas extremas y automatizadas y resolución automatizada de incidentes en la nube, ingeniería de software dentro de las operaciones de TI y seguridad en la conectividad y en la cadena de suministro de aplicaciones, para aumentar la resiliencia y la estabilidad de los sistemas.

Sin perder de vista, claro está, que la infalibilidad no existe (que no nos lleve a error la palabra «inmunidad») y que no podremos prescindir de conductas de uso seguro de los sistemas, porque la inmunidad digital es un salto cualitativo de gran magnitud… pero no es magia.

Y llegados a este punto… no nos engañemos: aunque puede variar dependiendo de una serie de factores (incluido el tamaño y la complejidad de la organización, las tecnologías y procesos específicos que se elija implementar y el nivel de soporte que se necesite), implantar un Sistema Inmunológico Digital (DIS) puede ser un proceso complejo y que requiera mucho tiempo. Implicará comprar nuevo hardware y software, así como invertir en capacitación de empleados y desarrollo de procesos.

Sin embargo, el coste continuo de ejecutar un DIS puede ser relativamente más bajo, ya que el sistema estará diseñado para operar de forma autónoma y monitorizar y proteger continuamente a la organización contra amenazas cibernéticas.

Teniendo en cuenta que, como es bien sabido, un ciberataque puede provocar importantes daños financieros y de reputación, incluida pérdida de ingresos, procesos legales y daños a la marca… sea cual sea el ritmo o la ambición que se comprometa, es indemorable enfrentarse a definir una estrategia DIS y desplegarla en los próximos años.

Hay cosas que empiezan a ser posibles.

Reflexiones: tendencias en transformación digital – Metaverso Industrial

Metaverso es una palabra que no suena demasiado bien hoy por hoy. Socialmente, remite a lo que parece un intento prematuro y hasta ahora fallido de Meta por reinventar su negocio y a una propuesta de interacción con la tecnología (o con otras personas a través de la misma), asociada al juego, orientada al ocio. Desde los Sims, Second Life o Ready Player One, los humanos hemos hecho numerosos intentos o acercamientos conceptuales muy diferentes a construir realidades virtuales inmersivas donde se pudieran vivir vidas más divertidas, poderosas, salvajes, libres o acogedoras, un lugar donde huir, refugiarse o descargar frustraciones, deseos o ilusiones.

Pero no crean que el mundo industrial, con su propia jerga, andaba demasiado lejos: el concepto clave era el «digital twin«, el gemelo digital que tan bien explicaba Rosa García hace unos años.

Cuando hace unos meses abordamos la revisión de tendencias en transformación digital, apareció como novedad en numerosas fuentes el concepto de «metaverso industrial«. Mi primera aproximación no me llevaba mucho más lejos que el gemelo digital de una planta completa de producción, algo a lo que muchas organizaciones nos hemos acercado en el pasado, pero de lo que no hemos sido capaces de extraer demasiado jugo, más allá de las promesas teóricas no siempre confirmadas.

Al menos, las que no somos gigantescas empresas mundiales con enormes posibilidades de dedicación de recursos.

Sin embargo, hubo un hecho que captó fuertemente mi atención: la alianza que a mediados de 2022 habían firmado Siemens y Nvidia con el propósito de, precisamente, favorecer el desarrollo de metaversos industriales. Dos líderes mundiales absolutos, uno en automatización industrial y otro en inteligencia aplicada al tratamiento de la imagen, no pueden aliarse de esa manera para algo baladí. Hay que entender qué hay detrás…

En resumen, como primer paso, las empresas conectarían Siemens Xcelerator, plataforma empresarial digital abierta, y Nvidia Omniverse, plataforma de diseño colaborativo 3D, lo que habilitaría un metaverso industrial con modelos digitales basados ​​en la física de Siemens y la IA en tiempo real de Nvidia, para que las empresas pudieran tomar decisiones más rápido y con mayor confianza. Así, el motor de simulación de mundo virtual en tiempo real de Nvidia Omniverse, físicamente preciso y habilitado para IA, permitiría generar gemelos digitales en directo y con total fidelidad al diseño, que conectarían sistemas de IA definidos por software de la periferia a la nube.

Se supone que las aplicaciones del metaverso industrial pueden ser numerosas: comprensión y enriquecimiento de datos en entornos virtuales, creación de procesos más sostenibles, optimización de costes… Sin embargo, no acababa yo de ver muy bien en qué se diferenciaban estas promesas de las que se hacían de los gemelos digitales, aunque nos explicaran que todavía falta tiempo para ver una realidad virtual y física totalmente integrada y que al menos hasta 2024 no empezaríamos a ver y entender mejor sus capacidades.

Con el apoyo de Iker Mitxelena (gracias, joven… 🙂 ) hemos tratado de hacer las distinciones precisas para entender bien de qué estamos hablando. La teoría dice que el metaverso industrial permitirá:

  • Ingeniería avanzada, con diseño de productos iterativo y colaborativo con el cliente en tiempo real, sin los costes y los riesgos asociados a la interacción en el mundo real.
  • Pruebas y homologaciones más exhaustivas, testando infinitos escenarios que combinen entornos fotorrealistas con simulaciones físicas.
  • Entrenamiento de procesos autónomos mediante machine learning e inteligencia artificial.
  • Detección de mejoras de procesos sin interrupción de la fabricación.
  • Obtención de conjuntos de datos para proyectos de inteligencia artificial…

Ya… me dirán que muchas de esas cosas se esperaban también de los gemelos digitales, ¿no?

Porque el gemelo digital no es una mera representación de un objeto o un proceso físico, sino que además está conectado de alguna manera al mismo, obteniendo información real de sus sensores. A menudo se olvida este aspecto y se refiere al gemelo como una copia virtual o digital de la realidad, sobre la que realizar simulaciones, pero la conectividad gemelo-objeto forma parte intrínseca del concepto.

Entonces… ¿en qué consiste la diferencia entre gemelo digital y metaverso industrial, tan importante como para que este último concepto aparezca ahora con fuerza entre las tendencias de transformación digital para la industria?

Pues… si me lo permiten, vamos a intentar explicarlo, en lo que hasta ahora creemos entender:

  • En primer lugar, las tecnologías implicadas: el gemelo digital es solo el corazón alrededor del cual se crea el metaverso, que además incorpora tecnologías como la inteligencia artificial, la disponibilidad de datos en tiempo real (que impone muchas veces alta conectividad 5G/6G), el edge computing, o blockchain para garantizar la seguridad y la confiabilidad en un entorno naturalmente colaborativo.
  • En segundo lugar, dicho carácter colaborativo: un metaverso industrial es un entorno conectado digitalmente, diseñado para reunir a todo un ecosistema de proveedores, socios y expertos en un espacio inteligente. De hecho, en contra de lo que sucede en el mundo del ocio, el metaverso industrial no será probablemente un espacio global, sino varios entornos digitales construidos con fines diferentes pero interconectados.
  • En tercer lugar, el papel del tiempo real y la inteligencia artificial: ya no se trata de un modelo virtual de un objeto que se alimenta de datos reales, sobre el que se pueden realizar simulaciones en base al diseño de escenarios (como en el gemelo digital), sino que, en el metaverso, los datos reales de lo que está ocurriendo se «ingestan» en tiempo real y se pueden aplicar algoritmos que suponen auténticos modelos de predicción del comportamiento de entornos complejos, con los que se puede interactuar e iterar para tomar decisiones operativas.
  • Y para terminar, la relación con el edge: las empresas podrán tomar el gemelo digital que controla las dinámicas de computación y situarlo en un dispositivo en el edge del hardware, es decir, podrán permitir que sea el software quien gobierne la operación en los dispositivos en el edge.

¿Ciencia ficción? La apuesta de la alianza Siemens-Nvidia es hacerlo factible y hacerlo ya. Otra cosa es al alcance de qué tipo de empresas quedará extraer todo su potencial al metaverso.

Los desafíos para explotar el concepto son enormes: la empresa debe estar a un muy alto nivel de digitalización, incluida una absoluta familiaridad con los gemelos digitales. Deberá, además, disponer de una red de valor con capacidad de asumir la inmersión colaborativa que se le demande y recursos importantes dedicados durante un largo periodo de tiempo para construir y explotar adecuadamente el metaverso generado, tanto económicos como humanos. Serán necesarias fuertes competencias en una amplia diversidad tecnológica, enorme capacidad de computación, o soluciones abiertas e interoperables para gemelos de distinto origen, con formatos de datos compatibles.

No será fácil, durante mucho tiempo, visualizar con claridad el retorno de tamaño esfuerzo. Pero como premio, entonces… se supone que habrán llegado a ser una auténtica y excelente empresa digital.

Aunque yo me sigo preguntando cosas… que me parecen muy básicas. Por ejemplo, salvando los procesos de adiestramiento (que para eso ya sirve la VR actual): ¿por qué es necesario que el metaverso industrial disponga de un escenario de altísima fidelidad visual, como si de una realista y creíble película de ciencia ficción se tratara? Sabiendo que ello conlleva enormes prestaciones en coste computacional y capacidad de comunicación y siendo el propósito «un asuntillo de ingenieros», ¿por qué no serviría hacer lo mismo con puros modelos matemáticos?

Algunos tratan de explicarlo, pero… ¿alguien es tan amable de explicármelo mejor?

Les dejo con un par de recomendaciones (1) (2) y algunos vídeos que creo les pueden interesar, a título divulgativo.

Y nos vemos en cualquier metaverso. Algún día…

Reflexiones: curación y saturación

No sé si el significado de “curación de contenidos” que hoy identificamos con facilidad con la labor de “encontrar, organizar, filtrar y dotar de valor, relevancia, significatividad, en definitiva, de utilidad el contenido de un tema específico que procede de diversas fuentes” estará así reconocido por la RAE, que creo que solo se aproxima con una de las acepciones de “curador”, que es la de «persona encargada de la conservación y supervisión de bienes artísticos o culturales, especialmente para su eventual exhibición”, definición que se aproxima… pero que no parece ser exactamente lo mismo.

En cualquier caso, es una labor que miles de personas realizan sobre la ingente cantidad de información disponible en la red, que crece exponencialmente cada día, y que resulta especialmente útil y necesaria en procesos como los de vigilancia tecnológica y competitiva, investigación científica, revisión bibliográfica, marketing digital o preparación de materiales educativos.

Claro es que la liviandad o la exigencia técnica de la tarea o las fuentes de información nativas a utilizar son de muy diferente naturaleza y acceso… pero en lo básico, el proceso de curación sigue los mismos pasos.

Estén tranquilos, que no voy a redactar un artículo teorizando sobre la historia o el proceso de la curación de contenidos… 😅

Sobre eso hay miles de artículos y páginas en la red, hasta el punto de que no vendría mal encontrar un buen curador para seleccionar la información más precisa sobre el tema… 😂

Verán, modestamente, en mis “vibraciones sonoras” realizo en realidad una labor que no es otra cosa que curación de contenidos. Musicales, en este caso.

El trabajo que realizo semana a semana sigue los cánones de todo buen proceso de curación:

  • Buscar: es clave identificar las fuentes de las que nutrirse, sin lugar a dudas. En mi caso, actualmente son algunas playlists de Spotify especializadas en novedades semanales de música en castellano, que conectan total, parcial o localmente con mis gustos. Hoy son básicamente 3, pero han sido más… y menos. Me voy adaptando.
  • Filtrar: al menos un par de días de la semana realizo una escucha rápida de las canciones de esas playlists actualizadas, para identificar las que estén alineadas con lo que hoy por hoy disfruto oír, o con una voz, un sonido o una producción que «me dice algo»… aunque sea bastante ecléctico en estilos y gustos. Aquí paso de unas 120-150 canciones nuevas que reviso cada semana, a una preselección de 8-12, normalmente.
  • Analizar: las noches, pero sobre todo el coche, en los viajes de ida y vuelta del trabajo, son los momentos elegidos para escuchar varias veces y con más calma, esa lista previa. Cuando escuchas varias veces una canción a lo largo de una semana, a veces ocurre que te gusta cada vez más y a veces llegas a un punto en el que sabes a ciencia cierta que te va a cansar oírla más, que te va a saturar y que no debe formar parte de las elegidas. A estas últimas las voy «matando» hasta formar el paquete de las 2-6 semanales que pasan a la playlist del año.
  • Elaborar: de la lista preliminar han pasado a la lista definitiva, sí, pero… no siempre las añadidas encajan bien con el «hilo» de lo que ya estaba. A veces plantean armonías disfóricas en la continuidad de un tema a otro, a veces configuran un grupo con demasiados minutos de desgarramiento y oscuridad, o de poppy que empalaga… Es el momento en que se trata de refinar no la parte sino el todo.
  • Difundir: quizá la fase menos reconocible en mi actividad. Al margen de las veces que trato de meterla entre los gustos de la familia 😉 , mi única labor de difusión es en realidad el post que en esta bitácora escribo una vez al año, en el capítulo de «vibraciones sonoras«. Este blog no va mayoritariamente de eso, por una parte… y no puedo pretender que mis gustos musicales conecten masivamente con mi audiencia habitual, por otra. Desde luego que no. Así que discreción.

El caso es que me he puesto a pensar… y mi principal tarea de curación de contenidos no ha sido ésta, la verdad, a lo largo de mi recorrido en la red. Mi principal esfuerzo, prolongado durante muchos e intensos años, ha sido en Twitter.

Durante una larga etapa, prácticamente no había un día en el que no invirtiera cerca de una hora en leer mi servicio de feeds (el añorado Google Reader), a revisar exhaustivamente el timeline de mi Twitter… y a divulgar los contenidos que creía que resultarían profesionalmente excitantes o al menos interesantes para mi comunidad, en el propio Twitter.

Fue una etapa en la que «el barrio» era reconocible, el núcleo del Personal Learning Environment (PLE) que había ido configurando con el exclusivo propósito de aprender, de absorber insights, conocimientos, experiencias, miradas… De contrastar y en definitiva de conversar.

Pero todo eso… murió. En mi caso, al menos: casi solo uso Twitter ya precisamente para dar difusión a mis posts mensuales, aunque en realidad tampoco es que eso me reporte demasiada utilidad, porque las lecturas de los mismos están ahora casi masivamente ligadas a LinkedIn y el flujo que llega de Twitter es casi anecdótico.

No voy a hacer de plañidera del funeral de mi propia cuenta de Twitter, no… pero me genera una reflexión: hay excepciones, nodos de mi vieja red que aún están ahí (muy pocos) y que se mantienen vivos, inasequibles al desaliento… pero mi desconexión de Twitter como herramienta de aprendizaje se produjo de forma bastante acelerada, de la misma manera que fue bastante acelerada la despoblación de «mi barrio».

O sea, que buena parte de la amplia comunidad en la que nos comunicábamos se apartó de la misma en un periodo que no llegó a los dos años. Todos al mismo tiempo.

Alguna vez he escrito sobre ello con un juicio de cierta pérdida de interés en los contenidos, de justificar mi retirada en el sentir de que empezaba a recibir demasiado porcentaje de información que tenía un carácter repetitivo, que ya no me aportaba demasiado valor.

Y probablemente así fuera, porque todos aprendemos y evolucionamos, todos buscamos nuevas cosas que colmen nuestro hambre de descubrimiento, de asombro, de entender más allá. No se trata de que haya culpables, claro… Mantener ese nivel en mi PLE, probablemente, habría exigido cambiarse de ciudad, volver a construir «un barrio nuevo», empezar de cero. O sea, en el proceso anterior, volver a la fase de «Buscar».

Y eso… cuesta. Cuesta mucho.

Implica mucho trabajo el identificar nuevas fuentes generosas, honestas y ricas en reflexión y ambición, que renueven el valor que te llega a través de su labor de curación. Implica abrir relaciones nuevas y entregar a cambio también tu pequeña aportación. Y todo eso no implica solo un esfuerzo al que hay que estar dispuesto, sino que tampoco hay garantía de que, puestos a ello, se pueda obtener una satisfacción renovada, porque curadores potentes que ofrezcan perspectivas muy diferentes a quienes ya estaban en la avanzadilla de estado del arte de las cosas, no es tarea precisamente sencilla, si es que es posible.

Con la perspectiva de los años, además, lo veo con matices que me parecen relevantes: hoy creo, sinceramente, que esos contenidos «repetitivos» que ya percibía como de menor aportación de valor… seguían siendo muy buenos contenidos.

O sea, que todo estaba en mí.

Que era yo el que había perdido interés por seguir en ese contenido, en ese lugar. Que era yo el que ya no encontraba igual de excitante comentar un blog, conversar en Twitter o distribuir algo que, siendo muy bueno, ya no me generaba el asombro inicial, o ya no conectaba con abrirme nuevas posibilidades de acción.

Quizá podamos concluir, queridos lectores, que eso es más o menos lo mismo que lo que le pudo pasar a una parte importante de mi comunidad… y a partir de ahí, el efecto es de bola de nieve.

Mi reflexión en este artículo va por ahí, por entender que la curación en un campo de contenidos, en una comunidad, llega siempre a un punto de saturación en el que ya no se aprecia el valor, aunque objetivamente siga existiendo.

Dicho de otra manera, que es necesaria una continua curación de curadores como proceso paralelo, si se quiere mantener los niveles de valor percibido… 😅

Así que, una vez llegados a este punto, la cuestión que me planteo ahora es: ¿qué significa eso en los procesos de vigilancia tecnológica y competitiva o en la selección de contenidos de marketing digital en una empresa?

¿Qué deberíamos hacer para que estos procesos mantengan su aportación sostenida y renovada en el tiempo y no decaigan en las organizaciones como siempre hacen? ¿Basta con renovar las fuentes? ¿Renovamos los equipos? ¿Arriesgamos el perder capacidades analíticas o conocimiento técnico y de negocio a cambio de atracción renovada?

Vibraciones: las consecuencias

Parecía que el dieselgate era un asunto particular del mercado del automóvil, un episodio que además escondía (¿digamos que quizá?) oscuros intereses tecnológicos y comerciales entre Estados Unidos y Europa en la batalla por el dominio de uno de los mayores mercados del planeta.

La continua y progresiva presión sobre la reducción de emisiones, mantenida consistentemente desde diversos organismos plurinacionales (pero sobre todo desde la Unión Europea) y la incapacidad de darle una respuesta tecnológica adecuada y a tiempo por parte de la industria, estaba detrás de un escándalo que alcanzó dimensiones cósmicas y que acabó demonizando el diésel, eliminó el 60% de su cuota de mercado en Europa (su gran mercado) en solo 4 años y lo desterró como tecnología de futuro.

El problema es que aún sin recuperar la confianza social tras la crisis financiera (2008), el dieselgate (2015) acabó siendo solo el comienzo de una serie de nuevas crisis de grandes proporciones que directa o indirectamente han supuesto impactos muy serios sobre nuestro mercado europeo: el covid-19 (2020), la escasez de semiconductores (2021), la estratosférica subida de precios de materias primas y energía derivada de la guerra de Ucrania (2022)… y lo que vendrá, en un escenario en el que la oferta de vehículos eléctricos todavía es cara y tiene su red de infraestructuras de recarga aún en mantillas, los hábitos de consumo en nuestro continente están cambiando y dibujan un mercado que no crece, el liderazgo de la tecnología ya no descansa en nosotros sino en China, la inflación se eleva hasta límites desconocidos en décadas, los populismos (de izquierdas o de derechas) se imponen en demasiados sitios como forma de entender la gestión de lo público (con graves consecuencias como el Brexit) y Europa está al borde de dejar de ser un territorio exportador.

En fin… que todo esto no es inocuo, claro…

La confianza en el futuro es clave para el consumo, elemento fundamental para sostener el modelo económico que hemos construido… y el automóvil es quizá la segunda compra más importante que afronte una familia, tras la vivienda.

La siguiente gráfica representa la evolución de la edad media del parque automovilístico español desde 2006 hasta 2020. Por decirlo de una forma que se entienda con facilidad… me parece alucinante.

Otra forma de mirar esta situación es decir que el 44% de los automóviles españoles tiene una edad superior a los 15 años… que es verdad aunque no se lo crean. 😮

Claro que más de uno me podrá decir que España es una excepción, que es el país con el parque de vehículos más envejecido del continente… Pues siendo también esto bastante cierto, les invito a ver qué ha estado pasando en la Europa de los 27 sobre ese mismo indicador, a mi juicio una muestra inequívoca de donde ha estado y está actualmente nuestra confianza económica a corto plazo.

No sé si alguien habrá evaluado el impacto que «una evolución de los acontecimientos» como ésta que les muestro, esté teniendo o vaya a tener en el maltrecho mercado europeo… pero de lo que no cabe duda alguna es de que tantas crisis juntas, de todo tipo… tienen consecuencias.

Vibraciones: privacidad en pago de salud

El creciente desarrollo de tecnologías embebidas o adheridas al cuerpo humano, con propósitos bien ligados al control de la salud o bien a la corrección o incremento de las capacidades naturales de una persona (el llamado «augmented human«), se han asomado ya algunas veces a estas páginas, desde el fenómeno del envejecimiento, desde el sentido de la vista, desde nuestra evolución hacia la noción de cyborg

Creo que han pasado algunos años desde mi última incursión en este terreno, pero en los últimos días se han dado varias circunstancias que me invitan de nuevo a acercarme a ello.

La primera fue un vídeo que ha corrido viralmente por Whatsapp y redes sociales, así que es muy probable que ya lo hayan visto.

José Luis Corcuera fue Ministro de Interior durante 5 años en uno de los gobiernos de Felipe González. Tras abandonar el partido, muy crítico con el liderazgo de Pedro Sánchez, exponía sus argumentos en una entrevista que Susanna Griso le hacía sobre la gestión gubernamental de la crisis sanitaria en el programa «Espejo Público» de Antena 3. Vean el vídeo si no lo han hecho porque impacta… o al menos el brevísimo extracto que les inserto a continuación.

José Luis Corcuera llevaba un desfibrilador interno (un S-DCI, «desfibrilador cardioversor implantable subcutáneo») que detecta arritmias con alto riesgo de provocar parada cardiorrespiratoria, por la aparición de fibrilaciones o taquicardias venticulares potencialmente mortales.

El S-DCI tiene dos elementos principales: el generador de pulso (aproximadamente del tamaño de un reloj de bolsillo grande, con una pila y circuitos eléctricos que leen la actividad eléctrica del corazón) y los electrodos que generan la descarga eléctrica (alambres, también llamados derivaciones, que pasan a través de las venas hasta el corazón).

Los primeros aparatos, voluminosos e implantables en operaciones de riesgo, se instalaron en Estados Unidos en pacientes en 1980, pero no fue hasta 2009 en que el desarrollo tecnológico de los denominados subcutáneos recibió el sello CE y por tanto la autorización para ser implantados en Europa.

Hoy se colocan ya con el paciente despierto… pero lo importante que quiero destacar es que, como derivada, no hubiera sido desde luego improbable que José Luis Corcuera se hubiera muerto en directo, delante de todo el mundo, solo 11 años atrás.

Impacta ver cómo la tecnología no solo salva una vida, sino que lo hace mediando solo un simple sobresalto…

El segundo impulso para este artículo fue un vídeo publicado por Marc Vidal en LinkedIn. Sobre él comenta cómo «investigadores del Laboratorio de Física Aplicada (APL) y la Facultad de Medicina (SOM) de The Johns Hopkins University demostraron, por primera vez, el control simultáneo de dos de las prótesis más avanzadas del mundo a través de una interfaz cerebro-máquina» y cómo «el equipo actualmente está desarrollando estrategias para proporcionar retroalimentación sensorial para ambas manos al mismo tiempo mediante la estimulación neuronal«, o sea, cómo, además, el sistema devuelve a la persona el sentido del tacto a través de sus «manos».

Si le echan un vistazo al vídeo que inserto a continuación (publicado hace aproximadamente hace un año), no verán nada parecido a una acción espectacular, solo torpes movimientos de un par de brazos robóticos que actúan a impulso de señales cerebrales de un ser humano… pero la clave está en que dichas señales han conseguido mover esos brazos simultánea y armónicamente hacia objetivos paralelos y diferentes, al modo en que naturalmente lo hacemos cada día.

Quizás hayan visto cosas más espectaculares en términos de movimientos (vean este vídeo o éste, de hace ya 5 años, también de desarrollos de la Johns Hopkins), pero a veces la clave, como en el caso del que les he insertado, no está en el espectáculo… y lo importante es entender que este es un camino de largo recorrido (el programa «Revolutionizing Prosthetics» nació nada menos que en 2006), que en el tiempo transcurrido desde esta grabación se han seguido produciendo desarrollos significativos y que éstos son solo el preludio de los que vendrán.

El tercer catalizador de este post es un artículo de Yuval Noah Harari que mi amigo Txus Santos compartió conmigo y que les recomiendo encarecidamente leer.

En él, el autor reflexiona acerca de la revolución tecnológica que de la mano de la inteligencia artificial nos inunda cada día con avances y amenazas, pero que considera que, paradójicamente, está lejos de nuestra comprensión en cuanto a la naturaleza del fenómeno en sí y de las implicaciones que puede suponer para nuestras vidas. Lo hace a través de cinco ideas que les resumo:

  1. Nadie sabe cómo será el trabajo en 2040. La revolución tecnológica no se producirá como un fenómeno lineal actualidad-transición-nueva estabilidad, sino que nos vamos a ver abocados a una serie continua de revoluciones cada vez mayores, más aceleradas, cada una sobre la anterior.
  2. La casa de bloques de piedra vs. la carpa. Ésta va a ser la naturaleza del aprendizaje, que no se parecerá a ir construyendo una casa de piedra sobre cimientos profundos y sólidos, como ha sido tradicionalmente, sino mucho más a montar una carpa que podamos doblar y trasladar con rapidez y facilidad a otro lugar.
  3. El ser humano ya es un sistema hackeable. Ya existe la tecnología que permite descifrar a los humanos como sistema, “saber qué pensamos para anticipar nuestras elecciones, para manipular nuestro deseos humanos de maneras que nunca antes fueron posibles”… y solamente hacen falta dos cosas: “un montón de datos, en particular biométricos (no solo sobre dónde vamos y qué compramos, sino qué sucede dentro de nuestros cuerpos y dentro de nuestras mentes) y mucho poder de computación”. Uniéndolas, «podemos crear algoritmos que me entienden mejor de lo que yo me comprendo a mí mismo, que no solo pueden predecir mis elecciones sino también manipular mis deseos y venderme cualquier cosa, ya sea un producto o un político».
  4. Conócete a ti mismo (porque el algoritmo ya te conoce bien). La mente humana es una máquina que produce relatos constantemente, de modo que lo que creemos conocer de nosotros mismos no es la realidad de como somos, sino el relato que nos hemos construido. Los algoritmos, por el contrario, se basan en datos y eso permite que, más temprano que tarde, puedan conocer a una persona mucho más de lo que ella se conoce a sí misma. Las implicaciones de esto son extraordinarias y no necesariamente positivas, pues plantean un escenario de asalto a la privacidad de un individuo en el que es posible que una corporación conozca y explote pensamientos o emociones profundas precisas que, preso de su relato, ni él mismo es capaz de identificar.
  5. Nuevos enemigos: la salud y la privacidad. El escenario anterior no solo es plausible, sino que puede que el ser humano lo abrace voluntariamente… y el culpable es el cuidado de la salud. A través de implantes y sensores biométricos que funcionen en continuo, la tecnología puede brindarnos un nivel de vigilancia y protección de nuestra salud tan brutal, tan único en la historia de la humanidad… que aceptaremos entregar buena parte de nuestra privacidad a cambio de sentirnos cuidados, seguros y sanos.

Coincido básicamente con la visión de Yuval Noah Harari. No sé si seremos capaces de encontrar un punto de equilibrio razonable, pero pienso, como él, que esto ocurrirá… y que es un gran reto para estas nuevas generaciones.

¿Qué opinan? Me encantarán sus comentarios…

Vivimos tiempos muy volátiles, donde lo prioritario, lo atractivo o lo importante deja de serlo en solo un instante; tiempos inciertos en los que nadie es capaz de predecir, no ya el futuro, sino cómo prepararse para afrontarlo; tiempos complejos, hasta el punto en que solo las máquinas parece que serán capaces de gestionar las interacciones de los sistemas, desde luego muy por delante de las que ya vemos como limitadas capacidades del ser humano para comprender el mundo que construimos; y tiempos, además, de ética ambigua, donde cada vez con mayor frecuencia el fin justifica los medios y los principios no van primero.

Tiempos VUCA, en definitiva.

No sé si me gustará el destino… pero ya a esta edad cada vez más cerca de la observación que de la pura ejecución… espero que el camino, al menos, sea apasionante. 🙂

Reflexiones: Europa y la fabricación de vehículos

Hace un par de semanas compartí en LinkedIn una publicación de Miguel San Martín en la que mostraba un gráfico dinámico que reflejaba cómo había ido cambiando el ranking de los 10 primeros países productores de automóviles entre 1964 y 2019.

Les dejo a continuación el vídeo completo (que cubre el periodo 1950-2019), les invito a seguir el movimiento hipnótico de barras y países a lo largo de los 6 minutos que dura (no se les hará muy largo)… y luego seguimos.

Mi comentario al compartir el post fue en forma de preguntas: «¿Quién puede pensar que no va a seguir cambiando así? ¿Y en qué dirección será en los próximos años? ¿En Europa?»

Son preguntas que pueden inducir a una interpretación determinada… y por eso he pensado que sería interesante profundizar en los datos del vídeo siguiendo la línea de esos interrogantes.

Eso sí… mirados de otras maneras.

Una advertencia: voy a utilizar datos que reconozco incompletos y sin la suficiente verificación (incluídos los del propio vídeo), porque la comprobación rápida que he realizado de algunos de ellos me devuelve una aproximación suficiente para identificar las grandes tendencias cuya interpretación quiero compartir con ustedes a través de este artículo, así que visto mi anterior post… necesito lanzar una disculpa por delante. 😉

ESTAR EN EL RANKING

He representado en una tabla los años en que los distintos países del mundo han estado dentro del top-10. He retirado dos países porque su presencia era poco menos que testimonial (Bélgica en el periodo 1986-1990 y Thailandia en 2013) y distorsiona la visualización evolutiva:

Algunas observaciones:

  • Son 70 años… pero, en general, más o menos los 40 primeros años se caracterizan por la ausencia de nuevos entrantes: los países sí cambian de posición (y mucho, como veremos más adelante), pero solo entre sí.
  • En los últimos 30 años se producen sin embargo varias entradas y salidas muy significativas.
  • Asia abruma entre las nuevas entradas: Corea del Sur, China e India. Solo México se suma a la lista desde otros lugares del globo.
  • ¿Y quiénes salen? Pues… oh sorpresa… Europa Occidental: UK, Francia (durante 5 años) e Italia… a los que habría que sumar Rusia.

CRECER Y DECRECER POR PAÍSES

Una mirada diferente: una cosa es la posición en el ranking y otra el ritmo de crecimiento… y ahí las diferencias son extraordinarias.

Para sacar más jugo visual a estos datos (poner toda la información del vídeo en un gráfico no es sino un lío de líneas monumental), he hecho una tabla de los países con sus producciones cada 5 años, con las fotos fijas del año que comienza cada quinquenio.

En negro están datos sacados del vídeo y en rojo información que he completado de otras fuentes. He representado cada país desde el momento en que entra en el top-10 y el resultado es el siguiente:

Ya, ya, ya… casi les estoy oyendo decir que esta tabla muestra poco, puesta en esta forma… pero échenle un vistazo a los mismos datos en gráfica y quizá les surja alguna inquietud más, aparte del consabido crecimiento chino…

Como es natural, la gráfica me conduce a varias posibles interpretaciones de interés (alguna muy evidente, como que sólo Japón, Corea, China e India, todas naciones asiáticas, han sido capaces de crecer hiperaceleradamente), pero las voy a dejar a su capacidad interpretativa, estimados lectores, para no despistarnos del núcleo del mensaje que viene a continuación.

CRECER Y DECRECER POR REGIONES MUNDIALES

Les reconozco, en cualquier caso, que la gráfica anterior aún contiene demasiadas líneas cruzadas como para obtener demasiadas conclusiones a primera vista, así que simplifiquemos un poco…

La suma de las producciones del top-10 de países supera consistentemente el 85% de la producción mundial, así que despreciando el efecto del resto, como una aproximación que reconozco grosera pero suficiente a modo indicativo, se me ha ocurrido ver esos datos comparando la evolución de tres agrupaciones regionales:

  • NAFTA: Canadá, USA y México.
  • EUROPA OCCIDENTAL: Francia, UK, Alemania, Italia y España.
  • ASIA: Japón, Corea del Sur, India y China.

La tabla queda resumida como sigue:

Lo que en modo gráfica queda así:

La gráfica muestra un dato preocupante: tras 30 años como región líder del mundo, la producción de vehículos en Europa Occidental lleva 15 años en tendencia decreciente.

Si alguno pertenece al mundillo del automóvil, le sorprenderá, quizá, esta tendencia, porque los datos que normalmente se manejan en las previsiones de futuro de las grandes consultoras apuntan sistemáticamente a una estabilización del mercado europeo occidental, incluso con crecimientos medios «orgánicos» (1÷2% anual), lo que no se compadece muy bien con la gráfica anterior.

Pero los datos «post mortem» son los que son… y en todo caso, sabiendo que en la gráfica no aparecen las producciones de Bélgica, Austria o Portugal (en total no alcanzan el millón de vehículos)… son los que son para los grandes países productores europeos.

Aunque mucho más significativo es ver cómo han evolucionado estas agrupaciones regionales en porcentaje sobre el total considerado en la tabla inicial (que insisto es más del 85% de la producción mundial):

Observaciones sobre la gráfica:

  • Primero Japón, luego Corea, después China y ahora también India, han hecho de Asia la región que lidera en el mundo la producción de vehículos. Nada nuevo bajo el sol, pero ya supone el 60% del total.
  • La pérdida de la hegemonía inicial norteamericana no implicó un descenso de las unidades fabricadas. En los últimos 10 años hay una tendencia clara a la estabilización de las producciones NAFTA y de su peso en el mundo, manteniéndose por encima del 20% de la producción mundial.
  • Europa Occidental lleva 50 años perdiendo peso relativo en el mercado mundial de producción de vehículos, situándose en la actualidad en torno al 15% del mismo.

¿SEGUIR DECRECIENDO?

Los altos costes salariales, las regulaciones medioambientales, la falta de crecimiento demográfico o los cambios de hábitos de consumo hacen que fabricar vehículos en Europa Occidental solo sea ya atractivo para el propio consumo europeo (en todo caso), además de para aquellos lugares del globo donde se valore la diferenciación por calidad percibida o tecnología.

Pero el desarrollo masivo de tecnologías se está produciendo ya aceleradamente en otras regiones del mundo y singularmente en Asia, favorecido además por las tendencias de electrificación que simplifican las competencias tecnológicas necesarias para desarrollar los sistemas de tracción y que ponen el acento en los sistemas de almacenamiento, donde el dominio asiático es abrumador.

Las estrategias de regionalización-globalización de las marcas están cambiando con decisiones de peso (la venta de Opel a PSA por parte de GM, el cierre de la planta de Honda en Swindon, el cierre anunciado de la planta de Nissan en Barcelona o la salida anunciada de Mitsubishi del mercado, como ejemplos cercanos)… y muchas de ellas se compadecen bien con la idea de pérdida de atractivo para la fabricación en Europa.

En consecuencia, ya no resultan una novedad las predicciones de que, dentro de 10 años, la producción en Europa Occidental estará más cerca del 5 que del 15% del mercado mundial.

Europa corre serio riesgo de dejar de ser una región exportadora de vehículos.

Y eso equivale a una amenaza para la creación de riqueza y para el empleo. Y sin contar con lo que las tendencias CASE o el desembarco de vehículos chinos en Europa impacten sobre el volumen del mercado…

Sinceramente, no creo que la aplicación masiva de tecnologías 4.0 puedan revertir esta tendencia. ¿Volvemos, entonces, a hablar de diversificación? ¿Y en qué sentido?

Advertidos estamos.

Vibraciones: el trabajo va cambiando

Tanto anunciarlo… y va llegando a la vida «real»: les voy a citar en este artículo tres anécdotas que he vivido personalmente en relación al mercado de trabajo, solo en lo que llevamos de año.

Y lo haré sin comentarios ni valoraciones personales, aunque advirtiendo de que la literalidad del texto puede que no se compadezca fielmente con cada detalle (la memoria no da para tanto)… lo que por otra parte considero franca y absolutamente irrelevante.

Solo pasen… y juzguen.

  • Caso 1 – Empresa industrial vizcaína, dedicada al sector eléctrico. Proceso de selección de un nuevo ingeniero para el área técnica.

El primer candidato seleccionado (trabajando en la actualidad y con experiencia previa en trabajos homologables al ofertado en un par de empresas) renuncia finalmente a la propuesta de trabajo porque busca un entorno de desarrollo de proyectos con mayor autonomía de gestión y decisión, con estructuras ágiles y no tradicionales.

El segundo candidato al que se le ofrece el trabajo (un ingeniero joven con poca experiencia laboral pero buena proyección) declina finalmente aceptarlo porque aspira a un trabajo «más creativo».

Contrataron al tercer intento. ¿??

  • Caso 2 – Empresa industrial con plantas en varios países. Comentario de un alto directivo con responsabilidad sobre una planta situada en México.

Tenemos problemas para contratar ingenieros que se han formado en USA.

Llegan esperando encontrar entornos móviles de trabajo, documentos consultables desde su tablet, monitorización de datos en tiempo real… y se encuentran con modelos lean, eso sí, pero con aplicaciones a medias, estándares en papel y registros a bolígrafo.

A nosotros, los de la industrial pero vieja Europa… ¡nos ven anticuados!

  • Caso 3 – Constructor de automoción con planta de montaje de vehículos en una capital española. Comentarios de antiguo directivo de RR.HH. sobre captación de talento en su empresa para el desarrollo de soluciones de fabricación avanzada (o industria 4.0).

Como todas las empresas, hemos definido y desplegado nuestra estrategia de fabricación avanzada, incluyendo analítica de datos e inteligencia artificial. Sin embargo, hemos tenido muchas dificultades para captar el talento necesario, a pesar de ser la empresa deseada, el referente de la ciudad y la región durante décadas.

Hemos tenido que abrazar un cambio muy importante en la forma en que gestionamos nuestros proyectos y en especial los relacionados con estos temas, porque ya no éramos atractivos. Los ingenieros especializados en ello ya no quieren trabajar en estructuras de trabajo tradicionales y, sencillamente, no conseguíamos contratarlos. En definitiva, estamos implantando con gran intensidad esquemas de trabajo ágiles con retos que aporten otro sentido a su trabajo.

¿Cómo lo ven?

¿Me cuentan alguna de las suyas?

Vibraciones: una semana intensa

Getxo, Ordizia, Barcelona, Salamanca, Palau-solità i Plegamans, Arrasate-Mondragón y Eskoriatza. Los lugares en los que he trabajado en solo una semana. Añadan Bilbao y Lezama con temas más personales pero igualmente relacionados con el trabajo… y ya tenemos una primera razón para el apelativo de «intensa». 🙂

Hace mucho que no hago una reseña de un evento donde haya estado y tampoco va a ser hoy el día en que recupere ese hábito, pero si me acompañan en la lectura, les dejaré algunos detalles de la semana que me han llamado la atención.

En una especie de miniaturas de reseña, van a continuación un par de iniciativas singulares, algún trámite inaudito, un extraordinario caso de organización empresarial, una inyección de expectativas positivas o una buena dosis de emocional nostalgia…

Sin detalles, en algún caso por simple respeto a quienes fueron mis interlocutores o a la debida reserva de información sensible, pero también con algún hilo del que estirar… si gustan.

LUNES: Bilbao – Getxo – Ordizia – Bilbao – Barcelona

Cuando queremos comprar algo todos sabemos cómo buscar: un regalo, el pedido del supermercado, unos zapatos, un libro, un coche o hasta una casa. Pero no es tan habitual si se trata de una empresa… y uno siente que ese debe ser un territorio que se mueve en bases de datos estrictamente confidenciales, conversaciones que no son públicas, estrategias de información y desinformación y batallas de intereses no siempre desvelados.

Pues no digo que no sea así (que seguro que lo es y que nuestro proceso acabará «refinándose» y ganando en complejidad), pero sorprende ver que la búsqueda empieza de una forma tan sencilla como la de cualquier otra búsqueda… o casi. Con los parámetros que corresponde a la ocasión, pero «como en zapatillas», oigan… Y con criterios de filtrado elaborados desde la misma estructura lógica que uno puede usar para seleccionar un hotel de vacaciones. 😮

Este lunes, además y por otros motivos, tuve que firmar dos documentos con sello de «oficialidad». No se lo van a creer… pero tuve que hacer 183 km. y gastar dos horas de viaje para echar [2-firmas-2] en [2-papeles-2], delante de personas a las que no conocía ni me conocían… y que no me pidieron ni el carnet de identidad. 😮 😮

MARTES: Barcelona – Bilbao – Salamanca

El martes estuvo centrado en una nueva sesión de Co-Society, una edición un tanto especial y algo descolocante (no sé si habría mucha gente de verdad de un club que parece cada vez más confundirse con el paisaje), centrada en la firma de un convenio de colaboración entre el Institute of Next y TusStar Incubator.

La sesión se desarrolló en la sede de Casa Asia en Barcelona, con el propósito de acercarnos la transformación acelerada de una China que ya no es la fábrica del mundo, sino su vanguardia de innovación y desarrollo tecnológico.

Les dejo unas cifras:

  • TusStar ha creado en sus 20 años de existencia más de 100 puntos de incubación de startups solo en China, mas centros en Michigan, Cambridge, Newcastle, Milán, El Cairo, Singapur, Bangkok, Edmonton, Tokio… y otras ciudades en todo el mundo, entre las que desde ahora se encuentra Barcelona. (¿¿¿Atención, Biscay Startup Bay???)
  • Han incubado más de 7.000 empresas, varias de ellas incluso cotizan ya en bolsa… y el retorno multiplica por 10 su inversión.

Claro que, en China… las cifras son siempre de otro planeta:

  • TusStar es solo el 5% de la actividad incubadora de China.
  • Han nacido más de 3.000 nuevos fondos de inversión en el país en tan solo un año.

Hubo más cosas que me llamaron la atención: interesantísimo el planteamiento de construcción de ciudad que el estudio de Vicente Guallart ha desarrollado para un nuevo centro urbano en Shenzhen… y que acaba de ganar en el correspondiente concurso internacional. Autosuficiencia, recuperación e integración urbana de los espacios y dominios naturales y diseño centrado en las personas… a la velocidad humana.

Momentos como éste me reconcilian con el recuerdo de que la arquitectura… pudo haber sido mi verdadera vocación. 😉

MIÉRCOLES: Salamanca – Bilbao

En Salamanca, asistí por primera vez al Startup Olé. Es, junto al South Summit, una de las dos mayores fiestas del emprendimiento que anualmente cierran cita en España, pero… no lo parece, o al menos es lo que opino de esta edición.

Y no me refiero a las startups presentes, no… sino al desastre de una organización increíblemente descosida e improvisada por demasiados lados… incluido el de su CEO. 😮 😡

A ver… montar un sarao como éste en Salamanca tiene un mérito increíble, pero déjenme fundar un poco la visión crítica que les acabo de servir:

  • Yo solo pude asistir el miércoles, la fecha central de los tres días del evento. La tarde anterior recibí un mensaje en la app asociada que venía encabezada por un «Breaking News – Definite change in the schedule for today visit of the President of Spain Pedro Sánchez from 17:00-18:00 PM. All the activities will be posponed until 18:00 PM«. A ver…
    • El Sr. Sánchez no es el presidente de España, o al menos no aún. 😉
    • Aunque lo más importante es… ¿¿¿El mismo día se confirma algo así???
    • Y si no pudo ser de otra manera… ¿debe aplazarse todo por ello, en vez de recibirle desde la organización y autoridades locales de acuerdo a los protocolos adecuados sin interrumpir lo que verdaderamente importa, que es el evento? 😮
  • Pues si ya eso me pareció improcedente… lo que viví al llegar yo al día siguiente me pareció ya directamente de mala educación:
    • A las 10:30 estaba programada la inauguración oficial.
    • El auditorio lleno, llega la hora. Pasan 5 minutos, 10, 15, 20… Nadie en escena.
    • Y entonces aparece Emilio Corchado, a la sazón el citado CEO del asunto… para decir que como el presidente del Gobierno había venido ayer, él inauguró el sarao, y que por tanto no se iba a hacer esa mañana. 😮 😮
  • La cara de pasmo que se me fue dibujando continuó con una primera serie de ponencias institucionales interminables, cansinas, que a nadie le habrán quedado en las meninges sin ningún género de dudas… y que para más inri se alargaron aún más de lo previsto, aumentando el retraso del programa a más de media hora. Y eso, nada más empezar. Más de una hora de absoluta pérdida de tiempo. Y sin disculpas.
  • A mi lado, un conocido ya había decidido marcharse para entonces… y es que lo de Emilio Corchado, además… No me cabe ninguna duda de su dedicación al Startup Olé ni al emprendimiento o a la Universidad, ni de su competencia en muchos aspectos profesionales, pero si me pudiera leer…
    • Conducir un acto público como éste no es lo tuyo, Emilio… Desde el respeto y hasta el cariño, de verdad: hazme caso.
    • La barrera entre lo gracioso y lo que no tiene ninguna gracia es a veces muy lábil, Emilio… y tirar de tópicos porque es lo que toca en el momento (y me da igual que sea la Guardia Civil o el feminismo) puede sonar impostado con más facilidad de la que uno piensa.
    • La diferencia… es lo que define a un profesional, que de esto también los hay… y muy buenos. Incluso me atrevo a regalarte una recomendación: hace poco tuve ocasión de compartir un acto empresarial con Federico de Juan… y es impresionante, realmente impresionante. Es un monstruo. Y hay muchas alternativas…
  • Reconozco que el espacio usado, en la Universidad de Salamanca, es tan atractivo y singular como difícil. Pero precisamente por eso, la señalética del evento en infografías, folletos y espacios físicos debería ser exquisita y simple. Y no lo es. Empezando por la indicación para acreditarse, inexistente como tal (lo que conduce al error a casi cualquiera que acuda por primera vez al sarao), o la relación entre espacios y tipo de acontecimientos, difícil de distinguir (y por tanto de comprender en un minuto).
  • En el espacio para la competición de pitches… también media hora más tarde de la que marcaba teóricamente el inicio de la misma, no había aparecido por allí ningún miembro del jurado. Fue un momento tan kafkiano, que un asistente profesional tomó la iniciativa de pedir voluntarios para formar un jurado emergente… y así se comenzó con esa parte del programa. 😮 😮 😮
  • Los 200 voluntarios anunciados pululaban por todas partes… pero no parecía fácil coordinar algunos acontecimientos, por las conversaciones que se observaban con frecuencia con núcleo en coordinadores… que también eran voluntarios.
  • Varias startups quejándose de que la organización no les había puesto nada fácil el contacto con potenciales socios, clientes o inversores… encima habido teniendo que pagar por prácticamente todo.
  • Y termino con los fallos en la app seleccionada para el evento de este año, Presdo Match, con problemas de visualización y de contacto con startups que reconoció el propio Emilio Corchado en público… pero transmitiendo las disculpas del fundador de la app Eric Ly (también co-fundador de LinkedIn)… en vez de las suyas propias y sin mencionar a nadie más, que es el significado de la elegancia. 😮 😐

Me llevé algunos asuntos interesantes del Startup Olé, las cosas como son… y es una gozada habitar ese espacio y esa ciudad, pero como en una startup que nace y crece con velocidad pero que luego necesita un CEO profesional que conduzca otra etapa, yo le recomendaría a Emilio Corchado (a quien no tengo el gusto de conocer personalmente) que, con la dimensión que esta historia ha alcanzado, le diera una vuelta a ello…

JUEVES: Bilbao – Barcelona – Palau-solità i Plegamans – Barcelona – Bilbao

Una vuelta radical a la semana.

Sobre este día no daré demasiados detalles, porque me siento obligado a la que creo necesaria discreción sobre conversaciones, modelos mentales y criterios de gestión intercambiados durante unas cuantas horas con Xavier Albaladejo.

No le conocía con anterioridad, solo habíamos recibido excelentes referencias de él y de su trabajo, ahora inmerso en el proyecto de Mango Online… pero me pareció una persona extraordinariamente interesante. Escucha intensa, actitud de servicio, determinación e ideas claras en lo básico y mucha humildad profesional pueden describir el regalo de su conversación, independientemente de sus conclusiones.

Llegamos allí tratando de entender si una pequeña luz encendida en nuestras cabezas, que alumbraba la idea de que una empresa ágil es mucho más que una empresa «Agile», tenía sentido en la forma en que empezaba a dibujarse. Algo de lo que ya he hablado en algún artículo no muy lejano en el tiempo

Xavier y su equipo han dado una vuelta de tuerca más allá de los modelos conceptuales de gestión para crear allí un sistema operativo de gestión y de organización del trabajo distribuido, autónomo, alineado con los retos pero basado en las personas… y ágil para orientarse a un crecimiento intenso, pero sano y poderoso.

Extra-ordinario, en el sentido literal.

Un hilo que les invito a seguir, si pueden.

Y no voy a decir más… 🙂

VIERNES: Bilbao – Mondragón – Eskoriatza – Lezama – Bilbao

Si la semana ya venía cargada de excitaciones, el viernes hizo de broche dorado, con varios asuntos más cercanos pero igualmente de interés.

Profesionalmente y entre otras cosas, algo más de un par de horas se saturaron de conversaciones de futuro que dibujan el arranque de una etapa nueva, que si no llega algún día a brillar no será porque renunciemos a ello sino por nuestras incapacidades y limitaciones personales, que siempre pesan, aunque se aligeren.

Y eso es como aire fresco para respirar, una brisa limpiadora, para mí muy necesaria tras una etapa que, digámoslo así, ha sido poco estimulante e ingrata en sus implicaciones hacia lo personal.

Por la noche hizo acto de presencia lezamalain, la vieja comunidad de aprendizaje que nació en 2004 en el marco del ABC sobre el que tanto he escrito en esta casa. Hacía algunos años que no nos reuníamos todos y 15 años de camino eran la excusa perfecta.

Hay experiencias que marcan de manera indeleble una etapa de tu vida. Hay compañeros de viaje con quienes compartir esas experiencias implica que formen parte de tu historia personal. Y luego hay días en que te encuentras con esa gente con quienes estableciste esos lazos… y de das cuenta de que, aunque los creíste diluidos con los años, renacen como si el tiempo no existiera, en un imperceptible instante infinitesimal. 🙂 🙂 🙂

Vibraciones: «agilismo» y esquemas limitados

El pasado 22 de mayo asistimos al tercer congreso BAC (Business Agility Corporation, club del que formamos parte) en el impresionante auditorio de la Ciudad Financiera que el Santander tiene en Madrid.

Nuestra aproximación al BAC es reciente, como lo es a los conceptos que anidan tras las palabras «DevOps», «Agile» o «Responsive», entre otras… y ya les aseguro que las distinciones conceptuales no son sencillas al margen de la práctica.

Como a estas alturas ya saben los lectores habituales de este blog, en mi empresa no nos dedicamos precisamente al mundo del software sino a la producción de componentes metálicos de automoción, así que podríamos decir que el concepto de «Agile» nos ha llegado tarde y mal.

«Agile» nació como un manifiesto promovido por un grupo de desarrolladores de software que proclamaron lo siguiente:

Manifiesto por el Desarrollo Ágil de Software

Estamos descubriendo formas mejores de desarrollar
software tanto por nuestra propia experiencia como
ayudando a terceros. A través de este trabajo hemos
aprendido a valorar:

Individuos e interacciones sobre procesos y herramientas
Software funcionando sobre documentación extensiva
Colaboración con el cliente sobre negociación contractual
Respuesta ante el cambio sobre seguir un plan

Esto es, aunque valoramos los elementos de la derecha,
valoramos más los de la izquierda.

Se dotaron de unos principios fundamentales que, si tienen la curiosidad de leer (se lo recomiendo vivamente), creo que les conducirán inevitablemente a interpretaciones que van mucho más allá del corsé del software y que les propondrán revisar mentalmente algunas de las seguridades que culturalmente tenemos asumidas desde hace tiempo.

Para poner en práctica el manifiesto y sus principios, las empresas de software comenzaron a desarrollar metodologías y formas de trabajo con notables dosis de contraculturalidad, por lo tanto, así como a integrar algunas prácticas desarrolladas en paralelo en el territorio de la gestión empresarial en general.

Entre las primeras, destacan con fuerza SCRUM, como modelo metodológico y de organización para la gestión de equipos de proyecto, o DevOps, una especie de marco general de trabajo que descansa sobre la integración de desarrolladores y sistemas (u operaciones, en terminología de software, que conceptualmente no va mucho más allá que los ya históricos equipos interdisciplinares de desarrollo de proyectos que integran la ingeniería de proyectos, la producción y la ingeniería de instalaciones), aunque en este caso con el añadido de herramientas de automatización de procesos que permiten a los desarrolladores centrarse en su core y hacerlo con seguridad y calidad del producto.

Entre las segundas, hay que mencionar inevitablemente todo concepto lean (lo que incluye desde el kanban hasta el lean startup y el concepto de MVP) y el design thinking como modelo de aproximación a la resolución de problemas y al desarrollo de retos, configurado en forma de propuesta iterativa de observación y de orientación permanente a clientes y usuarios (basada en ciclos continuos de experimentación, prototipado rápido y aprendizaje desde las mismas) y en una amplia colección de herramientas metodológicas que ayudan a recorrer el camino y a configurar la salida.

Ejem… ya empezamos con la ensalada de palabros que vamos echando al puchero de la gestión de la empresa sin aparente sentido, ¿no creen?

A ver…

Elevándonos a un plano no demasiado estricto, podemos decir que una empresa «agile» es equivalente a decir «una empresa ágil», entendiendo por tal una empresa capaz de adaptarse con gran rapidez, productividad y eficacia a los cambios que en su entorno se fueran produciendo, de forma previsible o imprevisible.

En ese sentido, «Agile» tiene mucho que ver con la idea de «Responsive» que ya citamos en el post anterior y que ya habíamos trabajado en Co-Society, pero el hecho de que el origen sea diferente (desde el lado operacional hasta el estratégico en el caso de agile… e inverso en responsive), hace muy visible que aún no se ha convergido suficientemente y que por tanto queda camino por recorrer.

El intento de «Agile» de llegar hasta la estrategia tiene su base precisamente en su origen. Nace ligado al desarrollo de producto… en empresas cuya tecnología operativa es precisamente el software y el hardware ligado a las TIC. Eso hace que el paso de lo operativo a lo estratégico se dé de forma muy natural, porque está en la naturaleza de su negocio.

Por eso también, las empresas más avanzadas en agile (aparentemente), son bancos, aseguradoras, empresas de telefonía… que en el fondo soy hoy «empresas TIC». Si observamos realidades agile avanzadas en otro tipo de empresas, es raro encontrarlas al margen de su área TIC.

Todas ellas, no obstante, visualizan con claridad que en un entorno extraordinariamente cambiante, marcado por la velocidad, la reducción de los lead-time y los ciclos de vida y, sobre todo, por la incertidumbre creciente que rodea toda actividad empresarial actual, la idea de «agilidad» responde a una absoluta necesidad, sea cual sea el sector en el que se opere.

Construido desde la experiencia y la reflexión de las «empresas TIC» que antes mencionaba (es una humilde hipótesis personal, no contrastada), BAC ha elaborado un muy interesante esquema visual que reproduzco a continuación:

Acierta en muchas cosas, en mi opinión, como en el cimiento lean, los pilares de personas y cultura (cuidado con la cultura), la permanente orientación a la idea de valor y, sobre todo, el esquema de Organización / Infraestructuras / Producción / Negocio como elementos necesariamente ágiles en una organización ágil.

Aclara también cuál es el lugar que primordialmente corresponde a piezas concretas del puzzle, incluida la importancia de mimar los elementos de trasformación de cultura o la de los cambios que suponen en el ámbito de compras o finanzas la «contratación agile«.

Pero, desde la analogía «agile» y «responsive» que antes les proponía… se queda corto. Una empresa «no-TIC» ve el desafío de agilidad desde lugares de prioridad que para las empresas TIC son más secundarios. Para las «no-TIC», la integración de proveedores en la cadena de valor y singularmente en la mejora e innovación de procesos, es un elemento de agilidad muy poderoso… incluso (permítanme la provocación) si se realiza desde planteamientos waterflow o clásicos de gestión de proyectos. Lo mismo podríamos decir de los procesos de innovación abierta, de inteligencia competitiva o de otros aspectos relevantes de la gestión empresarial.

En el III Congreso BAC, solo la ponencia de Siemens-Gamesa pertenecía a esa categoría de «no-TIC». Trataba sobre una iniciativa de «open innovation»… y parecía un marciano verde en un campo de amapolas (perdóname, Mónica 🙄 ). Casi que hubiera sido necesario explicar por qué había una ponencia así en ese congreso…

Y sin embargo… son asuntos que aportan una innegable agilidad a la organización.

Dentro de nuestro equipo, Yuri Noda ha construido recientemente aportaciones interesantes desde este punto de vista. No incluiré aquí los mapas mentales que ha elaborado (son intelectualmente suyos… 😉 ) pero sí me voy a tomar la licencia de citar algunos de los conceptos clave que incorpora, como (además de los tres anteriores), el trabajo con startups, el marketing o el aprendizaje desde la idea de agilidad, los modelos de gobernanza, la automatización sobre tecnologías «no-TIC», el trabajo en redes, las relaciones de transparencia y confianza

Nuestros esquemas mentales son siempre un limitante, ya lo ven… Incluso para quienes van por delante. 😉

Queda camino por recorrer… y eso siempre está bien. 🙂