Muchos cambios en un horizonte que ya casi pisamos…

Hoy hemos tenido la Keynote inicial del Microsoft Business Applications Summit. Y no ha defraudado en absoluto… De hecho, parte de las cosas que ayer comentaba se consolidan, pero ha nacido un nuevo concepto: Microsoft Power Platform

Ayer hablaba de Microsoft Business Platform, que de hecho engloba todo lo mostrado en la imagen anterior. El matiz es que la Power Platform es la parte pensada para los Power Users, los Citizen Developers… No me parece mal pero hay que ser precavido al lanzar este tipo de mensajes. Microsoft posiciona dentro de la nueva Power Platform a las dos herramientas de las que habitualmente hablo, PowerApps y Flow, pero añade Power BI. Ahora matizo por qué digo que no me parece mal…

Cierto, las tres herramientas tienen funcionalidad para ser explotadas por Power Users, pero, a modo de ejemplo, para trabajar con Power BI buscando algo más que lo que ofrece un conector estándar, es necesario trabajar en el modelo de datos, y es un trabajo de y para especialistas.

Lo mismo debe aplicarse para PowerApps y Flow, hay determinadas cuestiones que serán fáciles de tratar pero otras requerirán de un esfuerzo mucho mayor, a llevar a cabo por perfiles más especializados.

El impacto de la Power Platform es incuestionable:

Y desde Microsoft se está trabajando intensamente, unificando los escenarios de desarrollo de PowerApps y Dynamics 365, de forma que podremos combinar partes de interfaz Dynamics con Apps gráficas de forma transparente. Algo parecido a lo que ya hemos visto en otros escenarios, como Dynamics for Operations, de forma que el kernel de una solución puede ser complementado por un Power User sin que afecte a la funcionalidad contratada. Un mundo nuevo fascinante…

También se han anunciado las novedades de la edición de octubre, que ya están publicadas. Las podéis ver en el siguiente enlace:

https://docs.microsoft.com/en-us/business-applications-release-notes/october18/

Y me vais a disculpar, pero voy a finalizar aquí, en posteriores post iré documentando las sesiones a las que he podido asistir… Por cierto, hemos grabado un pequeño video Marco Amoedo, Sergio Macías y yo que será posteado desde la Comunidad 365, en el que contamos en 10 minutos nuestras impresiones de la jornada. En breve prepararemos una sesión en la que profundizaremos bastante en las novedades de la edición de octubre, por supuesto…

Y aunque encontrar alguna canción que encaje con horizonte no ha sido cosa fácil, ahí os dejo uno minutos musicales!!.

…esos recuerdos que vuelven a tomar vida…

Termina la jornada 0 del Microsoft Business Applications Summit de Seattle. Digo jornada 0 porque hoy había un conjunto de sesiones especiales, con un cargo adicional, pero cuando se hace el esfuerzo de acudir a este tipo de eventos merece la pena aprovechar al máximo el tiempo y obtener tanta información como sea posible.

Como he comentado en un par de tweets, me he inscrito en la sesión especial de Microsoft Flow. Dudaba entre esta sesión y la de PowerApps, pero creo que he acertado ya que he descubierto varias cosas que ignoraba y me van a venir muy bien para plantear un montón de proyectos que tenemos sobre la mesa. No pretendo decir que no ignoro cosas de PowerApps, pero lo cierto es que CDS 2.0 es como el recuerdo de lo que quisimos hace años y ahora tenemos, y eso me ha permitido avanzar sin trabas, mientras que en Flow sigo viendo muchas cosas nuevas, y las que vendrán!! Como muestra, una imagen de servicios disponibles:

Aventurarse a hacer un análisis de la jornada 0 no tiene demasiado sentido, la Keynote es mañana por la mañana (…a las 8.00, aquí no estamos para tonterías). Pero como cada uno de los asistentes, yo tengo ciertas expectativas, y algunas de ellas no creo que vayan muy desencaminadas, al menos por lo que he ido viendo a mi alrededor durante hoy.

Yo tengo muy claro qué hay que esperar de esta primera edición del Business Applications Summit. No me cabe la menor duda de que Microsoft apuesta por el nuevo concepto Business Application Platform, entendido como la suma de Dynamics & Office 365, consumiendo servicios de Azure y utilizando Common Data Service, tanto para Apps como para Analytics.

 

 

Y Microsoft es consciente de que la comunidad de desarrolladores y partners desconoce buena parte de su estrategia y de esta revolución, pensada para consolidar la existencia de Power Users y Citizen Developpers. En distintas conversaciones, primero en el desayuno, luego en las sesiones y también comiendo he palpado ese alarmante desconocimiento al que hago referencia. A modo de ejemplo, hablando en el desayuno con un compi americano que atendía a la sesión de PowerBi, me ha preguntado en qué lenguaje se programa PowerApps y cómo acceder al CDS… Hay un problema con esto, ya que no se está explicando bien. No he tenido tiempo de hablar con los compañeros que asistieron al Inspire de Las Vegas, nos cruzamos en el Atlántico 😉. Veremos qué mensaje se transmitió en relación a CDS 2.0.

No me canso de repetirlo, y toca hacerlo una vez más. CDS 2.0 es el modelo de datos de lo que hasta ahora se conocía como CRM, no es nuevo, es la consolidación del famoso XRM de antaño…

Y este nuevo paradigma aplicado es Microsoft Business Applications Platform. Es decir, todos los componentes juntos para crear soluciones. Se acabó hablar de NAV, AX, CRM… Todo bajo el paraguas 365, tanto Microsoft como Office y Dynamics. Cada funcionalidad aplicada para cada usuario. Usabilidad. Customer Experience.

Y quien no lo tenga claro, que busque en el baúl de los recuerdos a Microsoft Business Solutions CRM 1.2 y vea su evolución!!. Y mientras esperamos la Keynote de mañana, recuerda: CRM, contigo empezó todo!!

¿Si fueses el CEO de Acme contratarías a Thales?

Con mayor frecuencia de lo asumible leo tweets y post que hablan de KPIs, KPIs y más KPIs… No es que tenga nada en contra, pero me da a mi que muchos de los tweets o post parecen ignorar cuál es el estado del arte en la tecnología y hacia dónde debemos dirigir la mirada.

Key Performance Indicator. Indicador clave o medidor de desempeño. Métricas que se utilizan para sintetizar la información sobre la eficacia y productividad de las acciones que se llevan a cabo en un negocio con el fin de poder tomar decisiones y determinar aquellas que han sido más efectivas a la hora de cumplir con los objetivos marcados en un proceso o proyecto concreto.

Os voy a poner un claro ejemplo de hace unos cuantos años, pero tan real como que estoy escribiendo este post…

Una empresa de estampación del sector de automoción. Prensa super sofisticada, capaz de utilizar 15 matrices por golpe fabricando una determinada pieza por golpe. Muestreos para calidad cada 500 golpes con análisis de variables (métricas objetivas) y atributos (métricas subjetivas como el aspecto). Introducción de resultados en un sistema especial de control de calidad denominado EXCEL.

Golpes la prensa va dando y la empresa piezas va embalando…

Finaliza la producción. La prensa se ha pasado 48 horas dando un golpe cada 10 segundos, haciendo temblar el suelo 17.280 veces. 259.200 piezas embaladas. Bueno, para ser exactos habría que restar 14 porque en el último golpe sólo salió 1 pieza acabada, las otras 14 estaban en curso de fabricación… Todas las piezas embaladas en el almacén de expediciones.

Mientras tanto, no muy lejos de allí…

Un joven ingeniero, mediante una EXCEL dinámica obtiene los datos de la EXCEL de fábrica y accede desde un SPC (control estadístico de proceso) y obtiene los siguientes resultados:

A las 2 horas de iniciar la producción se observó una tendencia que mostró un problema en la 5ª matriz, que provocó que las piezas empezaran a acercarse a un límite de atención. A las 4 horas, la tendencia se consolidó y las piezas ya llegaron al límite. A partir de la hora 5, todas las piezas fabricadas fueron defectuosas.

Golpes la prensa fue dando y la empresa pasta fue palmando…

El ingeniero se preguntó cómo era posible que los operarios que tomaban las muestras no lanzasen una alarma, obviando que la baja cualificación de los mismos implicaba que se limitaban a obtener los datos y transcribirlos en la fila y columna correspondiente de una simple EXCEL…

¿Me se entiende? (en este caso, me se debe admitirse por lo duro del escenario). Si un SPC no se procesa en tiempo real cualquier conclusión que se quiera obtener será poco menos que inútil.

Sé que parece un chiste, pero reitero que es absolutamente real y sorprendentemente repetitivo. Y cosas peores he visto!!

Los avances en el arte del análisis de datos han propiciado una realidad mucho más próxima a las necesidades reales de las empresas. Capacidad para analizar en tiempo real multitud de datos, información gráfica que nos permite disponer de una visión mucho más global y simultáneamente nos ofrece mecanismos para bucear profundizando más y más en los porqué de las métricas. De hecho, he visto reuniones de Comités de Dirección en los que viendo los portátiles de los miembros parece más un concurso de video juegos que un análisis exhaustivo. Gráficos que se mueven, indicadores que parecen velocímetros y cuenta revoluciones y caras de concentración mientras que hábiles manos desplazan el joystick, perdón, el ratón!! Y lanzan clicks con gran precisión.

Pero si Thales fuese de mi generación, probablemente nos diría que la tecnología nos permite dar un paso más. Y que algunos de nuestros competidores ya lo han hecho!!

El análisis de KPIs es ver el pasado y tratar de definir qué hacer para avanzar hacia un futuro mejor. ¿Suficiente? Francamente, no. Thales nos diría que para optimizar los resultados debemos ser capaces de predecir cuáles serán los KPIs del futuro, y que de esta forma podremos aplicar acciones correctivas de forma preventiva. Es decir, ser reactivos ante una previsión que en realidad nos permitirá ser proactivos para corregir los problemas que aún no hemos tenido.

¿Ficción o realidad? La respuesta es modelos predictivos, análisis de datos en base a patrones, creación de algoritmos inspirados por expertos en cada negocio y… matemáticos y estadísticos en nuestra plantilla. No hay otro camino si queremos seguir siendo competitivos, porque nuestros competidores ya lo están haciendo.

Leí un artículo en el que se explicaba cómo Amazon, en base al análisis de patrones de comportamiento y en el conocimiento de todos los clientes que compran en su plataforma, es capaz de determinar qué día comprarás ese producto que has estado viendo en su web con una precisión asombrosa, en base a sus algoritmos. Eso es lo que alimenta una pipeline de verdad y nos da un forecast real. Nada de subjetividad y nada de magia: sólo estadística y matemática…

Toni, esto es muy aburrido. Mejor sigue con el CDS 2.0…

Pequeño saltamontes, la verdad está allá fuera!!. Tu estudia el Teorema de Thales, te lo dejo con música por si te atreves a coreografiarlo…