Comenzamos las sesiones del día de hoy con energías renovadas…. que se fueron quedando por el camino, así es que haré lo mejor que pueda a pesar del cansancio, manos a la obra !!
Para comenzar, una sesión de nivel 300 con unos expertos de máximo nivel … hasta el infinito y más allá, los maestros Javier Loria y Jesús Gil que presentaron La liga de las dimensiones extraordinarias. Javier comentó sobre enfoques generales sobre modelación de datos, dirigidos a eventos y procesos y no a departamentos, por tanto el proceso debe ser Proceso (DataMart), SubProceso (Cubo), Evento (Grupo de medida) y Medida. Comentó sobre la necesidad de pensar en la variante de tener un único cubo por datamart, un macro cubo o un cubo por funcionalidad, en fin, cubos vs perspectivas, con sus ventajas y desventajas… toca pensar. Y pasamos a las dimensiones !! Dimensiones normales y otras… no tanto J Comenzó con las dimensiones degeneradas, aquellas que surgen a partir de tablas de hechos, es decir para estas dimensiones no se crea una tabla origen en el proceso ETL, sobre todo son importantes mientras mayor granularidad haya en el dato y donde el atributo que describe el dato va con relación 1:1 ó 1:muy poquitos 🙂 Todo lo contrario cuando hay atributos con muy pocos valores, esto no debe dar pereza, ¡¡ a la dimensión ¡! Algo muy interesante ha sido el concepto de dimensión “chatarra” en la que vamos a agrupar varios elementos que no son jerarquizables (porque en principio no tienen nada que ver entre sí, ni con las dimensiones “normales”), estos casos se pueden agrupar en una y así nos ahorramos la creación de muchas dimensiones. Me ha gustado muchísimo esta idea, ojalá y lo hubiera sabido antes J gracias Javier ¡! Y como si fuera poco, llegamos a las dimensiones causales (de causa), unas dimensiones, no matemáticas ni exactas; pero que permiten, a través de determinar reglas de negocio, crear atributos de dimensiones que respondan a la pregunta ¿Por qué? En dos palabras: “im-presionante” 🙂 !! Javier tiene la cualidad de transmitir enorme cantidad de conocimientos y experiencias y … me hace pensar. Salí con plena satisfacción de esta sesión que estuvo asistida generosamente por Jesús Gil. Gracias a los dos, útil y magistral !!
Un cafecito para reponer fuerzas y pasamos a ver la sesión AZURE: Como poner nuestro BI en la nube de la mano de Miguel López, quien nos contó del entorno BI con el que estamos habituados a trabajar a través de un ejemplo muy didáctico y hablamos de escenarios, Windows Azure y Cloud Computing. Vimos aspectos relativos a los modelos de servicio y conceptos básicos sobre Azure: IaaS (Infraestructura como Servicio) que viene siendo algo así como que la nube pone las infraestructura por lo que nos tenemos que limitar a subir lo que tenemos dentro de la misma. Además, PaaS (Platform como Servicio) ya que podemos construir encima de lo que ya hay, y SaaS (Software como Servicio), es decir, el software está, lo utilizamos mientras estemos suscritos a estos servicios, y cdo no lo necesitemos, no tenemos gastos extras. Muy interesante, para mí que me encuentro algo alejada en temas de Azure … sólo de momento … es ¿qué nos ofrece y qué no en temas de BI? Bien, ¿motor de Base de datos? SI, tenemos SQL Azure, ¿ETL? SI y NO J, hay canalización a través de Data Sink; pero no hay transformaciones, ¿Multidimensional / cubos? NO, de momento hay algún proyecto; pero no hay nada. ¿Informes? Habrá visualización, ya hay una CTP liberada y se espera la siguiente para SQL Azure Reporting. Las demos estuvieron muy interesantes. Gracias Miguel, de momento es un tema… menos cercano; pero interesantísimo !!
Antes de almorzar, nuevamente Javier Loria, Jesús Gil acompañados magistralmente por Eladio Rincón, esta vez para contar sobre Como encaja Fast Track 3.0 en la arquitectura de nuestro datawarehouse dado mi bajísimo nivel en estos temas me fue dificil seguirla y peor sería contarla, (me equivoqué de sesión?) No qué va si estuvo muy interesante; pero muy lejana a mí. En cualquier caso, aquí dejo el resumen que aparece en el sitio de SolidQ: En esta sesión se le introducirá a los mecanismo de validación de la arquitectura de referencia Fast Track para datawarehouses; veremos los factores críticos de la arquitectura y qué metodos se deben seguir para garantizar la secuencialidad de la información en las tablas de hechos; tenemos confirmada una máquina de HP: DL380 con 96GB de RAM, 24 cores y 3 bandejas con 66 discos en total. Por mi parte, sólo comentaré que Javier Loría puso la problemática sobre la mesa, mientras Jesús y Eladio presentaron la solución y la experiencia adquirida en este tema. Estuvo muy bien presentada a 6 manos y que pude ver a Eladio en un Summit, cosa que me es prácticamente imposible, por permanecer yo todo el tiempo en el track BI y Eladio en relacional, así es que hoy tuve premio 🙂 Muchas gracias a los tres !!!
Y nos fuimos a comer, merecido descanso tras un arduo trabajo !!! Para colmo de bienes tuve la dicha de seguir compartiendo con los ponentes y otros asistentes en la comida donde hablamos de un montón de cosas, algunas técnicas y otras mucho más divertidas. 🙂
Venga, que seguimos con nuevas fuerzas para ver las dos sesiones de la tarde, la primera sesión trataba de DMV en SSAS o como entender el motor de SSAS y vino de la mano de Jesús Gil y Miguel Angel Granados. Precísamente Miguel nos contó que para trabajar en multidimensional con las DMVs (que son las vistas dinámicas que empleamos en el relacional para controlar tantísimos elementos del contenido y funcionamiento de bases de datos con todos sus objetos, así como servidores y sesiones) pues podemos aprovecharnos del lenguaje XMLA, que nos vale como protocolo de administración entre aplicaciones y SSAS y nos devuelve un XML con los metadatos en dependencia de la sentencia que estemos consultando en cada caso. El método discover será el que más nos ayudará en esta labor. ¿Qué podremos hacer? Pues monitorear recursos, realizar un mejor análisis de los mismos, ver la información que exponen estos recursos, identificar, quién y durante qué tiempo está ejecutándose una consulta, en fin todo lo que necesitamos saber para realizar Optimización de la carga y del uso de recursos. Un conjunto de demos presentadas por Miguel reflejaron las variantes en este tipo de soluciones. Mostró que esto se puede obtener también a través de consultas escritas en DMX sobre el panel de consultas MDX … no, no me he equivocado de letras, un galimatías; pero funciona muy bien !!! 🙂 Y devuelve en forma de tablas los resultados, buenísimo !!! Tomó la palabra Jesús y mostró que si queremos ir más allá, podemos crear informes sobre estas DMVs que entre otras cosas nos pueden servir para documentar muy bien nuestra BBDD multidimensional, los cubos, dimensiones, medidas y kpis. La técnica a aplicar aquí será vincular al servidor relacional un servidor SSAS de forma tal de poder realizar las consultas que aprovechen esta vinculación. Interesantísimo y más que eso, muy útil para describir todo el modelo además del control de accesos, rendimiento, etc. La sesión estuvo acompañada de ejemplos que ilustraron y demostraron cada una de las ideas. Esto lo voy a estar utilizando a la de … ya !!! Muchísimas gracias chicos !!
Y para finalizar, tras un último cafecito y mini descanso, seguimos de la mano de Javier Loría, esta vez para un tema más refrescante 🙂 VISUALIZACIÓN: Diseño de informes cojonudosy esta vez no se trató de entrar al BIDS ni al Report Builder y empezar a construir, más bien se trató de ver qué no debemos hacer. Javier, con esa maestría a la que nos tiene acostumbrados, mostró temas de análisis de contenido, diseño y arquitectura. Dice Javier que los informes tienen un gran problema y es la comunicación. Cuando la realidad es que la mayoría de los informes no se leen sino se «escanean» hay que garantizar que lo realmente importante esté a primera vista y preparado para ser examinado en detalle según sea el caso. Hay que cumplir una serie de principios escenciales, mostrar datos, que se vean los valores que hacen falta, y no demasiados que oculten lo necesario, inducir al espectador a la «sustancia». Deben permitirnos establecer comparaciones entre valores, un valor no es ni bueno ni malo por sí sólo, siempre … «depende«, pues del valor de la competencia, del año pasado, etc hay que ver el dato en un contexto y eso tiene que estar en el informe. Un punto y aparte merece el uso de colores y gráficos, y tiene Javier mucha razón, nos mostró un montón de casos en que los colores y/o los gráficos son utilizados de forma muy desafortunada, aplicando reglas desacertadas, escalas distorcionadas, en fin… puros desastres; pero desafortunadamente muy comunes. Interesantísima la charla !!! Muchas gracias Javier, espectacular 🙂
Nos vamos? No, qué va, gracias a una duda de Mary Arcia, tuvimos en privado un bonnus track con Salva Ramos viendo temas de conexiones a paquetes de SSIS y hablando sobre la arquitectura de la «tubería» por donde van los datos, y de cómo identificar transformaciones que crean búffers adicionales a su paso en una tarea de Flujo de datos. Gracias Salva !!!
¿Ven por qué estoy cansada? 🙂 Ha sido un día largo, con muchas cosas interesantes y novedosas para mí donde todo ha funcionado perfectamente y ha valido muchísimo la pena el esfuerzo. Mañana más, ahora … a descansar 🙂