Tercer día de sesiones, esto va, de bueno a mejor 🙂
Comenzamos con BI en Sharepoint, me encanta, tiene mucho que ver con algo en lo que estuve trabajando hace muy poco, la charla la impartió Pablo Ahumada y se tituló VISUALIZACIÓN: Utilizando PPS 2010 para analizar y presentar los datos Esta sesión es una de las que habitualmente no puedo ver por estar en el track de Colaboración, así es que lo primero que quiero es agradecer a la organización por este regalo. La sesión ha estado espectacularmente bien preparada y mejor aún defendida. Me ha encantado. Gracias Pablo, has estado sencillamente magistral ¡! Pablo comenzó comentando brevemente los componentes que nos permiten realizar estos informes y cuadros de mandos desde PPS y la relación existente entre los elementos. Y pasamos a la práctica, un conjunto de casos muy bien enlazados con un carácter puramente didáctico que nos fueron mostrando cómo construir cada elemento de cero, como integrarlos en uno o más dashboards y cómo consumirlos. Entre medias Pablo nos regaló consejos y experiencias que dan mayor valor aun a la enseñanza que nos estaba transmitiendo. Así pues mostró creación de KPIs,scorecards, Diseño de mapas de estrategia en combinación con MS Office Visio, (ver más) , informes con Excel Services que consume PowerPivot y MS Excel con consumo de cubos OLAP, con la particularidad de activar la escritura al cubo, muy bien !!, aunque está claro que no es para esto que está pensado el cubo, la posibilidad de realizar acciones What-If es muy válida para los análisis. Para finalizar, el Dashboard que combinó todos los elementos anteriores y distintas variantes para el trabajo con filtros. Como había dicho antes, hace poco estuve tocando estos temas y para mi trabajo próximo es una de las sesiones más valiosas del Summit, así es que 1000 gracias por presentarla en BI y a Pablo por su maestría ¡!
El cafecito de turno, no para relajar, porque me quedé muy a gusto, sino para compartir un poco de charla distendida… al inicio claro…, porque luego devino en BI ¡!! 🙂 es un no parar.
Y de regreso, seguimos hablando de Azure y BI de nuevo de la mano de Miguel López, que estuvo acompañado por Carlos se dedicó un poco más a visualización en concreto: AZURE: Consumiendo datos y visualizándolos desde la nube. La presentación estuvo muy interesante, como decía yo ayer, el tema me es un poquito lejano de momento; pero este tipo de sesiones las valoro mucho porque me introducen de la mano de expertos en estos temas a los que tenemos que empezar a prestar atención. Miguel expuso cómo funciona todo el proceso de creación – publicación y visualización de informes en la nube. Y lo demostró !! Desde BIDS creó un informe desde cero, eso sí, se tiene que conectar de momento con origen de datos SQL Azure, lo que sin dudas es una limitación; pero se espera que mejore. Luego, desde VS 2010, igualmente creó paso a paso un proyecto tipo Cloud, y en una aplicación ASP.NET con su control reportviewer, configurado todo desde cero y luego subido y explotado en la nube.
Carlos muestra una aplicación de Windows Form7 que está explotando datos de un DW en Azure. Y la aplicación está monitorizando, por ejemplo el consumo del CPU. Luego lo mostró desde un cliente SilverLight que ataca al servicio web que se conecta a ADO. Gracias Carlos ¡! Miguel nos dejó varios consejos y opciones para ir explorando estos temas. Nos comentó sobre OData, Open Data Control, (ver más) y Carlos lo demostró con una aplicación SilverLight.
A continuación, un reto personal, enfrentarme a una presentación de nivel 400 con temas de rendimiento de Bases de datos multidimensionales creadas con SSAS. La sesión se tituló RENDIMIENTO: Mejora del Rendimiento en SSAS (I) y estuvo presentada por Miguel Egea y Rubén Pertusa López, par de reconocidos ponentes dentro de SolidQ y expertos indiscutibles en la materia. Pues bien, empezaron con algunas bases, siempre con didácticos ejemplos aportados por Miguel, explicando las causas de que se nos «complicara la vida» con esto de los cubos 🙂 … empezamos como pa ir tomando carrerilla y entramos en materia más profunda tocando algo de arquitectura, donde a cuatro manos explicaron claramente la necesidad de optimizar tanto la resolución de consultas como el procesamiento (llenado) del cubo y para conseguirlo hay que: lograr una buena configuración HW y SW, lograr buenas técnicas en escritura de consultas MDX y realizar un modelado óptimo. Rubén explicó qué ocurre en el motor de consultas y motor de almacenamiento en cuanto a resolución de consultas se refiere, y esto ocurre siempre siempre siempre aunque no hayamos escrito una línea de código :), también mostró un conjunto de buenas prácticas en diseño y entramos en temas de particionamiento. Con un conjunto de demos muy didácticas, ilustrativas y con mucho acierto en la selección de los ejemplos, quedó claro, al menos a mí, el impacto que puede tener sobre el rendimiento el trabajar con particiones y la diversidad de acciones que se pueden acometer para «administrarlas». Me ha encantado la charla !!! Tuve el gusto de conocer a un tal info.xml y DataId que resulta que son dos «gentes» muy importantes es todo este trabajo y yo sin conocerlos :). La presentación fue impecable y el reto personal estuvo superado :). Miguel y Rubén estuvieron brillantes, un tema muy preparado y magistralmente defendido. Enhorabuena y muchas gracias !!!! Para colmo de bienes … habrá segunda parte !!!! Es que es una fiesta que afortunadamente dura más de una jornada 🙂 Una recomendación, no dejar de visitar sqlcat.com
Me fui a almorzar feliz como la lombriz con la autoestima bien posicionada :). La comida es el momento ideal para compartir y hablar de todo un poco, esta vez recordamos y comparamos otros Summits, y nos comparamos a nosotros mismos en estos años, y todos hemos evolucionado, especialmente aquellos «pinos nuevos» que hoy son unos profesionales de altísima calidad de los que SolidQ se puede sentir plenamente orgulloso.
Tocó regresar y esta vez Salva Ramos y Jorge Sánchez Diaz mostraron la sesión ETL: Nuestras experiencias con Excel en procesos ETL. SolidQ 1 – Excel 0. Este es el tipo de sesiones cuyo valor es incalculable, es la recopilación de muchas horas de investigación, de pelearse con los problemas y de encontrar soluciones, a veces increiblemente sencillas, muy creativas y reproducibles. La prepararon muy bien y la mostraron a duo resultando una sesión muy interesante y didáctica y llena de buenas prácticas y consejos. Salva hizo un recorrido por las problemáticas habituales que nos encontramos en el mundo del ETL vs Excel, ambos se necesitan; pero no se llevan del todo bien 🙂 y para tender el puente que los una y los comunique, está la paciencia y el saber hacer de estos expertos que nos fueron desvelando una a una las opciones. Lo primero, como siempre, conocer el dato, justo lo que yo vengo diciendo en estos días, hay que conocer bien el dato, no basta mirar un excel, hay que pedir al cliente varios documentos para ver cómo se va comportando el contenido. Y aparecieron las soluciones !!! de la mano de paquetes de SSIS y siguiendo 3 pautas fundamentales: intentar crear un documento Excel con la plantilla necesaria de columnas y basta con una línea con el tipo de datos, emplear a fondo las capacidades de las propiedades de columnas de salida en las propiedades avanzadas de los orígenes en tareas de Flujo de datos y si para lo que no se soluciones, transformaciones, especialmente Columnas derivadas y Conversión de datos. Lo dicho, excelente tema, excelente recopilación, excelente presentación, su valor es incalculable.
El último café, un poquito de charla con el amigo y mentor Dany Seara y Pablo Ahumada y nuevamente a clases, a disfrutar de la última sesión que trataba de un tema que me apasiona, la minería de datos !!! Y quién mejor que Francisco A González Díaz (Paco) y Javier Loria para contar la sesión INICIACIÓN:Experiencias con Minería de Datos. Pues bien, este duo de profesores nos contaron sus experiencias. Hay que ver la de cosas que se les ocurre, madre mía !!! Pues resulta que lo más interesante y útil no está siquiera en los atributos que tenemos como datos, sino que puede y seguramente está en las variables que podemos obtener a partir de desmenuzar estos elementos iniciales. Esto me da que pensar … normal, estaba Javier :). Paco mostró que si tenemos una fecha, tenemos además el día de la semana, el tipo de día (festivo o no), podríamos tener la hora lo que nos da franjas horarias, tenemos el mes, la estación del año, en fin … y seguramente no será igual si miramos uno u otro aspecto de la fecha… y así con cada dato … muy muy interesante. Y para rematar la faena en un caso de red de dependencias Javier obtuvo como resultado que indicador más influyente era el nombre … ¿el nombre???? Tuve que preguntar, porque se me rompieron los esquemas 😦 y está claro, se debía a que no se había incluido en el modelo atributos importantes; pero estaba el nombre y el modelo al procesarse le asignó a ese nombre la importancia, con esto tendré que hacer un ejemplo para mis alumnos, muy interesante para demostrar que el modelo está aun carente de los elementos más importantes y que hay que profundizar. Terminar el día con Paco y Javier es un regalo, muchísimas gracias a los dos por compartir sus experiencias en proyectos reales. Muy ilustrativo.
¿Nos vamos? Qué va, de nuevo tuvimos bonus track y mientras Mary Arcia se quedaba con Paco González viendo temas de SSIS, yo me quedaba con Rubén Pertusa viendo SSAS y DMVs, Gracias a los dos por la paciencia al atendernos luego de tan larga e interesante jornada. Mañana Mary y yo intercambiaremos el material de estas charlas «a domicilio», de camino las comentamos y la verdad es que quedamos ambas muy agradecidas.
Así terminó la tercera jornada, pasamos el Ecuador del evento, todo va transcurriendo con normalidad, la logística es impecable y la atención y amabilidad del personal de SolidQ es exquisita. ¡ Muchísimas gracias a todos ! Hasta mañana …