BIG DATA
y su impacto en el negocio Una aproximación al valor que el análisis extremo de datos aporta a las organizaciones
Leopoldo Boado Country Manager de Oracle España.
LA BÚSQUEDA DEL TESORO… DE DATOS En la literatura infantil anglosajona hay una bella imagen que excita la imaginación de los niños: al final del arcoíris hay un tesoro; un caldero lleno de monedas de oro custodiado por un duende. Hoy, lo que excita la imaginación de buena parte de los directivos y empresarios es un tesoro de un tipo muy particular. El tesoro se llama Big Data y consiste en la acumulación y tratamiento de cualquier tipo de información que se está produciendo en todo tipo de redes, dispositivos y sistemas informáticos. Cada día, según información de McKinsey, la humanidad crea 1,5 trillones de bytes de datos. La imparable expansión de Internet, no sólo como un canal de información, sino como un instrumento al servicio de la gestión empresarial, explica en gran medida este incremento de datos. Pero a ello se unen otros fenómenos, como la explosión de las redes sociales, el desarrollo de la telefonía móvil –en particular de redes 3G y smartphones con capacidades de conexión de datos impensables hace no tanto tiempo-, el crecimiento de la producción y divulgación de materiales multimedia –foto y vídeo- por parte de usuarios particulares, la eclosión de medidores inteligentes (smartmetering) y el despliegue de dispositivos que transmiten información por radiofrecuencia. ¿Cómo pueden las empresas hacerse con este tesoro? ¿Cómo pueden convertir los datos propios y los que circulan por las redes y sistemas de información en un valor añadido para su negocio y en una ventaja competitiva? No hay una respuesta única para estas preguntas. Cada organización, en función de su sector de actividad y de sus propias peculiaridades, deberá analizar qué uso puede hacer de este inmenso caudal de datos y cómo los puede aprovechar. Pero lo que sí hay es una clara respuesta tecnológica. Aprovechar el potencial de Big Data es una realidad perfectamente posible hoy en día, y a un coste razonable, gracias a los sistemas que empresas como la nuestra ponen a disposición de sus clientes. En el presente informe, promovido por Oracle, buscamos ofrecer una muy amplia visión de lo que Big Data puede representar para el entorno empresarial en todo el mundo y en España en particular. Con ello queremos ofrecer a nuestros clientes una aproximación caracterizada por la independencia de criterio y opinión de quienes han colaborado en su desarrollo. Los Big Data representan una ventaja competitiva para todos aquellos que los sepan aprovechar. No nos cabe duda de que, al contribuir a una mejor comprensión sobre este fenómeno, ayudaremos a los gestores empresariales de toda España a llegar al final del arcoíris.
Leopoldo Boado
RESUMEN EJECUTIVO
BIG DATA y su impacto en el negocio Una aproximación al valor que el análisis extremo de datos aporta a las organizaciones
El 90% de los datos del planeta se ha generado en los últimos dos años y durante 2011 se rozaron los dos zettabytes (1 zettabyte = 1024 exabytes) de información en todo el mundo según datos de McKinsey Global Institute. Provienen de redes sociales (más de 900 millones de usuarios de Facebook , 500 millones de seguidores de Twitter y cerca de 200 millones de blogs públicos); teléfonos móviles (5.000 millones en uso en todo el mundo); sistemas de telemedición; fotografías; vídeos; emails… El conjunto de toda esta explosión de información recibe el nombre de Big Data y, por extensión, así también se denomina al conjunto de herramientas, técnicas y sistemas destinados a extraer todo su valor. En el sector retail se espera que quien aplique técnicas de Big Data podrá incrementar sus márgenes en más de un 60%; los costes de fabricación y mantenimiento de muchas empresas se verían reducidos a la mitad; en sus distintas aplicaciones en el sector público europeo podría generarse negocio por valor de 250.000 millones de dólares y de 300.000 millones en el sector sanitario estadounidense y los nuevos negocios basados en servicios de localización podrían generar más de 100.000 millones de dólares. El valor de las prácticas de análisis extremo reside en el punto de encuentro entre el acercamiento a Big Data con los métodos y herramientas apropiados y su integración con los datos de la informática tradicional. Al combinar las herramientas de Big Data con la gestión de datos clásica las organizaciones obtienen una visión “enriquecida” de ellas mismas y sus posibilidades.
Para el éxito de las iniciativas de Big Data es fundamental una buena sincronía entre la capa de negocio y la infraestructura tecnológica subyacente. Las TI son sin duda la herramienta imprescindible para llevar a cabo cualquier proyecto de Big Data pero es el conocimiento de negocio el que determinará el éxito de la misma.
Aplicaciones Existen múltipes aplicaciones horizontales de Big Data: motores de recomendaciones; análisis de sentimientos; control del riesgo; detección del fraude; análisis de campañas de marketing, de abandono de clientes, de influencia social, y de experiencias de cliente; monitorización de la red y aplicación del análisis extremo a los procesos de investigación y desarrollo. Por sectores, Big Data influye en una gran variedad de aplicaciones: Banca y finanzas: Servicios de protección de marca; protección ante riesgos y fraude y servicios personalizados a clientes. Sector Público: Servicios de inteligencia, defensa y protección (control de comunicaciones, vigilancia, intercepción de redes de telefonía, acumulación de todo tipo de datos); protección de la flota pesquera; vigilancia, seguridad y señalización y proyectos de Smart Cities.
Cuestiones técnicas Un término íntimamente relacionado con Big Data desde el punto de vista técnico es Hadoop, un entorno de código abierto para almacenar y organizar cantidades masivas de datos distribuidos y no estructurados que, a su vez, estaba inspirado en MapReduce, una función desarrollada por Google a principios de 2000 para indexar la web. Hadoop se encuadra como un proyecto de la Apache Software Foundation, en el que cientos de participantes mejoran continuamente el núcleo de la tecnología. Además, una nueva generación de desarrolladores de este entorno y de “Científicos de datos” está empezando a despuntar. Asimismo, start-ups de última generación empiezan a perfeccionar bases de datos NoSQL que, combinadas con Hadoop, son capaces de descubrir patrones prácticamente en tiempo real. Sanidad: Monitorización remota de pacientes; localización de emergencias y almacenamiento de historias clínicas, radiografías, escáneres y todo tipo de pruebas de forma centralizada. Retail-Gran Consumo: Control de la cadena de fabricación; análisis del ticket de compra; marketing personalizado y RFID (Identificación por Radio Frecuencia) en centros comerciales. Turismo: Optimización de precios y generación de ofertas personalizadas. Telecomunicaciones: control de la red; venta de servicios de localización; servicios de publicidad asociados al patrón de llamadas o las aplicaciones descargadas; obtención de perfiles enriquecidos de consumidor enriquecidos y explotación de RFID para segmentar y personalizar ofertas análisis de abandono. Utilities: Interpretación de contadores inteligentes en todas las casas; control de la red comunicaciones, de tuberías, red del metro y proyectos de señalización de tramos de mantenimiento Web y Digital Media: Análisis de click and stream; personalización y forecasting y optimización
La propuesta de Oracle en Big Data descansa en tres pilares: sistemas preconstruidos con hardware, software y comunicaciones integrados que se puedan conectar directamente (Big Data Appliance); herramientas de productividad y de desarrollo alrededor de creaciones OpenSource como Hadoop o MapReduce y conectores que automatizan las transformaciones necesarias para procesar la información en origen, dotando de la estructura necesaria a la parte que se desea integrar con la informática tradicional.
Big Data en España Las empresas españolas muestran interés hacia la explotación de Big Data, pero es difícil sustraerse a los rigores del momento económico que limita los presupuestos de TI. Las principales cuestiones que se plantean las organizaciones españolas en relación a Big Data son: ¿es aplicable y factible en mi organización?, ¿cuánto me cuesta? Y ¿quién me ayuda a implantarlo?
BIG DATA: DESGRANANDO EL CONCEPTO Proliferación de información en crecimiento acelerado y sin visos de ralentizarse, explosión de indicadores, señales y registros, interacciones en redes sociales… No hay camino de vuelta: la cantidad de datos que se genera diariamente en el mundo no presenta síntomas de ir a reducirse, más bien todo lo contrario. El mundo está lleno de señales, de signos, datos, piezas de información que analizadas y puestas en relación podrían responder a cuestiones que nunca hubiéramos imaginado poder preguntar. Según la consultora McKinsey Global Institute, el 90% de los datos del planeta se ha generado en los últimos dos años y su proliferación va en aumento en una progresión difícil de calcular. Están en todas partes, provienen de redes sociales, sistemas de telemedición, fotografías, vídeos, emails, son de múltiple naturaleza y se almacenan en distintos lugares y formatos. El conjunto de toda esta explosión de información recibe el nombre de Big Data y, por extensión, así también se denomina al conjunto de herramientas, técnicas y sistemas destinados a extraer todo su valor. En 2010 existían 480 millones de smartphones y la cifra crece….¡al 20% anual! Un segundo de vídeo en alta definición ocupa 2.000 veces más que una página de texto. Las cámaras integradas en los teléfonos hacen fotos a de 15 megapíxeles que ocupan 10 Megas. Existen más de 30 millones de sensores en transportes, automoción, industria, fabricación… En todas nuestras interacciones los seres humanos dejamos rastros, señales que nos definen y que mediante las tecnologías de la información y, sobre todo a raíz de la proliferación de las redes sociales, pueden registrarse a modo de documento de identidad vital. “La vida de la tecnología ha alcanzado las fases de madurez en las que ser rápido y ser fuerte importa pero no es suficiente. Ha llegado el momento de combinar la ambición y la fuerza de la juventud (informática estructurada) con la experiencia comparada (informática no estructurada), de modo que la interrelación de ambos tipos de datos nos lleve a la sabiduría corporativa” Andrew Sutherland, Vicepresidente Senior de Tecnología de Oracle EMEA. La realidad muestra una acumulación que nunca termina de todo tipo de datos, la mayoría proveniente de nuevos canales para formar lo que se conoce por Big Data, y que carecen de una estructura común. Los volúmenes de datos son tan extremos y su crecimiento tan exponencial que resultan demasiado ingentes o demasiado crudos para ser recogidos, registrados, aceptados, gestionados y analizados por software y hardware tradicional a unos costes razonables. Pero la posibilidad de explotarlos abre mucho espacio para nuevas empresas y para las organizaciones tradicionales que sepan extraerle valor a su capital informativo.
Según McKinsey Global Institute, en el sector retail se espera que quien aplique técnicas de Big Data podrá incrementar sus márgenes en más de un 60%; los costes de fabricación y mantenimiento de muchas empresas se verían reducidos a la mitad; en sus distintas aplicaciones en el sector público europeo podría generarse negocio por valor de 250.000 millones de dólares y de 300.000 millones en el sector sanitario estadounidense y los nuevos negocios basados en servicios de localización podrían generar más de 100.000 millones de dólares. McKinsey añade que las oportunidades laborales asociadas al fenómeno también son más que relevantes: de aquí a 2018, la demanda prevista de proyectos de Big Data en Estados Unidos va a necesitar de un ecosistema de profesionales expertos de entre 440.000 y 490.000. El objetivo principal de Big Data es enriquecer y complementar los sistemas corporativos con capacidades predictivas La estimación de la oferta real de talento analítico, sin embargo, se calcula que no superará en 2018 los 300.000 profesionales, lo que significa que se abren oportunidades laborales para entre 140-190.000 expertos. Pero no todo son buenas noticias. La teoría tiene todo el sentido pero, según expresa Gartner en su informe de 2011 Extreme Data challenges and opportunities: “Hasta 2015 más del 85% de las empresas que componen la lista Fortune 500, van a fallar en la explotación de Big Data de forma eficiente para obtener ventajas competitivas”. Para Andrew Sutherland, Vicepresidente Senior de Tecnología de Oracle EMEA , “no se trata de montar un departamento de I+D de Big Data, se trata de sacarle un valor a esa información al combinarla lo antes posible con las fuentes tradicionales de datos. Hablamos de enriquecer la fuente, de dar herramientas de productividad alrededor de un entorno que de por sí es improductivo”.
Estructurado-no estructurado Hay datos que conforman el alma operativa de una organización y deben estar almacenados, organizados y clasificados en bases de datos transaccionales con métodos que garanticen su seguridad, cifrado y alta disponibilidad. A estos se les conoce como datos “estructurados” que se almacenan, gestionan y analizan según unos procedimientos de tablas, atributos e indexación. En la lógica de Big Data lo relevante tiene que ver con tratar la ingente y creciente cantidad de datos “no estructurados” procedentes de canales no tradicionales (blogs, redes sociales, emails, sensores, fotografías, vídeos, servicios de geolocalización, tecnologías de radiofrecuencia). Estos datos tendrían gran utilidad predictiva pero resultaría desproporcionadamente costoso darles el mismo tratamiento con las condiciones de seguridad, alta disponibilidad y cifrado que los datos que se denominan estructurados. Entre la punta de la pirámide que representan Facebook o Google y la base de la informática tradicional existe una casuística amplia y variada a la hora de añadir información de valor procedente de nuevas fuentes y canales, mezclándola con la información y los sistemas tradicionales La razón para utilizar tecnologías distintas a la relacional tiene, por tanto, mucho que ver con el carácter no estructurado de los datos y con la necesidad de utilizar algoritmos de búsqueda/filtrado distintos al lenguaje utilizado por las bases de datos relacionales, el SQL.
Conocimiento combinado El valor de las prácticas de “análisis extremo” reside en el punto de encuentro entre el acercamiento a Big Data con los métodos y herramientas apropiados y su integración con los datos de la informática tradicional. Al combinar las herramientas de Big Data con la gestión de datos clásica las organizaciones obtienen una visión más completa de ellas mismas y sus posibilidades. Facebook, Google y Amazon son ejemplos de compañías que utilizan el “análisis extremo” como patrón de tratamiento de las ingentes cantidades de datos que manejan. De hecho, las herramientas, lenguajes y entornos asociados al análisis de Big Data se desarrollaron bajo el paraguas de estas compañías que demandaban nuevos métodos para tratar y obtener valor de su capital informativo.
Entre la punta de la pirámide que representan Facebook o Google y la base de la informática tradicional existe una casuística amplia y variada a la hora de añadir información de valor procedente de nuevas fuentes y canales, mezclándola con la información y los sistemas tradicionales. Las grandes empresas tienen sus sistemas de gestión de la relación con clientes (CRM), conocen sus gustos y comportamientos, aplican pautas de inteligencia de marketing, personalizan ofertas… Pero aun así, existe información que podría enriquecer esas prácticas. De este modo, el objetivo principal de Big Data es enriquecer y complementar los sistemas corporativos con capacidades predictivas. Los volúmenes de datos son tan extremos y su crecimiento tan exponencial que resultan demasiado ingentes o demasiado crudos para ser registrados, aceptados, gestionados y analizados por software y hardware tradicional Big Data busca capturar, almacenar, organizar y analizar esos datos “no estructurados”, pero ahora con la necesidad de aplicación de economías de escala y con unos requerimientos técnicos muy concretos y específicos por debajo. Para Andrew Sutherland, nosotros mismos somos contenedores de información, estructuras de datos. Almacenamos exabytes de información genética y al aprender desarrollamos un marco, una estructura de conocimiento que nos servirá para organizar la información, las señales, los estímulos que percibimos y los que nosotros generamos. La experiencia vital, el ensayo y error ayudan a edificar esa estructura de conocimiento que se acaba conociendo como sabiduría. “En tecnología no es muy diferente. Nos encontramos en un punto en el que la vida de la tecnología ha alcanzado las fases de madurez en las que ser rápido y ser fuerte importa pero no es suficiente. Ha llegado el momento de combinar la ambición y la fuerza de la juventud (informática estructurada) con la experiencia comparada (informática no estructurada), de modo que la interrelación de ambos tipos de datos nos lleve a la sabiduría corporativa”, señala Sutherland.
A VUELTAS CON LA AVALANCHA DE DATOS Los datos son la materia prima de cualquier práctica de análisis de negocio. Hasta ahora eso implicaba datos estructurados creados y almacenados por las propias organizaciones: información de clientes recogida en CRMs, datos operacionales almacenados en sistemas ERP o datos financieros almacenados en bases de datos de contabilidad. Todo esto permanece pero ahora, además, el volumen y los nuevos tipos de datos disponibles en las empresas –y la necesidad de analizarlos prácticamente en tiempo real para obtener de ellos el máximo valor de negocio- crece rápidamente gracias a la popularización de las redes sociales como Facebook y Twitter, de los sensores y dispositivos de red generadores y captadores de señales, de las transacciones on line y de otras fuentes de datos no estructurados y semi estructurados. Big Data en estado puro.
Investigaciones de The Economist Intelligence Unit y de McKinsey Global Institute, revelan que durante 2011 se rozaron los dos zettabytes (1 zettabyte = 1024 exabytes) de datos creados en el mundo. En la próxima década el número de servidores que tendrá que gestionar el capital de datos mundial podría multiplicarse por diez. Cada día se envían en el mundo 294.000 millones de emails. Una compañía como Wal-Mart procesa más de un millón de transacciones cada hora y posee bases de datos con una capacidad estimada de 2,5 petabytes. Las cifras son tan inabarcables como las distancias del universo, pero ahí están, componiendo la materia prima más valiosa de las organizaciones. “Big Data puede llegar a ser el activo más decisivo de una organización o una de sus obligaciones más costosas, todo depende de las estrategias y soluciones que se pongan en marcha a corto plazo para afrontar el ingente crecimiento del volumen, la complejidad, la diversidad, y la velocidad de los datos. Como veremos, es una tendencia importante para las organizaciones y sus procesos de toma de decisiones, pero en absoluto afectará de la misma forma a todas las firmas y sectores”, explica Manuel Ángel Méndez, analista asociado de Penteo y autor del documento Big Data: ¿humo o reto corporativo? Según The Economist Intelligence Unit, el 53% de las firmas con una estrategia eficiente de gestión y análisis de datos obtuvieron mejores resultados de negocio frente a solo el 36% que asegura no tener esa estrategia establecida. “¿Por qué? Porque la mejora en la segmentación y calidad de la información revierte en el descubrimiento de necesidades, identificación de problemas, automatización de la toma de decisiones y el aumento de la transparencia”, añade Manuel Ángel Méndez en el documento de Penteo arriba mencionado. La gestión de datos tradicional y las herramientas de análisis de negocio se revelan como limitadas bajo el peso
añadido de Big Data y por ello están surgiendo nuevas aproximaciones que ayuden a las compañías a obtener un conocimiento aplicable al negocio. La transición no va a ser sencilla para muchas organizaciones, pero aquellas que acometan la tarea y abracen Big Data como los pilares de sus prácticas de análisis de negocio podrán obtener ventajas competitivas relevantes frente a rivales más “tímidos”. Big Data combinado con sofisticados métodos de análisis tiene el potencial de ofrecer a las empresas un conocimiento sin precedentes del comportamiento de los consumidores y de las volátiles condiciones del mercado. Esto les permitirá tomar decisiones basadas en las evidencias que plantean los datos y ser más eficaces que su competencia. Datos tradicionales
BIG DATA
Gigabytes/Terabytes
Petabytes/Exabytes
Centralizados
Distribuidos
Estructurados
Semiestructurados-desestructurados
Modelo de datos estable
Carencia de esquemas
Interrelaciones complejas
Ausencia de relación
Desde la tecnología de servidores de almacenamiento que soporta el procesamiento de Big Data hasta las herramientas de visualización del front-end, el surgimiento del fenómeno también implica grandes oportunidades para los fabricantes de hardware, desarrolladores de software y proveedores de servicios. En esta línea, Big Data se perfila, además, como la nueva fuente de ventajas competitivas para todos los sectores. Las organizaciones y los fabricantes de tecnología que enfoquen esta práctica como una moda pasajera se exponen a quedarse atrás y pronto se verán a sí mismos imitando a rivales con mayor capacidad de pensar un paso más allá.
Previsiones para el mercado de Big Data 2012-2017 (en miles de millones de dólares) $60.0
$53.4 $48.0
$50.0
Mercado de Big Data 2011. Ingresos por segmento. Total: 5.200 millones de dólares
Servicios: 44% Hardware: 31%
$40.0
Software:25%
$32.1 $30.0 $20.0
$16.8 $10.0
$5.1
$10.2
$0.0 2012
2013
2014
2015
2016
2017
Fuente: Wikibon , 2012
Con V de volumen, variedad y velocidad La explosión de la Web como vehículo comercial y de relación, la rapidísima difusión de la telefonía y los dispositivos móviles y de otras tecnologías paralelas ha provocado un cambio fundamental en la naturaleza de los datos. Ahora más que nunca, los datos están dispersos, distribuidos, ligeramente estructurados, su volumen se dispara cada vez más y hay que saber encontrarles el valor. Tras identificar y filtrar los elementos valiosos de Big Data éstos se relacionan con información estructurada, “enriqueciéndola”. Los datos estructurados seguirán residiendo en estructuras de almacenamiento de alta densidad (bases de datos relacionales) y continuarán siendo la base de las operaciones de la empresa. Así lo hacen los grandes jugadores de Social Media: extraer el valor de Big Data y almacenarlo en estructuras relacionales para ponerlo en valor e integrarlo en los procesos de negocio Cuatro “uves” definen a Big Data: Volumen: La cantidad de datos creada tanto dentro de las organizaciones como detrás del firewall corporativo a través de la web, dispositivos móviles, sensores, infraestructura de TI y otras se incrementa exponencialmente cada año. Variedad: La variedad de tipos de datos también se diversifica, ya se trate de datos no estructurados basados en texto, semiestructurados como los provenientes de social media o los de información basada en la localización. Velocidad: La velocidad a la que se crean nuevos datos y la necesidad de analíticas en tiempo real para extraer valor de ellos, se incrementa gracias a la inmediatez de las transacciones, a la informática móvil y al creciente número de usuarios de Internet y de dispositivos móviles. Valor: El valor económico de los datos varía significativamente. Siempre hay información valiosa oculta entre enormes cantidades de datos no tradicionales y el reto reside en identificar aquellos datos que tienen valor,
Fuente: Wikibon , 2011
transformarlos y extraerlos para su análisis. Para obtener el máximo valor de Big Data, las organizaciones deben hacer evolucionar sus infraestructuras de TI de cara a soportar el ratio de entrega de volúmenes extremos de datos de distintos tipos, integrarlos con los datos corporativos y proceder a su análisis.
Fuentes de Big Data: ¿de dónde proceden los datos? Big Data se nutre de una serie de fuentes que incluyen, de forma general: Redes y medios sociales: Según Mc Kinsey Global Institute, existen actualmente más de 900 millones de usuarios de Facebook , 500 millones de seguidores de Twitter y casi 200 millones de blogs públicos. Cada actualización de un perfil de Facebook, cada tweet, cada post y cada comentario de cada blog crea, a su vez, múltiples nuevos datos. Dispositivos móviles: IDC apunta a que existen alrededor de 5.000 millones de teléfonos móviles en uso en todo el mundo. Cada llamada, cada texto de cada mensaje queda registrado a modo de datos. Los dispositivos móviles, especialmente los smart-phones y las tablets, también facilitan el uso de las redes sociales, al tiempo que utilizan otras aplicaciones generadoras, a su vez, de más datos. Además, los dispositivos móviles recogen y transmiten datos de localización. Transacciones vía Internet: Miles de millones de compras online, operaciones bursátiles y otro tipo de transacciones se suceden cada día. Cada una de ellas genera una serie de datos que son recogidos por tiendas, bancos y agencias crediticias, entre otros. Sensores y dispositivos de red: los dispositivos electrónicos de todo tipo (incluyendo servidores y otras clases de sistemas de hardware, contadores inteligentes y sensores de temperatura) crean datos de registro semiestructurados que dejan constancia de cada acción.
¿PARA QUÉ BIG DATA? APLICACIONES REALES DE UN CONCEPTO La razón de que Big Data sea tan atractivo y poderoso es porque permite a las organizaciones encontrar respuestas a cuestiones que ni siquiera se habían planteado preguntarse. Esto puede generar descubrimientos que lleven a nuevas ideas para incorporarlas a los productos o servicios o que ayuden a identificar la manera de mejorar las cuestiones operativas.
En este momento, existen varias prácticas de utilización de Big Data tanto en gigantes de la web como Google, Facebook o LinkedIn como en compañías más tradicionales. Estos son, según Wikibon y Mc Kinsey Global Institute, algunos ejemplos de las aplicaciones que pueden dársele a Big Data. Aunque según ambas compañías de análisis, la mayoría está aún por descubrir. Motores de recomendaciones: los gigantes de la Web y los vendedores online utilizan Hadoop para recomendarse entre ellos o para aconsejar a los clientes sobre otros productos y servicios que podrían interesarles a partir del análisis del perfil de usuario y de su comportamiento online. LinkedIn utiliza este enfoque para reforzar su apartado “Gente que podrías conocer” y Amazon hace lo propio para sugerir productos relacionados con una compra concreta a los consumidores online. Análisis de sentimientos: utilizadas en conjunción con Hadoop, las herramientas de análisis de texto avanzadas analizan el texto no estructurado de las redes sociales (tweets y posts de Facebook), para determinar los sentimientos de los usuarios en relación a marcas, empresas o productos concretos. Modelización del riesgo: las compañías del sector financiero utilizan Hadoop y los data warehouses de próxima generación para analizar grandes volúmenes de datos transaccionales y determinar el riesgo al que están expuestos sus recursos, además de para prepararse ante futuros escenarios basados en situaciones de mercado simuladas. Detección del fraude: utiliza técnicas Big Data para combinar el comportamiento de los clientes y los datos históricos y los transaccionales para detectar actividades fraudulentas. Las compañías de tarjetas de crédito, por ejemplo, utilizan tecnologías de Big Data para identificar comportamientos transaccionales que indican que podría estar utilizándose una tarjeta robada. Análisis de campañas de marketing: los departamentos de marketing de todos los sectores utilizan desde hace largo tiempo la tecnología para monitorizar y determinar la efectividad de las campañas de marketing. Big Data permite a los equipos de marketing incorporar mayores volúmenes de datos de granularidad incremental, como datos sobre el flujo de clicks de un usuario o los detalles de registro de una llamada para aumentar la precisión del análisis.
Análisis de abandono de clientes: las compañías utilizan Hadoop y tecnologías Big Data para analizar los datos relacionados con el comportamiento de los clientes para identificar patrones que indiquen qué cuáles de ellos son más susceptibles de abandonar la compañía en favor de un producto o servicio de la competencia. De ese modo, pueden tomarse medidas para evitar el abandono de clientes valiosos. Análisis de influencia social: los datos provenientes de redes sociales se analizan para determinar qué usuarios tienen mayor influencia sobre otros dentro de los social media. Esto ayuda a las compañías a determinar quienes son sus “clientes más importantes”, que no son siempre los que más productos consumen o más dinero gastan, sino los que poseen una mayor capacidad de influencia sobre el comportamiento de compra del resto. Análisis de experiencias de cliente: las organizaciones que trabajan de cara al público utilizan las prácticas de Big Data para integrar la información previamente recogida proveniente de canales de interacción con los clientes como call centers, chats online, Twitter, etc. Para obtener una visión completa de la experiencia de cliente. De ese modo, las empresas pueden comprender el impacto que tiene un canal de interacción con los clientes sobre otro de cara a optimizar el ciclo de vida completo de la experiencia de cliente Monitorización de la red: Hadoop y otras tecnologías relacionadas con Big Data también se utilizan para atrapar, analizar y desplegar datos recogidos de servidores, dispositivos de almacenamiento y otros tipos de hardware para permitir a los administradores monitorizar la actividad de red y diagnosticar cuellos de botella y otros problemas. Este tipo de análisis puede aplicarse también a otro tipo de redes, incluyendo las de transporte para, por ejemplo, mejorar la eficiencia del combustible. Investigación y desarrollo: organizaciones como las farmaceúticas utilizan Hadoop para “peinar” enormes volúmenes de investigaciones basadas en textos y otros datos históricos que puedan contribuir al desarrollo de nuevos productos.
APLICACIONES DE BIG DATA POR Y PARA LOS DISTINTOS SECTORES
Banca y finanzas
Sanidad
• • • • • •
• • • • • •
Servicios de protección de marca Protección ante riesgos y fraude Servicios personalizados a clientes Búsqueda de patrones de uso de productos financieros Marketing personalizado Creación de servicios basados en la localización
Sector Público • • • • • • • • •
Servicios de inteligencia, defensa y protección: control de comunicaciones, vigilancia, intercepción de redes de telefonía, acumulación de todo tipo de datos Protección de la flota pesquera Vigilancia, seguridad y señalización Localizaciones por GPS Detección del fraude Control de presupuestos públicos Protección de la infraestructura pública Protección contra el maltrato Proyectos de Smart Cities
Monitorización remota de pacientes Localización de emergencias Almacenamiento de historias clínicas, radiografías, escáneres y todo tipo de pruebas de forma centralizada Elaboración de estadísticas alrededor de incidencias de determinadas enfermedades por zonas concretas Acercamiento de la asistencia a domicilio Investigación clínica: estudios de medicamentos, ensayos clínicos, genoma humano
Retail-Gran Consumo • • • • •
Las prácticas de explotación de Big data son el núcleo de su negocio desde hace muchos años por encima de las aplicaciones transaccionales Control de la cadena de fabricación Análisis del ticket de compra Marketing personalizado Identificación por radiofrecuencia (RFID) en centros comerciales
Turismo
Utilities
• Optimización de precios • Generación de ofertas personalizadas • Análisis de sentimientos
• Smart Metering: interpretación de contadores inteligentes en todas las casas • Control de la red comunicaciones, de tuberías, red del metro • Proyectos de señalización de tramos de mantenimiento
Telecomunicaciones • Control de la red • Venta de servicios de localización • Servicios de publicidad asociados al patrón de llamadas o las aplicaciones descargadas • Obtención de perfiles de consumidor enriquecidos • Explotación de RFID para segmentar y personalizar ofertas • Análisis de abandono, riesgo y fraude en clientes • Satisfacción y lealtad de clientes • Análisis de CDR (Call Data Record) o registro de llamada
Web y Digital Media • Análisis de click and stream • Personalización • Forecasting y optimización
SMART CITIES, un capítulo aparte La población mundial es mayoritariamente urbana. Así lo asegura el estudio de Naciones Unidas “World Urbanization Prospects” que, entre otras conclusiones, muestra cómo ha evolucionado la tendencia del ser humano a agruparse en ciudades. Si en 1950, la población urbana del planeta era del 51% del total, actualmente el índice es del 71% y creciendo: hasta un 84% hacia la mitad del siglo XXI. La concentración en núcleos urbanos y el desarrollo de los mismos trae consigo la definición de un nuevo modelo de ciudad que permita desarrollarse sosteniblemente optimizando todos sus recursos y conformando un entorno humano para sus ciudadanos. Nace así el concepto de Smart Cities, en el que múltiples organizaciones públicas y privadas pertenecientes a diversos sectores trabajan para definir ese modelo de ciudad inteligente que es necesario perfilar. La tendencia es mundial pero justamente en España ha alcanzado una notoriedad especial y así quedó recogido en el informe elaborado por IDC sobre Smart Cities españolas en 2011.
Al margen de fijar una clasificación de ciudades según su grado de “inteligencia”, el informe de la consultora ha revelado que los núcleos urbanos españoles han de avanzar en sus modelos de desarrollo y gestión para crear los pilares de un futuro más sostenible que contemple al ser humano como centro. El soporte de las tecnologías El soporte de las tecnologías de la información, especialmente del análisis extremo de datos, señales y transacciones es el elemento crucial del que obtener la información de referencia para permitir que se desarrollen las ciudades inteligentes. Big Data aplicado a la habitabilidad, la sostenibilidad y la convivencia ciudadana. de la información, especialmente del análisis extremo de datos, señales y transacciones es el elemento crucial del que obtener la información de referencia para permitir que se desarrollen las ciudades inteligentes. Big Data aplicado a la habitabilidad, la sostenibilidad y la convivencia ciudadana.
MATRIZ DEL ÍNDICE DE CIUDADES INTELIGENTES DE ESPAÑA Alto Málaga Santander
Barcelona
Elche
Madrid
Dimensiones de inteligencia
Hospitalet de Llobregat
Santa Cruz de Tenerife
Cartagena
Móstoles
Sevilla
Almería
Murcia
Vitoria-aGasteiz
Córdoba
Alicante
Pamplona /Iruña
Gijón Alcalá de Henares
Fuenlabrada
Zaragoza
Burgos
San Cristobal de la Laguna
Castellón de la Plana
Logroño
Oviedo
Bilbao
Coruña (A)
Palma de Mallorca
Valencia Getafe Granada
DonostiaSan Sebastían
Albacete Valladolid
Leganes Jerez de la Frontera
Salamanca
Badalona
Alcorcon
Badajoz
Vigo Las Palmas de Gran Canaria
Sabadell
Bajo
Fuerzas capacitadoras
Débil
Cinco primeros
10 aspirantes
Jugadores activos
Para IDC, las ciudades inteligentes hacen un uso intensivo de las TIC para transformar su manera de operar en apartados como medio ambiente, energía, servicios públicos, tráfico o construcción. Málaga, Barcelona, Santander, Madrid y San Sebastián abren el ranking de “inteligencia urbana” gracias a estas iniciativas: 1) Málaga: despliegue de una iniciativa de ciudad ecológica y eficiente a partir de la integración en la red eléctrica de fuentes de energía renovables. 2) Barcelona: adopción de soluciones de movilidad en el transporte urbano mediante el proyecto LIVE (Logística per a la Implementació del Vehicle Elèctric). 3) Santander: desarrollo del proyecto SmartSantander, basado en el despliegue de 20.000 sensores dirigidos al control medioambiental en aspectos como el tráfico, la gestión de los residuos y la eficiencia en el transporte público. 4) Madrid: creación del Centro Integrado de Servicios de Emergencia (CISEM), capaz de coordinar todos los servicios de urgencia. 5) Donostia-San Sebastián: despliegue del proyecto Estrategia 2020, que contempla aspectos como “personas y valores”, “ciudad conectada” y “vivir y disfrutar”.
Fuerte
Seguidores
Aunque suene a iniciativa en beneficio del ciudadano y eso le confiere un carácter básicamente público, hay varios organismos privados involucrados en el desarrollo de proyectos de Smart Cities. Tal es el caso de BBVA, muy implicado en el concepto desde su centro de Innovación que, a su vez, colabora con el Senseable City Lab del MIT (Massachusetts Institute of Technology). Los objetivos van en la línea de buscar nuevos enfoques de uso de todos los datos de carácter no personal que proceden de las transacciones de pago y de las retiradas de efectivo. También intenta comprender cómo las personas se relacionan con las ciudades analizando sus interacciones con los distintos tipos de comercios. “En BBVA buscamos, igualmente, evaluar las posibilidades de predicción que estos análisis tienen sobre comportamientos futuros. Combinando los datos de transacciones con otras fuentes de información se podrán añadir nuevas perspectivas y desplegar nuevos servicios que repercutan en la calidad de los espacios urbanos”, comenta Elena Alfaro, gerente en el área de Business Discovery y experta en Smart Cities de BBVA.
Unos cuantos tecnicismos que hay que conocer
Otra forma de hacer las cosas: los nuevos modos de procesamiento y análisis que trae Big Data Existen varias aproximaciones para afrontar el procesamiento y análisis de Big Data, pero la mayoría comparten algunas características comunes. Básicamente, se benefician de hardware estándar que permite implantar técnicas de procesamiento paralelo y escalabilidad; emplean capacidades de almacenamiento no relacional de cara a procesar datos no estructurados y semi estructurados y aplican tecnologías avanzadas de análisis y visualización de datos a Big Data para extraer elementos de comprensión a los usuarios finales.
Wikibon, una comunidad profesional de intercambio de conocimiento que aborda cuestiones tecnológicas aplicadas a la resolución de retos de negocio, ha identificado dos aproximaciones a Big Data que transformarán los mercados de la gestión de datos y las analíticas de negocio: Hadoop y los data warehouses de nueva generación. Hadoop puede definirse como un entorno de código abierto para procesar, almacenar y analizar cantidades masivas de datos distribuidos y no estructurados. Doug Cutting de Yahoo! fue quién creó el entorno que, a su vez, estaba inspirado en MapReduce, una función desarrollada por Google a principios de 2000 para indexar la web. Hadoop se diseñó para soportar petabytes y exabytes de datos distribuidos en múltiples nodos en paralelo. Los clusters de Hadoop operan en hardware estándar que no requiere grandes inversiones de modo que los proyectos pueden escalar sin afectar presupuestariamente a las organizaciones. “En estos tiempos de rigor presupuestario, la opción de entrada en Big Data que se plantean algunas empresas españolas con las que hemos hablado del concepto es empezar a investigar y a adentrarse en Hadoop para identificar la utilidad que podría tener en un futuro”, comenta Óscar Alonso, analista de Penteo.
En ocasiones veo elefantes amarillos Actualmente Hadoop se encuadra como un proyecto de la Apache Software Foundation, en el que cientos de participantes mejoran continuamente el núcleo de la tecnología. ¿Qué tiene de especial este entorno conocido a través de su icónico elefante amarillo? Hay un concepto fundamental en relación a él: en lugar de procesar un enorme bloque de información cada vez, Hadoop segmenta Big Data en múltiples partes, de modo que pueden procesarse y ser analizadas al mismo tiempo.
Un cliente accede a datos no estructurados y semiestructurados desde distintas fuentes. Secciona los datos en “partes”, que se cargan a continuación en un sistema de ficheros de múltiples nodos. El fichero almacenado por defecto en Hadoop se denomina Hadoop Distributed File System o HDFS. Los sistemas de archivo como HDFS resultan adecuados para almacenar grandes volúmenes de información de cualquier naturaleza que no requieren datos ni instrucciones para organizarse en columnas o tablas relacionales.
Cada “parte” se replica múltiples veces y se carga en el sistema de ficheros de modo que si un nodo falla, otro dispone de una copia de los datos que se encontraban en el nodo que falló. Lo que se conoce como Name Node actúa como facilitador, comunicando de vuelta al cliente información como, por ejemplo: qué nodos están disponibles en el cluster, en qué lugar del cluster reside un determinado dato y qué nodos han fallado. Una vez que el dato se ha cargado en el cluster ya está listo para ser analizado por el entorno MapReduce. El cliente pone en marcha, entonces , la tarea de “Map” (normalmente una query escrita en Java) en uno de los nodos en el cluster conocido como Job Tracker. Éste se relaciona con el Name Node para determinar a qué datos necesita acceder para completar la tarea y en qué lugar del cluster se encuentran. Una vez determinados, el Job Tracker transfiere la query a los nodos relevantes. En lugar de devolver todos los
datos a una localización central para su procesamiento, dicho procesamiento sucede en cada nodo simultáneamente o en paralelo. Esta es una característica esencial de Hadoop. Cuando el nodo termina de procesar una determinada tarea, almacena los resultados. El cliente inicia entonces un trabajo de “Reduce” a través del Job Tracker en el que los resultados de la fase de “Map” almacenados localmente en nodos individuales se agregan para determinar la “respuesta” a la consulta original, para después cargarse en otro nodo del cluster. El cliente accede a esos resultados que pueden cargarse después en uno o varios entornos de análisis. De este modo se completa la tarea MapReduce. Hadoop se diseñó para soportar petabytes y exabytes de datos distribuidos en múltiples nodos en paralelo. Los clusters de Hadoop operan en hardware estándar que no requiere grandes inversiones.
Una vez que la fase MapReduce se complete, los datos procesados están listos para un análisis más detallado por parte de los “Científicos de datos” que poseen habilidades avanzadas de análisis de datos. Los “Científicos de datos” pueden manipular y analizar los datos utilizando una o varias herramientas para múltiples propósitos como la búsqueda de conocimiento o de patrones ocultos para utilizarlos como pilares en la construcción de aplicaciones analíticas concretas. Los datos pueden también modelarse y transferirse desde clusters de Hadoop a las bases de datos relacionales existentes, a los data warehouses o a cualquier otro sistema de TI tradicional para un análisis más detallado o para soportar los procesos transaccionales.
Unos cuantos tecnicismos que hay que conocer
Otra forma de hacer las cosas: los nuevos modos de procesamiento y análisis que trae Big Data
Algunas de las mentes más brillantes del sector de TI están contribuyendo con su experiencia al proyecto Apache Hadoop y una nueva generación de desarrolladores de este entorno y de “Científicos de datos” está empezando a despuntar. Como resultado, la tecnología avanza rápidamente y se transforma en un elemento más poderoso y sencillo de implementar y mantener. Algunas de las mentes más brillantes del sector de TI están contribuyendo con su experiencia al proyecto Apache Hadoop y una nueva generación de desarrolladores de este entorno y de “Científicos de datos” está empezando a despuntar. Como resultado, la tecnología avanza rápidamente y se transforma en un elemento más poderoso y sencillo de implementar y mantener.
Múltiples sabores Igualmente, un gran número de fabricantes ha desarrollado sus propias distribuciones de Hadoop, la mayoría basadas en la de código abierto de Apache pero con distintos niveles de personalización propietaria. El claro líder de mercado en términos de distribución es Cloudera, una start-up de Silicon Valley con un equipo de primera línea de expertos en Big Data que incluye al propio creador de Hadoop, Doug Cutting, y a Jeff Hammerbacher, anterior mago del análisis de datos de Facebook. En paralelo, otras start-ups de última generación empiezan a perfeccionar bases de datos NoSQL que, combinadas con Hadoop, son capaces de descubrir patrones prácticamente en tiempo real.
Principales bloques tecnológicos para establecer una estrategia Big Data según Penteo Bases de datos e infraestructura. Dotarse de bases de datos e infraestructura potente es fundamental en un entorno de Big Data. Más allá de los tradicionales sistemas de gestión de bases de datos relacionales (RDBMS, en sus siglas en inglés), se requieren bases de datos con capacidades de procesamiento y almacenamiento extremas, sistemas OLAP multidimensionales y bases de datos basadas en memoria volátil (in-memory). La virtualización de servidores, almacenamiento y desktop suele ser también necesaria para acelerar la gestión de datos y hacerla escalable, y otros componentes como aceleradores de aplicaciones y redes o bases de datos distribuidas, son también clave.
Middleware y aplicaciones. La actualización del middleware y aplicaciones en un entorno de Big Data es menos exigente que en el apartado de infraestructura. Muchos de los proveedores tradicionales de herramientas de ETL o de middleware de integración de datos, están adaptando ya sus soluciones. A nivel de aplicaciones, sin embargo, el software de visualización no está tan maduro aunque se trata de módulo fundamental para sacarle partido al análisis de millones de datos. Opciones de software libre. Durante el último año se ha hablado mucho de la capacidad de herramientas de software libre como Apache Hadoop para gestionar grandes volúmenes de datos. Cada vez más compañías utilizan esta y otras opciones de software libre para experimentar cómo almacenar, gestionar y analizar grandes cantidades de datos. Una de las claves para entender las implicaciones del Big Data es que no importa tanto el volumen de los datos o la rapidez con la que se generan como el valor en sí de la información y la complejidad de extraer valor de la misma. Fuente: Big Data: ¿humo o reto corporativo?, Penteo 2011
Buscando desesperadamente al científico de datos Los datos no van a hacer más que crecer y crecer. En cifras de IDC, el volumen de información que se creó, capturó y replicó en 2010 fue de 1,8 millones de petabytes, cifra que implica un aumento del 125% en relación a 2009. Las previsiones a largo plazo apuntan a que en 20 años el volumen de datos habrá crecido un 1.845% respecto a 2010, alcanzando el astronómico volumen de 35 millones de petabytes. McKinsey Global Institute relaciona el aumento del volumen de información con la demanda de expertos en extraer valor de los datos y asegura que en 2018 habrá un desfase de entre el 50-60% entre demanda de talento analítico para acometer proyectos y la oferta real de profesionales preparados para abordar tal tarea. Esto quiere decir que serán necesarios alrededor de 490.000 profesionales para diseñar estrategias Big Data en Estados Unidos pero que tan sólo habrá 300.000 para cubrir la demanda. Ver gráfico “Muchas necesidades futuras y pocos expertos presentes”, así lo resume Miguel Galera en una entrada de TICbeat, mientras que Michal Lev-Ram, periodista de Fortune exhortaba en septiembre de 2011: “Si encuentra algún científico de datos: contrátelo”.
Parece que la de científico de datos será la carrera del futuro. El término, desconocido hasta hace año y medio, se dispara como entrada de búsqueda en Google, un indicador siempre claro del interés de un concepto. En el último trimestre de 2011 y 2012, alcanzó picos 20 veces superiores a los de los mismos periodos del año anterior. La necesidad de expertos en análisis extremo: hasta un 60% por encima de la oferta real de profesionales. Escenario: Estados Unidos, 2018 Oferta y demanda de profesionales con capacidades analíticas en 2018. En miles de personas 140-190
1803
0
440-490
300 50-60% de desfase entre demanda de talento analítico y la oferta real.
150
Profesionales Universitarios con empleados en capacidades de 2008 análisis extremo
OtrosP
rofesionales cualificados en analítica extrema en 2018
Desfase
Profesionales cualificados para cubrir la demanda prevista en 2018
Perfiles demandados: Estadísticos, científicos cuantitativos, analistas, managers con enfoque y experiencia cuantitativa y técnicos expertos en software y lenguajes de programación de análisis de datos.
Fuente: Oficina de Estadística de Empleo de Estados Unidos; Censo de EE.UU.; Dun & Bradstreet; McKinsey Global Institute
Para Jaime García Cantero, analista independiente, las capacidades del así llamado científico de datos se concretarían en “un perfil mixto que integre conocimientos tecnológicos con comprensión del negocio. El CIO (Chief Information Officer) ha acabado por estar vinculado a la parte más puramente tecnológica, lo que le convierte más en un CTO (Chief Technology Officer). Para entender la naturaleza y magnitud de Big Data se necesitaría una figura nueva: el Chief Data Officer capaz de entender la naturaleza de los datos y organizarlos y explotarlos para obtener un impacto positivo”. Ante la brecha entre demanda de talento analítico y profesionales actuales expertos en la lógica de Big Data, García Cantero opina que no queda más remedio que adaptarse a lo que la realidad impone. “Los analistas de datos tradicionales son más bien matemáticos, estadísticos, economistas. Trabajan con modelos más que con tecnología pura y dura porque lo que importa son las reglas de negocio. Ahora habrá que ponerle un plus de inteligencia por encima para que ese análisis de datos se integre en las áreas de marketing, comunicación, ventas… “
De la teoría a la práctica
BIG DATA EN LAS ORGANIZACIONES ESPAÑOLAS Para compañías como Google, Facebook o LinkedIn la explotación de los datos es el núcleo de su actividad y han sido pioneras en hacer de la acumulación de información un activo de rentabilidad casi infinita. Pero ¿y el resto? Las organizaciones recogen las tendencias tecnológicas a veces mucho antes de que analistas y medios especializados se encarguen de difundirlas. Estos últimos dan nombre a prácticas que ya ejecutaban las empresas como parte de la evolución de negocio o como modo natural de buscar ventajas competitivas. En el caso de Big Data, algunas organizaciones ya lo practicaban “orgánicamente” pero no le habían puesto nombre, de modo que la adopción del fenómeno está en curso pero hay pocos ejemplos totalmente contrastados y aquilatados tanto a escala global como en España.
En una sesión organizada por Penteo con 15 empresas españolas de distintos tamaños y sectores que facturan más de 100 millones de euros al año, quedó registrado que las organizaciones están impregnadas de la idea de crear valor a partir de los datos. “En España estamos en un momento de curiosidad hacia el concepto pero con dudas razonables. Las empresas españolas muestran interés hacia la explotación de Big Data, pero es difícil sustraerse a los rigores del momento económico que limita los presupuestos de TI”, comenta Óscar Alonso, consultor de la firma de análisis Penteo. “Las principales cuestiones que se plantean las empresas con las que hemos hablado en relación a Big Data son: ¿es aplicable y factible en mi organización?, ¿cuánto me cuesta? Y ¿quién me ayuda a implantarlo?” Óscar Alonso, analista de Penteo “Las principales cuestiones que se plantean las empresas con las que hemos hablado en relación a Big Data son: ¿es aplicable y factible en mi organización?, ¿cuánto me cuesta? Y ¿quién me ayuda a implantarlo?”, explica Alonso. Para Jaime García Cantero, analista independiente, “Big Data trae un cambio en los modelos de gestión de las organizaciones que ahora pasarían a ser compañías que toman sus decisiones basándose en lo que les dicen los datos. Los egos corporativos se diluyen. Las decisiones tienen que venir avaladas por datos que las justifiquen y esto es un cambio de mentalidad importante”. Por su parte, Óscar Alonso asegura que todas las compañías con las que han hablado del concepto entienden la necesidad de sacar partido de sus datos a la misma velocidad que su propia proliferación impone y que cada
una aplica la explotación de sus datos según su “naturaleza” sectorial. “En líneas generales, retail, gran consumo, banca, telco y sector público son las actividades que más rápidamente ven los beneficios de la aplicación de Big Data y que más dinamismo muestran a la hora de adoptarlo. Hay ejemplos de proyectos concretos pero aún son muy pocos y pasará tiempo antes de que las empresas los den a conocer abiertamente”. García Cantero está de acuerdo en la enorme potencialidad de Big Data en segmentos como banca (cálculo de riesgo, percepción de marca), telecomunicaciones (control de la red, análisis de abandono, riesgo y fraude en clientes, satisfacción y lealtad de clientes) sector público (fraude fiscal, control del gasto, smart cities) y gran consumo. Aun así, el analista cree que es pronto para hablar de experiencias consolidadas pero que, al ser una práctica que tiene que ver más con el negocio, es probable que el ritmo de adopción sea más rápido que si se tratase de un asunto puramente tecnológico. “Hay ejemplos conocidos de explotación de datos como en el caso de R Cable, la operadora gallega de telecomunicaciones, que ha generado un agregador de datos en su contact center para tener una visión única de cliente: su facturación, productos y servicios, incidencias…”. En cuanto al tamaño de las organizaciones más receptivas, Óscar Alonso, comenta que con Big Data sucede lo mismo que con los proyectos de inteligencia de negocio: “en un principio se asociaban a gran cuenta pero su utilidad es aplicable a cualquiera. Basta con tener volumen de datos y querer hacer uso de ellos. De hecho, empiezan a aparecer muchas start-ups en las que la explotación intensiva de los datos es la regla principal de su negocio. No hay que ser una firma del IBEX 35 para sacarle partido a esta práctica”.
¿Cómo hacerlo? Óscar Alonso añade que “el momento económico no es fácil y los presupuestos de TI están congelados, cuando no se han reducido. Lo que sí hemos visto es que, al tratarse Hadoop de un entorno OpenSource algunas compañías están derivando recursos humanos a investigar este entorno y a aproximarse a su utilización”. De entre las compañías a las que Penteo tiene acceso existe una compañía de retail de gran consumo que sin denominar Big Data a su modo de explotar la información, lleva tiempo aplicando el análisis de datos para recoger y relacionar lo que se dice de ellos en las redes sociales integrándolo en el BI tradicional. “Esta compañía tiene un grupo de analistas que pueden considerarse auténticos científicos de datos: personas con perfiles matemáticos-estadísticos con una visión y unos conocimientos de negocio muy intensos”. La recomendación de Penteo a las organizaciones es empezar a buscar ya mismo ese talento analítico que requiere este tipo de proyectos.
La banca gana Hay pocos ejemplos concretos de inicio y desarrollo de prácticas de Big Data y mucha discreción a la hora de hablar de ellos por parte de sus responsables, ya se trate de personal técnico o de profesionales ligados al negocio. La prudencia se impone. Aun así, algunos representantes de empresas españolas de varios sectores sí que muestras sus experiencias en encuentros y foros profesionales o valoran a título personal el concepto y las iniciativas de sus organizaciones en la explotación de Big Data. Manuel Gómez Burriel, de Sistemas Centrales de la Confederación Española de Cajas de Ahorros (CECA) opina que el concepto Big Data viene de tiempo atrás, sobre todo desde el momento que surge la necesidad de manejar información no estructurada. “Hasta ahora, los gestores de bases de datos “clásicos” han ido incorporando, con más o menos funcionalidades, los datos tipo LOB y XML, pero siguen apareciendo nuevas necesidades de accesos analíticos a información no estructurada. La valoración positiva del impacto en el negocio vendrá determinada, como es habitual, por el retorno de la inversión estimada para proveer el servicio”.
Acerca de qué usos de Big Data que ayudasen a mejorar el negocio podrían ser relevantes en su organización, Gómez Burriel sólo observa el posible requerimiento de cantidades ingentes de información para los servicios que deben conservar datos a lo largo del tiempo, por razones o imperativos legales y/o de auditoría. Para un profesional de TI de otra entidad financiera española que prefiere no identificarse, Big Data no es una práctica completamente nueva: “el tratamiento de la información no estructurada lleva realizándose hace varios años, lo que ha cambiado realmente es la cantidad de información a almacenar y procesar, así como las fuentes diversas que la originan. Este crecimiento es exponencial y en estos momentos desconocemos cual será el techo, si es que algún día llega a tenerlo”. “Disponer de información masiva permite prever mejor dónde es necesario suministrar la energía y eso se traduce en ser más eficiente, más fiable y, en consecuencia, mejorar económicamente. En un mercado desregulado hay que competir por los clientes. Hace unos años, el crecimiento de la construcción trajo en paralelo un incremento del despliegue de agua, energía, luz nueva, gas... Pero la fiesta se acabó. Ahora peleamos por los clientes y estamos obligados a ser más eficientes, a ser mejores”. Rafael Blesa, Responsable de Arquitectura y BI y de Gestión del Software SSII de Gas Natural/Fenosa Otro hecho diferenciador es la velocidad de acceso a la información a la que nos hemos acostumbrado. “Necesitamos la información ya, de forma inmediata. Si combinamos estos aspectos, Big Data si es un nuevo concepto. ¿Están justificadas las inversiones? Pues dependerá de las necesidades del negocio, y debe ser este área de la compañía quien decida su rentabilidad o no. Lo que parece indudable, es que el futuro nos lleva a trabajar con este concepto, por lo que de una forma u otra tendremos que evolucionar en este sentido.
De la teoría a la práctica
BIG DATA EN LAS ORGANIZACIONES ESPAÑOLAS
Mundo Telco El sector de las telecomunicaciones es uno de los que más potencial podría extaer de las prácticas relacionadas con Big Data. Ana Lledó Tarradell, directora de Productos y Diseño de Soluciones de BT España, valora el fenómeno en toda su amplitud: “ Big Data se ha convertido en un auténtico desafío para las empresas en los últimos dos o tres años: inmensa y creciente generación de datos que se acumulan cada día y que hay que gestionar de la manera más eficiente posible con el objetivo de disponer de información como ventaja competitiva. En este contexto, la eclosión de las redes sociales, donde cada individuo interactúa y genera mucha información, ha venido a evidenciar más si cabe la necesidad de abordar soluciones prácticas”.
“Big Data trae un cambio en los modelos de gestión de las organizaciones que ahora pasarían a ser compañías que toman sus decisiones basándose en lo que les dicen los datos. Los egos corporativos se diluyen. Las decisiones tienen que venir avaladas por datos que las justifiquen y esto es un cambio de mentalidad importante” Jaime García Cantero, analista independiente Para Lledó, volumen, variedad y velocidad constituyen el algoritmo común que comparten las empresas para enfrentarse a la gestión del ingente volumen de información acumulado. “La búsqueda del difícil equilibrio entre análisis y parálisis, es decir, qué y cuántos datos analizar para obtener información de auténtico valor para la empresa, es el dilema al que se enfrentan. Y todo ello en mercados que cambian cada vez más rápidamente y con
normas regulatorias en algunos de ellos que obligan a almacenar los datos durante tiempo prolongado aunque no se utilicen”, continúa la directora de Productos y Diseño de Soluciones de BT España. De modo más concreto, la directiva de la compañía de telecomunicaciones comparte la experiencia y planes de su firma en relación a Big Data: “Como operador, BT analiza los datos del tráfico de voz y datos de sus clientes para dimensionar sus propias redes según la geografía y la demanda de capacidad e incluso para diseñar ofertas específicas. Este análisis, le permite también la gestión idónea de las necesidades de sus clientes colaborando directamente con ellos en la optimización de sus redes y sistemas teniendo en cuenta sus necesidades de tráfico, transacciones, almacenamiento e incidencias según la estrategia de uso. Al no estar en España orientados al mercado residencial, y a pesar de que el volumen de datos que se generan es enorme y sigue creciendo, BT continúa en disposición de manejar la información de sus clientes con un mayor grado de personalización”. Continuando en el segmento de las telecomunicaciones, el 1004 de Telefónica es un ejemplo concreto de prácticas de Big Data a través de modelos predictivos. Durante una jornada de difusión del concepto organizada en ESADE Por Bayes Forescast bajo el epígrafe “Big Data y modelos de predicción en marketing y operaciones”, el Gerente de Atención al Cliente en Telefónica, Javier Falcó, compartió la experiencia de su organización explotando sus datos y utilizando modelos de predicción que ayudan a diagnosticar, explicar y prever y que producen un impacto muy positivo en la optimización de los procesos productivos y en los ahorros de costes. En su ponencia Falcó explicó que el número de atención a sus clientes, el conocido 1004, utiliza modelos predictivos para determinar el número de llamadas que recibirá el servicio cada vez que se lanza una campaña. Actualmente,
el 1004 realiza un plan de operaciones mensual y otro trimestral y en enero de 2012 llegó a atender 14 millones de llamadas. “Para Telefónica, el 1004 ha sido siempre su canal fundamental de ventas. Cada vez que se programa una campaña, se invita a los posibles clientes a contratar el servicio en el 1004 y los responsables de gestión tenemos la responsabilidad de determinar los picos de llamadas, de garantizar que un cliente va a ser atendido, de trabajar junto al equipo de previsiones de cara a cumplir las expectativas…En este punto, los modelos predictivos resultan de una utilidad vital.”
“La valoración positiva del impacto en el negocio vendrá determinada, como es habitual, por el retorno de la inversión estimada para proveer el servicio” Manuel Gómez Burriel, Sistemas Centrales de la Confederación Española de Cajas de Ahorros (CECA)
Posteriormente, y de cara a los aspectos comerciales, se miden los efectos de las acciones de marketing masivo (prensa, televisión, sms, cartas, email … ), el marketing de emisión (inbound o llamadas por efecto de la acción comercial) y la factura. En su intervención, Falcó también señaló que “una variable muy interesante y necesaria es la del comportamiento del cliente. No es lo mismo el comportamiento de un usuario que ha comprado la promoción en una tienda, a través del call center o a través de telemarketing de emisión. Es muy importante identificar los patrones asociados al lugar y momento donde se ha generado una venta”.
De la teoría a la práctica
BIG DATA EN LAS ORGANIZACIONES ESPAÑOLAS
Energía concentrada El conocido como sector Utilities, generador y distribuidor de energías y servicios básicos (luz, gas, agua, gasolina, petróleo) vive un momento marcado por tendencias como las Redes Inteligentes, el Smart Metering, la entrada de nuevos actores y distribuidores en el mercado, la atomización de las operadoras y las inversiones congeladas. Esto se une a las propias tendencias del mercado de TI que propone prácticas como Big Data, soluciones de movilidad y la convergencia de las tecnologías de la información con la esencia del negocio.
“Big Data representa una vuelta a las viejas prácticas del mainframe. “Las estrategias tecnológicas, como sabemos, son cíclicas y ahora toca consolidar. Particularmente, defiendo una posible inversión, aunque al principio no veamos un impacto directo en el negocio. Su impacto sería más bien indirecto, de cara a minimizar los riesgos técnicos que tienen el hardware y software distribuido entre n-mil empresas” Mario Sanz Mayor, Equipo de plataformas de Middleware de Barclays
Como resultado del cruce de tendencias, las estrategias tecnológicas del área Utilities enfatizan el uso de la explotación de tecnologías de información geográfica que minimicen el impacto en el medio ambiente, la utilización de soluciones en la Nube y las capacidades ampliadas de gestión de activos. Además, las compañías de energía asumen un riesgo importante: se trata de servicios básicos y el desprestigio de imagen y de marca que se sucede a un mal servicio o a un servicio caro es difícilmente recuperable. Rafael Blesa, Responsable de Arquitectura y BI y de Gestión del Software SSII de Gas Natural/Fenosa, opina que disponer de información masiva permite prever mejor dónde es necesario suministrar la energía y eso se traduce en “ser más eficiente, más fiable y, en consecuencia, mejorar económicamente”.
“En un mercado desregulado hay que competir por los clientes. Hace unos años, el crecimiento de la construcción trajo en paralelo un incremento del despliegue de agua, energía, luz nueva, gas... Pero la fiesta se acabó y la economía va para atrás. Ahora nos peleamos por los clientes con compañeros como Endesa o Iberdrola y estamos obligados a ser más eficientes, a ser mejores”. Para ello, Blesa entiende que es necesario optimizar las campañas que se lanzan desde Gas Natural/Fenosa: “hay que afinar la dirección de las acciones para calar mejor en los públicos objetivos y obtener un mayor éxito: llegar con la oferta adecuada, organizar campañas menos masivas y más dirigidas a segmentos concretos. Esa es una demanda del negocio y desde el punto de vista de sistemas tenemos que proveer más información, en períodos mucho más cortos. Se necesita información y se necesita para analizarla YA.” En el caso de su organización, Blesa comenta que se trata de aprovechar la información de los clientes y sus patrones de consumo pero que también es necesario incorporar fuentes externas: información demográfica, geográfica-geodésicageoespacial, metereológica, de impacto medioambiental y sin olvidar la influencia de las redes sociales en la reputación de la compañía. “Big Data trae un cambio en los modelos de gestión de las organizaciones que ahora pasarían a ser compañías que toman sus decisiones basándose en lo que les dicen los datos. Los egos corporativos se diluyen. Las decisiones tienen que venir avaladas por datos que las justifiquen y esto es un cambio de mentalidad importante” Jaime García Cantero Analista independiente “Hay muchas soluciones interesantes que estamos evaluando actualmente que espero nos ayuden. La barrera, como casi siempre es el coste. Los proyectos no resultan baratos y tenemos que estar seguros que la aplicación justifica la inversión en un momento en que todo se cuestiona”, concluye el Responsable de Arquitectura y BI de Gas Natural/Fenosa.
Gran Consumo También en la Jornada sobe Big Data y modelos predictivos aplicados al marketing y operaciones, Massimiliano Marinucci, Director de Marketing de Estrategia y Productividad de Coca Cola compartió la experiencia de la que es, quizás, la marca global por excelencia con el uso de las técnicas predictivas a partir del análisis masivo de los datos.
el valor que verdaderamente tiene. Los modelos favorecen la comunicación objetiva. Ya no se trata de decir: el año pasado hizo calor y por eso vendimos más. Vamos a analizar el aumento de temperatura y lo vamos a cuantificar. Así se acaba con la diatriba tipo: fue el calor frente a no, fue mi marketing”.
Marinucci inició su intervención con una frase pronunciada en 1887 por John Wanamaker, considerado el padre de la publicidad moderna y pionero de las técnicas de marketing : “Ya sé que la mitad del dinero que empleo en marketing no tiene ningún efecto. El problema es que no sé de qué mitad se trata”.
“BT analiza los datos del tráfico de voz y datos de sus clientes para dimensionar sus propias redes según la geografía y la demanda de capacidad e incluso para diseñar ofertas específicas. Este análisis, le permite también la gestión idónea de las necesidades de sus clientes colaborando directamente con ellos en la optimización de sus redes y sistemas teniendo en cuenta sus necesidades de tráfico, transacciones, almacenamiento e incidencias según la estrategia de uso”
Con ella, el directivo de Coca Cola pretendía enfatizar la necesidad de entender de dónde vienen las ventas y los factores que influyen en ellas en un deseo de prever, planificar y mejorar la productividad. En ese sentido, los modelos predictivos creados tanto globalmente como en nuestro país pueden considerarse un ejemplo de innovación y desarrollo. “Nos interesa analizar los datos porque necesitamos entender, diagnosticar, saber de dónde vienen nuestras ventas o los factores que han influido en ellas… Si añadimos la capacidad de previsión de los modelos a su habilidad para entender lo que está pasando, el resultado es que los modelos también podrán utilizarse de cara a la planificación. Otra razón más que potente para modelizar es el dinero que invertimos en publicidad: Utilizamos los modelos para mejorar la productividad de nuestras acciones de marketing. A través de la diagnosis podemos mover los recursos de un lado para otro según la productividad”. Los modelos explican qué motivaciones influyen en el negocio, de dónde vienen las ventas, cómo contribuye cada elemento al crecimiento o a los volúmenes de venta por año y, de ese modo pueden identificar cuál sería la inversión óptima en acciones de marketing y publicitarias. De modo muy gráfico, Marinucci relató que los modelos generan controversia en los departamentos de marketing. “Por ejemplo el hecho de demostrar que gran parte del aumento de ventas no se debe al marketing sino a factores externos como una mayor tasa de crecimiento de países en vías de desarrollo. En ese sentido, los modelos ayudan a redimensionar la aportación de cada elemento y a darle
Ana Lledó Tarradell, directora de Productos y Diseño de Soluciones de BT España Para el directivo de Coca Cola un asunto importante es cómo se reciben estas prácticas de análisis extremo de datos y aplicación de modelos predictivos. Según Marinucci el punto fundamental es que los altos cargos entiendan su beneficio y utilidad “que se den cuenta de que se trata de una práctica que les va ayudar a tomar decisiones y a valorar los riesgos de cara al futuro”.
Jaime García Cantero Analista independiente @jaimegcantero
BIG DATA: MUCHO MÁS QUE INFORMACIÓN Transacciones financieras y ventas en tiempo real, medidas de sensores en las cadenas de fabricación, localización de nuestra flota de distribución u opiniones de los clientes en las redes sociales. Nuestras organizaciones manejan en la actualidad una cantidad ingente de información. Su análisis hace posible una nueva manera de gestionar las organizaciones que el profesor del MIT Erik Brynjolfsson define como DDD (Data Driven Decision) que permite a las organizaciones ganancias de productividad de entre un 5 y un 6 % (Brynjolfsson, 2011).
Figura 1: Facilidad y Potencial de la implantación de Big Data en los diferentes sectores
UTILIDAD DE BIG DATA POR SECTORES
Datos de la economía estadounidense El tamaño del círculo indica la contribución relativa al PIB Alto
Big Data: facilidad para capturar datos
Big Data, unánimemente incluida entre las tendencias del año por todos los analistas y consultoras, es el conjunto de herramientas, procesos y aptitudes que van a permitir la gestión de estas enormes cantidades de información para mejorar los resultados de nuestras organizaciones. Sin duda el impacto de Big Data y la complejidad de su implantación dependen en gran media de la organización concreta, pero prácticamente todos los sectores pueden verse beneficiados como muestra la figura 1 en un ejercicio realizado por Mckinsey para el mercado de EEUU.
Utilities Recursos naturales
Servicios sanitarios
Informática de consumo Información
Fabricación
Finanzas y seguros
Transportes
Servicios profesionales
Inmobiliarias
Industria alimentaria
Gestión de empresas Gran Consumo
Construcción Servicios administrativos
Retail
Otros servicios
Sector Público
Servicios educativos Arte y entretenimiento
Bajo
Alto
Big Data: valor potencial de utilización
La explosión de la información. Un estudio de investigadores de La Universidad del Sur de California publicado en la revista Science en Mayo de 2011, cifraba la información digital almacenada en el año 2007 en todo el mundo en más de 276,000 millones de Gigabites, unas 13,800 veces la información almacenada 20 años antes (Figura 2). Según este estudio menos del 9% de toda esa información está almacenada en servidores. Lejos de frenarse, este crecimiento sigue acelerándose y dicho estudio prevé que la información generada en 2020 sea 50 veces la originada en 2011. Fuentes menos académicas pero que dan cifras más actualizadas, como la consultora IDC cifran en 1,8 Zettabytes la información generada en 2011. Si tratáramos de almacenar esa información en Ipads (de
los caros, de los de 32GB) necesitaríamos 57.500 millones. Con ellos puestos unos al lado de otro formaríamos una línea que daría 3 veces la vuelta al mundo y si tratáramos de apilarlos, la “montaña” resultante sería 25 veces más alta que el monte Fuji. Estas magnitudes macro tienen su reflejo micro, y la información gestionada y almacenada por las organizaciones también alcanza cifras espectaculares, Google procesa al día 20 Petabytes de Información y el CERN en Ginebra genera 40 terabytes por segundo. Pero no sólo estos gigantes manejan ingentes cantidades de información. Según la consultora Mckinsey, en 15 de los 17 sectores económicos analizados, la empresa americana media de más de 1.000
2007 ANALOGICO
18,86 Gigabytes Papel, películas, cintas de música y vinilos: 6,2% Cintas de vídeo analógicas: 93,8%
ANALOGICO
Otros medios digitales: 0,8%* Discos duros portátiles: 2,4%
DIGITAL
CDs y Minidisks: 6,8%
Discos duros de servidores y mainframes: 8,9%
Cintas digitales: 11,8%
1986 ANALOGICO
2,62 Gigabytes DVD/Blu-ray: 22,8%
DIGITAL
0,02 Gigabytes POTENCIA DE COMPUTACIÓN
En 1986, las calculadoras de bolsillo recogían la mayor parte de la potencia de procesamiento de datos mundial Porcentaje de potencia de procesamiento disponible por dispositivo Calculadoras
Ordenadores personales
41%
Consolas de videojuegos
33% 66%
Discos duros de PC: 44,5%
Servidores
9%
17%
25%
3%
6%
Superordenadores 0,3%
*Tarjetas con chip integrado, tarjetas de memoria, disquetes, cámaras de teléfonos móviles y PDAs, videojuegos
Teléfonos móviles, PDAs
Figura 2: La explosión de la información
2007 DIGITAL
276,12 Gigabytes
Mucho más que información empleados almacena en sus bases de datos más de 235 Terabytes de capital informativo (cantidad de información almacenada en la biblioteca del congreso de los EEUU, considerada una de las mayores del mundo). Pero esto sólo es el principio, la anunciada llegada de Internet de las cosas, en la que multitud de objetos cotidianos están dotados de “ojos y orejas” que les permiten ser conscientes del entorno que les rodea (context awareness), de su posición geográfica (location awareness) y su entorno. Este entorno que distintos autores denominan de formas diferentes: Web squared (O´Reilly, 2009), Pervasive computing (Weiser, 1993) o Everyware (Greenfield, 2006). Supone que el futuro de Internet es su encuentro con el mundo real. Una ingente cantidad de nueva información formará una piel digital que cubrirá el mundo físico y abrirá nuevas oportunidades para organizaciones privadas y públicas.
Sin embargo la información no es la parte crítica en el proceso de adopción de Big Data, casi todas las organizaciones disponen ya de información suficiente o les resultaría relativamente sencilla su captura. El problema es la transformación organizacional y de los procesos y la inteligencia de negocio que permita sacar conclusiones de esa información. En esto es crítico entender que el perfil de los usuarios de la información está cambiando. Si antes esta parecía patrimonio de los departamentos financieros y por supuesto del CIO, hoy son los directivos de marketing y operaciones quienes se están convirtiendo en los usuarios más intensivos de la misma. Por eso es fundamental para el éxito de las iniciativas de Big Data una buena sincronía entre la capa de negocio y la infraestructura tecnológica subyacente. Las TI son sin duda la herramienta imprescindible para llevar a cabo cualquier proyecto de Big Data pero es el conocimiento de negocio el que determinará el éxito de la misma.
Fran Rosillo Experto en gestión de crisis Director General Aleph Comunicación www.alephcom.es
BIG DATA, METEOSAT DE LA GESTIÓN DE CRISIS La capacidad de generar y difundir información de modo instantáneo se ha disparado especialmente desde la llegada de los social media. Resulta muy difícil “gobernar” y canalizar las opiniones de un público cada vez más amplio que se expresa libremente sobre cualquier asunto y difunde sus valoraciones con una capacidad de influencia en aceleración constante. ¿Qué hacer desde las organizaciones para evitar que se produzcan crisis de reputación o de cualquier clase? ¿Cómo volver en su favor el uso de las redes sociales analizando y valorando los datos que en ellas se generan?
El mercado de las Tecnologías de la Información tiene un nuevo mantra: Big Data. Puede parecer increíble, pero se estima que el 90% de los datos mundiales se ha generado en los últimos dos años. Además, el 80% de ellos no son estructurados, es decir, no están integrados en bases de datos al uso, por lo que únicamente el 20% está disponible para ser analizado en sistemas tradicionales. ¿Cómo distinguir el polvo de la paja? ¿Cómo identificar opiniones que pueden llegar a tener influencia? Así pues, contamos con gran cantidad de información, enormemente valiosa, pero la gran mayoría de las compañías –incluso las líderes- todavía no han articulado sistemas punteros de gestión de información para “cocinarla” y obtener sólidos puntales para la toma de decisiones, puesto que sus tecnologías tradicionales de TI se quedan cortas.
Además, tampoco se aprecia un decidido respaldo por parte de algunos CEOs, que siguen reticentes con respecto al valor que Big Data puede aportar a sus negocios. Naturalmente, también ellos son conscientes de que la popularidad de los social media y la multiplicación de los dispositivos electrónicos han sido en buena parte responsables de esa masiva generación de datos que ha provocado un cambio radical, dado que hoy en día –a diferencia de años atrás- tanto los consumidores como los negocios generan e interaccionan con información dispar. Y sin embargo, aún no se atreven a apostar clara y decididamente por un cambio de paradigma a nivel tecnológico y estratégico. IDC prevé que en 2012 el volumen del contenido digital llegará a alcanzar los 2,7 ZB, un 48% más que en 2011, cifra que en 2015 se disparará hasta los 8 ZB. Lo curioso es que la propia analista reconoce que estos datos están repletos de una valiosísima información, pero todavía constituyen un reto que debemos comprender y analizar.
Todo el mundo opina Aun así, en medio de este complejo contexto, en el que las cifras ingentes llegan a escapar a nuestra comprensión, se siguen situando las personas. Sí, gente de carne y hueso, que vive, lucha, ama, tiene hijos, celebra cumpleaños, visita otros países, encuentra trabajo, lo pierde… y consume millones de productos a lo largo y ancho del planeta. Al igual que actualmente es más sencillo difundir por cualquier confín del mundo un argumento, un rumor o una consigna, las actuales tecnologías proporcionan las herramientas suficientes como para detectarlos a tiempo y prepararse para el “combate”. Todo es cuestión de clasificar, procesar, analizar y escuchar lo que nos dice Big Data. Ahora más que nunca, estas personas expresan su opinión. No es que antes no la tuvieran; los libros de Historia están repletos de las consecuencias de esos pareceres. La diferencia es que ahora cuentan con medios fáciles, baratos, inmediatos y sumamente cómodos para expresarlas y difundirlas a nivel mundial. Habrá quien piense que esto provoca las crisis, pero no es del todo cierto. Revoluciones, manifestaciones, caídas en desgracia, derrocamientos, modas, rumores y cambios de tendencia en la opinión pública han sido una constante desde que el hombre es hombre, lo que ocurre es que hoy todo eso sucede instantáneamente. Ahora bien, también los gestores de las crisis contamos con la misma ventaja que sus protagonistas o impulsores. Al igual que actualmente es más sencillo difundir por cualquier confín del mundo un argumento, un rumor o una consigna, las actuales tecnologías proporcionan las herramientas suficientes como para detectarlos a tiempo y prepararse para el “combate”. Todo es cuestión de clasificar, procesar, analizar y escuchar lo que nos dice Big Data. El abanico de posibilidades que se abre es prácticamente inimaginable y su origen es la digitalización de la información y la trazabilidad digital, porque no olvidemos
que todas nuestras huellas y acciones en el mundo online pueden ser analizadas. Todo este volumen de información interconectado, analizado y explotado proporciona un detalle nunca antes imaginado. Pero para poder gestionarlo debemos estar sumamente preparados, porque a veces las señales que lanzan las redes cuando algo no marcha bien se producen tenuemente y con la rapidez de un tweet; en cuestión de minutos la chispa puede encenderse… y en apenas unas horas nos encontraríamos con una bonita crisis. ¿Cómo distinguir el polvo de la paja? ¿Cómo identificar opiniones que pueden llegar a tener influencia? Hoy más que nunca, las marcas no tienen el control sobre los consumidores. Sólo cuando el compromiso es real y las
En una segunda fase, deberíamos ser capaces de identificar cuál fue el origen del problema, las áreas de la compañía implicadas, los fallos cometidos y qué puntos débiles tenía nuestra estrategia. Para ello, una vez más, los resultados procedentes del análisis de Big Data equivaldrían a oro puro. tecnologías las adecuadas pueden las empresas identificar sus errores y reaccionar a tiempo, al igual que cuando el hombre del tiempo anuncia lluvias torrenciales la gente prepara sus casas. Es entonces cuando podríamos ser capaces de atajar un rumor incipiente, o responder a una queja que tiene razón de ser, es decir, gestionar adecuadamente una crisis en las redes sociales y además apuntarla en nuestro haber: sumar puntos para la marca en términos de confianza, en definitiva. De cualquier modo, nuestro trabajo no habría acabado. Comenzaría una segunda fase, en la que deberíamos ser capaces de identificar cuál fue el origen del problema, las áreas de la compañía implicadas, los fallos cometidos y qué puntos débiles tenía nuestra estrategia. Para ello, una vez más, los resultados procedentes del análisis de Big Data equivaldrían a oro puro.
ENTREVISTA
Andrew Sutherland, Vicepresidente Senior de Tecnología para Europa, Oriente Medio y África de Oracle
“Big Data es el vigía capaz de optimizar los procesos de una organización al estar pendiente y vigilante de los cambios de tendencia” ¿Qué diferencias o matices hay entre Big Data y otras prácticas consolidadas como el data warehouse, la inteligencia de negocio, las herramientas estadísticas o los sistemas de gestión de relación con los clientes…?
¿Por qué The Beatles tuvieron tanto éxito y tan rápido? Tras años de Beatlemanía, Beatlelogía y páginas y páginas escritas sobre la clave del fenómeno de los cuatro de Liverpool parece que todo puede destilarse en una premisa bien simple: el éxito de los Beatles era que estaban tan cerca de su público, que el reflejo y la identificación era inmediato. ¿Cómo pueden las organizaciones estar cerca de su públicoaudiencia-consumidor-ciudadano? Según Andrew Sutherland, Vicepresidente Senior de Tecnología para Europa, Oriente Medio y África de Oracle, Big Data tiene la respuesta. Sólo hay que encontrar el camino adecuado, despejar la maleza, ver el bosque y cada árbol, cada rama, cada hoja y saber interpretar qué significa. ¿Qué beneficios puede aportar Big Data a las organizaciones? Si uno entiende la utilidad de las aplicaciones de negocio, entiende entonces los beneficios de Big Data. Básicamente hablamos de una práctica que aspira a añadir valor de forma rápida a una organización, encontrando las oportunidades de nuevas fuentes de ingresos. Cuando le das valor de negocio a los proyectos de TI, todo el mundo gana. Se obtienen ventajas competitivas, se incrementan las ventas, se aumenta la sabiduría corporativa, la inteligencia colectiva. Eso es siempre bueno.
Históricamente, en la primera generación de las aplicaciones de negocio las soluciones estaban muy centradas en la automatización de los procesos. En la segunda generación, la inquietud iba por otro lado. No se trata sólo de automatizar procesos, sino también de encontrar el modo de automatizar los cambios en los procesos: la flexibilidad era la clave. Los procesos cambian, evolucionan, es fundamental entender esto. “Hay que conocer la realidad del cliente. Big Data permite hacer ajustes a los procesos, que no son inamovibles, ya lo estamos viendo, y obtener mayores beneficios en el negocio” ¿Big Data aporta la visión sobre cómo podrían cambiar esos procesos a raíz de los indicios que están recogiéndose de la realidad? Efectivamente. Valora la dirección a la que nos dirigimos y ayuda a reconducir el rumbo si fuera necesario. Es el vigía capaz de optimizar los procesos de una organización al estar pendiente y vigilante de los cambios de tendencia. Algo de lo que somos muy conscientes es que ya pasaron los días de la cultura del puro producto en una dirección. Hay que conocer la realidad del cliente. Big Data permite hacer ajustes a los procesos, que no son inamovibles, ya lo estamos viendo, y obtener mayores beneficios en el negocio.
LA ESTRATEGIA DE ORACLE EN BIG DATA Sistemas preconstruidos con hardware, software y comunicaciones integrados que se puedan conectar directamente. El Big Data Appliance es el ejemplo más representativo. Herramientas de productividad y de desarrollo alrededor de creaciones OpenSource como Hadoop o MapReduce. La conexión con los sistemas tradicionales es fundamental. Oracle ofrece conectores que automatizan las transformaciones necesarias para procesar la información en origen, dotando de la estructura necesaria a la parte que se desea integrar con la informática tradicional.
¿Funciona de manera proactiva-positiva o sólo sirve para corregir? Big Data ofrece la posibilidad de analizar con mayor precisión lo que está cambiando. Tiene valor predictivo, de identificador de tendencias y desviaciones de lo que se daba por bueno. Va a un nivel intenso y profundo de granularidad en el entendimiento de nuestras organizaciones. Es análisis extremo.
“Big Data ofrece la posibilidad de analizar con mayor precisión lo que está cambiando. Tiene valor predictivo, de identificador de tendencias y desviaciones de lo que se daba por bueno. Va a un nivel intenso y profundo de granularidad en el entendimiento de nuestras organizaciones. Es análisis extremo” ¿Por qué llamamos datos no estructurados a los que provienen de nuevas fuentes y canales si están perfectamente estructurados en sí mismos? No se trata tanto de una cualidad de los propios datos sino del método que usamos para analizarlos. Un dato es estructurado porque la manera de capturarlo, almacenarlo, organizarlo y analizarlo cumple unos parámetros estructurados, concretos, alineados con unas prácticas contrastadas, validadas y automatizadas. Los datos no estructurados relacionados con Big Data se denominan así porque la forma de gestionarlos y obtener valor de ellos no responde a un patrón tan rígido en términos de estructura, ordenamiento y seguridad.
¿Qué ofrece Oracle alrededor de Big Data? Nuestra estrategia se apoya en tres aspectos. El primero es ofrecer sistemas preconstruidos con hardware, software y comunicaciones integrados que se puedan conectar directamente. El Big Data Appliance es el ejemplo más representativo. En segundo lugar, ofrecemos herramientas de productividad y de desarrollo alrededor de creaciones OpenSource como Hadoop o MapReduce. Muchas de las empresas Fortune 500 quieren adoptar la tecnología OpenSource porque es buena, está muy probada, no tiene coste y es muy escalable, pero no quieren hacerlo sin un soporte de tipo empresarial, sin un gran sponsor detrás. Cuando se deciden las arquitecturas corporativas los clientes esperan una lógica de distribución, mecanismos de soporte bien establecidos. El elemento de soporte es crítico, la integridad de la distribución es básica. En el caso de Big Data las mejores herramientas (Hadoop, MapReduce…) para el manejo masivo de información ya existen en clave OpenSource y junto a Cloudera, la principal empresa que se dedica a soluciones Big Data basadas en Hadoop, vamos a ofrecer nuestra garantía de continuidad y soporte. En tercer y último lugar, la conexión con los sistemas tradicionales es fundamental. Para ello Oracle ofrece conectores que automatizan las transformaciones necesarias para procesar la información en origen, dotando de la estructura necesaria a la parte que se desea integrar con la informática tradicional.
Big Data y su impacto en el negocio Una aproximación al valor que el análisis extremo de datos aporta a las organizaciones Mayo 2012 Autor: Ana García Huerta Diseño e ilustraciones: Iván Ordás Ayuga Oracle España C/ José Echegaray 6B Las Rozas 28230 Madrid Telf. 900992922 | 900952900 http://www.oracle.com/bigdata
Oracle is committed to developing practices and products that help protect the environment Copyright © 2012, Oracle and/or its affiliates. All rights reserved. This document is provided for information purposes only and the contents hereof are subject to change without notice. This document is not warranted to be error-free, nor subject to any other warranties or conditions, whether expressed orally or implied in law, including implied warranties and conditions of merchantability or fitness for a particular purpose. We specifically disclaim any liability with respect to this document and no contractual obligations are formed either directly or indirectly by this document. This document may not be reproduced or transmitted in any form or by any means, electronic or mechanical, for any purpose, without our prior written permission. Oracle is a registered trademark of Oracle Corporation and/or its affiliates. Other names may be trademarks of their respective owners.