TENDENCIAS G LOB LOBALES ALES
Está preparado para enfrentar el próximo meta-problema del mundo de los negocios? Le quitará el sueño. Se trata de la administración de los grandes volúmenes de datos que se generan por minuto —en redes sociales, en la Web, en los servidores de las empresas, en las millones de computadoras y dispositivos móviles conectados a Internet—, más conocidos como “Big Data”. Data”. Como es sabido, las empresas dependen de la toma ILUSTRACIONES: ILUSTRACIONES: MURIEL FREGA
40. agosto-septiembre 2013
Se necesita mucho ingenio para gestionar y extraer patrones útiles de los grandes volúmenes de datos disponibles en la actualidad y generados por el mundo digital. Este es el terreno de Big Data, donde aún manda
DATA el desorden: la tecnología no está lista para analizar la información, y el talento tampoco está entrenado. ¿Qué dicen los que saben?
de decisiones para hacer funcionar sus negocios, y las me jores decisiones, a su vez, dependen de contar con información confiable y oportuna. Tener los datos que necesitamos en tiempo y forma para las decisiones que debemos tomar es un problema gigantesco en una era en la que la capacidad de captura, almacenamiento y procesamiento de información se duplica cada 18 a 24 meses. Pero el manejo de grandes cantidades de datos no es solo una dificultad técnica: no se trata de una cuestión de alma-
cenamiento o de comunicación o de diseño del microprocesador. De hecho, los avances realizados en busca de una solución en realidad complican el problema: brindan acceso a más información, que cambia con rapidez, a medida que un nuevo dispositivo o nuevas innovaciones desde el punto de vista de la arquitectura permiten disponer de “datos instantáneos”. El interrogante es el siguiente: ¿cómo transformar de manera efectiva, eficiente y confiable los datos relevantes en informa-
wobi.com/magazine
41.
TENDENCIAS G LOBALES
ción útil? La generación de grandes cantidades de datos en todas las industrias está demandando a gritos una herramienta eficiente para gestionarlos. Los instrumentos convencionales para el management de base de datos, como los sistemas relacionales (RDBMS), no tienen la capacidad de administrar estos volúmenes crecientes de información no estructurada. Lo cual está impulsando el desarrollo de varias herramientas y tecnologías para administrarla por parte de los proveedores de tecnología.
EL COSMOS El mercado global de Big Data moverá US$ 48.300 millones para 2018, según la firma de investigación Transparency Market Research. En 2012 movió US$ 6.300 millones. Norteamérica dominará, con una participación del 54,5% de esos ingresos, seguida por Europa. Luego, la región de Asia-Pacífico será la de mayor crecimiento acumulado entre 2012 a 2018, con un 42,6%. Este crecimiento —y el del resto de las empresas de otros países— puede ser atribuido al interés de las firmas de mejorar sus capacidades analíticas para perfeccionar la toma de decisiones a través de la obtención de conocimiento más adecuado y de mejor calidad. Los componentes básicos del mercado de proveedores de servicios de análisis de Big Data incluyen software y soluciones, hardware y capacidad de almacenamiento. El segmento de software y servicios se come la porción más grande de la torta de producción de soluciones: más del 50% del total. Pero el segmento de mayor y más rápido crecimiento se estima será el del almacenamiento, que crecerá hasta un 45,3% hacia 2018. El sector financiero será el que más contribuirá a este crecimiento, por la cantidad de información que genera. De hecho, en 2012, ya dominaba el 20% del mercado de generación de datos. Hoy, por ejemplo, los países emergentes representan una enorme oportunidad para la venta de productos y servicios de las empresas occidentales. Pero para ganar en este escenario, como advierte McKinsey, las empresas deben predecir las preferencias, gustos y patrones de conducta específicos de un grupo flamante, grande y diverso de usuarios específicos. ¿Cómo hacerlo? Internet convirtió a cada usuario conectado en su propio “hub interconectado” de enlaces con otros usuarios, productos, tecnologías, filosofías y formas de ser y proceder; una auténtica colmena lista para
42. agosto-septiembre 2013
LAS 6 “V” En 2011, el analista de Gartner, Doug Laney, acuñó la definición de las 3 V que componen el término Big Data: Volumen, Velocidad y Variedad. Hoy se han agregado nuevas “V”: Validez, que tiene que ver con la confiabilidad. Venue, o campo, que habla de la complejidad que deviene de tener una alta diversidad de fuentes de datos no estructurados. Y Visualización, una herramienta útil para trasformar análisis complejos en formatos procesables. Por ejemplo, estas herramientas permiten estudiar datos no estructurados, multidimensionales. Algunas herramientas existentes están construidas sobre HTML5 y hay hasta paquetes de soluciones como Clickview, Microstrategy, Spotfire y Tableau. Según la consultora, la V más importante es la de valor: ¿cómo las organizaciones extraen verdadero valor de negocios sobre una base sostenible en el tiempo? Los datos, dice Gartner, deben tener “rostro”: es necesario convertirlos en algo personal; uno debe buscar una relación que tenga significado y sentido.
ser explotada, siempre que podamos darle sentido a esta base de datos masivamente interactiva. En realidad, podríamos tomar a cada uno de los 7.000 millones de habitantes del planeta como un proceso constante de generación de datos. Sus opciones de compra y estilo de vida, sus estados de ánimo, generan información que puede ayudarnos a entender y predecir su conducta, colaborar con ellos en las emergencias y responder a sus preocupaciones. ¿Cómo abrirse paso en medio de esta enorme cantidad de información que producen? Convertir los datos relevantes en información útil es un inconveniente enorme; en realidad, es un conjunto de grandes complicaciones. Si tuviera una base de datos que rastrea sus tentaciones, estados de ánimo, deseos y gustos —que daría forma a un retrato completo y resuelto de su persona—, esa información sería sin duda valiosa para muchas de sus decisiones. Podría hasta evitar el engaño y el autoengaño; convencerse de abandonar los hábitos contraproducentes, o seguir de cerca el clima de su ambiente laboral. Los datos están allí. Pero son demasiados. A menos que encuentre la manera de convertirlos en información jugosa —en predicciones de sus respuestas a los estímulos, en modelos optimizados de cómo debería comportarse su empresa o usted como líder—, su “disco rígido” es un mero almacén de hechos que deben procesarse para descartar la información innecesaria. El problema es grande porque contiene muchas variables, cantidad de relaciones entre ellas y, por lo tanto, requiere cuantiosas operaciones para alcanzar una solución. De hecho, podemos medir el tamaño del problema que generan los grandes volúmenes de datos según el número
TENDENCIAS G LOBALES
de operaciones necesarias para convertirlos en información que sirva para algo. En esencia, las empresas deben resolver dos tipos de dilemas diferentes:
Dilemas de predicción: ¿QUÉ SUCEDE SI HAGO ESTO? n
Dilemas de optimización: ¿CUÁL ES LA MEJOR MANERA PARA CONSEGUIR QUE ESTO SUCEDA? n
Estos dilemas toman los grandes volúmenes de datos como un registro y, como resultado, generan información útil: planes, estrategias, modelos. Y a medida que se acrecienta el tamaño de lo que ingresa y se registra, el problema se “mega-acrecienta” también. La relación entre el número de variables de registro y el número de operaciones requeridas para procesar la información no es lineal. La mayoría de las dificultades que enfrentan las compañías son irresolubles desde una óptica técnica, debido a que el tamaño del problema aumenta exponencialmente en relación con el del ingreso y registro de datos. Piense en analizar el patrón de relaciones generadas por
CHICAGO LO HIZO Desde seguir estadísticas de crímenes hasta permisos de construcción de edificios, la ciudad de Chicago ha recolectado la suficiente cantidad de información para llenar más de 400 servidores. La alcaldía está usando estos datos para convertir a la ciudad en un mejor lugar para vivir. La ciudad usa software libre para recolectar datos no estructurados, como registros en tiempo real de llamados a la línea 911 e información estructurada de sistemas disímiles de 30 dependencias y departamentos del estado. El objetivo del portal creado es darle a la ciudad una manera de combinar datos de diferentes dependencias para llegar a nuevas conclusiones. Por ejemplo, si la tasa del crimen está aumentando en un área, los analistas pueden buscar factores casuales, como la densidad de las licencias de venta de alcohol o patrones que han cambiado respecto de la protección policial. Los funcionarios pueden usar los datos para prevención. Por ejemplo, una investigación reveló que los tachos de basura en una localidad en particular generalmente desaparecían cuando las luces de los callejones se quemaban. Si la ciudad podía reemplazar las luces más rápidamente, evitarían gastar tanto dinero en nuevos tachos.
44. agosto-septiembre 2013
sus contactos en LinkedIn para predecir quién presentará quién a quién, o el patrón de decisiones de compra en Amazon de la gente que pertenece a la misma red de amigos en Facebook, con el objetivo de predecir quiénes influyen de manera clave. Para resolver las ecuaciones que derivan de los modelos que buscan identificar estos patrones hay una explosión de operaciones que usted debe explicar, y no solamente una explosión de memoria requerida para observar los datos. ¿Ayuda la creciente potencia computacional? Apenas en parte.
UN PROBLEMA SEXY Si todo lo que hiciera falta fuera más y mejor poder computacional, quizá el problema de Big Data se reduciría al diseño de un chip y a un inconveniente de la ciencia: darle más “operaciones de punto flotante por segundo” (FLOPS, por su sigla en inglés). Esto es precisamente lo que la Ley de Moore —que sostiene que el número máximo de transistores que podemos colocar en un chip se duplica cada 24 meses— dice que ya estamos haciendo. Pero, a pesar del hecho de que la inteligencia computacional colectiva crece con rapidez, el manejo de los grandes volúmenes de datos no se simplifica. Todo lo contrario, es cada vez más difícil de resolver, razón por la cual algunos expertos en el análisis de información, como Tom Davenport, dicen que la tarea de los “científicos de datos” es “la más sexy del siglo XXI”, mientras que Dominic Barton y David Court, de McKinsey, sostienen que la capacidad de las herramientas analíticas para procesar Big Data será un diferenciador importante de las empresas a escala mundial. ¿Por qué Big Data es un meta-problema? La respuesta simple es: cuando se trata de dificultades gigantescas, no alcanza con la inteligencia. El tamaño de nuestras dificultades no solo crece de forma lineal respecto de la cantidad de variables que tomamos en cuenta, sino que crece exponencialmente o super-exponencialmente y, por lo tanto, con mayor rapidez que lo que la Ley de Moore puede explicar. Aquí no se necesita inteligencia —la capacidad para hacer muchas operaciones en un período breve— sino ingenio; es decir, la habilidad para encontrar e implementar el mejor método de búsqueda de una solución.
LA SALSA SECRETA Ingenio no es lo mismo que inteligencia. No es realizar operaciones con rapidez, sino poder diseñar la manera en la que secuenciamos las operaciones; es decir, el diseño de los algoritmos y la heurística que usamos para resolver los
TENDENCIAS G LOBALES
BETH COMSTOCK, directora de Marketing de GE
grandes problemas que plantean los enormes volúmenes de datos. Es el ingenio el que permite optimizar las plantas de fabricación, calcular las interacciones críticas entre los genes en los genomas de los individuos en riesgo y diseñar algoritmos para explotar las variaciones —minuto a minuto— del precio de las acciones de Apple. A continuación, algunas de las habilidades que hay que cultivar para enfrentar la gestión de Big Data.
“La empresa mantiene un enorme ‘hub’ de datos que incluye la posibilidad de analizar variables para revelar información como cuánta energía gastan sus electrodomésticos y cuánto le costará al comprador utilizarlos.”
1. MODELACIÓN
Para interactuar con los grandes volúmenes de datos, es necesario entender el proceso que los produce. La conducta de compra, la de apareamiento y la de navegación son producidas por procesos de decisión y elección. Los modelos y métodos de las ciencias económicas y la teoría de las decisiones, de la teoría de las redes, de la teoría de la evolución, de la teoría del procesamiento de la información deben dominarse de la misma forma que los estudiantes de física dominan las Leyes de Newton. La famosa ocurrencia de Google de que “en un mundo en el que la información es gratuita y abundante usted no necesita modelos” es equivocada, porque sin un modelo del proceso subyacente que genera los datos, no tenemos manera de saber qué es relevante y qué no, ni tenemos filtros para los conjuntos de información masiva capturada. Pero necesitamos algo más que solo modelos para los fenómenos subyacentes: también necesitamos modelos de los problemas que los grandes volúmenes de datos alimentan: modelos de la algoritmia de los meta-problemas de los grandes datos.
2. CODIFICACIÓN
director de Marketing de Wal-Mart
“Wal-Mart desarrolló Polaris, un motor de búsqueda semántico que estudia algoritmos para entender lo que desea la gente y, de esa manera, impulsar las ventas. Sobre ese motor está montada la tecnología que denominamos Social Genome Product (con aplicaciones varias como Shopycat, para analizar los comentarios en Facebook), que repasa miles de tuits, mensajes en Facebook, posts en blogs y videos en YouTube de la marca para detectar las intenciones de compra e impulsar el e-commerce.”
CAROLINE HALLIWELL, directora de Marketing del Financial Times
“El periódico tiene un equipo de análisis de datos de más de 30 personas divididos en tres grupos: Data Analytics & Campaigns, Data Product Development y Data Technology. Actualmente estamos usando los datos generados por nuestros lectores para aumentar la circulación del diario y crear productos publicitarios gráficos más productivos y competitivos. Todo sucede a través de nuestro sistema de registro —tenemos más de 5 millones de usuarios—; cada uno debe declarar su dirección de email, dirección real, código postal, industria en la que opera y cargo. De esta manera, los anunciantes pueden, por ejemplo, dirigir una campaña publicitaria a ejecutivos en la industria de las telecomunicaciones o de RR.HH. en Brasil o cualquier otro país. El sistema también sigue el comportamiento de los lectores para que podamos convertirlos en suscriptores.”
Los grandes volúmenes de datos resultan esquivos para la mayoría de los graduados de las escuelas de negocios porque están en un territorio al que no pueden acceder: están en el cibe-
46. agosto-septiembre 2013
STEPHEN QUINN,
respacio, en bases de datos dispares, codificados por protocolos y lenguajes de programación disímiles. Entonces, se gradúan sintiendo que no tienen habilidades para el juego de talento en el terreno de Big Data. La codificación —como habilidad y capacidad— es la “clave de acceso” al juego. Es el requisito básico.
3. PERCEPCIÓN
La información no se da, se produce y, en cierto sentido, se construye. Hay que sentirla, percibirla. La ciencia de la medición se dedica a convertir la calidad en cantidad, a transformar un pálpito, una intuición, una percepción, en un dato observable y medible en términos subjetivos. Los estados de ánimo importan para las maneras en que los seres humanos interactúan, como importa el ritmo, el tono y la intensidad de la voz o los niveles de azúcar en sangre. Pero hasta que no podamos medir de forma instantánea lo que pensamos que importa, nos quedaremos escribiendo documentos sobre relaciones entre variables a las que percibimos como inútiles pero que, no obstante, son fácilmente accesibles. La ciencia de la percepción, de la medición, está en sus inicios. Pero las semillas ya fueron sembradas.
CONCLUSIÓN La gran oportunidad para las empresas está en la construcción de negocios capaces de explotar y dar sentido a los terabytes de datos generados por los usuarios en el mundo digital. Los nuevos maestros de Big Data serán los reyes del ingenio. z
© WOBI FUENTES: ROTMAN MAGAZINE, POR MILHNEA MOLDOVEANU, DIRECTORA DEL DESAUTELS CENTRE FOR INTEGRATIVE THINKING DE LA ESCUELA DE GESTIÓN ROTMAN; INFORMES DEL MERCADO.
TENDENCIAS G LOBALES
>BIG DATA_INSIDE La cantidad de información disponible hoy en día es tan grande, compleja y dinámica que las herramientas convencionales no sirven para captarla, administrarla, almacenarla y analizarla.
1:00
¿Cómo almacenar los datos? ¿Cómo organizarlos y catalogarlos? ¿Cómo mantener los costos bajos y asegurarse de que la información esté disponible cuando se la necesita?
48. agosto-septiembre 2013
¿Cómo cambiará su negocio?
57,6%
Analizar Big Data es nuestro mayor desafío. (Estudio de McKnisey)
72,7%
El mayor beneficio, conseguir la eficiencia operacional.
50%
Este análisis nos ayudará a satisfacer las demandas del consumidor y el crecimiento de la firma.
50%
Bajaremos los costos de IT.
54%
Impulsaremos las ventas.
46%
Ejemplos de lo posible
Atraeremos y retendremos más clientes.
48%
La firma será más ágil.
70%
Esperamos un retorno de la inversión en herramientas de Big Data de un año.
#BigData influencers en Twitter @bigdata: Ben Lorida, director científico de Datos en @OreillyMedia (de Tim O’Reilly, especialista en tecnología e innovación). @ibmbigdata: IBM Big Data. @JeffJonas: célebre investigador de Big Data.
wobi.com/magazine
49.