El Big Data, la última frontera de la banca

Los representantes del sector apuestan por emplear los datos para optimizar procesos internos de las entidades como la toma de decisiones o la gestión de riesgos. El 64% de las compañías está invirtiendo en el Big Data.

El Big Data ha dejado de ser una promesa para convertirse en una realidad. Tras el éxito de la primera transición a la banca online, las entidades se enfrentan ahora a un nuevo desafío: explotar y sacar rentabilidad de la gran cantidad de datos que manejan de sus clientes. Una información que abarca desde los movimientos que un usuario realiza en sus cuentas cada mes, hasta los productos y servicios que tiene contratados o las operaciones que realiza en los cajeros. Una radiografía de sus clientes que permite a las entidades ofrecer servicios más personalizados, que se ajusten mejor a sus necesidades y que, en consecuencia, mejoren la experiencia de los usuarios.

Con el objetivo de conocer qué oportunidades y desafíos representa el Big Data para el sector financiero y analizar las iniciativas que han puesto en marcha las principales entidades, EXPANSIÓN y HP, organizaron un desayuno de trabajo bajo el título: Big Data, impacto y aplicaciones para el sector financiero. Un evento que contó con la presencia de destacados representantes del sector bancario como Elena Alfaro, CEO de Data Analitics de BBVA; Santiago Villar, gerente de Sistemas de Bankinter; Joan Ramón Pujol, responsable de Big Data de Banco Sabadell; Tomás Arteaga, manager de Análisis Comercial de Deutsche Bank; Ana López, directora de Customer Intelligence de ING Direct España; Luis Pascual, responsable del Sector Financiero para el Sur de Europa de HP; y Antonio Torrado, responsable para España y Portugal de los Servicios de Analytics y Data Management de HP.

“La revolución del Big Data no ha llegado todavía al sector financiero, pero está en un proceso de transformación”, subrayó Pascual. Y es que pese a que cada vez son más las entidades que apuestan por trabajar con Big Data, e incluso incorporarlo a su proceso de toma de decisiones, todavía queda mucho camino por recorrer para que se convierta en una herramienta diferenciadora en el mercado. Según los datos de una encuesta realizada por HP Analytics and Data Management, el 64% de las organizaciones están invirtiendo en este tipo de tecnología y el 45% de los ejecutivos afirman que “el Big Data será el mayor diferenciador competitivo para su compañía en el futuro”.

En este sentido, avanzar hacia un modelo en el que las decisiones se basen en la información y el valor de los datos es, según manifestaron los ponentes, una de las grandes prioridades de los departamentos de Big Data de las entidades. “Nuestro objetivo es intentar convertir a BBVA en una empresa cuyas decisiones siempre estén basadas en datos y que sea capaz de construir nuevos servicios gracias a esta información”, destacó Elena Alfaro. Una opinión compartida por el manager de Análisis Comercial de Deutsche Bank, para quien “el principal objetivo es ayudar a la toma de decisiones y detectar oportunidades de negocio”.

Experiencia

Se estima que cada día, según cifras de la Unión Europea (UE), se generan 1.700 nuevos billones de bytes por minuto. Lo que equivale, dicen, a más de 360.000 DVD. Una ingente cantidad de información que hay que almacenar, limpiar y analizar para obtener datos útiles, y que en el caso concreto del sector bancario tiene especial valor ya que, en opinión de los expertos, se trata del dato que mejor describe la realidad de los consumidores.

Sin embargo, no siempre está claro cuál es la mejor manera de explotarlo. Para Juan Ramón Pujol el principal reto “es saber qué hacer con todos estos datos. Crear un activo con nuestros datos y ofrecérselo a otras empresas para que puedan explotarlo, o bien centrar nuestros esfuerzos en mejorar la experiencia del usuario”. “Nosotros por el momento no pensamos en monetizar nada, lo enfocamos más a la experiencia del cliente”, añadió.

Otra de las áreas en la que la banca está comenzando a trabajar con los datos es en la gestión de riesgos. El Big Data puede ser un gran aliado para las entidades financieras en la gestión y optimización de todos los riesgos implícitos en su negocio: como los crediticios, de mercado, de liquidez u operacionales. “Nosotros estamos aplicando el Big Data principalmente a las áreas de riesgo y de márketing. El principal cambio que traen los datos es el poder analizar la información que tenemos de una manera distinta a como lo estábamos haciendo”, destacó Santiago Villar.

Perfiles

Según explicaron los ponentes, el principal problema que están encontrando las entidades a la hora de poner en marcha programas e iniciativas de Big Data es la falta de profesionales relacionados con este campo. “Capturar talento analítico de calidad es un reto y los entornos de la banca no siempre son los idóneos para estos nuevos perfiles”, indicó Alfaro. Se trata de equipos conformados “en su mayoría por licenciados en matemáticas”, como explicó Ana López, aunque “también hay gente con un perfil más técnico que es la que se encarga del soporte y la infraestructura”. Sin embargo, y pese a sus capacidades para trabajar con datos, estos profesionales suelen arrastrar un importante déficit: no están familiarizados con el negocio bancario. “A este tipo de perfiles les suele faltar conocimiento del negocio y si no conoces lo que estás buscando no vas a encontrar nada”, concluyó el representante de Sabadell.

Visión de 360 grados

“Las entidades financieras son capaces de tener una visión única de todas las interacciones que está teniendo el cliente en cualquier canal y en cualquier formato”, indicó Antonio Torrado. Una enorme cantidad de información que permite a las entidades tener una visión holística del cliente para ofrecerle servicios personalizados, enfocados a sus necesidades y, en definitiva, mejorar su experiencia como usuario.

Fuente: Expansión

La Mina de Oro escondido por los Datos Durmientes

Después de los estragos de proyecto CRM de principios del siglo, una segunda ola irrigó la informática de empresa, a base de cloud, sencillez y de informática analítica. Un fenómeno que revuelve el papel y las atribuciones del DSI. Flashback y prospectiva.

Al principio de los años 2000, la informática decisoria estalló, permitiéndoles a los responsables explotar el yacimiento de datos que “dormían” sobre sus servidores: análisis de los historiales clientes, detección de los productos más apreciados, análisis de márgenes, los resultados por zona comercial… La informática se convertía en una ayuda a la decisión. Sigue leyendo

La Era de la Capacidad Predictiva en el Sector Sanidad

A lo largo y ancho del mundo, la industria de la Sanidad está viviendo una transformación trascendental. Se está pasando de una era caracterizada por la recopilación de información y la generación de informes a un tiempo en el que priman el análisis de datos y la capacidad predictiva.

Los gigantescos desafíos que enfrenta la Salud hoy son más que suficientes para forzar un mejor uso de la analítica de datos. Se requiere que los gerentes estén mejor informados para tomar decisiones más inteligentes. Hace falta entablar una batalla campal a la ineficiencia arraigada en el sector, donde, históricamente, se produce un altísimo porcentaje de errores prevenibles. Algunos de los cuales, cuestan vidas. En España, por ejemplo, 8 de cada 10.000 personas mueren prematuramente en condiciones que podrían evitarse con atención médica oportuna y eficaz (OCDE, 2011). Probablemente, casi todas esas muertes prematuras pueden atribuirse al ineficiente manejo de la información médica.

Sigue leyendo

La minería de datos desaprovechada

La información es clave para todo tipo de negocios pero el enorme incremento de datos hace que éstos se vuelvan un problema y una carga, si no se los analiza, clasifica y guarda adecuadamente. Ya en noviembre de 2012 la investigadora Gartner anticipaba en su informe ‘Big data and Information Infraestructure’, que, durante este año, los grandes volúmenes de datos impactarían en las organizaciones. Se identificaba así a un conjunto de activos de información, “caracterizados por alto volumen, alta velocidad y alta variedad, que demandan formas innovadoras y costo-efectivas de procesamiento de la información para la mejor comprensión (insight) y toma de decisiones”, según define Edgardo Jury, gerente General de la consultora Technology Value Partners y representante de Gartner para el Cono Sur.
La incógnita para muchas empresas sigue siendo el cómo hacerlo. Una alternativa pasa hoy por la posibilidad de analizar los datos en base de patrones que permitan predecir comportamientos, hábitos de compra o, incluso, de fuga de clientes y fraude, entre otras acciones. Es aquí donde entran en escena las soluciones de data mining o minería de datos.
“La utilización de este concepto permite comprender mejor el comportamiento del mercado, tanto de clientes como de competidores, ayudando al diseño de productos, la gestión de ventas y, fundamentalmente, midiendo, en forma anticipada, los riesgos y la prevención de fraudes”, explica Roxana Matias Gago, socia a cargo del área de Bancos y Compañías de Seguros, de consultora internacional especializada en gestión de riesgo Crowe Horwath.
Por su parte, Daniel Yankelevich, CEO de la consultora Pragma, recuerda sin embargo, que “antes de empezar a minar, es importante entender el valor para el negocio de esos datos y definir una estrategia para alinear el proyecto tecnológico con el bottom line”. En la Argentina aún son pocas las compañías que aprovechan el data mining, recuerdan los especialistas. Entre los que sí lo hacen se encuentra CMR Falabella. Con 518 empleados y una facturación de $ 1.300 millones (2012), la división financiera del retailer chileno Falabella, utiliza la minería de datos para el desarrollo de modelos predictivos que faciliten originar y admitir nuevos clientes como para analizar el comportamiento en la administración del portfolio de clientes existentes.

El retail
La infraestructura para logralo se compone de dos equipos. Uno, compuesto por cinco profesionales, funciona dentro de la gerencia de Riesgos y se dedica a investigar los datos para detectar patrones de comportamiento, identificar desvíos y predecir tendencias. Ello redunda, luego, en la definición y ajuste de las políticas de riesgo de crédito que la empresa gestiona, según cuenta Flavia Nuñez, gerente de Riesgo y Cobranzas de CMR Falabella Argentina. Otro es el equipo de seis personas que funciona en el área de Negocios. Este se enfoca en tareas de minería para obtener información útil referida a preferencias de los clientes y, en base a ello, la potencialidad de compra y fidelización.
La ejecutiva de CMR Falabella cuenta que su compañía utiliza data mining hace más de 10 años. Sin embargo y más allá de la detección de patrones no obvios, “la práctica permite la automatización de las decisiones de crédito, agilizando los tiempos de respuesta a las solicitudes de crédito y ofreciendo un criterio uniforme en cada análisis”, detalla Nuñez. El valor agregado que se genera: llegar a los clientes con ofertas adecuadas, bien dirigidas. “Evita saturarlos con comunicaciones de ofertas que no se acercan a sus necesidades y expectativas”, puntualiza.
La firma trabaja con bases que manejan hasta seis millones de registros. “Se trabaja con un datamart, que contiene un mapa relacional de tablas que se actualizan periódicamente y a partir del cual se construyen los modelos predictivos de mora, de propensión y de fuga, entre otros”, agrega.
En referencia a los tiempos de la implementación de las soluciones elegidas (SPSS, Modeler 14.0, ambas de IBM; y SQL Server, de Microsoft), Nuñez deja en claro que estos dependen de la calidad y complejidad de los datos que le dieron origen. “Si los datos almacenados son consistentes y están organizados debidamente, el desarrollo de un modelo predictivo puede llevar entre ocho y 12 semanas, dependiendo de la complejidad del modelo”, comenta. En caso contario, si los datos de origen no son limpios porque hay datos guardados con formatos erróneos o información faltantes, los tiempos se alargan. Mientras que la implementación de sistemas agrega entre seis y ocho semanas”, observa la ejecutiva de CMR Falabella.

Más y mejor entretenimiento
DirecTV, operadora de televisión satelital, es otro caso donde la tecnología del data maning se volvió fundamental para una operación, que en la Argentina, cuenta con 3.000 empleados. “Nuestra compañía cuenta con nueve operaciones distintas en la región que llamamos Panamericana. Ellas maduraron a diferentes velocidades, según la realidad de cada mercado. Por ello, conviven una cantidad importante de versiones distintas de software de base de datos y sistemas satélite de la compañía. SAS (N.d.R.: proveedor con el cual colaboran en data mining) resultó un aliado frente a este contexto, ayudando a llevar las fuentes de datos a una visión estandarizada y permitiendo, luego, una explotación más ordenada de la información”, comenta Damián Ignacio Ramos, gerente Regional de Analytics en DirecTV para la región Panamericana. El ejecutivo resalta que tuvieron avances “en tan sólo dos meses, en la gestión de campañas y en aplicaciones de análisis avanzado con interfaces sencillas de usuario final”.
La buena experiencia con la solución hizo escuela dentro de la empresa, que para la región Panamericana registró, al 31 de diciembre 2012, una facturación anual de u$s 2.700 millones. Junto al área de Experiencia del Cliente, hoy, la están utilizando otros sectores de la compañía, como Marketing, Finanzas y Operaciones.
“Lo utilizan más de 100 usuarios repartidos en las operaciones de América latina, con la administración de la plataforma y el hardware centralizados en la Argentina – asegura el ejecutivo de DirecTV y continúa- Nuestra área, compuesta por 40 personas, la utiliza para analizar las razones de fuga de clientes, gestionar campañas de fidelización, para cobrar, para hacer controles de auditoría y para realizar la segmentación de clientes”.
Mientras, en Nextel, el disparador que los condujo hacia la implementación de data mining fue la creación de un área de Business Intelligence (BI). “El objetivo era hacer una consolidación efectiva de la información de los sistemas para reporte y generación de tableros de alta complejidad. El tema es que debía ser de fácil uso para facilitar el proceso de toma de decisiones estratégicas. Una vez que la plataforma de BI estuvo madura, surgió la necesidad de buscar formas predictivas de retener e identificar a nuestros clientes”, recuerda Matías Ravizzoli, director de Business Intelligence de Nextel Argentina. Los proveedores elegidos por esta empresa fueron MicroStrategy, para la visualización, y SPSS para la generación de modelos de minería.

Telecomunicaciones y data
La empresa de telecomunicaciones móviles, que tiene en nuestro país 1.650 empleados y factura, aproximadamente, u$s 700 millones, utiliza este tipo de soluciones para la retención, fidelización, cobranzas y atención al cliente. “A toda operadora de telecomunicaciones, le preocupa el nivel de clientes que se desactivan (churn). Por eso, buscamos soluciones para predecir la posibilidad que tenía cada cliente de darse de baja en nuestro servicio, tanto en forma voluntaria como involuntaria, por falta de pago”, comenta Ravizzoli. Como complemento de estos modelos de predicción de churn se realizó un modelo de valor de cliente para saber también a qué clientes priorizar en nuestras acciones proactivas, revela el ejecutivo. Con las implementaciones, Nextel logró reducir la tasa de ‘bajas’ de clientes y los deudores. “Además, la percepción de nuestros clientes cambió positivamente”, agrega.
Antes de concluir, Ramos, de DirecTV sugiere a las empresas interesadas en implementar data mining que contraten los mejores talentos posibles porque, allí, radica la mayor parte de probabilidad de éxito. El especialista recomienda no comenzar con proyectos grandes sino con pequeños, “siempre, teniendo una estrategia de centralización de datos y aplicaciones como norte, para evitar la duplicidad de soluciones”.
Mientras, Nuñez, de CMR Falabella, aconseja no dudar en incorporar el data mining a la gestión. “Los ayudará enormemente en concentrarse en la información más relevante, a la hora de tomar sus decisiones de negocio”, sostiene. Sin embargo, muchas empresas aún se debaten ante tal posibilidad.

Fuente: Cronista.com