Solo un 20% de las empresas utilizan bien el ‘Big Data’ en sus compras, según BravoSolution

Solo un 20% de los departamentos de compras de las compañías están empleando actualmente programas de ‘Big Data’, aunque casi la mitad disponen o han dispuesto de un software de gestión de datos en los dos últimos años, según un informe de la Universidad de Carolina del Norte (Estados Unidos) y BravoSolution. Sigue leyendo

Datos, el petróleo del siglo XXI

La explosión de los dispositivos conectados ha convertido los datos , la materia prima más codiciada del momento, en el objeto de deseo de las empresas, que ven en ellos una palanca para ensanchar sus negocios y ganar clientes.

Nunca antes dos palabras habían levantado tanta expectación. Dos palabras en las que las empresas invertirán más de 40.000 millones de euros al año a partir de 2019, según los cálculos de la consultora IDC. Dos palabras en la que magnates como  Michael ¨Dell confían tanto como afirmar que en ellas se encuentra la próxima “industria del billón de dólares” y que el nuevo consejero delegado de Telefónica, José María Álvarez Pallete, ha llegado a calificar como “el petróleo del siglo XXI”. Esas dos palabras son “Big Data”

Sigue leyendo

Big Data o cómo analizar lo que la mente humana no puede

Intregrar el ‘big data’ en las empresas es clave. Formar a la plantilla ayuda a que todos los departamentos se involucren con los datos.

¿Es tu empresa un lugar excelente para trabajar?

El big data está de moda. Arrasa en el mundo de los negocios y ninguna empresa quiere quedarse fuera. El término no se refiere únicamente a una herramienta informática capaz de procesar ingentes cantidades de datos para sacar ventaja a compañías de la competencia. La salvación de los neófitos digitales no es contratar a un ingeniero que ponga a funcionar un programa que analice lo que la mente humana no puede hacer. El proceso es más complejo y requiere la transformación de la empresa en su conjunto. Sigue leyendo

Cómo analizar a nuestros clientes

Una de las acciones más importantes y rentables para una compañía es analizar los datos de sus clientes estudiando los distintos perfiles. Pero no se trata de una acción única, sino de algo continuado en el tiempo, lo que nos permitirá ver la evolución de la cartera de clientes y las variaciones en las tendencias de consumo.

Para llevar esto a cabo, la opción más lógica es crear y mantener actualizado un registro informatizado de los datos de clientes, en el que se almacenarán sus datos personales, aficiones, gustos, productos que compran, fechas de compra, formas de pago, importes de las compras,….y todos los datos que puedan aportarnos un mayor conocimiento. Sigue leyendo

“ Big Data “o cómo reinventar un modelo de negocio

El análisis de grandes cantidades de información plantea oportunidades aún inimaginables para las empresas. El futuro ya está aquí.

Big Data. Es el concepto tecnológico del momento. Un término inmaduro, para el que aún no hay una traducción clara (¿grandes datos?, ¿datos masivos?) y que no siempre se emplea de forma correcta. ¿Qué es verdaderamente el big data? “ Se trata de hacer cosas a partir del análisis de inmensas cantidades de información, que simplemente no son posibles con volúmenes más pequeños”, resume Kenneth Cukier, data editor de The Economist y autor de Big Data la Revolución de los datos Masivos.

Pongamos un ejemplo. Farecast es una empresa estadounidense fundada en 2003 que, a partir de miles de millones de registros, era capaz de calcular la probabilidad de que un billete de avión subiera o bajara de precio, y estimara el mejor momento para comprar. En 2009 Microsoft pagó más de 100 millones de dólares por esta compañía. “La tecnología de predicción de precios es aplicable no sólo a los billetes de avión, también a las habitaciones del hotel y a muchos otros productos y servicios. Sólo evaluando esa cantidad tan enorme de datos es posible estimar probabilidades de acierto”, recordó Cukier el pasado jueves, conferenciante estrella de IX jornada anual de antiguos alumnos de Madrid.

El caso de Farecast marcó un precedente. “Nunca antes la información publicada por las aerolíneas se había vuelto en contra de su modelo de negocio” apuntó este experto.

Hoy, un paradigma empresarial puede desaparecer casi de la noche a la mañana.

Y, sin embargo, el big data plantea más oportunidades que riesgos. La oportunidad, por ejemplo, de que un hospital ahorre tiempo y dinero estimando la probabilidad de que un paciente empeore. De que una compañía petrolífera encuentre nuevos pozos e incremente su producción. De que una organización detecte si un empleado con gran potencial cambiará de empresa en los próximos dos años. O de que una app muy popular pueda comercializar con información agregada de los hábitos de consumo de sus usuarios.

Cruce de datos

En ocasiones, la correlación de datos permite descubrir patrones de comportamiento. El gigante estadounidense Walmart estableció, cruzando su base de datos de ventas con información meteorológica, que sus cereales Kellogg´s Pop Tarts se vendían más los días de tormenta, y decidió colocarlos en la última estantería de las tiendas e instar así a los clientes a recorrer todo el establecimiento.

Las oportunidades de negocio, además se hacen más atractivas a medida que la inversión necesaria para hacer big data se reduce. Iberdrola es un caso en España de cómo la reducción del coste de las nuevas tecnologías está haciendo posible el análisis de patrones de consumo de sus clientes y el lanzamiento de tarifas segmentadas. A más largo plazo la eléctrica se dirige hacia un servicio cada vez más personalizado.

“En poco más de un año, el coste de las tecnologías de almacenamiento cloud se ha reducido en un 85%” recalca José Luis Sancho, director de Accenture Gigital. “Los beneficios son tan grandes que muy pronto no habrá dispositivos sin sensores para la monitorización en tiempo real “, vaticina Daniel Carreño, presidente de General Electric España y Portugal.

Aquí entran en juego otros conceptos, como el Internet de las Cosas, la Industria 4.0 y las ciudades inteligentes o Smart cities, basadas en la incorporación de sensores en semáforos, transporte público o farolas. Siemens por ejemplo, ha puesto en marcha un proyecto piloto en Berlín para registrar las plazas de aparcamiento disponibles y contribuir así a reducir la contaminación de la ciudad.

Inteligencia Artificial

Otro concepto en auge es el de machine learning, que forma parte dela inteligencia artificial. Los aspiradores inteligentes de Roomba, por ejemplo, memorizan la distribución de una habitación aprenden por sí solos cualquier posible cambio. El buscador de Google es capaz de anticipar una búsqueda con solo incorporar las primeras letras. Y Telefónica se ha asociado con BigML para desarrollar un algoritmo capaz de predecir en qué start up merece la pena invertir.

Por supuesto, la máquina no siempre acierta. Es aquí donde entra el raciocinio humano y el sentido común. En cualquier caso, con el paso del tiempo, a medida que la muestra para analizar aumenta , los algoritmos se vuelven más exactos.
El big data plantea asimismo importantes retos en cuanto a la privacidad de las personas. “Se puede saber mucho del estado económico o de salud de alguien cruzando simplemente sus búsquedas en Google”. Comentan fuentes de una compañía de publicidad programática.

En esta información no nos extenderemos exponiendo algunas de las previsiones de crecimiento del big data que estiman las grandes firmas de análisis. En primer lugar, porque las cifras son tan grandes, que resulta difícil hacerse una idea de la magnitud real de la cuestión. Pero, sobre todo, porque la rapidez con la que evoluciona el mundo hace muy probable que esas estimaciones se queden cortas. Baste subrayar que “el cambio está ya aquí, y no hay vuelta atrás” concluye Cukier.

Fuente: Expansión_Economía Digital 27/10/2015

De la nube al Big Data

Sin una inversión en tecnología, las empresas no pueden completar este camino con éxito. Por ejemplo sin el cloud computing, que permite alquilar capacidad informática en un modelo de pago por uso evitando así cuantiosos desembolsos en infraestructura, no habríamos asistido a la explosión de start up con revolucionarios modelos de negocio.

En la agenda tecnológica destaca el Big Data, que permite conocer más y mejor a los clientes a través del análisis de su relación con la empresa y el cruce de estos datos con información pública de los usuarios. Además de permitir abrir nuevas vías de negocio, con el Big Data se persigue poder personalizar cada vez más la oferta.

La banca española se está poniendo las pilas en la adopción del Big Data, aunque aún queda mucho camino por recorrer. BBVA cuenta con una filial independiente para dar servicio al banco y explotar comercialmente este negocio. Por su parte la Caixa está desarrollando cerca de 50 proyectos en este terreno, ámbito en el que también trabajan entidades como Santander. “La cuenta 123 nos proporciona información para dar mejores servicios”, ejemplifican en la entidad a la hora de hablar de su estrategia en el ámbito del Big Data.

Otras firmas como Repsol, han encontrado en el análisis avanzado de datos una herramienta idónea para la predicción y la optimización de activos dentro de la compañía.

Fuente: Expansión 6/10/2015

El Big Data, la última frontera de la banca

Los representantes del sector apuestan por emplear los datos para optimizar procesos internos de las entidades como la toma de decisiones o la gestión de riesgos. El 64% de las compañías está invirtiendo en el Big Data.

El Big Data ha dejado de ser una promesa para convertirse en una realidad. Tras el éxito de la primera transición a la banca online, las entidades se enfrentan ahora a un nuevo desafío: explotar y sacar rentabilidad de la gran cantidad de datos que manejan de sus clientes. Una información que abarca desde los movimientos que un usuario realiza en sus cuentas cada mes, hasta los productos y servicios que tiene contratados o las operaciones que realiza en los cajeros. Una radiografía de sus clientes que permite a las entidades ofrecer servicios más personalizados, que se ajusten mejor a sus necesidades y que, en consecuencia, mejoren la experiencia de los usuarios.

Con el objetivo de conocer qué oportunidades y desafíos representa el Big Data para el sector financiero y analizar las iniciativas que han puesto en marcha las principales entidades, EXPANSIÓN y HP, organizaron un desayuno de trabajo bajo el título: Big Data, impacto y aplicaciones para el sector financiero. Un evento que contó con la presencia de destacados representantes del sector bancario como Elena Alfaro, CEO de Data Analitics de BBVA; Santiago Villar, gerente de Sistemas de Bankinter; Joan Ramón Pujol, responsable de Big Data de Banco Sabadell; Tomás Arteaga, manager de Análisis Comercial de Deutsche Bank; Ana López, directora de Customer Intelligence de ING Direct España; Luis Pascual, responsable del Sector Financiero para el Sur de Europa de HP; y Antonio Torrado, responsable para España y Portugal de los Servicios de Analytics y Data Management de HP.

“La revolución del Big Data no ha llegado todavía al sector financiero, pero está en un proceso de transformación”, subrayó Pascual. Y es que pese a que cada vez son más las entidades que apuestan por trabajar con Big Data, e incluso incorporarlo a su proceso de toma de decisiones, todavía queda mucho camino por recorrer para que se convierta en una herramienta diferenciadora en el mercado. Según los datos de una encuesta realizada por HP Analytics and Data Management, el 64% de las organizaciones están invirtiendo en este tipo de tecnología y el 45% de los ejecutivos afirman que “el Big Data será el mayor diferenciador competitivo para su compañía en el futuro”.

En este sentido, avanzar hacia un modelo en el que las decisiones se basen en la información y el valor de los datos es, según manifestaron los ponentes, una de las grandes prioridades de los departamentos de Big Data de las entidades. “Nuestro objetivo es intentar convertir a BBVA en una empresa cuyas decisiones siempre estén basadas en datos y que sea capaz de construir nuevos servicios gracias a esta información”, destacó Elena Alfaro. Una opinión compartida por el manager de Análisis Comercial de Deutsche Bank, para quien “el principal objetivo es ayudar a la toma de decisiones y detectar oportunidades de negocio”.

Experiencia

Se estima que cada día, según cifras de la Unión Europea (UE), se generan 1.700 nuevos billones de bytes por minuto. Lo que equivale, dicen, a más de 360.000 DVD. Una ingente cantidad de información que hay que almacenar, limpiar y analizar para obtener datos útiles, y que en el caso concreto del sector bancario tiene especial valor ya que, en opinión de los expertos, se trata del dato que mejor describe la realidad de los consumidores.

Sin embargo, no siempre está claro cuál es la mejor manera de explotarlo. Para Juan Ramón Pujol el principal reto “es saber qué hacer con todos estos datos. Crear un activo con nuestros datos y ofrecérselo a otras empresas para que puedan explotarlo, o bien centrar nuestros esfuerzos en mejorar la experiencia del usuario”. “Nosotros por el momento no pensamos en monetizar nada, lo enfocamos más a la experiencia del cliente”, añadió.

Otra de las áreas en la que la banca está comenzando a trabajar con los datos es en la gestión de riesgos. El Big Data puede ser un gran aliado para las entidades financieras en la gestión y optimización de todos los riesgos implícitos en su negocio: como los crediticios, de mercado, de liquidez u operacionales. “Nosotros estamos aplicando el Big Data principalmente a las áreas de riesgo y de márketing. El principal cambio que traen los datos es el poder analizar la información que tenemos de una manera distinta a como lo estábamos haciendo”, destacó Santiago Villar.

Perfiles

Según explicaron los ponentes, el principal problema que están encontrando las entidades a la hora de poner en marcha programas e iniciativas de Big Data es la falta de profesionales relacionados con este campo. “Capturar talento analítico de calidad es un reto y los entornos de la banca no siempre son los idóneos para estos nuevos perfiles”, indicó Alfaro. Se trata de equipos conformados “en su mayoría por licenciados en matemáticas”, como explicó Ana López, aunque “también hay gente con un perfil más técnico que es la que se encarga del soporte y la infraestructura”. Sin embargo, y pese a sus capacidades para trabajar con datos, estos profesionales suelen arrastrar un importante déficit: no están familiarizados con el negocio bancario. “A este tipo de perfiles les suele faltar conocimiento del negocio y si no conoces lo que estás buscando no vas a encontrar nada”, concluyó el representante de Sabadell.

Visión de 360 grados

“Las entidades financieras son capaces de tener una visión única de todas las interacciones que está teniendo el cliente en cualquier canal y en cualquier formato”, indicó Antonio Torrado. Una enorme cantidad de información que permite a las entidades tener una visión holística del cliente para ofrecerle servicios personalizados, enfocados a sus necesidades y, en definitiva, mejorar su experiencia como usuario.

Fuente: Expansión

Datos masivos impulsando al seguro

Ernst & Young, FrontQuery y Teradata presentan un análisis conjunto.

Los datos masivos, conocidos como ‘Big Data’, y su análisis han llegado para quedarse en la gestión empresarial. Alrededor del 30% de las empresas del sector financiero –banca y seguros– en España aprovecha ya, en mayor o menor medida, las oportunidades que ofrecen estas soluciones para impulsar el crecimiento y la innovación, así como para gestionar el nuevo y exigente entorno regulatorio y mejorar la eficiencia y la productividad.
En resumen, la combinación de una ingente explosión de datos y el rápido desarrollo tecnológico para almacenar y procesar la información que proporcionan está provocando una auténtica transformación en la gestión de los negocios. Un nuevo enfoque que aún tiene ante sí el reto de cuantificar el valor que es capaz de aportar realmente.

Estas son algunas de las conclusiones del primer informe, y su comparativa 2014-15, ‘Big Data en el sector financiero español’, de Ernst&Young (EY), FrontQuery y Teradata.

En lo referido a las utilidades percibidas por ambos sectores en este campo, un 33,3% de las entidades consultadas resaltó las generadas en la segmentación y el ciclo de vida de sus clientes, así como en el ‘targeting’ –o clasificación– avanzado, traducidas en mayor rendimiento y eficiencia de las acciones comerciales. Además, en 2015 aparecen con fuerza la estratificación del riesgo y la valoración de carteras. Un 15,4% resalta la posibilidad de fidelizar clientes a través de análisis predictivos avanzados, lo que señalan en especial las entidades aseguradoras. Y a un 10,3% le resulta crucial la gestión de la llamada multicanalidad, en un entorno donde las tecnologías multiplican los canales de comunicación y elevan la capacidad de transacción y la información a compartir.

La combinación de los datos masivos y su análisis permite a bancos y aseguradoras aprovechar las nuevas y variadas fuentes de información y convertirse en entidades más inteligentes, logrando una mayor diferenciación en un mercado competitivo tan cambiante.

Así, entre las oportunidades que proporciona, el 28,8% de los encuestados destaca la ayuda que presta en los procesos complejos de toma de decisiones. Una ventaja que repercute positivamente en los resultados de negocio. No obstante, el 40,6% de las aseguradoras resaltan la oportunidad de extraer inteligencia de la combinación de fuentes estructuradas y no estructuradas de información.

Por lo que se refiere a las áreas más beneficiadas, los directivos del sector asegurador destacan: los seguros de Autos (32,5%), los planes de pensiones y otros instrumentos de previsión social (30%) y los seguros de salud (25%).

Sin embargo, aún se perciben algunas barreras: de tipo tecnológico (un obstáculo para el 40,6%), presupuestario (11,8%), de falta de conocimiento especializado (47,1%) y de criterio dentro de las entidades, que actualmente preocupa al 23,5%.

Fuente: Ausbanc Revista

¿Conoces a tus clientes?

Perseguir el éxito en el actual entorno empresarial obliga a las compañías a replantearse su actual modelo de negocio, que avanzará hacia un entorno basado en el conocimiento del cliente más que en el producto o servicio ofrecido. Ya en el siglo XVI Francis Bacon dijo “El conocimiento se adquiere leyendo la letra pequeña del contrato…”. Para obtener el conocimiento del cliente hay que analizar exhaustivamente las BBDD* de cliente (leer letra pequeña del contrato), en la que se encuentra oculta información muy valiosa sin explotar, con la que podrás entre otras las siguientes respuestas:

  • ¿Quiénes son mis mejores clientes?
  • ¿Con que frecuencia adquieren mis servicios?
    • Poca frecuencia e inversión alta
    • Muchas frecuencia e inversión baja
  • ¿Qué tipos de productos adquiere cada cliente?
  • ¿Cuánto tipo hace que no adquieren mis servicios?

Sigue leyendo

Técnicas de minería de datos aplicadas al diagnóstico de entidades clínicas

La Universidad de las Ciencias Informáticas (UCI), posee varios centros de desarrollo de software. El Centro de Informática Médica (CESIM) es uno de ellos, encargado del desarrollo de aplicaciones para el sector de la salud; entre estas se encuentra el Sistema Integral para la Atención Primaria de la Salud (alas SIAPS), el cual posee un componente de tipo Sistema Clínico de Soporte para la Toma de Decisiones (CDSS), para que facilite el procesamiento analítico en línea y la minería de datos y que servirá además al resto de los ambientes bajo un escenario tecnológicamente sólido. Actualmente en el Centro de Toma de Decisiones se está manejando la información con técnicas estadísticas; sin embargo, con estas técnicas no se está aprovechando al máximo la información almacenada.

Las Historias Clínicas Electrónicas (HCE) pertenecientes al alas SIAPS, se encuentran almacenadas en un gran repositorio y su información se envía periódicamente a un Datamart. Dado el gran volumen de datos acumulado en él, y la incapacidad de los especialistas de identificar patrones de comportamiento y extraer conocimiento oculto en los datos almacenados para apoyar sus decisiones, surge la necesidad de aplicar la minería de datos.

En la actualidad, la Hipertensión Arterial se ha convertido en una de las primeras causas de muertes en el mundo. Según el reporte de la Organización Mundial de la Salud (OMS) del 2012 1 de cada 3 personas en el mundo padece de Hipertensión Arterial; además agrega que 1 de cada 10 personas es diabética. Algunos autores como Cumbá, coinciden que anualmente existen 7.2 millones de muertes por enfermedades del corazón. La hipertensión arterial es la segunda causa de muerte a nivel mundial, se reconoce internacionalmente como “muerte silenciosa” pues en la mayoría de los casos los pacientes tienden a ser asintomáticos.

Debido al gran volumen de datos existentes en el datamart, se dificulta la toma de decisiones de los especialistas para realizar un análisis rápido y efectivo y de esta manera encontrar información útil y valiosa oculta en ellos; por otra parte, la no predicción del comportamiento futuro de algunos problemas de salud presentes en las HCE con un alto porcentaje de certeza, basado en el entendimiento del pasado.

La minería de datos es un área de la inteligencia artificial que permite darle solución al problema descrito, la misma se basa en varias disciplinas, algunas de ellas más tradicionales, se distingue de ellas en la orientación más hacia el fin que hacia el medio. Y el fin lo merece: ser capaces de extraer patrones, de describir tendencias y regularidades, de predecir comportamientos y, en general, de sacar partido a la información computarizada que nos rodea hoy en día y que permite a los individuos y a las organizaciones comprender y modelar de una manera más eficiente y precisa el contexto en el que deben actuar y tomar decisiones.

En este artículo se propone exponer, mediante la combinación de dos modelos matemáticos, cómo se puede contribuir al diagnóstico de enfermedades, usando técnicas de minería de datos. Sigue leyendo