El maná de los datos

El 90% de los datos acumulados en todo el mundo se han creado en los dos últimos años. Cada día se escriben 400 millones de tuits, cada minuto se crean 600 nuevos blogs y cada segundo se registran 10.000 transacciones de pagos con tarjetas. Objetos cotidianos como los coches, los relojes o las gafas están comenzando a conectarse a Internet para alimentar nuevos servicios que requieren un constante intercambio de información. Los Ayuntamientos siembran las calles con sensores de recogida de datos para facilitar la vida de los ciudadanos. Cada día se recogen 2,5 trillones de bites de datos, y los directivos de las empresas apenas pueden manejar la mitad de los generados en su entorno porque el 80% de ellos están desestructurados. El número de dispositivos en red duplicará a la población mundial en 2015 y los datos que generen se convertirán en información utilizada por las empresas para anticipar las necesidades de los consumidores. Quien no lo haga quedará fuera del mercado.

La respuesta para ordenar este caos es big data, la nueva herramienta para sistematizar los datos procedentes de cualquier soporte —incluyendo imagen y sonido— y convertirlos de forma automática en información. Big data ha ayudado a ganar las elecciones a Barak Obama y ha reducido de días a minutos la detección de uso de información privilegiada en Wall Street. En torno a ella se está creando un mercado evaluado por la firma de análisis Gartner en 132.000 millones de dólares para 2015. Ese año se crearán 4,4 millones de puestos de trabajo para abastecerlo. Los expertos comparan la herramienta a la revolución industrial en el mundo de los datos y afirman que con ella cambiará nuestra forma de vida.

Los sistemas de big data son tan importantes para la economía estadounidense que su desaparición la llevaría a la semiparálisis. Gigantes de Internet como Google, Amazon o Facebook desaparecerían. Ellos pusieron las primeras piedras de estas refinerías de datos que empresas de servicios como IBM, SAP u Oracle han sistematizado para adaptarlas a todo tipo de empresas. “En 1998, cuando lanzamos Google, comenzamos a gestionar big data para indexar nuestras búsquedas”, explica un portavoz de Google Enterprise, que ahora comercializa el recurso a través de su web a pequeñas empresas. Big data ha saltado de Internet al mundo real, y las empresas investigan sus aplicaciones para mejorar la gestión, ahorrar consumos o lanzar nuevos servicios.

Vestas, que ha instalado 47.000 aerogeneradores en sus 30 años de vida, ha incorporado un sistema de big data para identificar localizaciones más rentables. Citigroup está explorando las posibilidades del robot Watson de IBM para mejorar la atención a sus clientes. Watson es un big data que ya funciona en el Memorial Sloan-Kettering Cancer Center de Nueva York para buscar en minutos resultados que ayuden a diagnosticar entre un millón y medio de fichas de pacientes. Cap Gemini y SAP desarrollan un sistema para enviar ofertas al móvil de los clientes de supermercados en función de lo que están metiendo en el carro y antes de que lleguen a la caja. Un sistema similar de SAP funciona en la cadena japonesa de electrónica Yodobashi. La reducción de la pérdida de clientes será una de las principales causas del ahorro producido por las plataformas de big data en los operadores móviles de todo el mundo para 2018, evaluada en 9.000 millones de dólares por Juniper Research.

Anticiparse a las necesidades de los clientes será una ventaja competitiva

Ciudades de todo el mundo adoptan sistemas de big data con buenos resultados. En EE UU, Las Vegas ha reducido el 6,4% de los delitos violentos y el 8,6% de los incendios provocados. Río de Janeiro ha acortado el tiempo de respuesta a emergencias en un 30% como parte de los preparativos del Mundial de fútbol de 2014 y los Juegos Olímpicos de 2016. IBM desarrolla en Holanda un sistema de control y gestión del agua que podrá ahorrar 1.000 millones de euros anuales y evitar desastres. El estallido del nuevo mercado ha llevado a IBM a revisar al alza en un 25% las previsiones de facturación de su división de analítica de datos (tiene 30.000 proyectos en cartera) para llegar a 20.000 millones de dólares en 2015.

Los líderes que apoyan sus decisiones en una combinación de experiencia y buen juicio son cada vez más escasos. Las 600 mayores multinacionales han incorporado big data a su toma de decisiones, y un estudio de Cap Gemini recoge que el 60% de ellas aumentará la inversión en ese terreno, porcentaje que asciende al 75% entre las firmas de servicios financieros, energía y salud. El rendimiento de las organizaciones, según la misma fuente, mejoró en un 26% al año de ponerlo en marcha, y el impacto llegará al 41% en tres años.

Big data empieza a dar los primeros pasos en Europa. La británica Tesco, cuarta cadena minorista mundial, lo acaba de implantar para controlar la energía en 120 tiendas irlandesas y quiere extenderlo a las 3.000 tiendas que tiene entre Irlanda y Reino Unido para lograr un ahorro de 20 millones de euros en consumos energéticos. ING Direct ha lanzado en Holanda un servicio para vigilar la interacción de los clientes con la web que genera llamadas telefónicas automáticas para ayudar a quienes no logran terminar su operación, una forma de fidelizar clientes. “Los datos son el nuevo recurso natural, y big data es la forma de análisis que cruza por primera vez vídeo, audio y bases de datos para dar información en tiempo real. Es un salto cualitativo que las empresas y las Administraciones estudian incorporar a su negocio, tanto en su gestión interna como para lanzar productos y servicios anticipándose al deseo del cliente”, explica Carmen García, directora de analítica de negocio de IBM para España, Portugal, Israel y Grecia.

Big data ha convertido los datos en el nuevo maná. Los organiza de forma que acelera de 15 a 100 veces la solución de problemas y las predicciones del negocio. No solo eso. Cambiar los sistemas de datos de una organización a big data permite reducir el gasto de almacenaje tradicional de información hasta en un 90%. “En grandes empresas puede suponer un ahorro de 20 a 60 millones de euros anuales”, puntualiza Juan Carlos Martínez, director de Cap Gemini para big data.

EE UU va muy por delante. Europa apenas da sus primeros pasos

En España, la Administración y los bancos van por delante. La Agencia Tributaria ha puesto el acento en el análisis del fraude, y las fuerzas de seguridad del Estado quieren usarlo en la asignación de nuevos recursos. Las empresas siempre han utilizado herramientas de análisis de información para optimizar los datos generados en su entorno. Ahora investigan con cautela la potencia de big data “para ver dónde nos puede aportar rentabilidad”, asegura Javier Roldán, responsable de innovación tecnológica de Gneis, la empresa de tecnología de Bankinter, que lleva un año probando los servicios desarrollados con la nueva herramienta.
La supervivencia de los viajes

La española eDreams no habría llegado a ser la mayor agencia de viajes online de Europa, con 14 millones de clientes, sin big data. “Procesamos 60.000 combinaciones diferentes de vuelos y hotel al segundo, con el envío de 400 peticiones a nuestros proveedores, para presentársela a cada usuario. Cada asiento de cada avión de cada compañía aérea de todo el mundo tiene un precio diferente que puede variar según el grado de ocupación. Big data nos aporta además la experiencia histórica de cada cliente, que tenemos en cuenta para darle la respuesta”, explica Josep Bernat, chief revenue officerde eDreams.

La central de reservas Amadeus insta a las empresas a que incorporen la herramienta. Su argumento es la investigación realizada por el profesor Thomas Davenport, de la escuela de negocios de Harvard, sobre la experiencia de Air France-KLM, Lufthansa, British Airways, Cathay, Eurostar, Kayak, Hoteles Marriott o el aeropuerto de Múnich. “Son empresas punteras que están experimentando un enorme impacto por el uso de big data”, asegura el profesor. El informe indica que “las aerolíneas, los aeropuertos, los hoteles, las empresas ferroviarias y los distribuidores de productos turísticos deben plantearse una estrategia big data para situarse a la vanguardia”.

Convence con múltiples ejemplos. La industria aérea comercial podría ahorrar 30 millones de dólares en 15 años con la recogida de datos realizada por los sensores que GE coloca en los motores de los aviones. Trece de las 25 mayores cadenas hoteleras de todo el mundo efectúan ya sus inversiones y sus ofertas comerciales, incluso el color de las paredes de los restaurantes o las habitaciones, cada vez más en función de sofisticados sistemas de análisis de datos de clientes.

BBVA ha creado el puesto de responsable de big data y desde hace dos años investiga la forma de rentabilizar los datos del banco con productos que ayuden en la toma de decisiones “tanto dentro como fuera del banco. Los datos son un activo muy importante para generar un nuevo tipo de ingresos”, puntualiza Elena Alfaro, responsable del departamento. El banco ha utilizado big data para detallar el comportamiento de los turistas en Madrid durante 2012 a partir de su actividad comercial, en un estudio realizado para el Ayuntamiento de la capital con el objetivo de mejorar la estrategia turística de la ciudad.

Fidelizar clientes con nuevos servicios desarrollados gracias al análisis acelerado de la información es una de las mayores ventajas de big data. Los clientes de Caixabank utilizan desde finales de 2012 PremiaT, una aplicación para descubrir las ofertas de los comercios cercanos a su móvil, que realiza el descuento de forma automática al pagar con la tarjeta del banco. “Hubiera sido imposible hacerlo sin big data”, explica el portavoz de la entidad.

Más llamativo es el servicio puesto en marcha por Sanitas para prevenir enfermedades entre sus 2,3 millones de clientes. “En un año hemos realizado 800.000 contactos a 100.000 clientes para darles consejos o indicarles la conveniencia de hacer pruebas de detección precoz cuando detectamos que por su perfil puede ser conveniente. Si somos capaces de analizar y sacar conclusiones de los datos de nuestros 2,3 millones de clientes podremos darles mejores servicios”, explica Pedro Cano, director ejecutivo de sistemas de información de la aseguradora. Las farmacéuticas y las aseguradoras de todo el mundo han sumado la fuerza de sus datos para acelerar la investigación contra el cáncer, el alzhéimer y otras lacras de la sociedad. Eso y “hacer predicciones de comportamientos futuros de pacientes” son para Pedro Cano las mayores ventajas de big data, que puede “mejorarnos la vida hasta límites insospechados”.

Mapfre, Dia o Telefónica investigan la forma de fidelizar clientes, y Cortefiel está incorporando ventajas a su tarjeta de clientes. “Hemos mezclado todos los parámetros de cada cliente y de su interacción en nuestra web con información externa, tanto de mercado como meteorológica, por ejemplo, para optimizar el marketing personalizado que ya hacemos, y lo estamos probando en un proyecto piloto”, explica Juan Vicente García, director de marketing inteligente de Cortefiel. El reciente acuerdo de Banco Santander, La Caixa y Telefónica para formar una empresa de servicios de e-commerce para el pequeño comercio ha contado con la valiosa herramienta para dar el paso.

Big data será la herramienta imprescindible del día a día de las empresas, pero donde más llegará a brillar será en la segmentación y retención de clientes. “La principal línea de negocio de big data estará en las empresas de servicios. Mezclarán la información procedente de distintas fuentes y harán campañas de marketing personalizado asociado a la geolocalización con datos de su perfil de riesgo, sus gustos y sus hábitos, por ejemplo. Su potencial es inmenso, ahora apenas vemos la punta del iceberg”, predice Ignacio Faus, socio responsable de transactions & reestructuring de KPMG España. Las grandes superficies, los comercios o los bancos dejarán de bombardearnos con ofertas. “Nos enviarán dos o tres ajustadas a nuestras necesidades reales, en lugar de las 32, por ejemplo, que hacen ahora, y serán definitivas”, puntualiza Juan Carlos Martínez. Un mundo de consumo a medida.
Fuente: El País

Tecnológicas “afilan” sus “garras” para capturar los negocios del “BIG DATA”, la explosión de datos

El 90% de toda la información que existe en la actualidad se ha creado en los últimos dos años y el 80% no está estructurada, procedente de vídeos, imágenes digitales, correos electrónicos, comentarios en redes sociales y otros textos

Cada vez se producen más datos y aumenta la necesidad de almacenarlos. El desafío consiste en aprovechar esta fuente enorme de información digital aún no estructurada, a partir de su manipulación, análisis y segmentación.

Se trata de un conjunto inmenso compuesto por textos, imágenes, videos, gráficos y todo tipo de contenidos electrónicos.

Los proveedores de la industria de las tecnologías de la información (TI) llaman a este proceso como “Big Data” (“grandes datos”) y es una de las mayores tendencias que las empresas y los gobiernos adoptarán durante los próximos años para mejorar su competitividad.

Según EMC, uno de los mayores fabricantes mundiales de sistemas informáticos de almacenamiento, este año se rompió una nueva marca luego que en un solo mes en el primer trimestre se generara en datos 1 exabyte (1.000 millones de gigabytes), una cifra que en 2010 se consiguió en un año.

En tanto, según un estudio del área de investigaciones de la multinacional IBM, “el 90 por ciento de toda la información que existe en la actualidad se ha creado en los últimos dos años y el 80 por ciento es información no estructurada, procedente de videos, imágenes digitales, correos electrónicos, comentarios en las redes sociales y otros textos”.

De acuerdo con la firma, “este prolífico universo de información que crece a ritmos exponenciales ha creado el Big Data.Sus características son su variedad, velocidad, volumen y veracidad”.

En dicho universo impregnado de incertidumbre y ambigüedad, las herramientas de Big Data y Big Analytics (herramientas de procesamiento y análisis de datos masivos) permiten llegar a conclusiones precisas y concretas.

Michael Karasick, vicepresidente y director del laboratorio IBM Research Almaden, señaló que “esta infinidad de datos, tan variados y con una gran velocidad de crecimiento esconden tras de sí un gran conocimiento que puede ayudar al mundo a mejorar sus procesos e ineficiencias”.

Pero no sirven de nada si no se pueden almacenar, discriminar, procesar y analizar para sacar a la luz ese conocimiento.

“Además, su utilidad depende también de que este proceso se realice en fracciones de segundo y de manera eficiente”, remarcó Karasick.

Para este ejecutivo, “la tecnología ya está preparada y las herramientas de procesamiento y análisis de datos pueden almacenar, gestionar y analizar grandes cantidades de información y traducirlos en inteligencia de negocio rápidamente”.

La consultora Gartner predice que para 2015 el 90 por ciento de los directivos de las empresas verá en la información un activo estratégico, pero sólo el 10 por ciento será capaz de extraer todo el valor económico que hay en este activo.

Este gabinete de investigación indicó que en 2015 el Big Data creará 4,4 millones de puestos de trabajo TI en todo el mundo, pero si no reciben la formación adecuada solo habrá suficientes profesionales para cubrir un tercio de ellos.

Por otra parte, la consultora Wikibon calcula que, para el año 2017, el mercado del Big Data alcanzará los 50.000 millones de dólares.

Estos datos masivos cuentan cada vez más con un mayor número de aplicaciones en diferentes ámbitos como la minería de datos de redes sociales para explotación en el área del marketing, la inteligencia y procesos de negocio, la investigación científica, el comercio electrónico y la salud.

El Big Data se complementa con el “cloud computing” o “computación en la nube”, el conjunto de recursos informáticos compartidos, como redes, servidores, programas, sistemas de almacenamiento, aplicaciones y servicios, alojados en un servidor conectado a la red, y que son accesibles desde una conexión a Internet, sin necesidad de instalar software ejecutable ni almacenar la información generada en el disco duro de la computadora de sus usuarios.

Un ejemplo de la Fórmula 1
iProfesional observó un caso de aplicación del Big Data este mes en la ciudad italiana de Milán, donde el equipo automovilístico Lotus de la Fórmula 1 explicó cómo lo aplica en sus competencias.

De la mano de EMC, este team de la F1 optimizó sus recursos para enfrentar los desafíos que plantean las nuevas regulaciones de la categoría 1 para 2014, los cambios de diseño más radicales desde la introducción del monocasco compuesto.

El año próximo, los desarrolladores de la Fórmula 1 deberán cambiar los motores V8 con aspiración normal a una nueva clase de motores híbridos turbo cargados V6 más eficientes y más potentes y, además, deberán integrar la nueva tecnología de sistema de recuperación de energía (ERS, Energy Recovery System).

Los cambios generarán un gran impacto en el diseño e ingeniería de los automóviles, así como en la potencia, aerodinámica y el consumo de combustible del motor.

Lotus determinó que sería necesario realizar un reacondicionamiento completo de su infraestructura de TI, tanto en las pistas como en la sede central en Enstone, Reino Unido.

El equipo adoptará diversas tecnologías en la nube privada, con el fin de permitir el almacenamiento, administración y protección de la información más ágiles y rentables.

El rediseño planeado para 2014 representa la modificación más importante en la historia reciente de las carreras de la Fórmula 1.

Además de los cambios de diseño en los automóviles, una red de más de 200 sensores podrá generar más de 25 MB de datos por vuelta en cada vehículo.

En un deporte en el que una centésima de segundo marca la diferencia entre el ganador y el resto de los competidores, la capacidad de recopilar, disponer en la nube y analizar rápidamente estas cantidades masivas de Big Data constituye un diferenciador competitivo clave.

Más allá de los motores y las pistas
Lotus implementó un sistema VCE Vblock, que integra tecnologías de cómputo, red y almacenamiento de los proveedores Cisco, EMC y VMware, en su centro de datos de Enstone para respaldar el programa de diseño asistido por computadora (CAD) y su solución Microsoft Dynamics Enterprise Resource Planning (ERP).

Además, también implementó EMC Atmos, la plataforma de almacenamiento en la nube basada en objetos, para almacenar, archivar y brindar acceso a escala al contenido no estructurado del equipo; los sistemas de deduplicación de almacenamiento para permitir un rápido respaldo y recuperación  de la información del estado de la fábrica; y “Cloud Tier Appliance” para garantizar una organización en niveles segura y eficiente de los archivos CAD del equipo antes de trasladarlos a la nube, lo cual constituye un aspecto clave para recuperar valioso espacio de almacenamiento primario, disminuir los costos de operación y reducir los requerimientos de respaldo.

Patrick Louis, CEO del Equipo Lotus F1, explicó ante la prensa en Milán que “en el mundo actual de la Fórmula 1, la tecnología representa un aspecto crítico para producir un automóvil ganador. Si nuestra intención es perseguir este objetivo en 2014 y, en última instancia, aspirar al campeonato mundial, necesitamos la mejor de las tecnologías de información”.Negocios
Esta explosión de datos y la necesidad de las empresas de analizarlos para aprovecharlos en su gestión genera oportunidades de negocios para los proveedores tecnológicos, que este año intensificaron sus lanzamientos destinados al Big Data.

De acuerdo con Forrester Research, el segmento de las nubes privadas crecerá a 9,8 mil millones de dólares para 2014.

Según datos de otra consultora, IDC, el mercado de infraestructura en Big Data alcanzará los 6,4 mil millones de dólares en el mismo periodo.

En el caso de EMC, anunció este mes una serie de herramientas, software y hardware tendientes a mejorar la eficiencia en almacenamiento y gestión de datos para empresas.

En el encuentro ante la prensa, llamado “Speed to lead” (“velocidad para liderar), realizado en Milán, y donde iProfesional fue el único medio “online” argentino presente, la firma que preside David Goulden presentó la serie de almacenamiento unificado VNX, los sistemas de infraestructura VSPEX, el software ViPER y las plataformas de almacenamiento en la nube Project Nail.

Algunos de estos productos, en especial los de rango medio (según la escala estadounidense, en el caso de la Argentina serían grandes empresas), generan ahorros de hasta 68% en máquinas virtuales y proporcionan rendimientos de “sistemas competitivos” a un tercio del valor.

“Hemos esperado mucho la presentación de este producto, uno en el que dedicamos un volumen importante de recursos, talento e innovación a fin de garantizar que nuestros clientes y socios de todo el mundo tengan el arreglo de almacenamiento de rango medio más eficiente disponible”, dijo Rich Napolitano, presidente de la división de almacenamiento unificado en EMC.

Los equipos y sistemas anunciados ayudan a los equipos de infraestructura TI a conseguir una mayor velocidad para encabezar la transformación de sus compañías.

Los nuevos componentes de la familia VNX, por ejemplo, prometen aumentar la eficiencia en un 50%, multiplicar por cuatro rendimiento con respecto a otros miembros de la familia VNX (y a un costo mucho menor), la protección de los datos y su disponibilidad.

Los nuevos sistemas, optimizados para Flash, están basados en la tecnología multi-core Sandy Bridge de Intel.

Goulden explicó ante la prensa que “la tecnología multi-core, la virtualización y la tecnología Flash serán de vital importancia para que las empresas puedan responder las demandas en la era Big Data”. Otros proveedores
Además de EMC hay otros jugadores en el mercado del Big Data, como Unisys, que anunció  un acuerdo con Intel a partir del cual introducirán al mercado una plataforma diseñada para responder a los requerimientos más exigentes de nube de misión crítica y a las cargas de trabajo de Big Data.

Al mismo tiempo ofrece a los clientes Unix un camino rentable para trasladar las plataformas con base RISC a un ambiente basado en Intel.

IBM está acelerando su iniciativa de Linux en la plataforma Power a través de la presentación del servidor PowerLinux de alto rendimiento, con aplicaciones de software y middleware destinadas a la creciente cantidad de clientes que adoptan Big Data, tecnología analítica y aplicaciones Java en un entorno de nube abierta.

El nuevo servidor está construido sobre la misma plataforma de Sistemas Power que ejecuta Watson – la famosa solución de computación cognitiva de IBM – y proporciona a los clientes la performance requerida para las nuevas cargas de trabajo críticas para el negocio e intensivas en datos.

HP anunció recientemente actualizaciones para su portafolio ArcSight que ofrecen a las empresas análisis de seguridad unificado para Big Data, con monitoreo de identidad ampliado para acelerar la detección de amenazas persistentes.

“El análisis de Big Data, una tarea realizada típicamente en lote por su naturaleza, permite que una organización ordene y analice grandes volúmenes de información estructurada y no estructurada para facilitar la detección de socios y empleados impostores o conjuntos de actividades fraudulentas o abusivas, criminales o conspirativas” , afirmó Avivah Litan, analista de Gartner.

“Un ingrediente crítico para el éxito es la capacidad de integrar con rapidez y facilidad todos los tipos de información estructurada y no estructurada de diversas fuentes de información internas y externas”, agregó.

Con análisis unificados para aplicaciones, usuarios, redes y sistemas, HP asegura que proporciona un portafolio de soluciones que integran la seguridad de la información con Big Data.

De forma conjunta, según dicen desde este proveedor, estas soluciones procesan eventos a escala, ofrecen visiones profundas inmediatas, correlacionan el contexto del usuario y proporcionan inteligencia capaz de generar acciones para reducir el riesgo de las amenazas persistentes avanzadas.

Fuente: IProfesional.com

La minería de datos desaprovechada

La información es clave para todo tipo de negocios pero el enorme incremento de datos hace que éstos se vuelvan un problema y una carga, si no se los analiza, clasifica y guarda adecuadamente. Ya en noviembre de 2012 la investigadora Gartner anticipaba en su informe ‘Big data and Information Infraestructure’, que, durante este año, los grandes volúmenes de datos impactarían en las organizaciones. Se identificaba así a un conjunto de activos de información, “caracterizados por alto volumen, alta velocidad y alta variedad, que demandan formas innovadoras y costo-efectivas de procesamiento de la información para la mejor comprensión (insight) y toma de decisiones”, según define Edgardo Jury, gerente General de la consultora Technology Value Partners y representante de Gartner para el Cono Sur.
La incógnita para muchas empresas sigue siendo el cómo hacerlo. Una alternativa pasa hoy por la posibilidad de analizar los datos en base de patrones que permitan predecir comportamientos, hábitos de compra o, incluso, de fuga de clientes y fraude, entre otras acciones. Es aquí donde entran en escena las soluciones de data mining o minería de datos.
“La utilización de este concepto permite comprender mejor el comportamiento del mercado, tanto de clientes como de competidores, ayudando al diseño de productos, la gestión de ventas y, fundamentalmente, midiendo, en forma anticipada, los riesgos y la prevención de fraudes”, explica Roxana Matias Gago, socia a cargo del área de Bancos y Compañías de Seguros, de consultora internacional especializada en gestión de riesgo Crowe Horwath.
Por su parte, Daniel Yankelevich, CEO de la consultora Pragma, recuerda sin embargo, que “antes de empezar a minar, es importante entender el valor para el negocio de esos datos y definir una estrategia para alinear el proyecto tecnológico con el bottom line”. En la Argentina aún son pocas las compañías que aprovechan el data mining, recuerdan los especialistas. Entre los que sí lo hacen se encuentra CMR Falabella. Con 518 empleados y una facturación de $ 1.300 millones (2012), la división financiera del retailer chileno Falabella, utiliza la minería de datos para el desarrollo de modelos predictivos que faciliten originar y admitir nuevos clientes como para analizar el comportamiento en la administración del portfolio de clientes existentes.

El retail
La infraestructura para logralo se compone de dos equipos. Uno, compuesto por cinco profesionales, funciona dentro de la gerencia de Riesgos y se dedica a investigar los datos para detectar patrones de comportamiento, identificar desvíos y predecir tendencias. Ello redunda, luego, en la definición y ajuste de las políticas de riesgo de crédito que la empresa gestiona, según cuenta Flavia Nuñez, gerente de Riesgo y Cobranzas de CMR Falabella Argentina. Otro es el equipo de seis personas que funciona en el área de Negocios. Este se enfoca en tareas de minería para obtener información útil referida a preferencias de los clientes y, en base a ello, la potencialidad de compra y fidelización.
La ejecutiva de CMR Falabella cuenta que su compañía utiliza data mining hace más de 10 años. Sin embargo y más allá de la detección de patrones no obvios, “la práctica permite la automatización de las decisiones de crédito, agilizando los tiempos de respuesta a las solicitudes de crédito y ofreciendo un criterio uniforme en cada análisis”, detalla Nuñez. El valor agregado que se genera: llegar a los clientes con ofertas adecuadas, bien dirigidas. “Evita saturarlos con comunicaciones de ofertas que no se acercan a sus necesidades y expectativas”, puntualiza.
La firma trabaja con bases que manejan hasta seis millones de registros. “Se trabaja con un datamart, que contiene un mapa relacional de tablas que se actualizan periódicamente y a partir del cual se construyen los modelos predictivos de mora, de propensión y de fuga, entre otros”, agrega.
En referencia a los tiempos de la implementación de las soluciones elegidas (SPSS, Modeler 14.0, ambas de IBM; y SQL Server, de Microsoft), Nuñez deja en claro que estos dependen de la calidad y complejidad de los datos que le dieron origen. “Si los datos almacenados son consistentes y están organizados debidamente, el desarrollo de un modelo predictivo puede llevar entre ocho y 12 semanas, dependiendo de la complejidad del modelo”, comenta. En caso contario, si los datos de origen no son limpios porque hay datos guardados con formatos erróneos o información faltantes, los tiempos se alargan. Mientras que la implementación de sistemas agrega entre seis y ocho semanas”, observa la ejecutiva de CMR Falabella.

Más y mejor entretenimiento
DirecTV, operadora de televisión satelital, es otro caso donde la tecnología del data maning se volvió fundamental para una operación, que en la Argentina, cuenta con 3.000 empleados. “Nuestra compañía cuenta con nueve operaciones distintas en la región que llamamos Panamericana. Ellas maduraron a diferentes velocidades, según la realidad de cada mercado. Por ello, conviven una cantidad importante de versiones distintas de software de base de datos y sistemas satélite de la compañía. SAS (N.d.R.: proveedor con el cual colaboran en data mining) resultó un aliado frente a este contexto, ayudando a llevar las fuentes de datos a una visión estandarizada y permitiendo, luego, una explotación más ordenada de la información”, comenta Damián Ignacio Ramos, gerente Regional de Analytics en DirecTV para la región Panamericana. El ejecutivo resalta que tuvieron avances “en tan sólo dos meses, en la gestión de campañas y en aplicaciones de análisis avanzado con interfaces sencillas de usuario final”.
La buena experiencia con la solución hizo escuela dentro de la empresa, que para la región Panamericana registró, al 31 de diciembre 2012, una facturación anual de u$s 2.700 millones. Junto al área de Experiencia del Cliente, hoy, la están utilizando otros sectores de la compañía, como Marketing, Finanzas y Operaciones.
“Lo utilizan más de 100 usuarios repartidos en las operaciones de América latina, con la administración de la plataforma y el hardware centralizados en la Argentina – asegura el ejecutivo de DirecTV y continúa- Nuestra área, compuesta por 40 personas, la utiliza para analizar las razones de fuga de clientes, gestionar campañas de fidelización, para cobrar, para hacer controles de auditoría y para realizar la segmentación de clientes”.
Mientras, en Nextel, el disparador que los condujo hacia la implementación de data mining fue la creación de un área de Business Intelligence (BI). “El objetivo era hacer una consolidación efectiva de la información de los sistemas para reporte y generación de tableros de alta complejidad. El tema es que debía ser de fácil uso para facilitar el proceso de toma de decisiones estratégicas. Una vez que la plataforma de BI estuvo madura, surgió la necesidad de buscar formas predictivas de retener e identificar a nuestros clientes”, recuerda Matías Ravizzoli, director de Business Intelligence de Nextel Argentina. Los proveedores elegidos por esta empresa fueron MicroStrategy, para la visualización, y SPSS para la generación de modelos de minería.

Telecomunicaciones y data
La empresa de telecomunicaciones móviles, que tiene en nuestro país 1.650 empleados y factura, aproximadamente, u$s 700 millones, utiliza este tipo de soluciones para la retención, fidelización, cobranzas y atención al cliente. “A toda operadora de telecomunicaciones, le preocupa el nivel de clientes que se desactivan (churn). Por eso, buscamos soluciones para predecir la posibilidad que tenía cada cliente de darse de baja en nuestro servicio, tanto en forma voluntaria como involuntaria, por falta de pago”, comenta Ravizzoli. Como complemento de estos modelos de predicción de churn se realizó un modelo de valor de cliente para saber también a qué clientes priorizar en nuestras acciones proactivas, revela el ejecutivo. Con las implementaciones, Nextel logró reducir la tasa de ‘bajas’ de clientes y los deudores. “Además, la percepción de nuestros clientes cambió positivamente”, agrega.
Antes de concluir, Ramos, de DirecTV sugiere a las empresas interesadas en implementar data mining que contraten los mejores talentos posibles porque, allí, radica la mayor parte de probabilidad de éxito. El especialista recomienda no comenzar con proyectos grandes sino con pequeños, “siempre, teniendo una estrategia de centralización de datos y aplicaciones como norte, para evitar la duplicidad de soluciones”.
Mientras, Nuñez, de CMR Falabella, aconseja no dudar en incorporar el data mining a la gestión. “Los ayudará enormemente en concentrarse en la información más relevante, a la hora de tomar sus decisiones de negocio”, sostiene. Sin embargo, muchas empresas aún se debaten ante tal posibilidad.

Fuente: Cronista.com

Desarrollan un sistema que permite al profesorado predecir el éxito educativo

El doctor Sebastián Ventura junto al equipo de investigación del proyecto Aplicación de Técnicas de Extracción de Conocimiento en los Sistemas Educativos

Expertos del Grupo de Investigación Descubrimiento de Conocimiento y Sistemas Inteligentes de la Universidad de Córdoba están desarrollando un modelo informático dentro del ámbito educativo capaz de predecir mediante técnicas computacionales si el alumno va a superar o no una asignatura, el curso escolar o la carrera universitaria. Además, el sistema puede utilizarse para ayudar a los alumnos con ciertos problemas de aprendizaje y contribuir a analizar cuáles pueden ser las causas de sus dificultades.

Para ello, los investigadores han diseñado una herramienta denominada ATECSE, que se integra como un módulo específico dentro del portal educativo Moodle, el sistema de educación semipresencial de la Consejería de Educación, y que permite utilizar toda la información generada durante el proceso de enseñanza aprendizaje para obtener nuevo conocimiento que resulte de utilidad tanto al profesor como a otros agentes del sistema educativo. “Este sistema permite al profesorado realizar tareas de clasificación, es decir, predecir a partir de la información generada por el alumno si éste va a aprobar o suspender una determinada asignatura. También desarrolla una labor de agrupamiento donde obtienen precisamente grupos con características similares con el objetivo de personalizar ejercicios, contenidos o clases de apoyo”, explica a la Fundación Descubre el investigador de la Universidad de Córdoba, Sebastián Ventura.

En este sentido, los expertos ya han desarrollado esta herramienta a escala piloto como fase previa al trabajo de campo en centros educativos. “Los primeros resultados son satisfactorios y el siguiente paso será realizarlo a escala más real dentro de cualquier ámbito pedagógico donde se usen plataformas digitales de aprendizaje como Moodle”, sostiene.

No obstante, otro de los objetivos del equipo investigador es acercar este tipo de modelos al profesorado. “El principal interés es que este sistema, además de utilizarse para ayudar a los alumnos con ciertos problemas de aprendizaje y contribuir a analizar cuáles pueden ser las causas de esta dificultad, resulte un instrumento especialmente asequible o manejable para los docentes o tutores”, detalla.

Captura y recopilación de datos

Los investigadores han trasladado los primeros resultados al estudio ‘Predicting school failure using a genetic programming algorithm and different data mining approaches with high dimensional and unbalanced data’ publicado este mismo año 2013 en la revista Applied Intelligence, donde han transferido las últimas conclusiones extraídas del proyecto y que están relacionadas con la minería de datos, área que permite capturar y recopilar de forma muy sencilla y con coste muy reducido contenidos como datos administrativos de matriculaciones, expedientes académicos o registros de actividad en portales educativos como Moodle o e-learning. “Los resultados evidencian que los principales interesados en estas técnicas son los agentes del sistema educativo (profesores, autoridades académicas, etc.). De hecho, uno de los objetivos es integrar actividades propias de la minería de datos en la rutina diaria del profesorado con el propósito de facilitar la evaluación del alumnado y detectar posibles necesidades educativas en la enseñanza”, concluye Ventura.

Estos resultados son fruto del proyecto de excelencia Aplicación de Técnicas de Extracción de Conocimiento en los Sistemas Educativos financiado por la Consejería de Economía, innovación, Ciencia y Empleo de la Junta de Andalucía.

Fuente: Granada en la red

Hoy no es un día cualquiera

Hoy es el primer día de conoceratucliente.com, una solución para empresas  que llega hoy  a España con el objetivo de optimizar la base de datos de tu empresa.

Nos posicionamos en el mercado ofreciendo la especialización necesaria para la Gestión del proceso de análisis de grandes Bases de Datos, a través de software especializado para ofrecer el mayor conocimiento posible sobre el cliente, además de nuestra  experiencia en este campo.

Sigue leyendo