Algunas definiciones ligadas a BIGDATA. Por Roberto Bilbao

El concepto Big Data es relativamente nuevo y han surgido definiciones relacionadas que pueden ser sinónimos o referirse a un ámbito concreto:

  • Data science: campo interdisciplinario que involucra los procesos y sistemas para extraer conocimiento o un mejor entendimiento de grandes volúmenes de datos en sus diferentes formas (estructurados o no estructurados) y formatos (.txt, .dat, .doc, .jpg, etcétera); es una continuación de algunos de los campos de análisis de datos, como la estadística, la analítica predictiva y el data mining.
  • Data discovery: en el contexto de las tecnologías de la información, es el proceso de extracción de patrones procesables a partir de los datos. La extracción la realizan personas o sistemas de inteligencia artificial.
  • Bussiness Intelligence: Conjunto de procesos en el que herramientas y estrategias se enfocan en la creación y administración de conocimientos.
  • Smart data: datos que han pasado de ser una larga lista de números inconexos para convertirse en información con significado de valor, útil para tomar decisiones y planear acciones.
  • Predictive analytics: Se generan como resultado de la extracción y análisis del conocimiento actual e histórico que se encuentra en los datos masivos, con el objetivo de encontrar posibles patrones, resultados o tendencias futuras.
  • Data mining: “Ciencia” para encontrar lo valioso entre la ingente cantidad de información que se almacena. Busca patrones de información significativos.
  • Knowledge discovery in Databases: es un proceso de descubrimiento de conocimiento útil a partir de un conjunto de datos. Ésta técnica de data mining en su proceso incluye preparación, selección y depuración de los datos, incorporando conocimiento previo a los conjuntos de datos para a partir de los resultados observados interpretar soluciones precisas.
  • Machine learning: Posibilidad que ofrecen las nuevas herramientas tecnológicas de Big Data para analizar grandes conjuntos de datos de forma paralela al momento en el que se están generando.
  • Text analytics: proceso de extracción de información de calidad a partir de textos mediante técnicas lingüísticas, estadísticas y de aprendizaje de máquinas que modelan y estructuran la información contenida en los textos.
  • Natural language processing (NLP): campo de la inteligencia artificial y la lingüística que se ocupa de investigar aplicaciones capaces de entender el lenguaje natural, tal cual es hablado, como la comprensión de textos, la traducción automática, el resumen automático o la generación de textos.
  • Data modeling: proceso de documentar un diseño de sistema de software complejo como un diagrama de fácil comprensión, usando texto y símbolos para representar la forma en que los datos necesitan fluir. El diagrama se puede utilizar como un mapa para la construcción de un nuevo software o para la reingeniería de una aplicación antigua.
  • In-database analytics: tecnología que permite que el procesamiento de datos se realice dentro de la base de datos, mediante la construcción de lógica analítica en la base de datos en sí. Se consigue así, reducir tiempo y esfuerzo en transformar los datos y moverlos de un lado a otro entre una base de datos y una aplicación de analítica independiente.

About The Author

Big Datius


Related Articles


Leave a Comment

Your email is never published nor shared.

You may use these HTML tags and attributes:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>