¿Por qué razón el Big data nos va a hacer mejores en el futuro?



Progresar la planificación de la fuerza de trabajo


el big data en RRHH pueden asistir a organizar los diferentes tipos de datos que las empresas tienen sobre los empleados para que puedan ser usados de forma eficaz. el big data con el Procesamiento de Lenguaje Natural pueden ayudar a examinar la retroalimentación, las revisiones de proyectos y los datos de perfiles de talentos generalmente para construir perfiles de habilidades de los empleados en la organización en tiempo casi real, que pueden ser utilizados como una herramienta para la planificación de la fuerza de trabajo, afirma Srikant Chellappa de Engagedly a Forbes.

Van Vulpen señala que Natural Language Processing asimismo puede analizar las revisiones del desempeño empresarial para crear perfiles de competencias de los empleados o generar de manera automática puntuaciones de rendimiento tanto para los empleados para los directivos.


Optimizar el reclutamiento y la retención


El reclutamiento de empleados de calidad es un proceso costoso y que requiere un buen tiempo, por lo que los departamentos de recursos humanos están motivados para encontrar personas que se queden y animar a los empleados actuales a no irse. el big data pueden asistir de varias formas.

Cuando se aplican a la contratación, los empleadores pueden utilizar big data para pronosticar mejor las necesidades de contratación, al tiempo que mejoran la calidad de exactamente la misma y la retención de los empleados, dice John Feldmann de Insperity a Forbes. Al extraer los datos de los empleados y también identificar los patrones relacionados con las habilidades, las calificaciones de desempeño, la permanencia, la educación, los roles pasados, etcétera, las empresas pueden reducir su tiempo de contratación, progresar el compromiso y la productividad de los empleados y minimizar la rotación de personal.

En lo que se refiere a la retención, con la ayuda de la tecnología de big data, los algoritmos pueden señalar a los empleados que corren el peligro de irse interpretando su actividad en línea, las actualizaciones de sus perfiles, su historial de empleo, su desempeño laboral y sus datos de nómina, escribe Vikash Kumar para AIIM -- La Asociación para la Administración Inteligente de la Información. Cuando el sistema señala a un empleado valiosísimo, tienes la oportunidad de retenerlo ofreciéndole un aumento salarial, un papel más desafiante o más adiestramiento (y desarrollo).

Para el reclutamiento, Kumar añade, Los modelos de análisis de RRHH pueden utilizar los registros de los empleados triunfantes para construir un perfil de alto desempeño. Lo que se obtiene es una herramienta de búsqueda de talentos que puede enviar mensajes adaptados al talento adecuado.

Grandes herramientas de administración de datos y análisis de negocios que precisa conocer




Plataforma de Automatización de Procesos Analíticos Alteryx (APA)


La Plataforma de Automatización de Procesos Analíticos (APA) de Alteryx es un sistema de automatización de procesos metódicos, de aprendizaje automático y de ciencias de la información de extremo a extremo, usado por analistas y científicos de datos para preparar, entremezclar, enriquecer y examinar datos. El Centro Analítico trabaja con la APA de Alteryx para consolidar los activos analíticos en un sistema donde se puede acceder y compartir por los trabajadores de datos. Intelligence Suite, parte de la actualización de la plataforma Alteryx APA 2020.2, trabaja con Analytics Hub y Alteryx Designer para asistir a los usuarios sin conocimientos de ciencia de datos a edificar modelos predictivos.



CockroachCloud


CockroachCloud es una instancia de nube absolutamente administrada de CockroachDB, el sistema de base de datos relacional distribuida desarrollado por Cockroach Labs para soportar aplicaciones transaccionales de próxima generación, nativas de la nube. Lanzado en versión beta en 2019, CockroachCloud estuvo disponible este año en Amazon Web Services y en la plataforma de nubes de Google. Cockroach Labs promociona la fácil escalabilidad de CockroachCloud así como sus capacidades de geo-ubicación de datos y transacciones compatibles con ACID (atomicidad, consistencia, aislamiento, durabilidad).



Logi Analytics Logi Composer


Logi Composer ofrece a los ISV y a los desarrolladores corporativos una forma de crear capacidades de análisis empresarial de autoservicio directamente en aplicaciones y flujos de trabajo comerciales e internos. Logi Composer se utiliza para diseñar, construir e integrar cuadros de mando interactivos y visualizaciones de datos en las aplicaciones y desarrollar conexiones con las fuentes de datos populares que los sustentan. El procesamiento de consultas de fondo de la herramienta está impulsado por la tecnología de conectores de datos inteligentes Logi Analytics, adquirida en 2019 cuando compró Zoomdata.


MariaDB SkySQL


MariaDB SkySQL es una base de datos en nube completamente administrada como una edición de servicio de la popular base de datos relacional MariaDB que soporta aplicaciones transaccionales y analíticas. SkySQL utiliza Kubernetes para la orquestación de contenedores; el motor de flujo de trabajo ServiceNow para la gestión de inventario, configuración y flujo de trabajo; Prometheus para la supervisión y alerta en tiempo real; y la aplicación de análisis y visualización de código abierto Grafana para la visualización de datos. Los usuarios de SkySQL también tienen la posibilidad de personalizar las opciones y configuraciones de las bases de datos para satisfacer los requisitos de seguridad, alta disponibilidad y restauración de desastres de la compañía.


ThoughtSpot DataFlow


La nueva característica de DataFlow de ThoughtSpot en la plataforma de análisis de negocios de la compañía torna posible cargar datos de las bases de datos de origen y los sistemas de archivos en la base de datos en memoria de Falcon que nutre el sistema ThoughtSpot. DataFlow deja a los usuarios conectarse a una fuente de datos, previsualizar y escoger los datos que quieren mover a ThoughtSpot, y programar las sincronizaciones de datos, y todo esto se puede hacer sin precisar codificación. DataFlow reduce significativamente la cantidad de recursos técnicos precisos para desplegar ThoughtSpot, a la vez que acelera el acceso y el análisis de los datos.




Las 4 V de el big data


Para los científicos de datos, el concepto de big data se puede descomponer en lo que ellos llaman las cuatro V. Aunque algunas escuelas de pensamiento dicen que podría haber hasta 10 V's, aquí están los cuatro principales calificadores que ayudan a explicar cuando un flujo de datos se convierte en un gran flujo de datos.

Volumen


Gracias a la enorme cantidad de datos disponibles diariamente, el big data tienden a ocupar una gran cantidad de ancho de banda y almacenamiento. Miles y miles de bytes pueden atravesar la Internet, singularmente con el empleo extendido de la Internet de banda ancha. En verdad, conforme una encuesta de IBM, se calcula que este año se van a crear cuarenta zettabytes de datos, lo que supone un incremento del trescientos por ciento con respecto a 2005. Estas enormes cantidades requieren una tecnología de datos de gran tamaño que pueda manejar grandes conjuntos de datos.

Velocidad


Los datos fluyen mediante Internet a tal velocidad que si intentaras analizarlos por tu cuenta, sería como intentar beber de la manguera de agua más grande y poderosa del mundo. La rapidez con la que se mueven los datos aumenta exponencialmente en función del número de conexiones que la gente tiene entre sí, ya que probablemente estés mandando mensajes de texto, que te gusten los mensajes de los medios sociales y que hagas acuerdos comerciales con ellos. La velocidad a la que los datos entrantes precisan ser procesados es un sello propio de el big data.

Variedad


Los datos pueden reunirse de muchas fuentes diferentes, como las diferentes redes sociales, las transacciones comerciales y de consumo, y la proliferación de dispositivos inteligentes que recogen datos de los usuarios (a menudo involuntarios). De forma equivalente, esos datos pueden presentarse en diferentes formatos y estructuras de archivo, desde información de bases de datos estrictamente clasificada hasta transferencias de archivos y comunicaciones en tiempo real.

Veracidad


Los datos imprecisos son datos inútiles. Además, los datos inexactos le cuestan a la economía de los EE.UU. más o menos tres,1 billones de dólares de año en año, conforme la encuesta de IBM. Muchos líderes empresariales consideran que el big data son una apuesta, con 1 de cada 3 encuestados diciendo que no confían en la información que dan el big data. Sin embargo, la tecnología de el big data trata de atenuar ese inconveniente tanto como sea posible.




De qué manera el big data pueden ayudar a las finanzas de las empresas


el big data son ahora parte de nuestra vida rutinaria, ¡aun si somos conscientes de ello o no! La analítica, la IA y otros programas de datos en funcionamiento recogen continuamente información, que nos da una idea de quién, qué y dónde ocurre una transacción. Las compañías más grandes han incorporado estos datos para satisfacer la siempre y en todo momento cambiante demanda de los clientes y promover las ventajas y mitigar las pérdidas.

Sin embargo, esta información compendiada puede ser bastante inútil tratándose de datos a menos que esté categorizada, y las empresas saben lo que buscan. Esto quiere decir que los datos entrantes deben organizarse de forma eficaz para que las compañías puedan usarlos para identificar la información sobre sus finanzas y actuar en consecuencia con los datos.

En este artículo se discutirá cómo el big data pueden asistir a las finanzas de las compañías y qué es lo que hay que buscar para hacer las mejoras.

Big data utilizados para la administración de peligros


el big data pueden ofrecer algunas percepciones profundas que pueden ser utilizadas para determinar un factor de peligro para una resolución de negocios. La recopilación de big data no solo es ecuánime, sino asimismo cubre un número significativo de factores como el uso de los clientes del servicio, la segmentación, los hábitos de adquiere, la economía y el capital empresarial. Todos estos sectores pueden ser analizados para tomar resoluciones informadas que asistan a evitar inversiones negativas. Para aquellos que están bien establecidos con big data y las percepciones que aportan a la empresa, es posible que sientan que pueden invertir positivamente en el siguiente paso de su negocio. Si ese es el caso, entonces considere una línea de crédito para pequeñas empresas que le dé acceso las 24 horas del día, los 7 días de la semana, a una inyección de efectivo, que puede asistir a llevar su negocio al siguiente nivel.

 Detección y prevención del fraude con big data


Otro beneficio útil de tener big data al alcance de un negocio es que la IA puede notar patrones o bien comportamientos infrecuentes, detectando rápidamente el fraude. Ciertos de estos patrones inusuales pueden incluir hábitos de gasto sospechosos de tarjetas de crédito o bien grandes cantidades de dinero gastadas. Esto se marca de forma automática como sospechoso, lo que significa que la interacción puede cerrarse a una velocidad significativa, y los bancos pueden ser alertados.

Desafortunadamente, el fraude financiero es extremadamente común, con lo que mejorar la recolección de datos en línea y otros programas de inteligencia artificial puede asistir a limitar el daño que el fraude puede causar a sus víctimas.


Las grandes soluciones de datos pueden pelear para otorgar análisis en tiempo real


Trabajo en un estudio de mercado de los integradores de sistemas (SI) que incorporan sistemas de gestión de guardes (WMS). Tenía la sensación de que los proveedores de software escriben el software, y o los SI o/y la empresa de software incorporan el software. No es tan fácil. A veces los integradores de sistemas escriben software que complementa las soluciones WMS que incorporan. Estas SI han aprendido las debilidades de varios sistemas y han escrito aplicaciones complementarias para cerrar las brechas.

Un caso viene de un integrador de sistemas llamado Longbow Advantage. Ellos crearon un producto Click Here llamado Rebus diseñado para progresar el reporte en tiempo real de las soluciones WMS.

Hablé con un director de la cadena de suministro de una compañía de fabricación que había incorporado Rebus. Este directivo me dijo que habían reemplazado una solución WMS de una empresa ERP con de las mejores soluciones de la raza. El director me dijo: Conseguimos toda la funcionalidad que aguardábamos. Había toneladas de funcionalidad - cosas como el intercalado de labores y el soporte para el crossdocking. Pero teníamos una brecha en la visibilidad del trabajo que se hacía. El informe en tiempo real del trabajo era más débil de lo esperado.

Las soluciones WMS son sistemas de Big Data con bases de datos de producción. La base de datos de producción se hace cargo de dar labores a los trabajadores del almacén y de seguir la realización de esas labores. Toda la lógica de optimización asimismo interactúa con la base de datos de producción. Los trabajadores del almacén usan pistolas de radiofrecuencia para cerciorarse de que están recogiendo de las ranuras adecuadas, para señalar al sistema que han completado una tarea y para conseguir sus próximas asignaciones. Al acceder a la base de datos de producción, las pistolas RF se ralentizan hasta un grado inadmisible, tal vez varios segundos para conseguir una labor. Esto es una eternidad en un almacén muy concurrido.

Conque en vez de obtener análisis detallados, y proteger la base de datos de producción de WMS, se golpea un fichero, lo que quiere decir que los análisis son, en el mejor de los casos, de varias horas de antigüedad. Conforme Alex Wakefield, el CEO de Longbow Advantage, las soluciones basadas en la nube no mejoran las cosas. Las compañías de software siempre pueden poner más potencia de computación en un inconveniente, mas más servidores no ayudarán a los clientes a acceder a sus datos de forma más eficiente. Eso es un problema de estructura de la base de datos.

La solución de Rebus usa una base de datos de documentos - una base de datos NoSQL de Mongo. Esta tecnología deja que los grandes conjuntos de datos sean accedidos y analizados considerablemente más velozmente. Las transacciones creadas en el WMS también fluyen en la solución Rebus. La compañía manufacturera con la que hablé afirmó que pueden conseguir análisis que se fundamentan en transacciones que están a menos de 5 minutos de lo que está ocurriendo en el piso del almacén. En los sesenta días de la contratación, estos análisis de tiempo cercano se hicieron totalmente libres. Mas incluso dentro de los primeros treinta días recibíamos contenido, dijo el director. Longbow Advantage entendió las estructuras de datos que hicieron que esto fuera más semejante a una implementación de una solución off the shelf que a un proyecto de análisis adaptado.

Ahora este fabricante puede hacer preguntas como ¿Cuántos camiones están en el patio y listos para ser descargados? Los gerentes pueden monitorear todo el trabajo de salida que tiene que ocurrir durante el día y ver de qué forma avanza el día. Por ejemplo, ¿se hacen los pedidos de salida que deben hacerse para un envío de 7 am? Hora por hora, se pueden monitorear las estadísticas de los objetivos de recolección y uso de AGV. Si el almacén se está quedando atrás, el gerente puede indagar en los datos y entender lo que está ocurriendo y lo que se podría hacer para volver a la normalidad. Si el almacén se está moviendo antes de lo previsto, el gerente puede pedir voluntarios que quieran regresar a casa temprano. Esta operación tiene pantallas de T.V. que muestran los análisis en tiempo real, por lo que no sólo los gerentes tienen acceso a lo que está sucediendo. En último término, conforme este directivo de logística, esta solución nos permite y responde a la pregunta '¿Estoy adelante o atrás? ¿Gano o bien perdiendo el día?

El directivo de la cadena de suministro acabó diciendo, también estamos aprovechando a Rebus para archivar nuestros datos WMS. Esto nos permite conseguir análisis de los datos históricos en segundos. Esto ha sido exageradamente útil para rastrear el movimiento de productos dentro y fuera de nuestra red. Afín a nuestros datos WMS en vivo, Rebus es una parada para comprar datos archivados en todos nuestros sitios.


De qué forma transformarse en un científico de datos: Una hoja de trucos


Si está interesado en continuar una carrera en la ciencia de los datos, este manual es una buena referencia para obtener información sobre el salario, los mercados de trabajo más populares, la formación y más.

Los científicos de datos están muy pedidos, ocupando el codiciado puesto nº 1 en la lista de los mejores trabajos de América de Glassdoor durante los últimos 4 años y alardeando de unos sueldos medios elevados para aquellos con las habilidades adecuadas. En 2012, la Harvard Business Review ha calificado a los científicos de datos como el trabajo más sensual del siglo veintiuno.

Una de las grandes razones por las que proseguimos viendo tal demanda de científicos de datos es que todas las compañías se están convirtiendo en empresas tecnológicas, afirmó Allison Berry, especialista de la comunidad de Glassdoor, a TechRepublic. En cualquier industria que deba lidiar con datos digitalizados, o que tenga una aplicación o una presencia on line, se precisa gente que pueda ayudar a apoyar todo eso y a hallar ideas desde los datos.

No obstante, en la actualidad nos enfrentamos a una escasez de profesionales con conocimientos de ciencia de los datos: Para el año dos mil veinte, el número de vacantes anuales para todos y cada uno de los profesionales conocedores de datos en los EE.UU. aumentará a 2,7 millones, conforme pronosticó IBM. Aquellos con conocimientos de ciencia de datos pueden tener un salario base medio de ciento treinta dólares americanos en los EE.UU. a partir de enero de dos mil diecinueve, y un 56 por ciento más de ofertas de trabajo que el año precedente, según LinkedIn.

Para ayudar a los interesados en el campo a comprender mejor cómo entrar en una carrera en la ciencia de los datos, hemos creado una guía con los detalles y recursos más esenciales.


Certificaciones en ciencias de la información para mejorar tu currículo y tu sueldo.


A finales de agosto, Glassdoor tenía más de cincuenta y tres ofertas de empleo que mencionaban el aprendizaje automático (ML) y 20.000 trabajos que incluían la ciencia de los datos con salarios que iban de cincuenta a más de ciento ochenta dólares americanos. Cada vez más empresas hacen del análisis de datos y del aprendizaje automático un factor central del desarrollo de nuevos productos y de las oportunidades de ingresos futuros.

Las grandes empresas de tecnología, así como las organizaciones tecnológicas independientes, ofrecen programas de capacitación para personas que son nuevas en la ciencia de los datos, de esta forma como para profesionales que quieren dominar la tecnología más reciente. Cada programa de esta lista de los mejores cursos on line para la ciencia de los datos ampliará su experiencia y añadirá un valioso elemento de línea en forma de certificación de ciencia de los datos a su currículum.

Ingeniero profesional de aprendizaje automático de Google


Si puedes pasar este examen que está en versión beta, eres certificado por Google Cloud. Google aconseja que los examinandos tengan al menos 3 años de experiencia práctica con los productos y soluciones de Google Cloud.

El examen dura cuatro horas y cuesta 120 dólares estadounidenses. Las seis secciones del examen cubren:

  • Enmarcar el inconveniente del ML

  • Arquitectura de la solución ML

  • Preparación y procesamiento de datos

  • Desarrollo del modelo de ML

  • Automatización y orquestación del oleoducto de ML

  • Monitoreo, optimización y mantenimiento de la solución de ML




Certificaciones de científicos de datos del SAS


La Academia SAS para la Ciencia de los Datos ofrece 3 credenciales de nivel profesional para los científicos de los datos:

  1. La conservación de los datos

  2. Análisis avanzados

  3. La IA y el aprendizaje automático


SAS ofrece una prueba gratuita de treinta días a fin de que la gente pueda comprobar las herramientas, las ocasiones de aprendizaje práctico y los estudios de casos que forman parte del programa de capacitación. También hay cursos gratis de aprendizaje electrónico sobre estadística y programación y administración de SAS.

El programa de conservación de datos está diseñado para personas que desean cuantificar su experiencia con las herramientas y aplicaciones de administración de datos de SAS, así como otras herramientas para preparar los datos para el análisis estadístico. El programa incluye 4 cursos de capacitación y un bono para el examen de certificación, incluyendo:

  1. Introducción a la conservación de datos

  2. Herramientas y aplicaciones de gestión de datos del SAS

  3. SAS y Hadoop

  4. Herramientas y aplicaciones avanzadas de administración de datos del SAS


Antes de anotarse en este curso, las personas deben tener experiencia con los fundamentos de la programación SAS, las técnicas de manipulación de datos y el procesamiento SQL. SAS ofrece clases de preparación para el examen en el programa Profesional de Curado de Datos.

El programa profesional de análisis avanzado incluye nueve cursos on-line, 12 meses de acceso a la capacitación, 100 horas de acceso al software de nube, y 3 vales de examen. Los cursos incluyen:

  1. Analítica aplicada usando SAS Enterprise Miner

  2. Modelado de la red neuronal

  3. Modelización predictiva mediante regresión logística

  4. Técnicas de minería de datos

  5. Modelos de código abierto

  6. Analítica de texto usando SAS Text Miner

  7. Esenciales para el modelado de series temporales

  8. La experimentación en la ciencia de los datos

  9. Conceptos de optimización para la ciencia de los datos


SAS aconseja que los estudiantes tengan por lo menos 6 meses de experiencia en programación y en el empleo de estadísticas en un entorno empresarial.

El programa profesional de aprendizaje de la IA y la máquina incluye 5 cursos on line, 70 horas de acceso al software de la nube y tres vales de examen. SAS recomienda a las personas interesadas en este programa que tengan experiencia en programación, SAS Viya, modelos de regresión y modelos de redes neuronales. Los cursos son:

  1. Aprendizaje automático con SAS Viya

  2. Análisis de texto visual de SAS en SAS Viya

  3. Aprendizaje profundo usando el software SAS

  4. Pronóstico con Model Studio en SAS Viya

  5. Conceptos de optimización para la ciencia de los datos y la IA


Cada programa cuesta mil doscientos noventa y cinco dólares estadounidenses al año y requiere pasar múltiples exámenes para conseguir cada certificación. SAS ofrece una mezcla de clases de preparación de exámenes gratuitas y pagadas.

Los exámenes de certificación de SAS se pueden tomar desde casa por medio de los exámenes supervisados en línea de OnVUE.

Leave a Reply

Your email address will not be published. Required fields are marked *