edge-computing

Analítica en Edge Computing

Compártelo:

Si fuese un investigador del siglo XIX, que ha realizado un avance científico, me surgiría una gran inquietud sobre compartir mi hallazgo. Por un lado, al compartir mis avances podré beneficiarme del conocimiento de la comunidad científica, su perspectiva global y contar con recursos que yo no dispongo, así como dividir la carga de trabajo.

Por otro lado, corro el riesgo de que mis conclusiones caigan en malas manos, o que la toma de decisiones sea más lenta al tener que esperar el feedback de expertos e incluso la aprobación final de la comunidad académica. Continuar leyendo

ciberseguridad-trabajo-tecnalia

Exilio digital: confinados en nuestras casas, hay que conciliar la vida y el trabajo

Compártelo:

Alto y claro: el teletrabajo está aquí, y este cambio “no es moco de pavo”. Este cambio ha aparecido aquí ya en dos ocasiones: consejos y costumbres. Y debemos tener en cuenta además un tercer aspecto, las herramientas y la seguridad. 

Estudiemos primero el fantasma del colapso de la red, el talón de Aquiles digital: España es el primer país europeo y el tercero del mundo en infraestructuras de fibra óptica. Esto nos da cierta tranquilidad en el País Vasco peninsular. La red de fibra óptica puede soportar, en principio, los picos de caudal que ya vivimos. Otra cosa es la red móvil, ya que se divide en “celdas” y cada celda está configurada para soportar un número determinado de usuarios concurrentes. El tráfico de redes se ha incrementado en un 40 % en las conexiones generadas por router doméstico y en un 50 % en el consumo de datos desde teléfonos móviles. Ahí está el problema: por favor, utiliza el móvil con sensatez. El fijo está ahí, ¡no lo olvides! Continuar leyendo

Teletrabajo: mitos y realidades forzosas en tiempos de una pandemia

Teletrabajo: mitos y realidades forzosas en tiempos de una pandemia

Compártelo:

El Covid-19 se ha revelado como una de las grandes fuerzas impulsoras de la transformación digital en los últimos años. El problema es que lo ha hecho de manera tan virulenta e inesperada, que ha obligado a muchas organizaciones y profesionales a hacer cosas para las que no estaban preparadas.

Quizás, una de las lecturas más positivas que esta crisis podría traer, es la necesidad de impulsar los medios telemáticos y las culturas digitales asociados a ellas, con el objetivo de replantearnos por completo, las culturas laborales basadas en el presencialismo, que todavía imperan en muchas organizaciones. Continuar leyendo

Diseñando los centros de competencias digitales del futuro

Diseñando los centros de competencias digitales del futuro

Compártelo:

La Asociación Somos Digital ha publicado el estudio “Los Centros de Competencias Digitales del Futuroelaborado por la Junta de Castilla y León. El estudio, que ha contado con la colaboración de TECNALIA y la participación de una veintena de redes de Centros, diseña el nuevo rol de los Centros de Competencias Digitales en la era de la supremacía tecnológica: a qué beneficiarios se dirigirán, para qué nuevas necesidades, con qué propuesta de valor, qué servicios ofrecerán y cómo se prestarán estos servicios.

Hace unos 25 o 30 años, allá por los 90, empezaba el despliegue generalizado de unas tecnologías que iban a cambiar por completo la sociedad, como los ordenadores personales, internet o las comunicaciones móviles. Continuar leyendo

Los datos nunca duermen: analítica de datos en tiempo real

Los datos nunca duermen: analítica de datos en tiempo real

12 marzo, 2020 Jesús López Lobo

Compártelo:

4,5M de videos de YouTube son vistos, 511200 usuarios envían tweets, 188M de emails son enviados, 23.1840 usuarios hacen una llamada de Skype, 5.140 fotos de Instagram se postean … ¡cada minuto! Esta es la realidad en la que hemos vivido en 2019.

¿Crees que una inteligencia artificial tradicional es capaz de gestionar este volumen de información? Evidentemente no, y este es el secreto: analítica de datos en tiempo real.

Cuestión de inmediatez y espacio

La IA tradicional tiene un modo muy concreto de proceder. Se basa en el acceso a grandes volúmenes de datos, y en disponer del tiempo que sea necesario para entrenarse y aprender. Da por hecho que toda la información va a estar disponible y es accesible en todo momento. Y esto puede ser cierto mientras que los costes de almacenaje de la información, y el tiempo o coste de procesamiento no exceda de unos valores que se puedan permitir en un escenario de aplicación concreto.

En un mundo en el que la mayoría de sus procesos y aplicaciones se nutren de información en tiempo real, y a los que se le exigen respuestas casi inmediatas, la información a manejar es de tal volumen, y se debe procesar a tal velocidad, que la IA tradicional no sirve.

La solución pasa por la analítica de datos en tiempo real, y por el desarrollo de algoritmos y arquitecturas que permitan que la IA pueda aprender de forma incremental cada vez que la información está disponible. Y sin necesidad de tenerla que almacenar para acceder en el futuro, porque ni va a ser necesario, ni va a ser posible almacenarla ni procesarla. No hay tiempo. No hay sitio. La IA tiene que dar una respuesta ya.

Youtube no puede decir a sus usuarios que paren de generar videos porque su algoritmo necesita 10 minutos para entrenarse con la nueva información. Twitter no puede mandar parar a sus twiteros para procesar y analizar el contenido de los tweets. Amazon no puede parar las compras porque necesita cinco minutos para que sus algoritmos de recomendación tengan que reentrenarse con los nuevos datos, y así ofrecer recomendaciones mejor adaptadas a los gustos. ¿Cómo lo hacen? Usan algoritmos y arquitecturas para procesar datos en tiempo real.

Los datos tienen la mala costumbre de cambiar

Como parte de esta particular forma de hacer analítica, uno de los desafíos más importantes que se presenta es el manejo del efecto denominado concept drift. Este efecto consiste en el cambio repentino y sin previo aviso que se puede producir en la distribución de los datos. Este cambio hace que los algoritmos entrenados y usados hasta el momento queden obsoletos, lo que nos obliga a detectar este cambio en tiempo real y re-entrenar de nuevo los modelos. De lo contrario, el sistema en cuestión, que se basa en las predicciones de estos modelos, perdería (por ejemplo) precisión en sus predicciones.

Pensemos por ejemplo en una red de sensores Wifi-desplegados para monitorizar el estado de un componente o proceso de una planta de producción. El envejecimiento, calentamiento, o simplemente el mal funcionamiento de uno o varios de estos sensores pueden provocar un cambio en la distribución de los datos.  El sistema de monitorización que se alimenta de estos datos podría estar encargado de predecir el momento de fractura de un componente o de establecer el mejor momento para su recambio, y así no interrumpir el proceso productivo. Este sistema de monitorización estaría haciendo una predicción no adecuada basada en modelos generados cuando los datos eran correctos, pero sin considerar el cambio actual en la red de sensores.

Situaciones como estas son las que se pretende evitar con el manejo del concept drift. Su impacto puede ser tan grande, que no tenerlo en cuenta no es una opción. Muchas empresas ven mermadas de forma repentina sus capacidades analíticas en tiempo real y no saben por qué. Este es el principal causante.

Otros casos de uso

Muchas veces, ante una necesidad de gestión y análisis de grandes volúmenes de datos, se piensa en una complicada y costosa arquitectura, que a menudo está sobre dimensionada “por si acaso”. Cuando la realidad dicta que en algunas de estas ocasiones la solución que mejor se adapta pasa por una arquitectura menos pesada y que incluya un tratamiento de los datos en tiempo real.

La analítica de datos en tiempo real no es una necesidad en exclusiva de YouTube, Twitter, Skype, Instagram, Amazon, … grandes empresas. Es una necesidad más cercana de lo que pensamos, y de la que algunas empresas aun no son conscientes de necesitarla.

  • Predicción de la demanda: eléctrica, de comida, de cualquier bien de consumo, etc. Analizar esta demanda en tiempo real y poder predecirla en el corto plazo es una necesidad de muchas empresas. Además, sabiendo que las preferencias y gustos de los usuarios van cambiando y evolucionando (bien de forma repentina o gradual), el tratamiento del cambio (concept drift) resulta primordial.
  • Social media: probablemente uno de los mayores productores de datos en tiempo real que existen. Y seguramente uno de los mayores interesados en lidiar con el concept drift.
  • Gemelo digital: muy de moda últimamente. El desarrollo de gemelos digitales está adquiriendo una relevancia especial en los últimos años por las ventajas que aporta a la hora de simular procesos, realizar testeos, capacitar personal, conocer en tiempo real el comportamiento del sistema simulado, etc. Una de las partes más relevantes de un gemelo digital es su capacidad para tratar y analizar datos en tiempo real.
  • Marketing y comercio digital: analizar las ventas y transacciones en tiempo real es capital para estas empresas, por supuesto es necesaria para detectar el fraude. Y conocer los cambios de gustos, preferencias, necesidades, etc. oro en estado puro.
  • Ciberseguridad: otro término de moda, pero no por ello menos relevante. La detección de amenazas, robos, suplantaciones, intrusos, etc. es el día a día de esta tecnología. Hacerlo en tiempo real … obligatorio. Ser capaces de detectar anomalías o concept drift … cuestión de superviviencia en un entorno con alta competencia.
  • Epidemias y desastres: la analítica de datos en tiempo real ofrece un plus en cuanto a control y prevención en estos casos.
  • Salud: el tratamiento de varias fuentes de datos en tiempo real son una clara línea de investigación en el tratamiento y seguimiento de pacientes.
  • Otros: monitorización y predicción de tráfico, optimización de procesos, IoT, educación online, crimen, finanzas, banca, sistemas de recomendación, industria del entretenimiento, redes móviles, …etc.

En resumen. Si no tratas adecuadamente lo que está pasando, no vas a saber con garantías lo que ha pasado y lo que va a pasar.

“Si parpadeas te lo vas a perder.”

Inteligencia artificial: un mundo bajo constantes críticas

Inteligencia artificial: un mundo bajo constantes críticas

5 marzo, 2020 Eneko Osaba Icedo

Compártelo:

¡Cuidado! ¡La inteligencia artificial está siendo atacada! Aunque, a decir verdad, seguramente no tengamos que estar alarmados por ello. El mundo de la IA ha estado constantemente sometido a la mirada crítica desde los albores de su existencia.

Desde que el denominado “padre de la inteligencia artificial”, Alan Turing, estableció las primeras bases de lo que hoy en día conocemos como IA, la comunidad científica a su alrededor creció prácticamente al mismo ritmo que la comunidad de escépticos. Continuar leyendo

Machine learning en procesos industriales multietapa: herramienta orientada a usuarios no expertos

Machine learning en procesos industriales multietapa: herramienta orientada a usuarios no expertos

Compártelo:

La medición de la calidad de una pieza final es la última operación de inspección en la línea de producción antes de que el producto llegue al cliente. Si las disconformidades no se detectan durante el proceso de fabricación, la inspección final debe asegurar su detección. Por todo ello, es importante tener el control de los parámetros de proceso y el conocimiento de cómo influyen en la calidad final de la pieza.

Un proceso de fabricación multietapa consiste en múltiples operaciones de fabricación: cada una de las operaciones introducen un error a la calidad final de la pieza, que se va acumulando y propagando con el progreso del proceso. Descubrir cómo repercute cada variable de proceso en el indicador de la calidad de la pieza final es de especial interés. Continuar leyendo

Gobierno de los datos ante los nuevos paradigmas de transformación digital: Big Data, Cloud e IoT

El gobierno de los datos ante los nuevos paradigmas de transformación digital: Big Data, Cloud e IoT

6 febrero, 2020 Gorka Zarate Martínez

Compártelo:

Los avances tecnológicos contribuyen a aumentar la competitividad en distintos sectores, obligándonos a buscar opciones de diferenciación. Hasta hace unos años, esas opciones pasaban por la calidad del producto y el proceso de producción.

Hoy en día, ese diferenciador es la información, y para ello necesitamos tener una información veraz, ordenada y con una correcta gestión. Desafortunadamente, quienes buscan conseguir este diferenciador sin sustentarlo con una estrategia adecuada terminan obteniendo resultados de poco valor al negocio. Por todo esto, cada día más se está hablando de gobernabilidad de los datos. Una operativa que nos ayudará en el proceso de una gestión correcta de los datos. Continuar leyendo

Las 5S también en el mundo digital

La metodología 5S en el mundo digital

5 diciembre, 2019 Gabriel Aznar Lapuente

Compártelo:

En plena convergencia entre el mundo industrial real y digital, elegir una correcta estrategia de gestión y aprovechamiento de los datos es un tema importante a tener en cuenta desde el primer momento en el que se plantea emprender un proceso de digitalización.

En una planta industrial, abordar este proceso es una tarea compleja en sí misma y puede hacerse todavía más ardua cuando se intenta afrontar de una forma unilateral. Contar con una visión heterogénea, o involucrar a un equipo multidisciplinar, es sin duda una de las claves para conseguir los mejores resultados. Continuar leyendo

inteligencia artificial, gemelo digital

Explicabilidad, transparencia, trazabilidad y equidad: no todo es precisión en el uso responsable de la inteligencia artificial

14 noviembre, 2019 Javier Del Ser Lorente

Compártelo:

En los últimos años es innegable la irrupción de Inteligencia Artificial en nuestras vidas, trascendiendo más allá del ámbito académico e investigador de sus orígenes. Somos testigos, cada vez con mayor frecuencia, de los éxitos y casos de uso de la provisión de inteligencia, capacidad de aprendizaje, razonamiento y autonomía en los sistemas y procesos existentes en sectores de actividad de muy diversa índole.

La progresiva mayor madurez digital de los ecosistemas industriales, y el desarrollo de nuevas tecnologías de ingesta y consumo de grandes cantidades de datos (Big Data), han permitido que los modelos de Inteligencia Artificial dispongan de un sustrato de información de una riqueza y diversidad sin precedentes. Continuar leyendo