Claves para abordar un proyecto de Inteligencia Artificial con éxito

Claves para abordar un proyecto de Inteligencia Artificial con éxito

Compártelo:

Según una encuesta realizada a más de 9.000 empresas llevada a cabo por la Comisión Europea, un 78 % de las europeas afirman saber qué es la Inteligencia Artificial (IA), el 15 % no lo tiene muy claro, y solo un 7 % admite no saber lo qué es.

Estas cifras están invertidas, y solo un porcentaje muy bajo entiende realmente las implicaciones de la IA. A pesar de que parezca la solución a todos nuestros problemas y que haya programas públicos de financiación apoyando la implementación de la inteligencia artificial en todos los sectores, y aunque parezca que estamos rodeados de empresas con productos y soluciones exitosas (Uber, Alexa, incluso el aspirador Roomba), la cruda realidad es que no es fácil encontrar aplicaciones en producción donde la IA está presente en las empresas industriales de nuestro entorno. Continuar leyendo

EDGE-CLOUD: el camino 5G a Tecnologías Operacionales (OT) servitizadas

EDGE-CLOUD: el camino 5G a Tecnologías Operacionales (OT) servitizadas

3 diciembre, 2020 Gabriel Aznar Lapuente

Compártelo:

Durante los últimos años el sector industrial ha venido absorbiendo una serie de conceptos provenientes del sector TIC, que han permitido construir nuevas arquitecturas de procesamiento y comunicación de altas prestaciones. La combinación de ambos sectores, junto con la aplicación de una amalgama de tecnologías habilitadoras ligadas al BigData y a la Inteligencia Artificial han dado soporte a las necesidades de gestión de datos que se plantean en aplicaciones incipientes del movimiento 4.0 en la industria.

Con el objeto de facilitar la comprensión conceptual de estas arquitecturas en el sector industrial se han acuñado dos términos que hoy en día ya se usan de manera extendida en la industria: edge computing y cloud computing. Se tiende a diferenciar entre estos dos conceptos dependiendo de la ubicación de la infraestructura donde se ejecuta el software, es decir, si ese software se ejecuta en un equipo que está físicamente en la planta se habla de edge computing, mientras que si lo hace fuera se habla de cloud computing. Continuar leyendo

Software Is Eating the World

Software Is Eating the World

26 noviembre, 2020 José Arias Marín

Compártelo:

Este es el título de un artículo publicado en el WSJ en agosto de 2011, en el que se entrevistaba a Marc Andreessen, cofundador de Netscape y de una las más reconocidas y exitosas firmas de venture capital en Silicon Valley, Andreessen-Horowitz.

En 2011 estábamos inmersos en otra crisis, la financiera e inmobiliaria y las empresas de software estaban adquiriendo una capitalización no acorde con la situación económica, había una sensación generalizada de que estuviéramos presenciando otra burbuja como con las empresas dot-com en los lejanos 90s con el cambio de milenio. Marc Andreesen explica que no era una burbuja sino una tendencia, no desde la perspectiva de la relevancia que ya había tomado el software en cualquier sector para ser más competitivo, sino un cambio disruptivo con nuevos modelos de negocio que estaban desplazando a las empresas tradicionales. Continuar leyendo

Inteligencia Artificial en el Desarrollo de Software ¿por qué no?

Inteligencia Artificial en el Desarrollo de Software ¿por qué no?

Compártelo:

La inteligencia artificial (IA) está revolucionando todos los sectores y procesos digitales con un impacto difícil de cuantificar. El software es un elemento clave en las innovaciones tecnológicas de nuestro día a día aportando ventajas competitivas en cada vez más industrias. Por tanto, ¿por qué la industria del software va a ser una excepción en la aplicación de la inteligencia artificial?

Actualmente hay un nuevo paradigma para aumentar la productividad del tradicional ciclo de vida de desarrollo de software y sistemas mediante técnicas de IA y tecnologías de aprendizaje automático. Según un estudio de IDC (International Data Corporation) la previsión de crecimiento del mercado global en el desarrollo de aplicaciones software crecerá de los 47 billones de dólares en 2018 a más de 61 billones en 2023. Este crecimiento se verá potenciado por un crecimiento en paralelo de la IA en el ciclo de vida de desarrollo de software. Continuar leyendo

inteligencia-artificial-tecnalia

La inteligencia de las sumas y restas

Compártelo:

En la actualidad la Inteligencia Artificial -con sus siglas IA, o AI en inglés- es como la levadura de cualquier receta panadera: si no la echas, lo que te sale no es pan, sino torta. Esas dos palabras son en la actualidad un reclamo comercial para casi cualquier producto tecnológico ya que transmiten una sensación de sofisticación y avance tecnológico futurista.

Esto se debe en parte a la noción soñadora que nos viene de la ficción, ya sea escrita o audiovisual. El otro componente tiene una vertiente irracional a caballo entre lo visceral y espiritual. La fusión de esos dos términos resulta en una fórmula incontestablemente atractiva: “inteligencia” evoca de alguna manera el deseo del ser humano por entenderse y encontrar su identidad, mientras que “artificial” empodera al humano al aludir directamente a su capacidad para crear. Continuar leyendo

face-app-tecnalia

FaceApp: app de consumo a partir de las redes de procesamiento de imagen deep learning

Compártelo:

Llevamos tiempo leyendo y oyendo el impacto que tienen en el procesamiento de imagen, la automatización y múltiples ámbitos de nuestras vidas la tecnología Deep learning y las redes neuronales convolucionales CNN.

En control de calidad, por ejemplo, han permitido abordar aplicaciones que antes no se abordaban por su complejidad o alta variabilidad, abriendo así un gran número de aplicaciones. Continuar leyendo

deep-learning-tecnalia

Why deep learning performs better than classical machine learning approaches

25 junio, 2020 Artzai Picón Ruiz

Compártelo:

During the latest years, deep learning techniques have demonstrated their capability on surpassing traditional machine learning methods on performing complex pattern recognition tasks. In this post we will try to explain the reasons for that.

Traditional machine learning paradigm is based on feature extraction and feature selection. These features are normally designed by experts with a good domain knowledge. In this sense, computer vision based machine learning systems made use of, for example, textural features such as Gabor filter banks, Local Binary Patterns (LBP) in order to extract textural information or histogram based features or color model transformations in order to describe the color on the image. Continuar leyendo

edge-computing

Analítica en Edge Computing

Compártelo:

Si fuese un investigador del siglo XIX, que ha realizado un avance científico, me surgiría una gran inquietud sobre compartir mi hallazgo. Por un lado, al compartir mis avances podré beneficiarme del conocimiento de la comunidad científica, su perspectiva global y contar con recursos que yo no dispongo, así como dividir la carga de trabajo.

Por otro lado, corro el riesgo de que mis conclusiones caigan en malas manos, o que la toma de decisiones sea más lenta al tener que esperar el feedback de expertos e incluso la aprobación final de la comunidad académica. Continuar leyendo

ciberseguridad-trabajo-tecnalia

Exilio digital: confinados en nuestras casas, hay que conciliar la vida y el trabajo

Compártelo:

Alto y claro: el teletrabajo está aquí, y este cambio “no es moco de pavo”. Este cambio ha aparecido aquí ya en dos ocasiones: consejos y costumbres. Y debemos tener en cuenta además un tercer aspecto, las herramientas y la seguridad. 

Estudiemos primero el fantasma del colapso de la red, el talón de Aquiles digital: España es el primer país europeo y el tercero del mundo en infraestructuras de fibra óptica. Esto nos da cierta tranquilidad en el País Vasco peninsular. La red de fibra óptica puede soportar, en principio, los picos de caudal que ya vivimos. Otra cosa es la red móvil, ya que se divide en “celdas” y cada celda está configurada para soportar un número determinado de usuarios concurrentes. El tráfico de redes se ha incrementado en un 40 % en las conexiones generadas por router doméstico y en un 50 % en el consumo de datos desde teléfonos móviles. Ahí está el problema: por favor, utiliza el móvil con sensatez. El fijo está ahí, ¡no lo olvides! Continuar leyendo

Teletrabajo: mitos y realidades forzosas en tiempos de una pandemia

Teletrabajo: mitos y realidades forzosas en tiempos de una pandemia

Compártelo:

El Covid-19 se ha revelado como una de las grandes fuerzas impulsoras de la transformación digital en los últimos años. El problema es que lo ha hecho de manera tan virulenta e inesperada, que ha obligado a muchas organizaciones y profesionales a hacer cosas para las que no estaban preparadas.

Quizás, una de las lecturas más positivas que esta crisis podría traer, es la necesidad de impulsar los medios telemáticos y las culturas digitales asociados a ellas, con el objetivo de replantearnos por completo, las culturas laborales basadas en el presencialismo, que todavía imperan en muchas organizaciones. Continuar leyendo