Cerca del 40% de las empresas incrementará su inversión en digitalización en 2023, según datos de MCPRO. Sectores como energía, salud, industria, retail, seguros o fintech apostarán por soluciones avanzadas de Big Data e Inteligencia Artificial para dar un nuevo paso hacia la máxima personalización de sus productos y servicios, avanzar en seguridad y privacidad de sus datos e incrementar su velocidad transaccional a gran escala, la detección del fraude, la automatización de sus procesos o el mantenimiento predictivo y los omnipresentes chatbots, como destaca el medio especializado en transformación digital.
Es una valoración que coincide con la visión de Keepler Data Tech, que lleva varios años destacando la relevancia de tres motores clave de la digitalización de las organizaciones: la automatización de procesos, la reducción del time-to-market y la diferenciación de productos.
El enfoque de Producto de Datos está ayudando a las compañías a centrarse en este tipo de soluciones, muy orientadas a resolver un reto concreto de negocio a partir de sus propios datos. Esto provoca un fuerte impacto en el negocio, de forma rápida, demostrable y fiable; por ejemplo, en ámbitos como la mejora de la experiencia del cliente, la productividad de los empleados, la creación de nuevos productos y la mejora de la competitividad.
Cinco retos a corto plazo
Para continuar avanzando en esta línea, las compañías deberán afrontar cinco retos a corto plazo, según los especialistas de Keepler:
- Mayor perspectiva data-centric en los proyectos de Inteligencia Artificial, donde la prioridad no es acumular datos, sino trabajar en la mejora de su calidad y consistencia. El etiquetado correcto de los datos, las estrategias data-augmentation, el versionado o los feature stores aceleran este proceso.
- Los proyectos de IA deberán tener presentes aspectos de privacidad y seguridad desde su definición. Además de asegurar la información, también es necesario determinar modelos más robustos y fiables, y aplicar técnicas como adversarial training, para prevenir respuestas ante posibles datos corruptos o escenarios poco frecuentes.
- Automatización de procesos cognitivos, incorporando servicios disponibles en distintas plataformas Cloud (voz, imagen, texto o decisión) o haciendo uso de modelos preentrenados “multimodales” en el estado del arte (Dall-E o CLIP, como ejemplos), o textuales (GPT 4), para resolver distintos tipos de tareas de carácter creativo, como realizar síntesis semántica, crear nuevo contenido textual y visual o responder preguntas de forma interactiva.
- Incrementar capacidades Big Data de los procesos, cada vez más exigentes. En este sentido, gana relevancia la computación cuántica, capaz de resolver problemas complejos, realizar simulaciones a gran escala o desafíos en procesos de optimización, entre otros.
- Implementar buenas prácticas en forma de regulación y compromiso para que la tecnología sea aplicada de la forma más transparente, ética y justa posible, lo que se traduce en datasets lo más representativos posible, chequeando sesgos, realizando análisis de sensibilidad o priorizando la interpretabilidad mediante modelos más sencillos orientados a objetivos.
Para poder ver el contenido completo tienes que estar suscrito. El contenido completo para suscriptores incluye informes y artículos en profundidad