Una época notable de progreso tecnológico a medida que desarrollamos el «cerebro» para la IA en el camino hacia el futuro de la inteligencia empresarial
Los bancos deben comenzar a construir sus estrategias de productos y tecnología para incluir criptomonedas
Chandana Gopal , líder del programa Future of Intelligence Agenda de IDC, contribuyó a este blog.
No puede haber inteligencia, orgánica o artificial, sin una estructura física para procesar y manipular la información. Lo que es cierto para las personas, también es muy cierto cuando se piensa en la inteligencia de una empresa en su conjunto. La inteligencia de la empresa futura dependerá en gran medida de su capacidad para aprovechar el poder de la inteligencia artificial (IA). Aunque está lejos de ser el único requisito de capacidad de la inteligencia empresarial, la IA es un habilitador clave de una inteligencia empresarial más amplia, que IDC define como la capacidad de una organización para sintetizar conocimientos a partir de datos, la capacidad de aprender y la capacidad de ofrecer conocimientos en todos los niveles de la empresa (a personas y máquinas) a escala. En la empresa moderna, estas capacidades están habilitadas por una combinación de cultura de datos, alfabetización de datos y tecnología.Al seleccionar la tecnología de infraestructura, las organizaciones deben considerar lo siguiente:
- La capacidad de sintetizar información requiere una infraestructura para la ingesta y preparación de datos.
- La capacidad de aprender exige infraestructura para el entrenamiento de modelos de IA y el monitoreo de implementación de modelos.
- Y la entrega de información a escala solo es posible con la infraestructura para la inferencia, es decir, la infraestructura que puede ejecutar aplicaciones de inteligencia artificial y aplicaciones habilitadas para inteligencia artificial en ubicaciones y ‘cosas’ centralizadas y descentralizadas, estacionarias y móviles.
Veamos un poco más en profundidad este último punto.
Brindar información a escala significa que una empresa tiene la capacidad de ejecutar de manera confiable aplicaciones de IA casi en tiempo real y aplicaciones habilitadas para IA que están sujetas a fluctuaciones de la demanda. En otras palabras: a veces, unos pocos miles de usuarios asignan tareas a la infraestructura que ejecuta estas aplicaciones y, a veces, son decenas de miles, o incluso cientos de miles de usuarios. Hay todo tipo de factores en juego para brindar información a escala.
- ¿Cuáles son los volúmenes de datos? ¿La aplicación toma una simple pieza de texto como entrada, un gran conjunto de datos o es la entrada una secuencia de video o audio? Cuantos más datos, más pesada es la tarea.
- ¿Qué tan grande y complejo es el algoritmo en el que se realiza la inferencia? Un algoritmo grande y complejo tendrá que hacer un levantamiento más pesado para terminar una tarea de inferencia que uno pequeño y delgado.
- ¿La aplicación está destinada a ofrecer una respuesta en tiempo real (en milisegundos), casi en tiempo real (en segundos) o en intervalos más largos (en minutos)?
- ¿Cuántos usuarios simultáneos (personas o máquinas / cosas) debe poder manejar la aplicación?
Y luego está lo que yo llamo el «efecto salto». A medida que las aplicaciones de inteligencia artificial se vuelven más interactivas y complejas en el valor de su servicio, necesitan, casi en tiempo real, ejecutar un flujo de trabajo secuencial en el que hacen inferencias sobre múltiples modelos de inteligencia artificial que se ejecutan en diferentes sistemas paralelizados en el centro de datos o en la nube. Básicamente, están «saltando» de un sistema a otro con la latencia más baja posible, asignando muchas tareas a los procesadores, coprocesadores, interconexiones y red de la infraestructura, todos los cuales se coordinaron para ejecutar la aplicación con procesamiento paralelo.
El hecho de que las empresas ahora estén pasando del entrenamiento del modelo de IA a la inferencia de IA a escala de producción está impulsando algunos cambios profundos en la informática:
- Lo que llamamos computación intensiva en rendimiento o PIC está creciendo rápidamente, tanto en las instalaciones como en el perímetro y en la nube.
- Los aceleradores de carga de trabajo, como GPU, FPGA y ASIC, se están convirtiendo en la norma.
- Existe una tendencia creciente hacia el uso de centros de datos y plataformas de borde especialmente diseñados, con sistemas que están especialmente diseñados y construidos para la implementación de IA.
- Otro tipo de coprocesador, el llamado acelerador de función sin carga, está ganando terreno. Este acelerador está diseñado para realizar una función específica (por ejemplo, aceleración de red o seguridad) para liberar la CPU y mejorar el rendimiento general. Sienta las bases para la infraestructura componible.
Las plataformas especialmente diseñadas para la IA se han convertido en un espectro de sistemas de IA, desde estaciones de trabajo hasta computadoras cuánticas, entre servidores individuales o instancias en la nube; servidores en clúster estrechamente conectados; y supercomputadoras. Y además de estas soluciones de infraestructura especialmente diseñadas, los OEM de servidores, los OEM de almacenamiento y los proveedores de servicios en la nube también están diseñando pilas más sofisticadas, con:
- Un plano de control en el que encontrará elementos como la orquestación, recursos informáticos como la aceleración o como servicio y el tipo de cálculo.
- Un plano de datos donde tiene la persistencia de datos y la gestión de datos con sus diversos componentes.
- El plano de la aplicación con todas las herramientas, como frameworks, optimizadores, librerías, etc.
Los proyectos de inteligencia artificial a menudo fallan y la infraestructura a veces es la culpable. O más bien, la falta de infraestructura adecuada y especialmente diseñada. La integración puede ser un gran problema; procesadores, coprocesadores, interconexiones, redes pueden ser cuellos de botella; puede haber problemas de latencia con el almacenamiento; o tal vez falten algunas capas críticas de esa pila que acabamos de discutir. No es demasiado difícil encontrar al menos una docena de puntos débiles relacionados con la infraestructura que pueden ralentizar u obstaculizar un entrenamiento de IA o un ejercicio de inferencia.
¿Cómo ha respondido la tecnología de infraestructura a estos desafíos? El enfoque que está ganando mucha tracción es la convergencia de tres cargas de trabajo (análisis de datos, IA y modelado y simulación) en un diseño de infraestructura, el enfoque PIC descrito anteriormente. PIC toma prestados muchos elementos de lo que generalmente se conoce como HPC, pero se centra más en el hecho de que, en el caso de la IA, es necesario dividir las cargas de trabajo en muchos trozos más pequeños y distribuirlos de forma paralela dentro de una procesador o coprocesador, dentro del servidor, entre servidores en forma de clústeres y entre clústeres en centros de datos o nubes. Algunos de los componentes de PIC son:
- Coprocesadores que ofrecen paralelización en el procesador con miles de núcleos
- Compute clústeres, clústeres de almacenamiento y Ethernet o Fibre Channel para conectar servidores y almacenamiento
- InfiniBand o ethernet para conectar clústeres e interconexiones rápidas para conectar procesadores y coprocesadores
- Y cosas como openMP, una API para programación paralela de memoria compartida; sistemas de archivos distribuidos; OpenACC, un estándar de programación para computación paralela; y una capa informática definida por software para ver todos los recursos informáticos como un solo elemento
PIC ha atraído muchas cargas de trabajo que se benefician de él. La investigación de IDC (planes de infraestructura de TI para la encuesta de 2021, IDC, diciembre de 2020) muestra que más del 40% de los encuestados usan PIC para el análisis de datos; El 38% lo utiliza para la detección de fraudes y ciberseguridad; El 33% usa PIC para entrenamiento de aprendizaje profundo y el 32% lo usa para inferencias de aprendizaje profundo. En resumen, PIC ya no se limita a cargas de trabajo tradicionales como el modelado y la simulación. Se ha democratizado y se está abriendo paso como un enfoque de infraestructura para algunas de las cargas de trabajo más críticas que permiten a las empresas evolucionar hacia una mayor inteligencia empresarial.
Y como resultado, el negocio de los procesadores de IA se ha vuelto muy concurrido, con muchos jugadores nuevos y establecidos. Estamos viendo que nuevas tecnologías más allá de lo digital ingresan a este espacio. Algunas empresas están construyendo procesadores de IA ópticos, por ejemplo, otras están trabajando en un procesador de IA analógico, que permitirá un procesamiento mucho más biológico similar al del cerebro. Sin embargo, otros están dando el salto a la computación cuántica como la próxima plataforma para la IA. En otras palabras, la informática de alto rendimiento verá algunas plataformas tecnológicas nuevas y dramáticas en los próximos, digamos, cinco años. Este es un momento notable de progreso tecnológico, ya que el mundo está desarrollando el «cerebro» real para la IA y marcando el comienzo del futuro de la inteligencia empresarial.
Traducción del artículo original de IDC
https://blogs.idc.com/2021/05/07/a-remarkable-time-of-technological-progress-as-we-develop-the-brain-for-ai-on-the-path-toward-the-future-of-enterprise-intelligence/
MAYO 7 DE 2021